本文目錄一覽:
怎么查排名前五的網(wǎng)站核心關(guān)鍵詞
方法如下:
1.手動查詢。
我們可以在百度上搜索我們想要查詢的關(guān)鍵詞,然后一頁一頁的手動查詢,看看網(wǎng)站排名在第幾頁,這種方法比較準確,但是消耗的時間會比較長。
2.利用工具查詢排名。
目前第三方工具中愛站工具和站長工具還要5118都可以查詢到網(wǎng)站關(guān)鍵詞的排名。
3.利用腳本查詢。
如果有代碼背景的站長可以利用python去寫腳本查詢關(guān)鍵詞的排名,相對來說查詢的效率比較好。
python爬蟲抓取電影top20排名怎么寫
初步接觸python爬蟲(其實python也是才起步),發(fā)現(xiàn)一段代碼研究了一下,覺得還比較有用處,Mark下。?
上代碼:
#!/usr/bin/python#coding=utf-8#Author: Andrew_liu#mender:cy"""
一個簡單的Python爬蟲, 用于抓取豆瓣電影Top前100的電影的名稱
Anthor: Andrew_liu
mender:cy
Version: 0.0.2
Date: 2017-03-02
Language: Python2.7.12
Editor: JetBrains PyCharm 4.5.4
"""import stringimport reimport urllib2import timeclass DouBanSpider(object) :
"""類的簡要說明
主要用于抓取豆瓣Top100的電影名稱
Attributes:
page: 用于表示當前所處的抓取頁面
cur_url: 用于表示當前爭取抓取頁面的url
datas: 存儲處理好的抓取到的電影名稱
_top_num: 用于記錄當前的top號碼
"""
def __init__(self):
self.page = 1
self.cur_url = "h0?start={page}filter=type="
self.datas = []
self._top_num = 1
print u"豆瓣電影爬蟲準備就緒, 準備爬取數(shù)據(jù)..."
def get_page(self, cur_page):
"""
根據(jù)當前頁碼爬取網(wǎng)頁HTML
Args:
cur_page: 表示當前所抓取的網(wǎng)站頁碼
Returns:
返回抓取到整個頁面的HTML(unicode編碼)
Raises:
URLError:url引發(fā)的異常
"""
url = self.cur_url ? ? ? ?try:
my_page = urllib2.urlopen(url.format(page=(cur_page - 1) * 25)).read().decode("utf-8") ? ? ? ?except urllib2.URLError, e: ? ? ? ? ? ?if hasattr(e, "code"): ? ? ? ? ? ? ? ?print "The server couldn't fulfill the request."
print "Error code: %s" % e.code ? ? ? ? ? ?elif hasattr(e, "reason"): ? ? ? ? ? ? ? ?print "We failed to reach a server. Please check your url and read the Reason"
print "Reason: %s" % e.reason ? ? ? ?return my_page ? ?def find_title(self, my_page):
"""
通過返回的整個網(wǎng)頁HTML, 正則匹配前100的電影名稱
Args:
my_page: 傳入頁面的HTML文本用于正則匹配
"""
temp_data = []
movie_items = re.findall(r'span.*?class="title"(.*?)/span', my_page, re.S) ? ? ? ?for index, item in enumerate(movie_items): ? ? ? ? ? ?if item.find("nbsp") == -1:
temp_data.append("Top" + str(self._top_num) + " " + item)
self._top_num += 1
self.datas.extend(temp_data) ? ?def start_spider(self):
"""
爬蟲入口, 并控制爬蟲抓取頁面的范圍
"""
while self.page = 4:
my_page = self.get_page(self.page)
self.find_title(my_page)
self.page += 1def main():
print u"""
###############################
一個簡單的豆瓣電影前100爬蟲
Author: Andrew_liu
mender: cy
Version: 0.0.2
Date: 2017-03-02
###############################
"""
my_spider = DouBanSpider()
my_spider.start_spider()
fobj = open('/data/moxiaokai/HelloWorld/cyTest/blogcode/top_move.txt', 'w+') ? ?for item in my_spider.datas: ? ? ? ?print item
fobj.write(item.encode("utf-8")+'\n')
time.sleep(0.1) ? ?print u"豆瓣爬蟲爬取完成"if __name__ == '__main__':
main()123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102
運行結(jié)果:?
?
用python爬取關(guān)鍵詞并解釋
Copyright ? 1999-2020, CSDN.NET, All Rights Reserved
python
打開APP
小羊努力搞代碼
關(guān)注
學習日志:Python 實現(xiàn)網(wǎng)絡(luò)爬蟲——提取關(guān)鍵字 原創(chuàng)
2022-06-19 13:02:38
小羊努力搞代碼
碼齡174天
關(guān)注
編寫一段Python代碼,向百度提交查詢關(guān)鍵詞“桃花源記”,抓取百度的查詢結(jié)果,要求有文字、鏈接,可以在瀏覽器中打開抓取的鏈接,或者調(diào)用瀏覽器打開抓取的鏈接。
紅框內(nèi)是根據(jù)網(wǎng)站信息需要更改的內(nèi)容。57031baa3a394395be479ad89f1ff15e.png
附上完整代碼:
import json
import requests
from lxml import etree
headers = {
"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) "
"Chrome/88.0.4324.104 Safari/537.36"
}
response = requests.get('桃花源記lm=0', headers=headers)
r = response.text
html = etree.HTML(r, etree.HTMLParser())
r1 = html.xpath('//h3')
r2 = html.xpath('//*[@class="content-right_8Zs40"]')
r3 = html.xpath('//*[@class="c-row source_1Vdff OP_LOG_LINK c-gap-top-xsmall"]/a/@href')
for i in range(4):
r11 = r1[i].xpath('string(.)')
r22 = r2[i].xpath('string(.)')
r33 = r3[i]
with open('桃花源記.txt', 'a', encoding='utf-8') as c:
c.write(json.dumps(r11,ensure_ascii=False) + '\n')
c.write(json.dumps(r22, ensure_ascii=False) + '\n')
c.write(json.dumps(r33, ensure_ascii=False) + '\n')
print(r11, end='\n')
print('------------------------')
print(r22, end='\n')
print(r33)
掃描二維碼推送至手機訪問。
版權(quán)聲明:本文由信途科技轉(zhuǎn)載于網(wǎng)絡(luò),如有侵權(quán)聯(lián)系站長刪除。
轉(zhuǎn)載請注明出處http://macbookprostickers.com/xintu/116444.html