您好,登錄后才能下訂單哦!
這篇文章將為大家詳細(xì)講解有關(guān)scrapy在python爬蟲使用的注意事項(xiàng)有哪些,小編覺得挺實(shí)用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
1.如果需要大批量分布式爬取,建議采用Redis數(shù)據(jù)庫存儲,可安裝scrapy-redis,使用redis數(shù)據(jù)庫來替換scrapy原本使用的隊(duì)列結(jié)構(gòu)(deque),并配合其它數(shù)據(jù)庫存儲,例如MySQL或者MongoDB,爬取效率將會極大提高。并且其自帶的dupefilter.py負(fù)責(zé)執(zhí)行requst的去重,使用redis的set數(shù)據(jù)結(jié)構(gòu),通過settings文件正確設(shè)置后,即便停止scrapy爬蟲,當(dāng)下次重新開始后也能自動去重。原因就是在redis已經(jīng)存儲了request的信息。
2.當(dāng)涉及到代理IP,Headers頭中間請求信息處理的時(shí)候,可以通過中間件Middleware來實(shí)現(xiàn)。Spider中間件是介入到Scrapy的spider處理機(jī)制的鉤子框架,可以添加代碼來處理發(fā)送給 Spiders的response及spider產(chǎn)生的item和request。
3.合理設(shè)置settings文件,需要熟練掌握settings的各種設(shè)置。
4.可以重新定義def start_requests(self)函數(shù)來加載cookie信息,form信息的提交用scrapy.FormRequest以及scrapy.FormRequest.from_response這兩個函數(shù),scrapy.FormRequest.from_response能實(shí)現(xiàn)自動提交form數(shù)據(jù)。
5.采用Scrapy+phantomJS。 downloadMiddleware 對從 scheduler 送來的 Request 對象在請求之前進(jìn)行預(yù)處理,可以實(shí)現(xiàn)添加 headers, user_agent,還有 cookie 等功能 。但也可以通過中間件直接返回 HtmlResponse 對象,略過請求的模塊,直接扔給 response 的回調(diào)函數(shù)處理。
class CustomMetaMiddleware(object): def process_request(self,request,spider): dcap = dict(DesiredCapabilities.PHANTOMJS) dcap["phantomjs.page.settings.loadImages"] = False dcap["phantomjs.page.settings.resourceTimeout"] = 10 driver = webdriver.PhantomJS("D:xx\xx",desired_capabilities=dcap) driver.get(request.url) body = driver.page_source.encode('utf8') url = driver.current_url driver.quit() return HtmlResponse(request.url,body=body)
關(guān)于scrapy在python爬蟲使用的注意事項(xiàng)有哪些就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。