您好,登錄后才能下訂單哦!
這期內(nèi)容當中小編將會給大家?guī)碛嘘P(guān)使用python爬蟲如何實現(xiàn)快速響應(yīng)服務(wù)器,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
requests之所以稱為“HTTP for human”,因為其封裝層次很高,其中一處體現(xiàn)就在:requests會自動處理服務(wù)器響應(yīng)的重定向。我在做搜狗微信公眾號抓取的時候,搜狗搜索列表頁面的公眾號文章地址,其實不是微信的地址而需要請求到搜狗到服務(wù)器做重定向,而requests的默認處理則是將整個過程全部搞定,對此可以這樣:
In [1]: r = requests.get('http://xlzd.me', allow_redirects=False)
allow_redirects參數(shù)為False則表示不會主動重定向。
另外,有時候?qū)Ψ骄W(wǎng)站的響應(yīng)時間太長了,我們希望在指定時間內(nèi)完事,或者直接停止這個請求,這時候的做法是:
In [1]: r = requests.get('http://xlzd.me', timeout=3)
timeout表示這次請求最長我最長只等待多少秒
拓展:
為requests套上一層代理的做法也非常簡單:
import requests proxies = { "http": "http://192.168.31.1:3128", "https": "http://10.10.1.10:1080", } requests.get("http://xlzd.me", proxies=proxies)
上述就是小編為大家分享的使用python爬蟲如何實現(xiàn)快速響應(yīng)服務(wù)器了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關(guān)知識,歡迎關(guān)注億速云行業(yè)資訊頻道。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。