您好,登錄后才能下訂單哦!
這篇文章主要為大家展示了“爬蟲可以用的http代理ip有哪些”,內(nèi)容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學習一下“爬蟲可以用的http代理ip有哪些”這篇文章吧。
一、每個過程界面隨機取得IP列表反復(fù)使用,無效后調(diào)用API獲得。
大致邏輯如下:
1、各過程,從接口隨機回收ip的一部分,反復(fù)嘗試ip目錄來捕捉數(shù)據(jù)
2、如果訪問成功,繼續(xù)抓住下一個。
3、失敗后,從界面取IP,繼續(xù)嘗試。
方案缺點:所有IP都有期限,提取100個,使用第20個時,其馀的可能不能使用。設(shè)置HTTP請求時連接時間超過3秒,讀取時間超過5秒,可能需要3~8秒,在這3~8秒內(nèi)可能抓住數(shù)百次。
二、首先抽取大量的IP,導(dǎo)入本地數(shù)據(jù)庫,然后從數(shù)據(jù)庫中抽取IP。
通用的邏輯如下:
1、在數(shù)據(jù)庫中創(chuàng)建一個表格,寫出每分鐘需要多少次API的導(dǎo)入腳本(請咨詢代理IP服務(wù)提供者的建議),并將IP清單導(dǎo)入數(shù)據(jù)庫。
2、將導(dǎo)入時間、IP、端口、過期時間、IP可用狀態(tài)等字段記錄到數(shù)據(jù)庫中;
3、編寫一個抓取腳本,該抓取腳本從數(shù)據(jù)庫中讀取可用IP,每個過程都從數(shù)據(jù)庫中獲取一個IP用法。
4、進行抓取、判斷結(jié)果、處理cookie等,只要出現(xiàn)驗證碼或錯誤,就放棄IP,重新更換IP。
以上是“爬蟲可以用的http代理ip有哪些”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學習更多知識,歡迎關(guān)注億速云行業(yè)資訊頻道!
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。