溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Python應(yīng)用庫大全總結(jié)

發(fā)布時間:2020-10-13 21:55:48 來源:腳本之家 閱讀:153 作者:laozhang 欄目:開發(fā)技術(shù)

學(xué)Python,想必大家都是從爬蟲開始的吧。畢竟網(wǎng)上類似的資源很豐富,開源項(xiàng)目也非常多。

Python學(xué)習(xí)網(wǎng)絡(luò)爬蟲主要分3個大的版塊:抓取,分析,存儲

當(dāng)我們在瀏覽器中輸入一個url后回車,后臺會發(fā)生什么?

簡單來說這段過程發(fā)生了以下四個步驟:

  1. 查找域名對應(yīng)的IP地址。
  2. 向IP對應(yīng)的服務(wù)器發(fā)送請求。
  3. 服務(wù)器響應(yīng)請求,發(fā)回網(wǎng)頁內(nèi)容。
  4. 瀏覽器解析網(wǎng)頁內(nèi)容。

網(wǎng)絡(luò)爬蟲要做的,簡單來說,就是實(shí)現(xiàn)瀏覽器的功能。通過指定url,直接返回給用戶所需要的數(shù)據(jù),而不需要一步步人工去操縱瀏覽器獲取。

抓取這一步,你要明確要得到的內(nèi)容是什么?是HTML源碼,還是Json格式的字符串等。將得到內(nèi)容逐一解析就好。具體的如何解析,以及如何處理數(shù)據(jù),文章后面提供了非常詳細(xì)的且功能強(qiáng)大的開源庫列表。

當(dāng)然了,爬去別人家的數(shù)據(jù),很有可能會遭遇反爬蟲機(jī)制的,怎么辦?使用代理。

適用情況:限制IP地址情況,也可解決由于“頻繁點(diǎn)擊”而需要輸入驗(yàn)證碼登陸的情況。

這種情況最好的辦法就是維護(hù)一個代理IP池,網(wǎng)上有很多免費(fèi)的代理IP,良莠不齊,可以通過篩選找到能用的。

對于“頻繁點(diǎn)擊”的情況,我們還可以通過限制爬蟲訪問網(wǎng)站的頻率來避免被網(wǎng)站禁掉。

有些網(wǎng)站會檢查你是不是真的瀏覽器訪問,還是機(jī)器自動訪問的。這種情況,加上User-Agent,表明你是瀏覽器訪問即可。有時還會檢查是否帶Referer信息還會檢查你的Referer是否合法,一般再加上Referer。也就是偽裝成瀏覽器,或者反“反盜鏈”。

對于網(wǎng)站有驗(yàn)證碼的情況,我們有三種辦法:

使用代理,更新IP。

使用cookie登陸。

驗(yàn)證碼識別。

接下來我們重點(diǎn)聊聊驗(yàn)證碼識別。這個python q-u-n 227--435---450就是小編期待大家一起交流討論,各種入門資料啊,進(jìn)階資料啊,框架資料啊 免費(fèi)領(lǐng)取

可以利用開源的Tesseract-OCR系統(tǒng)進(jìn)行驗(yàn)證碼圖片的下載及識別,將識別的字符傳到爬蟲系統(tǒng)進(jìn)行模擬登陸。當(dāng)然也可以將驗(yàn)證碼圖片上傳到打碼平臺上進(jìn)行識別。如果不成功,可以再次更新驗(yàn)證碼識別,直到成功為止。

好了,爬蟲就簡單聊到這兒,有興趣的朋友可以去網(wǎng)上搜索更詳細(xì)的內(nèi)容。

文末附上本文重點(diǎn):實(shí)用Python庫大全。

網(wǎng)絡(luò)

urllib -網(wǎng)絡(luò)庫(stdlib)。

requests -網(wǎng)絡(luò)庫。

grab – 網(wǎng)絡(luò)庫(基于pycurl)。

pycurl – 網(wǎng)絡(luò)庫(綁定libcurl)。

urllib3 – Python HTTP庫,安全連接池、支持文件post、可用性高。

httplib2 – 網(wǎng)絡(luò)庫。

RoboBrowser – 一個簡單的、極具Python風(fēng)格的Python庫,無需獨(dú)立的瀏覽器即可瀏覽網(wǎng)頁。

MechanicalSoup -一個與網(wǎng)站自動交互Python庫。

mechanize -有狀態(tài)、可編程的Web瀏覽庫。

socket – 底層網(wǎng)絡(luò)接口(stdlib)。

網(wǎng)絡(luò)爬蟲框架

grab – 網(wǎng)絡(luò)爬蟲框架(基于pycurl/multicur)。

scrapy – 網(wǎng)絡(luò)爬蟲框架。

pyspider – 一個強(qiáng)大的爬蟲系統(tǒng)。

cola – 一個分布式爬蟲框架。

HTML/XML解析器

lxml – C語言編寫高效HTML/ XML處理庫。支持XPath。

cssselect – 解析DOM樹和CSS選擇器。

pyquery – 解析DOM樹和jQuery選擇器。

BeautifulSoup – 低效HTML/ XML處理庫,純Python實(shí)現(xiàn)。

html5lib – 根據(jù)WHATWG規(guī)范生成HTML/ XML文檔的DOM。該規(guī)范被用在現(xiàn)在所有的瀏覽器上。

feedparser – 解析RSS/ATOM feeds。

MarkupSafe – 為XML/HTML/XHTML提供了安全轉(zhuǎn)義的字符串。

文本處理

用于解析和操作簡單文本的庫。

difflib – (Python標(biāo)準(zhǔn)庫)幫助進(jìn)行差異化比較。

Levenshtein – 快速計算Levenshtein距離和字符串相似度。

fuzzywuzzy – 模糊字符串匹配。

esmre – 正則表達(dá)式加速器。

ftfy – 自動整理Unicode文本,減少碎片化。

自然語言處理

處理人類語言問題的庫。

NLTK -編寫Python程序來處理人類語言數(shù)據(jù)的最好平臺。

Pattern – Python的網(wǎng)絡(luò)挖掘模塊。他有自然語言處理工具,機(jī)器學(xué)習(xí)以及其它。

TextBlob – 為深入自然語言處理任務(wù)提供了一致的API。是基于NLTK以及Pattern的巨人之肩上發(fā)展的。

jieba – 中文分詞工具。

SnowNLP – 中文文本處理庫。

loso – 另一個中文分詞庫。

瀏覽器自動化與仿真

selenium – 自動化真正的瀏覽器(Chrome瀏覽器,火狐瀏覽器,Opera瀏覽器,IE瀏覽器)。

Ghost.py – 對PyQt的webkit的封裝(需要PyQT)。

Spynner – 對PyQt的webkit的封裝(需要PyQT)。

Splinter – 通用API瀏覽器模擬器(selenium web驅(qū)動,Django客戶端,Zope)。

多重處理

threading – Python標(biāo)準(zhǔn)庫的線程運(yùn)行。對于I/O密集型任務(wù)很有效。對于CPU綁定的任務(wù)沒用,因?yàn)閜ython GIL。

multiprocessing – 標(biāo)準(zhǔn)的Python庫運(yùn)行多進(jìn)程。

celery – 基于分布式消息傳遞的異步任務(wù)隊(duì)列/作業(yè)隊(duì)列。

concurrent-futures – concurrent-futures 模塊為調(diào)用異步執(zhí)行提供了一個高層次的接口。

異步

異步網(wǎng)絡(luò)編程庫

asyncio – (在Python 3.4 +版本以上的 Python標(biāo)準(zhǔn)庫)異步I/O,時間循環(huán),協(xié)同程序和任務(wù)。

Twisted – 基于事件驅(qū)動的網(wǎng)絡(luò)引擎框架。

Tornado – 一個網(wǎng)絡(luò)框架和異步網(wǎng)絡(luò)庫。

pulsar – Python事件驅(qū)動的并發(fā)框架。

diesel – Python的基于綠色事件的I/O框架。

gevent – 一個使用greenlet 的基于協(xié)程的Python網(wǎng)絡(luò)庫。

eventlet – 有WSGI支持的異步框架。

Tomorrow – 異步代碼的奇妙的修飾語法。

隊(duì)列

celery – 基于分布式消息傳遞的異步任務(wù)隊(duì)列/作業(yè)隊(duì)列。

huey – 小型多線程任務(wù)隊(duì)列。

mrq – Mr. Queue – 使用redis & Gevent 的Python分布式工作任務(wù)隊(duì)列。

RQ – 基于Redis的輕量級任務(wù)隊(duì)列管理器。

simpleq – 一個簡單的,可無限擴(kuò)展,基于Amazon SQS的隊(duì)列。

python-gearman – Gearman的Python API。

云計算

picloud – 云端執(zhí)行Python代碼。

dominoup.com – 云端執(zhí)行R,Python和matlab代碼

網(wǎng)頁內(nèi)容提取

提取網(wǎng)頁內(nèi)容的庫。

HTML頁面的文本和元數(shù)據(jù)

newspaper – 用Python進(jìn)行新聞提取、文章提取和內(nèi)容策展。

html2text – 將HTML轉(zhuǎn)為Markdown格式文本。

python-goose – HTML內(nèi)容/文章提取器。

lassie – 人性化的網(wǎng)頁內(nèi)容檢索工具

WebSocket

用于WebSocket的庫。

Crossbar – 開源的應(yīng)用消息傳遞路由器(Python實(shí)現(xiàn)的用于Autobahn的WebSocket和WAMP)。

AutobahnPython – 提供了WebSocket協(xié)議和WAMP協(xié)議的Python實(shí)現(xiàn)并且開源。

WebSocket-for-Python – Python 2和3以及PyPy的WebSocket客戶端和服務(wù)器庫。

DNS解析

dnsyo – 在全球超過1500個的DNS服務(wù)器上檢查你的DNS。

pycares – c-ares的接口。c-ares是進(jìn)行DNS請求和異步名稱決議的C語言庫。

計算機(jī)視覺

OpenCV – 開源計算機(jī)視覺庫。

SimpleCV – 用于照相機(jī)、圖像處理、特征提取、格式轉(zhuǎn)換的簡介,可讀性強(qiáng)的接口(基于OpenCV)。

mahotas – 快速計算機(jī)圖像處理算法(完全使用 C++ 實(shí)現(xiàn)),完全基于 numpy 的數(shù)組作為它的數(shù)據(jù)類型。

代理服務(wù)器

shadowsocks – 一個快速隧道代理,可幫你穿透防火墻(支持TCP和UDP,TFO,多用戶和平滑重啟,目的IP黑名單)。

tproxy – tproxy是一個簡單的TCP路由代理(第7層),基于Gevent,用Python進(jìn)行配置。

另:Python有很多Web開發(fā)框架,大而全的開發(fā)框架非Django莫屬,用得也最廣泛.有很多公司有使用Django框架,如某狐,某訊等。以簡潔著稱的web.py,flask都非常易于上手,以異步高性能著稱的tornado,源代碼寫得美如畫,知乎,Quora都在用。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI