您好,登錄后才能下訂單哦!
一文帶你讀懂python中的Scrapy框架?很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。
一、Scrapy框架簡介
Scrapy是用純Python實現一個為了爬取網站數據,提取結構性數據而編寫的應用框架,用途非常廣泛。利用框架,用戶只需要定制開發(fā)幾個模塊就可以輕松的實現一個爬蟲,用來抓取網頁內容以及各種圖片,非常的方便。它使用Twisted這個異步網絡庫來處理網絡通訊,架構清晰,并且包含了各種中間件接口,可以靈活的完成各種需求。Scrapy是Python世界里面最強大的爬蟲框架,它比BeautifulSoup更加完善,BeautifulSoup可以說是輪子,而Scrapy則是車子,不需要關注太多的細節(jié)。
二、Scrapy原理
1.ScrapyEngine(引擎):負責Spider、ItemPipeline、Downloader、Scheduler中間的通訊,信號數據傳遞等。
2.Scheduler(調度器):它負責接受引擎發(fā)送過來的request請求,并按照定的方式進行整理排列,入隊,當引擎需要時,交還給引擎。
3.Downloader(下載器):負責下載ScrapyEngine發(fā)送的所有requests請求,并將其獲取到的responses交還給ScrapyEngine,由引擎交給Spider來處理。
4.Spider(爬蟲):它負責處理所有Responses,從中分析提取數據,獲取ltem字段需要的數據,并將需要跟進的URL提交給引擎,再次進入Scheduler。
5.ItemPipeline(管道):它負責處理Spider中獲取到的ltem,并進行進行后期處理,詳細分析,過濾,存儲等的地方。
6.DownloaderMiddlewares(下載中間件):它是一個可以自定義擴展下載功能的組件。
7.SpiderMiddlewares(Spider中間件):它是一個可以自定擴展和操作引擎和Spider中間通信的功能組件比如進入Spider的Responses,和從Spider出去的Requests。
三、創(chuàng)建Scrapy項目
新建項目命令:
scrapy startproject xxx
在開始爬取之前,必須創(chuàng)建一個新的Scrapy項目。進入自定義的項目目錄中,運行下列命令:
scrapy startproject xxx
其中,xxx為項目名稱,可以看到將會創(chuàng)建一個xxx文件夾,目錄結構大致如下:
四、創(chuàng)建爬蟲
創(chuàng)建爬蟲的命令:
scrapy genspider 爬蟲名字網站域名
應當注意的是爬蟲名字不要和項目名字一-樣,網站域名是允許爬蟲采集的域名如,baidu. com,zhihu. com。創(chuàng)建后python文件如下:
五、總結
Scrapy框架相當于一輛造好的車子,只要我們會開,我們就可以利用這輛車子去到任意想去的地方。通常我們使用的request的方法就相當于在出發(fā)前再去造一輛車子,這是相當麻煩的。學好Scrapy,對于網上80%的網站我們都可以進行爬取。
看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業(yè)資訊頻道,感謝您對億速云的支持。
免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。