您好,登錄后才能下訂單哦!
本篇內(nèi)容介紹了“怎么使用Python的Scrapy爬蟲框架”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠?qū)W有所成!
Scrapy是Python開發(fā)的一個非常流行的網(wǎng)絡爬蟲框架,可以用來抓取Web站點并從頁面中提取結(jié)構(gòu)化的數(shù)據(jù),被廣泛的用于數(shù)據(jù)挖掘、數(shù)據(jù)監(jiān)測和自動化測試等領域。下圖展示了Scrapy的基本架構(gòu),其中包含了主要組件和系統(tǒng)的數(shù)據(jù)處理流程(圖中帶數(shù)字的紅色箭頭)。
組件
Scrapy引擎(Engine):Scrapy引擎是用來控制整個系統(tǒng)的數(shù)據(jù)處理流程。
調(diào)度器(Scheduler):調(diào)度器從Scrapy引擎接受請求并排序列入隊列,并在Scrapy引擎發(fā)出請求后返還給它們。
下載器(Downloader):下載器的主要職責是抓取網(wǎng)頁并將網(wǎng)頁內(nèi)容返還給蜘蛛(Spiders)。
蜘蛛(Spiders):蜘蛛是有Scrapy用戶自定義的用來解析網(wǎng)頁并抓取特定URL返回的內(nèi)容的類,每個蜘蛛都能處理一個域名或一組域名,簡單的說就是用來定義特定網(wǎng)站的抓取和解析規(guī)則。
條目管道(Item Pipeline):條目管道的主要責任是負責處理有蜘蛛從網(wǎng)頁中抽取的數(shù)據(jù)條目,它的主要任務是清理、驗證和存儲數(shù)據(jù)。當頁面被蜘蛛解析后,將被發(fā)送到條目管道,并經(jīng)過幾個特定的次序處理數(shù)據(jù)。每個條目管道組件都是一個Python類,它們獲取了數(shù)據(jù)條目并執(zhí)行對數(shù)據(jù)條目進行處理的方法,同時還需要確定是否需要在條目管道中繼續(xù)執(zhí)行下一步或是直接丟棄掉不處理。條目管道通常執(zhí)行的任務有:清理HTML數(shù)據(jù)、驗證解析到的數(shù)據(jù)(檢查條目是否包含必要的字段)、檢查是不是重復數(shù)據(jù)(如果重復就丟棄)、將解析到的數(shù)據(jù)存儲到數(shù)據(jù)庫(關系型數(shù)據(jù)庫或NoSQL數(shù)據(jù)庫)中。
中間件(Middlewares):中間件是介于Scrapy引擎和其他組件之間的一個鉤子框架,主要是為了提供自定義的代碼來拓展Scrapy的功能,包括下載器中間件和蜘蛛中間件。
數(shù)據(jù)處理流程
Scrapy的整個數(shù)據(jù)處理流程由Scrapy引擎進行控制,通常的運轉(zhuǎn)流程包括以下的步驟:
引擎詢問蜘蛛需要處理哪個網(wǎng)站,并讓蜘蛛將第一個需要處理的URL交給它。
引擎讓調(diào)度器將需要處理的URL放在隊列中。
引擎從調(diào)度那獲取接下來進行爬取的頁面。
調(diào)度將下一個爬取的URL返回給引擎,引擎將它通過下載中間件發(fā)送到下載器。
當網(wǎng)頁被下載器下載完成以后,響應內(nèi)容通過下載中間件被發(fā)送到引擎;如果下載失敗了,引擎會通知調(diào)度器記錄這個URL,待會再重新下載。
引擎收到下載器的響應并將它通過蜘蛛中間件發(fā)送到蜘蛛進行處理。
蜘蛛處理響應并返回爬取到的數(shù)據(jù)條目,此外還要將需要跟進的新的URL發(fā)送給引擎。
引擎將抓取到的數(shù)據(jù)條目送入條目管道,把新的URL發(fā)送給調(diào)度器放入隊列中。
上述操作中的2-8步會一直重復直到調(diào)度器中沒有需要請求的URL,爬蟲停止工作。
安裝和使用Scrapy
可以先創(chuàng)建虛擬環(huán)境并在虛擬環(huán)境下使用pip安裝scrapy。
項目的目錄結(jié)構(gòu)如下圖所示。
(venv) $ tree . |____ scrapy.cfg |____ douban | |____ spiders | | |____ __init__.py | | |____ __pycache__ | |____ __init__.py | |____ __pycache__ | |____ middlewares.py | |____ settings.py | |____ items.py | |____ pipelines.py
【說明】:Windows系統(tǒng)的命令行提示符下有tree命令,但是Linux和MacOS的終端是沒有tree命令的,可以用下面給出的命令來定義tree命令,其實是對find命令進行了定制并別名為tree。
alias tree="find . -print | sed -e 's;[^/]*/;|____;g;s;____|; |;g'"
Linux系統(tǒng)也可以通過yum或其他的包管理工具來安裝tree。
yum install tree
根據(jù)剛才描述的數(shù)據(jù)處理流程,基本上需要我們做的有以下幾件事情:
1.在items.py文件中定義字段,這些字段用來保存數(shù)據(jù),方便后續(xù)的操作。
# -*- coding: utf-8 -*- # Define here the models for your scraped items # # See documentation in: # https://doc.scrapy.org/en/latest/topics/items.html import scrapy class DoubanItem(scrapy.Item): name = scrapy.Field() year = scrapy.Field() score = scrapy.Field() director = scrapy.Field() classification = scrapy.Field() actor = scrapy.Field()
2.在spiders文件夾中編寫自己的爬蟲。
(venv) $ scrapy genspider movie movie.douban.com --template=crawl # -*- coding: utf-8 -*- import scrapy from scrapy.selector import Selector from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule from douban.items import DoubanItem class MovieSpider(CrawlSpider): name = 'movie' allowed_domains = ['movie.douban.com'] start_urls = ['https://movie.douban.com/top250'] rules = ( Rule(LinkExtractor(allow=(r'https://movie.douban.com/top250\?start=\d+.*'))), Rule(LinkExtractor(allow=(r'https://movie.douban.com/subject/\d+')), callback='parse_item'), ) def parse_item(self, response): sel = Selector(response) item = DoubanItem() item['name']=sel.xpath('//*[@id="content"]/h2/span[1]/text()').extract() item['year']=sel.xpath('//*[@id="content"]/h2/span[2]/text()').re(r'\((\d+)\)') item['score']=sel.xpath('//*[@id="interest_sectl"]/div/p[1]/strong/text()').extract() item['director']=sel.xpath('//*[@id="info"]/span[1]/a/text()').extract() item['classification']= sel.xpath('//span[@property="v:genre"]/text()').extract() item['actor']= sel.xpath('//*[@id="info"]/span[3]/a[1]/text()').extract() return item
說明:上面我們通過Scrapy提供的爬蟲模板創(chuàng)建了Spider,其中的rules中的LinkExtractor對象會自動完成對新的鏈接的解析,該對象中有一個名為extract_link的回調(diào)方法。Scrapy支持用XPath語法和CSS選擇器進行數(shù)據(jù)解析,對應的方法分別是xpath和css,上面我們使用了XPath語法對頁面進行解析,如果不熟悉XPath語法可以看看后面的補充說明。
到這里,我們已經(jīng)可以通過下面的命令讓爬蟲運轉(zhuǎn)起來。
(venv)$ scrapy crawl movie
可以在控制臺看到爬取到的數(shù)據(jù),如果想將這些數(shù)據(jù)保存到文件中,可以通過-o參數(shù)來指定文件名,Scrapy支持我們將爬取到的數(shù)據(jù)導出成JSON、CSV、XML、pickle、marshal等格式。
(venv)$ scrapy crawl moive -o result.json
3.在pipelines.py中完成對數(shù)據(jù)進行持久化的操作。
# -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html import pymongo from scrapy.exceptions import DropItem from scrapy.conf import settings from scrapy import log class DoubanPipeline(object): def __init__(self): connection = pymongo.MongoClient(settings['MONGODB_SERVER'], settings['MONGODB_PORT']) db = connection[settings['MONGODB_DB']] self.collection = db[settings['MONGODB_COLLECTION']] def process_item(self, item, spider): #Remove invalid data valid = True for data in item: if not data: valid = False raise DropItem("Missing %s of blogpost from %s" %(data, item['url'])) if valid: #Insert data into database new_moive=[{ "name":item['name'][0], "year":item['year'][0], "score":item['score'], "director":item['director'], "classification":item['classification'], "actor":item['actor'] }] self.collection.insert(new_moive) log.msg("Item wrote to MongoDB database %s/%s" % (settings['MONGODB_DB'], settings['MONGODB_COLLECTION']), level=log.DEBUG, spider=spider) return item
利用Pipeline我們可以完成以下操作:
清理HTML數(shù)據(jù),驗證爬取的數(shù)據(jù)。
丟棄重復的不必要的內(nèi)容。
將爬取的結(jié)果進行持久化操作。
4.修改settings.py文件對項目進行配置。
# -*- coding: utf-8 -*- # Scrapy settings for douban project # # For simplicity, this file contains only settings considered important or # commonly used. You can find more settings consulting the documentation: # # https://doc.scrapy.org/en/latest/topics/settings.html # https://doc.scrapy.org/en/latest/topics/downloader-middleware.html # https://doc.scrapy.org/en/latest/topics/spider-middleware.html BOT_NAME = 'douban' SPIDER_MODULES = ['douban.spiders'] NEWSPIDER_MODULE = 'douban.spiders' # Crawl responsibly by identifying yourself (and your website) on the user-agent USER_AGENT = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_3) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.54 Safari/536.5' # Obey robots.txt rules ROBOTSTXT_OBEY = True # Configure maximum concurrent requests performed by Scrapy (default: 16) # CONCURRENT_REQUESTS = 32 # Configure a delay for requests for the same website (default: 0) # See https://doc.scrapy.org/en/latest/topics/settings.html#download-delay # See also autothrottle settings and docs DOWNLOAD_DELAY = 3 RANDOMIZE_DOWNLOAD_DELAY = True # The download delay setting will honor only one of: # CONCURRENT_REQUESTS_PER_DOMAIN = 16 # CONCURRENT_REQUESTS_PER_IP = 16 # Disable cookies (enabled by default) COOKIES_ENABLED = True MONGODB_SERVER = '120.77.222.217' MONGODB_PORT = 27017 MONGODB_DB = 'douban' MONGODB_COLLECTION = 'movie' # Disable Telnet Console (enabled by default) # TELNETCONSOLE_ENABLED = False # Override the default request headers: # DEFAULT_REQUEST_HEADERS = { # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', # 'Accept-Language': 'en', # } # Enable or disable spider middlewares # See https://doc.scrapy.org/en/latest/topics/spider-middleware.html # SPIDER_MIDDLEWARES = { # 'douban.middlewares.DoubanSpiderMiddleware': 543, # } # Enable or disable downloader middlewares # See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html # DOWNLOADER_MIDDLEWARES = { # 'douban.middlewares.DoubanDownloaderMiddleware': 543, # } # Enable or disable extensions # See https://doc.scrapy.org/en/latest/topics/extensions.html # EXTENSIONS = { # 'scrapy.extensions.telnet.TelnetConsole': None, # } # Configure item pipelines # See https://doc.scrapy.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = { 'douban.pipelines.DoubanPipeline': 400, } LOG_LEVEL = 'DEBUG' # Enable and configure the AutoThrottle extension (disabled by default) # See https://doc.scrapy.org/en/latest/topics/autothrottle.html #AUTOTHROTTLE_ENABLED = True # The initial download delay #AUTOTHROTTLE_START_DELAY = 5 # The maximum download delay to be set in case of high latencies #AUTOTHROTTLE_MAX_DELAY = 60 # The average number of requests Scrapy should be sending in parallel to # each remote server #AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0 # Enable showing throttling stats for every response received: #AUTOTHROTTLE_DEBUG = False # Enable and configure HTTP caching (disabled by default) # See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings HTTPCACHE_ENABLED = True HTTPCACHE_EXPIRATION_SECS = 0 HTTPCACHE_DIR = 'httpcache' HTTPCACHE_IGNORE_HTTP_CODES = [] HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'
“怎么使用Python的Scrapy爬蟲框架”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關的知識可以關注億速云網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實用文章!
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。