您好,登錄后才能下訂單哦!
Python進行Scrapy-redis分布式爬取的方法?這個問題可能是我們?nèi)粘W習或工作經(jīng)常見到的。希望通過這個問題能讓你收獲頗深。下面是小編給大家?guī)淼膮⒖純?nèi)容,讓我們一起來看看吧!
平時爬蟲一般都使用Scrapy框架,通常都是在一臺機器上跑,爬取速度也不能達到預期效果,數(shù)據(jù)量小,而且很容易就會被封禁IP或者賬號,這時候可以使用代理IP或者登錄方式爬,然而代理IP很多時候都很雞肋,除非使用付費版IP,但是和真實IP差別很大。這時候便有了Scrapy-redis分布式爬蟲框架,它基于Scrapy改造,把Scrapy的調度器(scheduler)換成了Scrapy-redis的調度器,可以輕松達到目的,利用多臺服務器來爬取數(shù)據(jù),而且還可以自動去重,效率高。爬取的數(shù)據(jù)默認保存在redis緩存中,速度很快。
Scrapy工作原理:
Scrapy-redis工作原理:
中間的就是調度器
豆瓣電影簡易分布式爬蟲
我這里直接使用start_urls的方式,數(shù)據(jù)存入到Mysql中
class DoubanSpider(RedisSpider): name = 'douban' redis_key = 'douban:start_urls' allowed_domains = ['douban.com'] def start_requests(self): urls = get_urls() for url in urls: yield scrapy.Request(url=url, callback=self.parse) def parse(self, response): # item_loader = MovieItemLoader(item=MovieItem, response=response) # # item_loader.add_xpath('title', '') item = MovieItem() print(response.url) item['movieId'] = int(response.url.split('subject/')[1].replace('/', '')) item['title'] = response.xpath('//h2/span/text()').extract()[0] item['year'] = response.xpath('//h2/span/text()').extract()[1].split('(')[1].split(')')[0] or '2019' item['url'] = response.url item['cover'] = response.xpath('//a[@class="nbgnbg"]/img/@src').extract()[0] try: item['director'] = response.xpath('//a[@rel="v:directedBy"]/text()').extract()[0] or '無' except Exception: item['director'] = '暫無' item['major'] = '/'.join(response.xpath('//a[@rel="v:starring"]/text()').extract()) item['category'] = ','.join(response.xpath('//span[@property="v:genre"]/text()').extract()) item['time'] = ','.join(response.xpath('//span[@property="v:initialReleaseDate"]/text()').extract()) try: item['duration'] = response.xpath('//span[@property="v:runtime"]/text()').extract()[0] except Exception: item['duration'] = '暫無' item['score'] = response.xpath('//strong[@property="v:average"]/text()').extract()[0] item['comment_nums'] = response.xpath('//span[@property="v:votes"]/text()').extract()[0] or 0 item['desc'] = response.xpath('//span[@property="v:summary"]/text()').extract()[0].strip() actor_list = response.xpath('//ul[@class="celebrities-list from-subject __oneline"]/li/a/@title').extract() actor_img_list = response.xpath('//ul[@class="celebrities-list from-subject __oneline"]/li/a/div/@style'). extract() actor_img_list = [i.split('url(')[1].replace(')', '') for i in actor_img_list] item['actor_name_list'] = '----'.join(actor_list) item['actor_img_list'] = '----'.join(actor_img_list) yield item
settings.py文件
BOT_NAME = 'MovieSpider' SPIDER_MODULES = ['MovieSpider.spiders'] NEWSPIDER_MODULE = 'MovieSpider.spiders' # REDIS_HOST = '127.0.0.1' # REDIS_PORT = 6379 REDIS_URL = 'redis://username:password@xxx.xxx.xxx.xxx:6379' # Obey robots.txt rules ROBOTSTXT_OBEY = False SCHEDULER = "scrapy_redis.scheduler.Scheduler" # Ensure all spiders share same duplicates filter through redis. DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" ITEM_PIPELINES = { 'scrapy_redis.pipelines.RedisPipeline': 300, 'MovieSpider.pipelines.MysqlPipeline': 200, }
這里只是為了多臺服務器一起爬取,沒有手動在redis中推入起始的URL
此時將爬蟲項目上傳到其他服務器上,一起開始
效果如下:
感謝各位的閱讀!看完上述內(nèi)容,你們對Python進行Scrapy-redis分布式爬取的方法大概了解了嗎?希望文章內(nèi)容對大家有所幫助。如果想了解更多相關文章內(nèi)容,歡迎關注億速云行業(yè)資訊頻道。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內(nèi)容。