您好,登錄后才能下訂單哦!
獲取全站用戶,理論來說從1個用戶作為切入點就可以,我們需要爬取用戶的關(guān)注列表,從關(guān)注列表不斷的疊加下去。
隨便打開一個用戶的個人中心
綠色圓圈里面的都是我們想要采集到的信息。這個用戶關(guān)注0人?那么你還需要繼續(xù)找一個入口,這個用戶一定要關(guān)注了別人。選擇關(guān)注列表,是為了讓數(shù)據(jù)有價值,因為關(guān)注者里面可能大量的小號或者不活躍的賬號,價值不大。
我選了這樣一個入口頁面,它關(guān)注了3個人,你也可以選擇多一些的,這個沒有太大影響!https://juejin.im/user/55fa7cd460b2e36621f07dde/following
我們要通過這個頁面,去抓取用戶的ID
得到ID之后,你才可以拼接出來下面的鏈接
https://juejin.im/user/用戶ID/following
分析好了之后,就可以創(chuàng)建一個scrapy
項目了
items.py
文件,用來限定我們需要的所有數(shù)據(jù),注意到下面有個_id = scrapy.Field()
這個先預(yù)留好,是為了mongdb
準(zhǔn)備的,其他的字段解釋請參照注釋即可。
class JuejinItem(scrapy.Item):
_id = scrapy.Field()
username = scrapy.Field()
job = scrapy.Field()
company =scrapy.Field()
intro = scrapy.Field()
# 專欄
columns = scrapy.Field()
# 沸點
boiling = scrapy.Field()
# 分享
shares = scrapy.Field()
# 贊
praises = scrapy.Field()
#
books = scrapy.Field()
# 關(guān)注了
follow = scrapy.Field()
# 關(guān)注者
followers = scrapy.Field()
goods = scrapy.Field()
editer = scrapy.Field()
reads = scrapy.Field()
collections = scrapy.Field()
tags = scrapy.Field()
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進階,都?xì)g迎
編寫爬蟲主入口文件 JuejinspiderSpider.py
import scrapy
from scrapy.selector import Selector
from Juejin.items import JuejinItem
class JuejinspiderSpider(scrapy.Spider):
name = 'JuejinSpider'
allowed_domains = ['juejin.im']
# 起始URL 5c0f372b5188255301746103
start_urls = ['https://juejin.im/user/55fa7cd460b2e36621f07dde/following']
def parse
函數(shù),邏輯不復(fù)雜,處理兩個業(yè)務(wù)即可
item的獲取,我們需要使用xpath匹配即可,為了簡化代碼量,我編寫了一個提取方法,叫做get_default
函數(shù)。
def get_default(self,exts):
if len(exts)>0:
ret = exts[0]
else:
ret = 0
return ret
def parse(self, response):
#base_data = response.body_as_unicode()
select = Selector(response)
item = JuejinItem()
# 這個地方獲取一下數(shù)據(jù)
item["username"] = select.xpath("http://h2[@class='username']/text()").extract()[0]
position = select.xpath("http://div[@class='position']/span/span/text()").extract()
if position:
job = position[0]
if len(position)>1:
company = position[1]
else:
company = ""
else:
job = company = ""
item["job"] = job
item["company"] = company
item["intro"] = self.get_default(select.xpath("http://div[@class='intro']/span/text()").extract())
# 專欄
item["columns"] = self.get_default(select.xpath("http://div[@class='header-content']/a[2]/div[2]/text()").extract())
# 沸點
item["boiling"] = self.get_default(select.xpath("http://div[@class='header-content']/a[3]/div[2]/text()").extract())
# 分享
item["shares"] = self.get_default(select.xpath("http://div[@class='header-content']/a[4]/div[2]/text()").extract())
# 贊
item["praises"] = self.get_default(select.xpath("http://div[@class='header-content']/a[5]/div[2]/text()").extract())
#
item["books"] = self.get_default(select.xpath("http://div[@class='header-content']/a[6]/div[2]/text()").extract())
# 關(guān)注了
item["follow"] = self.get_default(select.xpath("http://div[@class='follow-block block shadow']/a[1]/div[2]/text()").extract())
# 關(guān)注者
item["followers"] = self.get_default(select.xpath("http://div[@class='follow-block block shadow']/a[2]/div[2]/text()").extract())
right = select.xpath("http://div[@class='stat-block block shadow']/div[2]/div").extract()
if len(right) == 3:
item["editer"] = self.get_default(select.xpath("http://div[@class='stat-block block shadow']/div[2]/div[1]/span/text()").extract())
item["goods"] = self.get_default(select.xpath("http://div[@class='stat-block block shadow']/div[2]/div[2]/span/span/text()").extract())
item["reads"] = self.get_default(select.xpath("http://div[@class='stat-block block shadow']/div[2]/div[3]/span/span/text()").extract())
else:
item["editer"] = ""
item["goods"] = self.get_default(select.xpath("http://div[@class='stat-block block shadow']/div[2]/div[1]/span/span/text()").extract())
item["reads"] = self.get_default(select.xpath("http://div[@class='stat-block block shadow']/div[2]/div[2]/span/span/text()").extract())
item["collections"] = self.get_default(select.xpath("http://div[@class='more-block block']/a[1]/div[2]/text()").extract())
item["tags"] = self.get_default(select.xpath("http://div[@class='more-block block']/a[2]/div[2]/text()").extract())
yield item # 返回item
上述代碼,已經(jīng)成功返回了item,打開setting.py
文件中的pipelines
設(shè)置,測試一下是否可以存儲數(shù)據(jù),順便在DEFAULT_REQUEST_HEADERS
配置一下request的請求參數(shù)。
setting.py
DEFAULT_REQUEST_HEADERS = {
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
'Accept-Language': 'en',
"Host": "juejin.im",
"Referer": "https://juejin.im/timeline?sort=weeklyHottest",
"Upgrade-Insecure-Requests": "1",
"User-Agent": "Mozilla/5.0 瀏覽器UA"
}
ITEM_PIPELINES = {
'Juejin.pipelines.JuejinPipeline': 20,
}
本爬蟲數(shù)據(jù)存儲到mongodb
里面,所以需要你在pipelines.py
文件編寫存儲代碼。
import time
import pymongo
DATABASE_IP = '127.0.0.1'
DATABASE_PORT = 27017
DATABASE_NAME = 'sun'
client = pymongo.MongoClient(DATABASE_IP,DATABASE_PORT)
db = client.sun
db.authenticate("dba", "dba")
collection = db.jujin # 準(zhǔn)備插入數(shù)據(jù)
class JuejinPipeline(object):
def process_item(self, item, spider):
try:
collection.insert(item)
except Exception as e:
print(e.args)
運行代碼之后,如果沒有報錯,完善最后一步即可,在Spider里面將爬蟲的循環(huán)操作完成
list_li = select.xpath("http://ul[@class='tag-list']/li") # 獲取所有的關(guān)注
for li in list_li:
a_link = li.xpath(".//meta[@itemprop='url']/@content").extract()[0] # 獲取URL
# 返回拼接好的數(shù)據(jù)請求
yield scrapy.Request(a_link+"/following",callback=self.parse)
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進階,都?xì)g迎
所有的代碼都已經(jīng)寫完啦
全站用戶爬蟲編寫完畢
擴展方向
setting.py
中開啟多線程操作免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。