溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Python爬蟲(chóng)實(shí)現(xiàn)自動(dòng)化爬取b站實(shí)時(shí)彈幕的方法

發(fā)布時(shí)間:2021-04-28 14:13:23 來(lái)源:億速云 閱讀:216 作者:小新 欄目:編程語(yǔ)言

這篇文章主要介紹了Python爬蟲(chóng)實(shí)現(xiàn)自動(dòng)化爬取b站實(shí)時(shí)彈幕的方法,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

Python主要用來(lái)做什么

Python主要應(yīng)用于:1、Web開(kāi)發(fā);2、數(shù)據(jù)科學(xué)研究;3、網(wǎng)絡(luò)爬蟲(chóng);4、嵌入式應(yīng)用開(kāi)發(fā);5、游戲開(kāi)發(fā);6、桌面應(yīng)用開(kāi)發(fā)。

1、導(dǎo)入需要的庫(kù)

import jieba  # 分詞
from wordcloud import WordCloud  # 詞云
from PIL import Image  # 圖片處理
import numpy as np  # 圖片處理
import matplotlib.pyplot as plt  # 畫(huà)圖

2、 jieba分詞

所謂的分詞就是將一句話分成一個(gè)或幾個(gè)詞語(yǔ)的形式,

分詞代碼

# 讀取停用詞庫(kù),注意編碼應(yīng)為‘utf8’
f = open('小夜斗的停用詞表.txt', encoding='utf8')
stopwords = f.read().split('\n')
print(stopwords)  # 打印停用詞
f.close()  # 關(guān)閉停用詞文件

3、打印出的為一個(gè)停用詞列表

with open("冰冰vlog2.txt", "r", encoding='utf8') as fp:
	text = fp.read()

4、讀取冰冰彈幕數(shù)據(jù)文件的操作,將其保存到text變量中

segs = jieba.cut(text)  # 進(jìn)行jieba分詞
mytext_list = []  # 構(gòu)建一個(gè)容納過(guò)濾掉停用詞的冰冰彈幕數(shù)據(jù)文件
# 文本清洗
for seg in segs:  # 循環(huán)遍歷每一個(gè)分詞文本
	# 如果該詞不屬于停用詞表 并且非空 長(zhǎng)度不為1
	if seg not in stopwords and seg != "" and len(seg) != 1:
		# 將該詞語(yǔ)添加到mytext_list列表中
		mytext_list.append(seg.replace(" ", ""))
print(mytext_list)  # 打印過(guò)濾后的冰冰彈幕數(shù)據(jù)

5、獲取過(guò)濾停用詞后的冰冰彈幕數(shù)據(jù)

cloud_text = ",".join(mytext_list)  # 連接列表里面的詞語(yǔ)
print(cloud_text)

感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“Python爬蟲(chóng)實(shí)現(xiàn)自動(dòng)化爬取b站實(shí)時(shí)彈幕的方法”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持億速云,關(guān)注億速云行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來(lái)學(xué)習(xí)!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI