溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

python怎么爬明星貼吧

發(fā)布時(shí)間:2021-11-25 14:28:48 來源:億速云 閱讀:136 作者:iii 欄目:大數(shù)據(jù)

這篇文章主要講解了“python怎么爬明星貼吧”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“python怎么爬明星貼吧”吧!

一、網(wǎng)站分析

貼吧的翻頁通過url的變化來實(shí)現(xiàn),主要是pn參數(shù):

https://tieba.baidu.com/f?kw=明星&ie=utf-8&pn=頁數(shù)*50

帖子的內(nèi)容、發(fā)帖者及跟帖數(shù)量都可以在網(wǎng)頁中找到:

python怎么爬明星貼吧

所以,我們只需要用requests模擬請求獲得,再用bs4解析就可以獲得想要的內(nèi)容了

二、python編程實(shí)現(xiàn)

1.爬取數(shù)據(jù)

用了靜態(tài)網(wǎng)頁爬蟲的老套路,根據(jù)網(wǎng)頁源碼的特點(diǎn),用find_all函數(shù)提取了帖子、發(fā)帖人及跟帖數(shù)量等信息,并將3類信息放入列表中,最終生成1個(gè)二維列表result,主要為了方便存入數(shù)據(jù)庫,代碼如下:

for t in range(250):
    print('第{0}頁'.format(t+1))
    url='https://tieba.baidu.com/f?kw=明星&ie=utf-8&pn={0}'.format(t*50)
    header = {
        'User-Agent': 'Mozilla/5.0(Windows NT 6.1; Win64; x64; rv:69.0) Gecko/20100101 Firefox/69.0'
    }
    response = requests.get(url, header)
    soup = BeautifulSoup(response.text, 'html.parser')
    items_content = soup.find_all('a', class_='j_th_tit')  #內(nèi)容
    items_user = soup.find_all('span', class_='tb_icon_author') #昵稱
    items_comment = soup.find_all(class_='threadlist_rep_num center_text')  #跟帖數(shù)量
    for i, j, k in zip(items_content, items_user, items_comment):
        result.append([i.get('title'), j.get('title')[5:], k.text])
    time.sleep(1)

2.存入數(shù)據(jù)庫

先創(chuàng)建1個(gè)新表,命名為‘STAR’,然后再創(chuàng)建3列,分別命名為“title”、‘a(chǎn)uthor’和‘num’,用于存放1中怕的內(nèi)容,最后將二維列表result中的內(nèi)容存入數(shù)據(jù)庫:

conn=pymysql.connect(
    host='127.0.0.1',
    port=3306,
    user='root',
    password='數(shù)據(jù)庫密碼',
    db='test1',
    charset='utf8mb4'
)
cur = conn.cursor()
#如果存在TIEBA表,則刪除
cur.execute("DROP STAR IF EXISTS STAR")
#創(chuàng)建TIEBA表
sql = """
    create table STAR(
    title char(255),
    author char(100),
    num char(20))
"""
cur.execute(sql)
for i in result:
    cur.execute("INSERT INTO STAR(title,author,num) VALUES ('{0}','{1}','{2}')".
                format(i[0].replace('\'','').replace('\"','').replace('\\',''), i[1], i[2]))
conn.commit()

由于帖子內(nèi)容中存在表情等符號,所以選擇用'utf8mb4'這樣就可以把表情也存入數(shù)據(jù)庫了,但是還有一些標(biāo)點(diǎn)符號在寫入過程會出錯,所以用replace給替換掉了。

總共爬了1萬3千多條數(shù)據(jù),基本把最近兩年的帖子都爬完了。

三、可視化展示

用create_engine模塊讀取數(shù)據(jù)庫表中的內(nèi)容,代碼如下:

import pandas as pd
from sqlalchemy importcreate_engine
# 初始化數(shù)據(jù)庫連接,使用create_engine模塊
engine =create_engine('mysql+pymysql://root:密碼@127.0.0.1:3306/test1')
# 查詢語句,選出STAR表中的所有數(shù)據(jù)
sql = ''' select *from STAR; '''
# read_sql_query的兩個(gè)參數(shù): sql語句, 數(shù)據(jù)庫連接
df =pd.read_sql_query(sql, engine)
# 輸出STAR表的查詢結(jié)果
df['num']=[int(i) for i in list(df['num'])]
df=df.drop_duplicates(subset=['title','author','num'], keep='first')

因?yàn)楦麛?shù)量是以字符格式存入的,所以先將其轉(zhuǎn)為整數(shù),再用drop_duplicates模塊對數(shù)據(jù)進(jìn)行去重,這樣就把數(shù)據(jù)整理完畢了。

上萬條數(shù)據(jù)放在你面前,用肉眼是看不出什么名堂的,所以我這里選擇了幾個(gè)角度,用python統(tǒng)計(jì)分析這個(gè)貼吧里到底隱藏著什么秘密

1.找出發(fā)帖數(shù)量最多的20個(gè)人

說簡單點(diǎn)就是創(chuàng)建1個(gè)空字典,然后把df['author']轉(zhuǎn)成列表,統(tǒng)計(jì)列表中元素個(gè)數(shù),將元素及個(gè)數(shù)存入字典中,再對字典進(jìn)行排序,將前十個(gè)畫成柱狀圖,代碼如下:

#發(fā)帖數(shù)量排名
rank_num={}
for i in list(set(list(df['author']))):
    rank_num[i.replace(' ', '')] = list(df['author']).count(i)
rank_num = sorted(rank_num.items(), key=lambda x: x[1], reverse=True)
bar = Bar("柱狀圖", "發(fā)帖數(shù)量-昵稱")
bar.add("發(fā)帖數(shù)量-昵稱", [i[0] for i in rank_num[:10]], [i[1] for i in rank_num[:10]],
        xaxis_rotate=45, mark_line=["average"], mark_point=["max", "min"])
bar.render('發(fā)帖數(shù)量-昵稱.html')

結(jié)果如下:

python怎么爬明星貼吧

這個(gè)獵頭發(fā)帖有點(diǎn)猛啊,單人最高發(fā)了751個(gè),真厲害。

2.找出跟帖數(shù)最多的20個(gè)帖子

dff=df.sort_values(by='num', ascending=False).head(10)
bar = Bar('跟帖數(shù)量排名',width=1000,height=400)
bar.use_theme('dark')
bar.add('' ,dff['title'][::-1], dff['num'][::-1], is_convert=True, is_yaxis_inverse=False, xaxis_rotate=45,is_label_show=True,label_pos='right')
bar.render("跟帖數(shù)量排名.html")

python怎么爬明星貼吧

跟帖最多的竟然是個(gè)水貼,數(shù)量高達(dá)73459次

3.制作所有帖子的詞云圖

先把所有帖子連接成字符,用jieba進(jìn)行分詞,插入背景圖片,代碼如下:

import matplotlib.pyplot as plt
import jieba
from wordcloud importwordcloud
text=''
for i in list(df['title']):
    text+=i
print(text)
cut_text = jieba.cut(text)
result=[]
for i in cut_text:
    result.append(i)
result = ">

效果如下:

python怎么爬明星貼吧

感謝各位的閱讀,以上就是“python怎么爬明星貼吧”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對python怎么爬明星貼吧這一問題有了更深刻的體會,具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是億速云,小編將為大家推送更多相關(guān)知識點(diǎn)的文章,歡迎關(guān)注!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI