您好,登錄后才能下訂單哦!
本文實例講述了python實現(xiàn)的讀取網(wǎng)頁并分詞功能。分享給大家供大家參考,具體如下:
這里使用分詞使用最流行的分詞包jieba,參考:https://github.com/fxsjy/jieba
或點擊此處本站下載jieba庫。
代碼:
import requests from bs4 import BeautifulSoup import jieba # 獲取html url = "http://finance.ifeng.com/a/20180328/16049779_0.shtml" res = requests.get(url) res.encoding = 'utf-8' content = res.text # 添加至bs4 soup = BeautifulSoup(content, 'html.parser') div = soup.find(id = 'main_content') # 寫入文件 filename = 'news.txt' with open(filename,'w',encoding='utf-8') as file_object: # <p>標(biāo)簽的處理 for line in div.findChildren(): file_object.write(line.get_text()+'\n') # 使用分詞工具 seg_list = jieba.cut("我來到北京清華大學(xué)", cut_all=True) print("Full Mode: " + "/ ".join(seg_list)) # 全模式 seg_list = jieba.cut("我來到北京清華大學(xué)", cut_all=False) print("Default Mode: " + "/ ".join(seg_list)) # 精確模式 seg_list = jieba.cut("他來到了網(wǎng)易杭研大廈") # 默認(rèn)是精確模式 print(", ".join(seg_list)) with open(filename,'r',encoding='utf-8') as file_object: with open('cut_news.txt','w',encoding='utf-8') as file_cut_object: for line in file_object.readlines(): seg_list = jieba.cut(line,cut_all=False) file_cut_object.write('/'.join(seg_list))
爬取結(jié)果:
分詞結(jié)果:
更多關(guān)于Python相關(guān)內(nèi)容感興趣的讀者可查看本站專題:《Python數(shù)學(xué)運(yùn)算技巧總結(jié)》、《Python數(shù)據(jù)結(jié)構(gòu)與算法教程》、《Python函數(shù)使用技巧總結(jié)》、《Python字符串操作技巧匯總》、《Python入門與進(jìn)階經(jīng)典教程》及《Python文件與目錄操作技巧匯總》
希望本文所述對大家Python程序設(shè)計有所幫助。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。