您好,登錄后才能下訂單哦!
R語言jiebaR包文本中文分詞及詞云制作的示例分析,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。
微信出現(xiàn)之前,qq群是我和讀者交流的主要陣地,一般我會問大家為什么入群這樣一個問題,收集到一些有趣的回答,今天就以這組文本數(shù)據(jù)練習(xí)中文分詞和詞云圖的制作。
首先我們先從excel讀取數(shù)據(jù)
data <- read.xlsx("why.xlsx")data <- data[,1]
準備jiebaR包和分詞引擎
library(jiebaR)engine <- worker()
開始分詞
fc <- segment(data,engine)
我們會發(fā)現(xiàn)分詞質(zhì)量不高,有些詞語要剔除。
準備停止詞stopwords.txt
t <- readLines('stopwords.txt')stopwords<-c(NULL)for(i in 1:length(t)){stopwords[i]<-t[i]}
開始過濾
fc2 <- filter_segment(fc,stopwords)
過濾之后,我們發(fā)現(xiàn)此時的關(guān)鍵詞更加凸顯。
統(tǒng)計詞頻
freq <- sort(table(fc2),decreasing = T)
簡單畫個餅圖看看效果咋樣吧
pie(head(freq))
聯(lián)想造句:愛好者想學(xué)習(xí)和交流數(shù)據(jù)分析和統(tǒng)計(這個意思非常符合入qq群目標)。
把關(guān)鍵詞和詞頻轉(zhuǎn)換為數(shù)據(jù)框結(jié)構(gòu)
mydata=data.frame(word=names(freq),freq=as.vector(freq),stringsAsFactors= F)
制作一個詞云圖吧
library(wordcloud2)wordcloud2(mydata,size = 1.5)
這就是最終效果了,簡單總結(jié)一下:入群最主要的目的是“學(xué)習(xí)”“數(shù)據(jù)分析”以及“統(tǒng)計”了,ta們都有誰內(nèi)?有“愛好者”、“新手”、“研究生”,不管是“交流”,或是“請教”“咨詢”,總是是要“謝謝”“數(shù)據(jù)小兵”(純屬娛樂造句)。
看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進一步的了解或閱讀更多相關(guān)文章,請關(guān)注億速云行業(yè)資訊頻道,感謝您對億速云的支持。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。