溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Java實現(xiàn)TFIDF算法代碼分享

發(fā)布時間:2020-10-14 10:17:18 來源:腳本之家 閱讀:196 作者:沒課割綠地 欄目:編程語言

算法介紹

概念

     TF-IDF(term frequency–inverse document frequency)是一種用于資訊檢索與資訊探勘的常用加權(quán)技術(shù)。TF-IDF是一種統(tǒng)計方法,用以評估一字詞對于一個文件集或一個語料庫中的其中一份文件的重要程度。字詞的重要性隨著它在文件中出現(xiàn)的次數(shù)成正比增加,但同時會隨著它在語料庫中出現(xiàn)的頻率成反比下降。TF-IDF加權(quán)的各種形式常被搜尋引擎應(yīng)用,作為文件與用戶查詢之間相關(guān)程度的度量或評級。除了TF-IDF以外,因特網(wǎng)上的搜尋引擎還會使用基于連結(jié)分析的評級方法,以確定文件在搜尋結(jié)果中出現(xiàn)的順序。

原理

在一份給定的文件里,詞頻(termfrequency,TF)指的是某一個給定的詞語在該文件中出現(xiàn)的次數(shù)。這個數(shù)字通常會被歸一化(分子一般小于分母區(qū)別于IDF),以防止它偏向長的文件。(同一個詞語在長文件里可能會比短文件有更高的詞頻,而不管該詞語重要與否。)

逆向文件頻率(inversedocumentfrequency,IDF)是一個詞語普遍重要性的度量。某一特定詞語的IDF,可以由總文件數(shù)目除以包含該詞語之文件的數(shù)目,再將得到的商取對數(shù)得到。

某一特定文件內(nèi)的高詞語頻率,以及該詞語在整個文件集合中的低文件頻率,可以產(chǎn)生出高權(quán)重的TF-IDF。因此,TF-IDF傾向于過濾掉常見的詞語,保留重要的詞語。

TFIDF的主要思想是:如果某個詞或短語在一篇文章中出現(xiàn)的頻率TF高,并且在其他文章中很少出現(xiàn),則認(rèn)為此詞或者短語具有很好的類別區(qū)分能力,適合用來分類。TFIDF實際上是:TF*IDF,TF詞頻(TermFrequency),IDF反文檔頻率(InverseDocumentFrequency)。TF表示詞條在文檔d中出現(xiàn)的頻率(另一說:TF詞頻(TermFrequency)指的是某一個給定的詞語在該文件中出現(xiàn)的次數(shù))。IDF的主要思想是:如果包含詞條t的文檔越少,也就是n越小,IDF越大,則說明詞條t具有很好的類別區(qū)分能力。如果某一類文檔C中包含詞條t的文檔數(shù)為m,而其它類包含t的文檔總數(shù)為k,顯然所有包含t的文檔數(shù)n=m+k,當(dāng)m大的時候,n也大,按照IDF公式得到的IDF的值會小,就說明該詞條t類別區(qū)分能力不強。(另一說:IDF反文檔頻率(InverseDocumentFrequency)是指果包含詞條的文檔越少,IDF越大,則說明詞條具有很好的類別區(qū)分能力。)但是實際上,如果一個詞條在一個類的文檔中頻繁出現(xiàn),則說明該詞條能夠很好代表這個類的文本的特征,這樣的詞條應(yīng)該給它們賦予較高的權(quán)重,并選來作為該類文本的特征詞以區(qū)別與其它類文檔。這就是IDF的不足之處.

最近要做領(lǐng)域概念的提取,TFIDF作為一個很經(jīng)典的算法可以作為其中的一步處理。

計算公式比較簡單,如下:

Java實現(xiàn)TFIDF算法代碼分享

預(yù)處理

由于需要處理的候選詞大約后3w+,并且語料文檔數(shù)有1w+,直接挨個文本遍歷的話很耗時,每個詞處理時間都要一分鐘以上。

為了縮短時間,首先進(jìn)行分詞,一個詞輸出為一行方便統(tǒng)計,分詞工具選擇的是HanLp。

然后,將一個領(lǐng)域的文檔合并到一個文件中,并用“$$$”標(biāo)識符分割,方便記錄文檔數(shù)。

Java實現(xiàn)TFIDF算法代碼分享

下面是選擇的領(lǐng)域語料(PATH目錄下):

Java實現(xiàn)TFIDF算法代碼分享

代碼實現(xiàn)

package edu.heu.lawsoutput;
import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.File;
import java.io.FileReader;
import java.io.FileWriter;
import java.util.HashMap;
import java.util.Map;
import java.util.Set;
/**
 * @ClassName: TfIdf
 * @Description: TODO
 * @author LJH
 * @date 2017年11月12日 下午3:55:15
 */
public class TfIdf {
	static final String PATH = "E:\\corpus";
	// 語料庫路徑
	public static void main(String[] args) throws Exception {
		String test = "離退休人員";
		// 要計算的候選詞
		computeTFIDF(PATH, test);
	}
	/**
  * @param @param path 語料路經(jīng)
  * @param @param word 候選詞
  * @param @throws Exception 
  * @return void 
  */
	static void computeTFIDF(String path, String word) throws Exception {
		File fileDir = new File(path);
		File[] files = fileDir.listFiles();
		// 每個領(lǐng)域出現(xiàn)候選詞的文檔數(shù)
		Map<String, Integer> containsKeyMap = new HashMap<>();
		// 每個領(lǐng)域的總文檔數(shù)
		Map<String, Integer> totalDocMap = new HashMap<>();
		// TF = 候選詞出現(xiàn)次數(shù)/總詞數(shù)
		Map<String, double> tfMap = new HashMap<>();
		// scan files
		for (File f : files) {
			// 候選詞詞頻
			double termFrequency = 0;
			// 文本總詞數(shù)
			double totalTerm = 0;
			// 包含候選詞的文檔數(shù)
			int containsKeyDoc = 0;
			// 詞頻文檔計數(shù)
			int totalCount = 0;
			int fileCount = 0;
			// 標(biāo)記文件中是否出現(xiàn)候選詞
			Boolean flag = false;
			FileReader fr = new FileReader(f);
			BufferedReader br = new BufferedReader(fr);
			String s = "";
			// 計算詞頻和總詞數(shù)
			while ((s = br.readLine()) != null) {
				if (s.equals(word)) {
					termFrequency++;
					flag = true;
				}
				// 文件標(biāo)識符
				if (s.equals("$$$")) {
					if (flag) {
						containsKeyDoc++;
					}
					fileCount++;
					flag = false;
				}
				totalCount++;
			}
			// 減去文件標(biāo)識符的數(shù)量得到總詞數(shù)
			totalTerm += totalCount - fileCount;
			br.close();
			// key都為領(lǐng)域的名字
			containsKeyMap.put(f.getName(), containsKeyDoc);
			totalDocMap.put(f.getName(), fileCount);
			tfMap.put(f.getName(), (double) termFrequency / totalTerm);
			System.out.println("----------" + f.getName() + "----------");
			System.out.println("該領(lǐng)域文檔數(shù):" + fileCount);
			System.out.println("候選詞出現(xiàn)詞數(shù):" + termFrequency);
			System.out.println("總詞數(shù):" + totalTerm);
			System.out.println("出現(xiàn)候選詞文檔總數(shù):" + containsKeyDoc);
			System.out.println();
		}
		//計算TF*IDF
		for (File f : files) {
			// 其他領(lǐng)域包含候選詞文檔數(shù)
			int otherContainsKeyDoc = 0;
			// 其他領(lǐng)域文檔總數(shù)
			int otherTotalDoc = 0;
			double idf = 0;
			double tfidf = 0;
			System.out.println("~~~~~" + f.getName() + "~~~~~");
			Set<Map.Entry<String, Integer>> containsKeyset = containsKeyMap.entrySet();
			Set<Map.Entry<String, Integer>> totalDocset = totalDocMap.entrySet();
			Set<Map.Entry<String, double>> tfSet = tfMap.entrySet();
			// 計算其他領(lǐng)域包含候選詞文檔數(shù)
			for (Map.Entry<String, Integer> entry : containsKeyset) {
				if (!entry.getKey().equals(f.getName())) {
					otherContainsKeyDoc += entry.getValue();
				}
			}
			// 計算其他領(lǐng)域文檔總數(shù)
			for (Map.Entry<String, Integer> entry : totalDocset) {
				if (!entry.getKey().equals(f.getName())) {
					otherTotalDoc += entry.getValue();
				}
			}
			// 計算idf
			idf = log((float) otherTotalDoc / (otherContainsKeyDoc + 1), 2);
			// 計算tf*idf并輸出
			for (Map.Entry<String, double> entry : tfSet) {
				if (entry.getKey().equals(f.getName())) {
					tfidf = (double) entry.getValue() * idf;
					System.out.println("tfidf:" + tfidf);
				}
			}
		}
	}
	static float log(float value, float base) {
		return (float) (Math.log(value) / Math.log(base));
	}
}

運行結(jié)果

測試詞為“離退休人員”,中間結(jié)果如下:

Java實現(xiàn)TFIDF算法代碼分享

最終結(jié)果:

Java實現(xiàn)TFIDF算法代碼分享

結(jié)論

可以看到“離退休人員”在養(yǎng)老保險和社保領(lǐng)域,tfidf值比較高,可以作為判斷是否為領(lǐng)域概念的一個依據(jù)。

當(dāng)然TF-IDF算法雖然很經(jīng)典,但還是有許多不足,不能單獨依賴其結(jié)果做出判斷。

以上就是本文關(guān)于Java實現(xiàn)TFIDF算法代碼分享的全部內(nèi)容,希望對大家有所幫助。感興趣的朋友可以繼續(xù)參閱本站:

Java 蒙特卡洛算法求圓周率近似值實例詳解

java算法實現(xiàn)紅黑樹完整代碼示例

java實現(xiàn)的各種排序算法代碼示例

如有不足之處,歡迎留言指出。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI