溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

ElasticSearch中如何使用IK分詞器

發(fā)布時間:2021-07-30 17:19:03 來源:億速云 閱讀:190 作者:Leah 欄目:大數(shù)據(jù)

ElasticSearch中如何使用IK分詞器,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。

IK分詞器

什么是IK分詞器?

分詞即把一段中文或者別的劃分成一個個的關(guān)鍵字,我們在搜索時候會把自己的信息進(jìn)行分詞,會把數(shù)據(jù)庫中或者索引庫中的數(shù)據(jù)進(jìn)行分詞,然后進(jìn)行一個匹配操作,默認(rèn)的中文分詞是將每個字看成一個詞,比說說“我愛中國”會被分為“我”,“愛”,“中”,“國”,這顯然是不符合要求的,所以我們需要安裝中文分詞器IK來解決這個問題。

IK提供了兩個分詞算法:ik_smart和ik_max_word,其中ik_smart為最少切分,ik_max_word為最細(xì)粒度劃分。

安裝

下載完畢,解壓到elasticsearch的plugins下

ElasticSearch中如何使用IK分詞器

使用kibana測試

  1. 使用ik_smart分詞算法測試

    ElasticSearch中如何使用IK分詞器

  2. 使用ik_max_word分詞算法測試

    ElasticSearch中如何使用IK分詞器

IK分詞器增加自己的字典

  1. 查詢“一碗小米粥”得到下面的結(jié)果

    ElasticSearch中如何使用IK分詞器

  2. 需要在IK插件的config路徑下的IKAnalyzer.cfg.xml進(jìn)行配置自己的字典

    <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
    <properties>
    	<comment>IK Analyzer 擴(kuò)展配置</comment>
    	<!--用戶可以在這里配置自己的擴(kuò)展字典 -->
    	<entry key="ext_dict">xiaomizhou.dic</entry>
    	 <!--用戶可以在這里配置自己的擴(kuò)展停止詞字典-->
    	<entry key="ext_stopwords"></entry>
    	<!--用戶可以在這里配置遠(yuǎn)程擴(kuò)展字典 -->
    	<!-- <entry key="remote_ext_dict">words_location</entry> -->
    	<!--用戶可以在這里配置遠(yuǎn)程擴(kuò)展停止詞字典-->
    	<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
    </properties>


  3. 設(shè)置自己的字典xiaomizhou.dic

    ElasticSearch中如何使用IK分詞器

  4. 重啟ES加載詞典,重新進(jìn)行測試

    ElasticSearch中如何使用IK分詞器

看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進(jìn)一步的了解或閱讀更多相關(guān)文章,請關(guān)注億速云行業(yè)資訊頻道,感謝您對億速云的支持。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI