溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

spark mllib中如何實(shí)現(xiàn)樸素貝葉斯算法

發(fā)布時(shí)間:2021-12-16 14:40:12 來(lái)源:億速云 閱讀:173 作者:小新 欄目:云計(jì)算

這篇文章主要介紹了spark mllib中如何實(shí)現(xiàn)樸素貝葉斯算法,具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

數(shù)據(jù)源說(shuō)明

第一列每行的標(biāo)簽,其他列為特征

運(yùn)行代碼如下

package spark.logisticRegression

import org.apache.spark.mllib.classification.NaiveBayes
import org.apache.spark.mllib.linalg.Vectors
import org.apache.spark.mllib.util.MLUtils
import org.apache.spark.{SparkConf, SparkContext}

/**
  * 分類 - 樸素貝葉斯簡(jiǎn)單示例
  * 后驗(yàn)概率?。健∠闰?yàn)概率 x 調(diào)整因子
  * Created by eric on 16-7-18.
  */
object Bayes {
  val conf = new SparkConf()                                     //創(chuàng)建環(huán)境變量
    .setMaster("local")                                             //設(shè)置本地化處理
    .setAppName("Bayes")                              //設(shè)定名稱
  val sc = new SparkContext(conf)

  def main(args: Array[String]) {
    val data = MLUtils.loadLabeledPoints(sc, "./src/main/spark/logisticRegression/bayes.txt")
    val model = NaiveBayes.train(data, 1.0)
    model.labels.foreach(println)//打印 label(labels是標(biāo)簽類別)
    model.pi.foreach(println)//打印先驗(yàn)概率 (pi存儲(chǔ)各個(gè)label先驗(yàn)概率)
    //0.0
    //1.0
    //2.0
    //-1.0986122886681098
    //-1.0986122886681098
    //-1.0986122886681098
    val test = Vectors.dense(0, 0, 10)//新預(yù)測(cè)數(shù)據(jù)
    val result = model.predict(test)//預(yù)測(cè)結(jié)果
    println(result)//2.0
  }
}

bayes.txt

0,1 0 0
0,2 0 0
1,0 1 0
1,0 2 0
2,0 0 1
2,0 0 2

結(jié)果如圖

spark mllib中如何實(shí)現(xiàn)樸素貝葉斯算法

感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“spark mllib中如何實(shí)現(xiàn)樸素貝葉斯算法”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持億速云,關(guān)注億速云行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來(lái)學(xué)習(xí)!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI