溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

python機(jī)器學(xué)習(xí)Logistic回歸原理是什么

發(fā)布時(shí)間:2022-06-09 13:51:57 來(lái)源:億速云 閱讀:170 作者:iii 欄目:開發(fā)技術(shù)

這篇“python機(jī)器學(xué)習(xí)Logistic回歸原理是什么”文章的知識(shí)點(diǎn)大部分人都不太理解,所以小編給大家總結(jié)了以下內(nèi)容,內(nèi)容詳細(xì),步驟清晰,具有一定的借鑒價(jià)值,希望大家閱讀完這篇文章能有所收獲,下面我們一起來(lái)看看這篇“python機(jī)器學(xué)習(xí)Logistic回歸原理是什么”文章吧。

Logistic回歸原理與推導(dǎo)

Logistic回歸中雖然有回歸的字樣,但該算法是一個(gè)分類算法,如圖所示,有兩類數(shù)據(jù)(紅點(diǎn)和綠點(diǎn))分布如下,如果需要對(duì)兩類數(shù)據(jù)進(jìn)行分類,我們可以通過(guò)一條直線進(jìn)行劃分(w0 * x0 + w1 * x1+w2 * x2)。當(dāng)新的樣本(x1,x2)需要預(yù)測(cè)時(shí),帶入直線函數(shù)中,函數(shù)值大于0,則為綠色樣本(正樣本),否則為紅樣本(負(fù)樣本)。

推廣到高維空間中,我們需要得到一個(gè)超平面(在二維是直線,在三維是平面,在n維是n-1的超平面)切分我們的樣本數(shù)據(jù),實(shí)際上也就是求該超平面的W參數(shù),這很類似于回歸,所以取名為L(zhǎng)ogistic回歸。

python機(jī)器學(xué)習(xí)Logistic回歸原理是什么

sigmoid函數(shù)

當(dāng)然,我們不直接使用z函數(shù),我們需要把z值轉(zhuǎn)換到區(qū)間[0-1]之間,轉(zhuǎn)換的z值就是判斷新樣本屬于正樣本的概率大小。 我們使用sigmoid函數(shù)完成這個(gè)轉(zhuǎn)換過(guò)程,公式如下。通過(guò)觀察sigmoid函數(shù)圖,如圖所示,當(dāng)z值大于0時(shí),σ值大于0.5,當(dāng)z值小于0時(shí),σ值小于于0.5。利用sigmoid函數(shù),使得Logistic回歸本質(zhì)上是一個(gè)基于條件概率的判別模型。

python機(jī)器學(xué)習(xí)Logistic回歸原理是什么

目標(biāo)函數(shù)

其實(shí),我們現(xiàn)在就是求W,如何求W呢,我們先看下圖,我們都能看出第二個(gè)圖的直線切分的最好,換句話說(shuō),能讓這些樣本點(diǎn)離直線越遠(yuǎn)越好,這樣對(duì)于新樣本的到來(lái),也具有很好的劃分,那如何用公式表示并計(jì)算這個(gè)目標(biāo)函數(shù)呢?

python機(jī)器學(xué)習(xí)Logistic回歸原理是什么

這時(shí)就需要這個(gè)目標(biāo)函數(shù)的值最大,以此求出θ。

梯度上升法

在介紹梯度上升法之前,我們看一個(gè)中學(xué)知識(shí):求下面函數(shù)在x等于多少時(shí),取最大值。

解:求f(x)的導(dǎo)數(shù):2x,令其為0,求得x=0時(shí),取最大值為0。但在函數(shù)復(fù)雜時(shí),求出導(dǎo)數(shù)也很難計(jì)算函數(shù)的極值,這時(shí)就需要使用梯度上升法,通過(guò)迭代,一步步逼近極值,公式如下,我們順著導(dǎo)數(shù)的方向(梯度)一步步逼近。

利用梯度算法計(jì)算該函數(shù)的x值:

def f(x_old):
         return -2*x_old
def cal():
     x_old  = 0
     x_new = -6
     eps = 0.01
     presision = 0.00001
     while abs(x_new-x_old)>presision:
        x_old=x_new
        x_new=x_old+eps*f(x_old)
     return x_new
-0.0004892181072978443

Logistic回歸實(shí)踐

數(shù)據(jù)情況

讀入數(shù)據(jù),并繪圖顯示:

def loadDataSet():
    dataMat = [];labelMat = []
    fr = open('數(shù)據(jù)/Logistic/TestSet.txt')
    for line in fr.readlines():
        lineArr = line.strip().split()
        dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])])
        labelMat.append(int(lineArr[2]))
    return dataMat, labelMat

訓(xùn)練算法

利用梯度迭代公式,計(jì)算W:

def sigmoid(inX):
    return 1.0/(1 + np.exp(-inX))
def gradAscent(dataMatIn, labelMatIn):
    dataMatrix = np.mat(dataMatIn)
    labelMat = np.mat(labelMatIn).transpose()
    m,n = np.shape(dataMatrix)
    alpha = 0.001
    maxCycles = 500
    weights = np.ones((n,1))
    for k in range(maxCycles):
        h = sigmoid(dataMatrix * weights)
        error = labelMat - h
        weights = weights + alpha * dataMatrix.transpose() * error
    return weights

通過(guò)計(jì)算的weights繪圖,查看分類結(jié)果

算法優(yōu)缺點(diǎn)

  • 優(yōu)點(diǎn):易于理解和計(jì)算

  • 缺點(diǎn):精度不高

以上就是關(guān)于“python機(jī)器學(xué)習(xí)Logistic回歸原理是什么”這篇文章的內(nèi)容,相信大家都有了一定的了解,希望小編分享的內(nèi)容對(duì)大家有幫助,若想了解更多相關(guān)的知識(shí)內(nèi)容,請(qǐng)關(guān)注億速云行業(yè)資訊頻道。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI