溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python中邏輯回歸隨機梯度下降法怎么用

發(fā)布時間:2021-11-15 09:14:43 來源:億速云 閱讀:141 作者:小新 欄目:開發(fā)技術(shù)

這篇文章主要為大家展示了“python中邏輯回歸隨機梯度下降法怎么用”,內(nèi)容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學習一下“python中邏輯回歸隨機梯度下降法怎么用”這篇文章吧。

隨機梯度下降法

隨機梯度下降法(Stochastic Gradient Decent,
SGD)是對全批量梯度下降法計算效率的改進算法。本質(zhì)上來說,我們預期隨機梯度下降法得到的結(jié)果和全批量梯度下降法相接近;SGD的優(yōu)勢是更快地計算梯度。

代碼

'''
隨機梯度下降法(Stochastic Gradient Decent, SGD)
是對全批量梯度下降法計算效率的改進算法。本
質(zhì)上來說,我們預期隨機梯度下降法得到的結(jié)果和全批量梯度下降法相接近;
SGD的優(yōu)勢是更快地計算梯度。
'''
import pandas as pd
import numpy as np
import os
os.getcwd()
# F:\\pythonProject3\\data\\data\\train.csv
# dataset_path = '..'
# 這是一個全批量梯度下降(full-batch gradient descent)的應用。
# 這個問題是一個回歸問題
# 我們給出美國某大型問答社區(qū)從2010年10月1日到2016年11月30日,
# 每天新增的問題的個數(shù)和回答的個數(shù)。
# 任務是預測2016年12月1日到2017年5月1日,該問答網(wǎng)站每天新增的問題數(shù)和回答數(shù)。
train = pd.read_csv('..\\train.csv')
# 導入數(shù)據(jù)
# train = pd.read_csv('train.csv')
test = pd.read_csv('..\\test.csv')
submit = pd.read_csv('..\\sample_submit.csv')
path2=os.path.abspath('.')
print("path2@@@@@",path2)
path3=os.path.abspath('..')
print("path3@@@@@",path3)
print(train)
# 初始設(shè)置
beta = [1,1] #初始點
alpha = 0.2 #學習率,也就是步長
tol_L = 0.1 #閾值,也就是精度
# 對x進行歸一化,train 是訓練數(shù)據(jù)的二維表格
max_x = max(train['id']) #max_x是總共的id數(shù)
x = train['id'] / max_x #所有的id都除于max_x
y = train['questions'] # train二維表格中的questions列賦給y
type(train['id'])
print("train['id']#######\n",train['id'])
print("type(train['id'])###\n\n",x)
print("max_x#######",max_x)
#為了計算方向
def compute_grad_SGD(beta, x, y):
    '''
    :param beta: 是初始點
    :param x: 是自變量
    :param y: 是真是值
    :return: 梯度數(shù)組
    '''
    grad = [0, 0]
    r = np.random.randint(0, len(x)) #在0-len(x)之間隨機生成一個數(shù)
    grad[0] = 2. * np.mean(beta[0] + beta[1] * x[r] - y[r]) #求beta[1,1],中第1個數(shù)的梯度
    grad[1] = 2. * np.mean(x * (beta[0] + beta[1] * x - y))#求beta[1,1],中第2個數(shù)的梯度
    return np.array(grad)
#為了計算下一個點在哪,
def update_beta(beta, alpha, grad):
    '''
    :param beta: 第一點,初始點
    :param alpha: 學習率,也就時步長
    :param grad: 梯度
    :return:
    '''
    new_beta = np.array(beta) - alpha * grad
    return new_beta
# 定義計算RMSE的函數(shù)
# 均方根誤差(RMSE)
def rmse(beta, x, y):
    squared_err = (beta[0] + beta[1] * x - y) ** 2 # beta[0] + beta[1] * x是預測值,y是真實值,
    res = np.sqrt(np.mean(squared_err))
    return res
# 進行第一次計算
grad = compute_grad_SGD(beta, x, y) #調(diào)用計算梯度函數(shù),計算梯度
loss = rmse(beta, x, y) #調(diào)用損失函數(shù),計算損失
beta = update_beta(beta, alpha, grad) #更新下一點
loss_new = rmse(beta, x, y) #調(diào)用損失函數(shù),計算下一個損失
# 開始迭代
i = 1
while np.abs(loss_new - loss) > tol_L:
    beta = update_beta(beta, alpha, grad)
    grad = compute_grad_SGD(beta, x, y)
    if i % 100 == 0:
        loss = loss_new
        loss_new = rmse(beta, x, y)
        print('Round %s Diff RMSE %s'%(i, abs(loss_new - loss)))
    i += 1
print('Coef: %s \nIntercept %s'%(beta[1], beta[0]))
res = rmse(beta, x, y)
print('Our RMSE: %s'%res)
from sklearn.linear_model import LinearRegression
lr = LinearRegression()
lr.fit(train[['id']], train[['questions']])
print('Sklearn Coef: %s'%lr.coef_[0][0])
print('Sklearn Coef: %s'%lr.intercept_[0])
res = rmse([936.051219649, 2.19487084], train['id'], y)
print('Sklearn RMSE: %s'%res)

以上是“python中邏輯回歸隨機梯度下降法怎么用”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學習更多知識,歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI