您好,登錄后才能下訂單哦!
本文實(shí)例為大家分享了tensorflow實(shí)現(xiàn)線性回歸的具體代碼,供大家參考,具體內(nèi)容如下
一、隨機(jī)生成1000個(gè)點(diǎn),分布在y=0.1x+0.3直線周圍,并畫出來
import tensorflow as tf import numpy as np import matplotlib.pyplot as plt num_points = 1000 vectors_set = [] for i in range(num_points): x1 = np.random.normal(0.0,0.55) //設(shè)置一定范圍的浮動(dòng) y1 = x1*0.1+0.3+np.random.normal(0.0,0.03) vectors_set.append([x1,y1]) x_data = [v[0] for v in vectors_set] y_data = [v[1] for v in vectors_set] plt.scatter(x_data,y_data,c='r') plt.show()
二、構(gòu)造線性回歸函數(shù)
#生成一維的w矩陣,取值為[-1,1]之間的隨機(jī)數(shù) w = tf.Variable(tf.random_uniform([1],-1.0,1.0),name='W') #生成一維的b矩陣,初始值為0 b = tf.Variable(tf.zeros([1]),name='b') y = w*x_data+b #均方誤差 loss = tf.reduce_mean(tf.square(y-y_data),name='loss') #梯度下降 optimizer = tf.train.GradientDescentOptimizer(0.5) #最小化loss train = optimizer.minimize(loss,name='train') sess=tf.Session() init = tf.global_variables_initializer() sess.run(init) #print("W",sess.run(w),"b=",sess.run(b),"loss=",sess.run(loss)) for step in range(20): sess.run(train) print("W=",sess.run(w),"b=",sess.run(b),"loss=",sess.run(loss)) //顯示擬合后的直線 plt.scatter(x_data,y_data,c='r') plt.plot(x_data,sess.run(w)*x_data+sess.run(b)) plt.show()
三、部分訓(xùn)練結(jié)果如下:
W= [ 0.10559751] b= [ 0.29925063] loss= 0.000887708 W= [ 0.10417549] b= [ 0.29926425] loss= 0.000884275 W= [ 0.10318361] b= [ 0.29927373] loss= 0.000882605 W= [ 0.10249177] b= [ 0.29928035] loss= 0.000881792 W= [ 0.10200921] b= [ 0.29928496] loss= 0.000881397 W= [ 0.10167261] b= [ 0.29928818] loss= 0.000881205 W= [ 0.10143784] b= [ 0.29929042] loss= 0.000881111 W= [ 0.10127408] b= [ 0.29929197] loss= 0.000881066
擬合后的直線如圖所示:
結(jié)論:最終w趨近于0.1,b趨近于0.3,滿足提前設(shè)定的數(shù)據(jù)分布
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持億速云。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。