溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

如何在python項目中實現(xiàn)一個線性回歸功能

發(fā)布時間:2020-12-18 14:12:42 來源:億速云 閱讀:172 作者:Leah 欄目:開發(fā)技術(shù)

如何在python項目中實現(xiàn)一個線性回歸功能?相信很多沒有經(jīng)驗的人對此束手無策,為此本文總結(jié)了問題出現(xiàn)的原因和解決方法,通過這篇文章希望你能解決這個問題。

import os

import tensorflow as tf


def linear_regression():
  """
  自實現(xiàn)一個線性回歸
  :return:
  """
  # 命名空間
  with tf.variable_scope("prepared_data"):
    # 準(zhǔn)備數(shù)據(jù)
    x = tf.random_normal(shape=[100, 1], name="Feature")
    y_true = tf.matmul(x, [[0.08]]) + 0.7
    # x = tf.constant([[1.0], [2.0], [3.0]])
    # y_true = tf.constant([[0.78], [0.86], [0.94]])

  with tf.variable_scope("create_model"):
    # 2.構(gòu)造函數(shù)
    # 定義模型變量參數(shù)
    weights = tf.Variable(initial_value=tf.random_normal(shape=[1, 1], name="Weights"))
    bias = tf.Variable(initial_value=tf.random_normal(shape=[1, 1], name="Bias"))
    y_predit = tf.matmul(x, weights) + bias

  with tf.variable_scope("loss_function"):
    # 3.構(gòu)造損失函數(shù)
    error = tf.reduce_mean(tf.square(y_predit - y_true))

  with tf.variable_scope("optimizer"):
    # 4.優(yōu)化損失
    optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(error)

  # 收集變量
  tf.summary.scalar("error", error)
  tf.summary.histogram("weights", weights)
  tf.summary.histogram("bias", bias)

  # 合并變量
  merged = tf.summary.merge_all()

  # 創(chuàng)建saver對象
  saver = tf.train.Saver()

  # 顯式的初始化變量
  init = tf.global_variables_initializer()

  # 開啟會話
  with tf.Session() as sess:
    # 初始化變量
    sess.run(init)

    # 創(chuàng)建事件文件
    file_writer = tf.summary.FileWriter("E:/tmp/linear", graph=sess.graph)

    # print(x.eval())
    # print(y_true.eval())
    # 查看初始化變量模型參數(shù)之后的值
    print("訓(xùn)練前模型參數(shù)為:權(quán)重%f,偏置%f" % (weights.eval(), bias.eval()))

    # 開始訓(xùn)練
    for i in range(1000):
      sess.run(optimizer)
      print("第%d次參數(shù)為:權(quán)重%f,偏置%f,損失%f" % (i + 1, weights.eval(), bias.eval(), error.eval()))

      # 運行合并變量操作
      summary = sess.run(merged)
      # 將每次迭代后的變量寫入事件
      file_writer.add_summary(summary, i)

      # 保存模型
      if i == 999:
        saver.save(sess, "./tmp/model/my_linear.ckpt")

    # # 加載模型
    # if os.path.exists("./tmp/model/checkpoint"):
    #   saver.restore(sess, "./tmp/model/my_linear.ckpt")

    print("參數(shù)為:權(quán)重%f,偏置%f,損失%f" % (weights.eval(), bias.eval(), error.eval()))
    pre = [[0.5]]
    prediction = tf.matmul(pre, weights) + bias
    sess.run(prediction)
    print(prediction.eval())

  return None


if __name__ == "__main__":
  linear_regression()

看完上述內(nèi)容,你們掌握如何在python項目中實現(xiàn)一個線性回歸功能的方法了嗎?如果還想學(xué)到更多技能或想了解更多相關(guān)內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI