溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Tensorflow實現神經網絡擬合線性回歸

發布時間:2021-06-01 18:31:30 來源:億速云 閱讀:212 作者:Leah 欄目:開發技術

Tensorflow實現神經網絡擬合線性回歸?相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

一、利用簡單的一層神經網絡擬合一個函數 y = x^2 ,其中加入部分噪聲作為偏置值防止擬合曲線過擬合

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
 
# 生成-0.5到0.5間均勻發布的200個點,將數據變為二維,200行一列的數據
x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis]
 
# 生成一些噪音數據
noise = np.random.normal(0, 0.02, x_data.shape)
 
# 定義y與x的關系
y_data = np.square(x_data) + noise
 
# 定義兩個占位符
x = tf.placeholder(tf.float32, [None, 1]) # 形狀為n行1列,同x_data的shape
y = tf.placeholder(tf.float32, [None, 1])
 
# 定義神經網絡
 
# 定義中間層,因為每個x是一維,所以只需1個神經元,定義中間層的連接神經元是10
# 矩陣:[a, b]×[b, c] = [a, c] 
L1_weights = tf.Variable(tf.random_normal([1, 10])) 
L1_bias = tf.Variable(tf.zeros([1, 10]))
L1_weights_bias = tf.matmul(x, L1_weights) + L1_bias
L1 = tf.nn.tanh(L1_weights_bias)
 
# 定義輸出層,每個x只有一個神經元
L2_weights = tf.Variable(tf.random_normal([10, 1]))
L2_bias = tf.Variable(tf.zeros([1, 1]))
L2_weights_bias = tf.matmul(L1, L2_weights) + L2_bias
L2 = tf.nn.tanh(L2_weights_bias)
 
# 定義損失函數
loss = tf.reduce_mean(tf.square(y - L2))
 
# 梯度下降最小化損失函數
optimizer = tf.train.GradientDescentOptimizer(0.1)
 
train_step = optimizer.minimize(loss)
 
# 全局變量初始化
init = tf.global_variables_initializer()
 
# 定義會話
with tf.Session() as sess:
 sess.run(init)
 for _ in range(2000):
  sess.run(train_step, feed_dict={x:x_data, y:y_data})
  
 # 獲取預測值
 predict = sess.run(L2, feed_dict={x:x_data})
 
 # 畫圖
 plt.figure()
 # 畫出散點
 plt.scatter(x_data, y_data)
 # 畫出擬合的曲線
 plt.plot(x_data, predict)
 
 plt.show()

二、代碼運行效果如下:

Tensorflow實現神經網絡擬合線性回歸

看完上述內容,你們掌握Tensorflow實現神經網絡擬合線性回歸的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女