Tensorflow實現神經網絡擬合線性回歸?相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。
一、利用簡單的一層神經網絡擬合一個函數 y = x^2 ,其中加入部分噪聲作為偏置值防止擬合曲線過擬合
import tensorflow as tf import numpy as np import matplotlib.pyplot as plt # 生成-0.5到0.5間均勻發布的200個點,將數據變為二維,200行一列的數據 x_data = np.linspace(-0.5, 0.5, 200)[:, np.newaxis] # 生成一些噪音數據 noise = np.random.normal(0, 0.02, x_data.shape) # 定義y與x的關系 y_data = np.square(x_data) + noise # 定義兩個占位符 x = tf.placeholder(tf.float32, [None, 1]) # 形狀為n行1列,同x_data的shape y = tf.placeholder(tf.float32, [None, 1]) # 定義神經網絡 # 定義中間層,因為每個x是一維,所以只需1個神經元,定義中間層的連接神經元是10 # 矩陣:[a, b]×[b, c] = [a, c] L1_weights = tf.Variable(tf.random_normal([1, 10])) L1_bias = tf.Variable(tf.zeros([1, 10])) L1_weights_bias = tf.matmul(x, L1_weights) + L1_bias L1 = tf.nn.tanh(L1_weights_bias) # 定義輸出層,每個x只有一個神經元 L2_weights = tf.Variable(tf.random_normal([10, 1])) L2_bias = tf.Variable(tf.zeros([1, 1])) L2_weights_bias = tf.matmul(L1, L2_weights) + L2_bias L2 = tf.nn.tanh(L2_weights_bias) # 定義損失函數 loss = tf.reduce_mean(tf.square(y - L2)) # 梯度下降最小化損失函數 optimizer = tf.train.GradientDescentOptimizer(0.1) train_step = optimizer.minimize(loss) # 全局變量初始化 init = tf.global_variables_initializer() # 定義會話 with tf.Session() as sess: sess.run(init) for _ in range(2000): sess.run(train_step, feed_dict={x:x_data, y:y_data}) # 獲取預測值 predict = sess.run(L2, feed_dict={x:x_data}) # 畫圖 plt.figure() # 畫出散點 plt.scatter(x_data, y_data) # 畫出擬合的曲線 plt.plot(x_data, predict) plt.show()
二、代碼運行效果如下:
看完上述內容,你們掌握Tensorflow實現神經網絡擬合線性回歸的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。