[python人工智能] 四.tensorflow创建回归神经网络及optimizer优化器 丨【百变ai秀】-4008云顶国际网站
从本篇文章开始,作者正式开始研究python深度学习、神经网络及人工智能相关知识。前一篇文章讲解了tensorflow基础和一元直线预测的案例,以及session、变量、传入值和激励函数;这篇文章将详细介绍tensorflow创建回归神经网络及optimizer优化器。本文主要结合作者之前的博客和"莫烦大神"的视频介绍,后面随着深入会讲解具体的项目及应用。
基础性文章,希望对您有所帮助,如果文章中存在错误或不足之处,还请海涵~作者作为人工智能的菜鸟,希望大家能与我在这一笔一划的博客中成长起来,共勉。
文章目录
前文赏析:
- [python人工智能] 一.tensorflow2.0环境搭建及神经网络入门
- [python人工智能] 二.tensorflow基础及一元直线预测案例
- [python人工智能] 三.tensorflow基础之session、变量、传入值和激励函数
- [python人工智能] 四.tensorflow创建回归神经网络及optimizer优化器 丨【百变ai秀】
代码下载地址(欢迎大家关注点赞):
如图所示,通过该神经网络识别动物猫或狗,共包括输入层(input layer)、隐藏层3层(hidden layer)和输出层(output layer)。其中每个隐藏层神经元都有一个激励函数,被激励的神经元传递的信息最有价值,它也决定最后的输出结果,经过海量数据训练后,最终神经网络将可以用于识别猫或狗。
本文将通过tensorflow不断训练学习,拟合一条曲线来预测散点的分布规律。首先,我们需要添加神经层,将层(layer)定义成函数,用来添加神经层。神经层是相互连接的,从第一层输入层传入到隐藏层,最后传输至输出层。函数原型如下:
- add_layer(inputs, in_size, out_size, activation_function=none)
参数包括输入值,输入节点数,输出节点数和激励函数(默认为none)
tensorflow的结构如下,输入值input经过隐藏层layer1和layer2,然后有一个预测值predictions,cross_entropy是计算跟真实值的差距。
首先,我们需要制作的层是layer1或layer2,它们中间会有权重weights和偏置biases,计算位于wx_plus_b中,激励函数是relu。
下面开始撰写代码,如下所示:(详见注释)
# -*- coding: utf-8 -*-
"""
created on thu dec 5 18:52:06 2019
@author: xiuzhang eastmount csdn
"""
import tensorflow as tf
#---------------------------------定义神经层-------------------------------
# 函数:输入变量 输入大小 输出大小 激励函数默认none
def add_layer(inputs, in_size, out_size, activation_function=none):
# 权重为随机变量矩阵
weights = tf.variable(tf.random_normal([in_size, out_size])) #行*列
# 定义偏置 初始值增加0.1 每次训练中有变化
biases = tf.variable(tf.zeros([1, out_size]) 0.1) #1行多列
# 定义计算矩阵乘法 预测值
wx_plus_b = tf.matmul(inputs, weights) biases
# 激活操作
if activation_function is none:
outputs = wx_plus_b
else:
outputs = activation_function(wx_plus_b)
return outputs
接下来开始实现了第一个神经网络代码,步骤如下:
1.制作虚拟数据
通过numpy.linspace生成300个随机点进行训练,形成y=x^2-0.5的虚拟数据。代码如下:
import tensorflow as tf
import numpy as np
#---------------------------------定义神经层---------------------------------
# 函数:输入变量 输入大小 输出大小 激励函数默认none
def add_layer(inputs, in_size, out_size, activation_function=none):
# 权重为随机变量矩阵
weights = tf.variable(tf.random_normal([in_size, out_size])) #行*列
# 定义偏置 初始值增加0.1 每次训练中有变化
biases = tf.variable(tf.zeros([1, out_size]) 0.1) #1行多列
# 定义计算矩阵乘法 预测值
wx_plus_b = tf.matmul(inputs, weights) biases
# 激活操作
if activation_function is none:
outputs = wx_plus_b
else:
outputs = activation_function(wx_plus_b)
return outputs
#---------------------------------构造数据---------------------------------
# 输入
x_data = np.linspace(-1, 1, 300)[:,np.newaxis] #维度
# 噪声
noise = np.random.normal(0, 0.05, x_data.shape) #平均值0 方差0.05
# 输出
y_data = np.square(x_data) -0.5 noise
# 设置传入的值xs和ys
xs = tf.placeholder(tf.float32, [none, 1]) #x_data传入给xs
ys = tf.placeholder(tf.float32,[none, 1]) #y_data传入给ys
#---------------------------------可视化分析---------------------------------
import matplotlib.pyplot as plt
# 定义图片框
fig = plt.figure()
ax = fig.add_subplot(1,1,1)
# 散点图
ax.scatter(x_data, y_data)
plt.show()
这里通过matplotlib简单绘制散点图,输出结果如下图所示,基本满足:y_data = np.square(x_data) -0.5 noise。
2.添加神经网络层
定义了隐藏层l1层和输出层prediction。
- l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)
输入为xs,1维的data,神经元10个,relu非线性激励函数 - prediction = add_layer(l1, 10, 1, activation_function=none)
输入为l1输出值, in_size为l1的神经元10,假设l2输出为最终output
完整代码如下图所示:
# -*- coding: utf-8 -*-
"""
created on thu dec 5 18:52:06 2019
@author: xiuzhang eastmount csdn
"""
import tensorflow as tf
import numpy as np
#---------------------------------定义神经层---------------------------------
# 函数:输入变量 输入大小 输出大小 激励函数默认none
def add_layer(inputs, in_size, out_size, activation_function=none):
# 权重为随机变量矩阵
weights = tf.variable(tf.random_normal([in_size, out_size])) #行*列
# 定义偏置 初始值增加0.1 每次训练中有变化
biases = tf.variable(tf.zeros([1, out_size]) 0.1) #1行多列
# 定义计算矩阵乘法 预测值
wx_plus_b = tf.matmul(inputs, weights) biases
# 激活操作
if activation_function is none:
outputs = wx_plus_b
else:
outputs = activation_function(wx_plus_b)
return outputs
#---------------------------------构造数据---------------------------------
# 输入
x_data = np.linspace(-1, 1, 300)[:,np.newaxis] #维度
# 噪声
noise = np.random.normal(0, 0.05, x_data.shape) #平均值0 方差0.05
# 输出
y_data =np.square(x_data) -0.5 noise
# 设置传入的值xs和ys
xs = tf.placeholder(tf.float32, [none, 1]) #x_data传入给xs
ys = tf.placeholder(tf.float32,[none, 1]) #y_data传入给ys
#---------------------------------可视化分析---------------------------------
import matplotlib.pyplot as plt
# 定义图片框
fig = plt.figure()
ax = fig.add_subplot(1,1,1)
# 散点图
ax.scatter(x_data, y_data)
# 连续显示
plt.ion()
plt.show()
#---------------------------------定义神经网络---------------------------------
# 一个输入层:x_data只有一个属性故只有一个神经元
# 一个输出层:y_data只有一个属性故只有一个神经元
# 一个隐藏层:10个神经元
# 隐藏层
l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)
# 输出层
prediction = add_layer(l1, 10, 1, activation_function=none)
3.计算误差与神经网络学习
定义loss变量计算误差,即预测值与真实值的差别;再定义梯度下降变量(gradientdescentoptimizer),通过梯度下降让预测值更接近真实值。最后在session中初始化及计算误差,每隔50步输出一次运算结果。
# -*- coding: utf-8 -*-
"""
created on thu dec 5 18:52:06 2019
@author: xiuzhang eastmount csdn
"""
import tensorflow as tf
import numpy as np
#---------------------------------定义神经层---------------------------------
# 函数:输入变量 输入大小 输出大小 激励函数默认none
def add_layer(inputs, in_size, out_size, activation_function=none):
# 权重为随机变量矩阵
weights = tf.variable(tf.random_normal([in_size, out_size])) #行*列
# 定义偏置 初始值增加0.1 每次训练中有变化
biases = tf.variable(tf.zeros([1, out_size]) 0.1) #1行多列
# 定义计算矩阵乘法 预测值
wx_plus_b = tf.matmul(inputs, weights) biases
# 激活操作
if activation_function is none:
outputs = wx_plus_b
else:
outputs = activation_function(wx_plus_b)
return outputs
#---------------------------------构造数据---------------------------------
# 输入
x_data = np.linspace(-1, 1, 300)[:,np.newaxis] #维度
# 噪声
noise = np.random.normal(0, 0.05, x_data.shape) #平均值0 方差0.05
# 输出
y_data =np.square(x_data) -0.5 noise
# 设置传入的值xs和ys
xs = tf.placeholder(tf.float32, [none, 1]) #x_data传入给xs
ys = tf.placeholder(tf.float32,[none, 1]) #y_data传入给ys
#---------------------------------可视化分析---------------------------------
import matplotlib.pyplot as plt
# 定义图片框
fig = plt.figure()
ax = fig.add_subplot(1,1,1)
# 散点图
ax.scatter(x_data, y_data)
# 连续显示
plt.ion()
plt.show()
#---------------------------------定义神经网络---------------------------------
# 一个输入层:x_data只有一个属性故只有一个神经元
# 一个输出层:y_data只有一个属性故只有一个神经元
# 一个隐藏层:10个神经元
# 隐藏层
l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)
# 输出层
prediction = add_layer(l1, 10, 1, activation_function=none)
#------------------------------定义loss和初始化-------------------------------
# 预测值与真实值误差 平均值->求和->平方(真实值-预测值)
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),
reduction_indices=[1]))
# 训练学习 学习效率通常小于1 这里设置为0.1可以进行对比
train_step = tf.train.gradientdescentoptimizer(0.1).minimize(loss) #减小误差
# 初始化
init = tf.initialize_all_variables()
# 运行
sess = tf.session()
sess.run(init)
#---------------------------------神经网络学习---------------------------------
# 学习1000次
n = 1
for i in range(1000):
# 训练
sess.run(train_step, feed_dict={xs:x_data, ys:y_data}) #假设用全部数据x_data进行运算
# 输出结果 只要通过place_holder运行就要传入参数
if i % 50==0:
print(sess.run(loss, feed_dict={xs:x_data, ys:y_data}))
输出结果如下图所示,每隔50步输出结果,第一次的误差是0.45145842,第二次的误差是0.012015346, 其误差在不断减少,说明神经网络在提升预测的准确性或学到东西了。
0.45145842
0.012015346
0.008982641
0.008721641
0.0085632615
0.008296631
0.0078961495
0.0074299597
0.0069189137
0.0063963127
0.0058622854
0.00548969
0.0051686876
0.0048802416
0.0046461136
0.0044451333
0.0042808857
0.004134449
0.0040101893
0.0039141406
写道这里,整个神经网络的定义和运行过程讲述完毕,包括定义神经层、误差设置、初始化及运行等,接下来开始可视化分析。
为了更直观了解神经网络是如何优化结果的,我们通过matplotlib进行可视化分析。从最早不合理的图形到后面基本拟合,loss误差在不断减小,说明神经网络的真实值和预测值在不断更新接近,神经网络正常运行。
第一次运行结果:
第四次运行结果:
第二十次运行结果:
完整代码及注释如下所示:
# -*- coding: utf-8 -*-
"""
created on thu dec 5 18:52:06 2019
@author: xiuzhang eastmount csdn
"""
import tensorflow as tf
import numpy as np
#---------------------------------定义神经层---------------------------------
# 函数:输入变量 输入大小 输出大小 激励函数默认none
def add_layer(inputs, in_size, out_size, activation_function=none):
# 权重为随机变量矩阵
weights = tf.variable(tf.random_normal([in_size, out_size])) #行*列
# 定义偏置 初始值增加0.1 每次训练中有变化
biases = tf.variable(tf.zeros([1, out_size]) 0.1) #1行多列
# 定义计算矩阵乘法 预测值
wx_plus_b = tf.matmul(inputs, weights) biases
# 激活操作
if activation_function is none:
outputs = wx_plus_b
else:
outputs = activation_function(wx_plus_b)
return outputs
#---------------------------------构造数据---------------------------------
# 输入
x_data = np.linspace(-1, 1, 300)[:,np.newaxis] #维度
# 噪声
noise = np.random.normal(0, 0.05, x_data.shape) #平均值0 方差0.05
# 输出
y_data =np.square(x_data) -0.5 noise
# 设置传入的值xs和ys
xs = tf.placeholder(tf.float32, [none, 1]) #x_data传入给xs
ys = tf.placeholder(tf.float32,[none, 1]) #y_data传入给ys
#---------------------------------可视化分析---------------------------------
import matplotlib.pyplot as plt
# 定义图片框
fig = plt.figure()
ax = fig.add_subplot(1,1,1)
# 散点图
ax.scatter(x_data, y_data)
# 连续显示
plt.ion()
plt.show()
#---------------------------------定义神经网络---------------------------------
# 隐藏层
l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu)
# 输出层
prediction = add_layer(l1, 10, 1, activation_function=none)
#------------------------------定义loss和初始化-------------------------------
# 预测值与真实值误差 平均值->求和->平方(真实值-预测值)
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),
reduction_indices=[1]))
# 训练学习 学习效率通常小于1 这里设置为0.1可以进行对比
train_step = tf.train.gradientdescentoptimizer(0.1).minimize(loss) #减小误差
# 初始化
init = tf.initialize_all_variables()
# 运行
sess = tf.session()
sess.run(init)
#---------------------------------神经网络学习---------------------------------
# 学习1000次
n = 1
for i in range(1000):
# 训练
sess.run(train_step, feed_dict={xs:x_data, ys:y_data}) #假设用全部数据x_data进行运算
# 输出结果 只要通过place_holder运行就要传入参数
if i % 50==0:
#print(sess.run(loss, feed_dict={xs:x_data, ys:y_data}))
try:
# 忽略第一次错误 后续移除lines的第一个线段
ax.lines.remove(lines[0])
except exception:
pass
# 预测
prediction_value = sess.run(prediction, feed_dict={xs:x_data})
# 设置线宽度为5 红色
lines = ax.plot(x_data, prediction_value, 'r-', lw=5)
# 暂停
plt.pause(0.1)
# 保存图片
name = "test" str(n) ".png"
plt.savefig(name)
n = n 1
注意:在spyder软件运行代码,一般显示figure的是在ipython console中,如下图所示,图比较小且不能进行操作,同时在ipython console中不能进行动态的figure显示。这时候需要设置单独弹出的窗口才能解决。
在spyder软件设置单独弹出的窗口的步骤为:tools–>preferences–>ipython console–>graphics–>graphics backend–> backend–>设置成automatic,如下图所示。如果是设置成inline则figure是在ipython console中显示。最后需要再对spyder软件进行重新启动,没有重启则不能实现设置效果。这样就可以显示出单独的窗口,并可以实现动态的figure显示,如图所示的曲线动态拟合效果。
参考:
class tf.train.optimizer是优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的api。你基本上不会直接使用这个类,但是你会用到他的子类比如gradientdescentoptimizer、adagradoptimizer、momentumoptimizer等等。
优化器有很多不同的种类,最基本的一种是gradientsdescentoptimizer,它也是机器学习中最重要或最基础的线性优化。官方给出的常见优化器如下图所示:
官方网址:
它介绍七种常见的优化器包括:
- class tf.train.gradientdescentoptimizer
- class tf.train.adagradoptimizer
- class tf.train.adadeltaoptimizer
- class tf.train.momentumoptimizer
- class tf.train.adamoptimizer
- class tf.train.ftrloptimizer
- class tf.train.rmspropoptimizer
下面结合“莫烦”老师的课程,给读者们分享优化器的用法。
- gradientdescentoptimizer(梯度下降)取决于传进数据的size,比如只传进去全部数据的十分之一,gradientdescentoptimizer就变成了std,它只考虑一部分的数据,一部分一部分的学习,其优势是能更快地学习到去往全局最小量(global minimum)的路径。
- momentumoptimizer 是基于学习效率的改变,它不仅仅考虑这一步的学习效率,还加载了上一步的学习效率趋势,然后上一步加这一步的learning_rate,它会比gradientdescentoptimizer更快到达全局最小量。
- rmspropoptimizer google用它来优化阿尔法狗的学习效率。
下图通过可视化对各种优化器进行了对比分析,机器学习从目标学习到最优的过程,有不同的学习路径,由于momentum考虑了上一步的学习(learning_rate),走的路径会很长;gradientdescent的学习时间会非常慢。如果您是初学者,建议使用gradientdescentoptimizer即可,如果您有一定的基础,可以考虑下momentumoptimizer、adamoptimizer两个常用的优化器,高阶的话,可以尝试学习rmspropoptimizer优化器。总之,您最好结合具体的研究问题,选择适当的优化器。
深夜写下这篇文章,真的非常忙碌,希望这篇基础性文章对您有所帮助,如果文章中存在错误或不足之处,还请海涵~作为人工智能的菜鸟,我希望自己能不断进步并深入,后续将它应用于图像识别、网络安全、对抗样本等领域,一起加油!
感恩能与大家在华为云遇见!
希望能与大家一起在华为云社区共同成长。原文地址:https://blog.csdn.net/eastmount/article/details/103410289
【百变ai秀】有奖征文火热进行中:
(by:娜璋之家 eastmount 2021-09-03 夜于武汉)
参考文献:
[2] 斯坦福机器学习视频ng教授:
[3] 书籍《游戏开发中的人工智能》、《游戏编程中的人工智能技术》
[4] 网易云莫烦老师视频(强推 我付费支持老师一波):
- 点赞
- 收藏
- 关注作者
评论(0)