python画loss曲线_TensorFlow绘制loss/accuracy曲线的实例
1. 多曲线
1.1 使用pyplot方式import numpy as np
import matplotlib.pyplot as plt
x = np.arange(1, 11, 1)
plt.plot(x, x * 2, label="First")
plt.plot(x, x * 3, label="Second")
plt.plot(x, x * 4, label="Third")
plt.legend(loc=0, ncol=1) # 参数:loc设置显示的位置,0是自适应;ncol设置显示的列数
plt.show()
1.2 使用面向对象方式import numpy as np
import matplotlib.pyplot as plt
x = np.arange(1, 11, 1)
fig = plt.figure()
ax = fig.add_subplot(111)
ax.plot(x, x * 2, label="First")
ax.plot(x, x * 3, label="Second")
ax.legend(loc=0)
# ax.plot(x, x * 2)
# ax.legend([”Demo“], loc=0)
plt.show()
2. 双y轴曲线
双y轴曲线图例合并是一个棘手的操作,现以MNIST案例中loss/accuracy绘制曲线。import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
import time
import matplotlib.pyplot as plt
import numpy as np
x_data = tf.placeholder(tf.float32, [None, 784])
y_data = tf.placeholder(tf.float32, [None, 10])
x_image = tf.reshape(x_data, [-1, 28, 28, 1])
# convolve layer 1
filter1 = tf.Variable(tf.truncated_normal([5, 5, 1, 6]))
bias1 = tf.Variable(tf.truncated_normal([6]))
conv1 = tf.nn.conv2d(x_image, filter1, strides=[1, 1, 1, 1], padding='SAME')
h_conv1 = tf.nn.sigmoid(conv1 + bias1)
maxPool2 = tf.nn.max_pool(h_conv1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')
# convolve layer 2
filter2 = tf.Variable(tf.truncated_normal([5, 5, 6, 16]))
bias2 = tf.Variable(tf.truncated_normal([16]))
conv2 = tf.nn.conv2d(maxPool2, filter2, strides=[1, 1, 1, 1], padding='SAME')
h_conv2 = tf.nn.sigmoid(conv2 + bias2)
maxPool3 = tf.nn.max_pool(h_conv2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='SAME')
# convolve layer 3
filter3 = tf.Variable(tf.truncated_normal([5, 5, 16, 120]))
bias3 = tf.Variable(tf.truncated_normal([120]))
conv3 = tf.nn.conv2d(maxPool3, filter3, strides=[1, 1, 1, 1], padding='SAME')
h_conv3 = tf.nn.sigmoid(conv3 + bias3)
# full connection layer 1
W_fc1 = tf.Variable(tf.truncated_normal([7 * 7 * 120, 80]))
b_fc1 = tf.Variable(tf.truncated_normal([80]))
h_pool2_flat = tf.reshape(h_conv3, [-1, 7 * 7 * 120])
h_fc1 = tf.nn.sigmoid(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
# full connection layer 2
W_fc2 = tf.Variable(tf.truncated_normal([80, 10]))
b_fc2 = tf.Variable(tf.truncated_normal([10]))
y_model = tf.nn.softmax(tf.matmul(h_fc1, W_fc2) + b_fc2)
cross_entropy = - tf.reduce_sum(y_data * tf.log(y_model))
train_step = tf.train.GradientDescentOptimizer(1e-3).minimize(cross_entropy)
sess = tf.InteractiveSession()
correct_prediction = tf.equal(tf.argmax(y_data, 1), tf.argmax(y_model, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
sess.run(tf.global_variables_initializer())
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
fig_loss = np.zeros([1000])
fig_accuracy = np.zeros([1000])
start_time = time.time()
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(200)
if i % 100 == 0:
train_accuracy = sess.run(accuracy, feed_dict={x_data: batch_xs, y_data: batch_ys})
print("step %d, train accuracy %g" % (i, train_accuracy))
end_time = time.time()
print("time:", (end_time - start_time))
start_time = end_time
print("********************************")
train_step.run(feed_dict={x_data: batch_xs, y_data: batch_ys})
fig_loss[i] = sess.run(cross_entropy, feed_dict={x_data: batch_xs, y_data: batch_ys})
fig_accuracy[i] = sess.run(accuracy, feed_dict={x_data: batch_xs, y_data: batch_ys})
print("test accuracy %g" % sess.run(accuracy, feed_dict={x_data: mnist.test.images, y_data: mnist.test.labels}))
# 绘制曲线
fig, ax1 = plt.subplots()
ax2 = ax1.twinx()
lns1 = ax1.plot(np.arange(1000), fig_loss, label="Loss")
# 按一定间隔显示实现方法
# ax2.plot(200 * np.arange(len(fig_accuracy)), fig_accuracy, 'r')
lns2 = ax2.plot(np.arange(1000), fig_accuracy, 'r', label="Accuracy")
ax1.set_xlabel('iteration')
ax1.set_ylabel('training loss')
ax2.set_ylabel('training accuracy')
# 合并图例
lns = lns1 + lns2
labels = ["Loss", "Accuracy"]
# labels = [l.get_label() for l in lns]
plt.legend(lns, labels, loc=7)
plt.show()
注:数据集保存在MNIST_data文件夹下
其实就是三步:
1)分别定义loss/accuracy一维数组fig_loss = np.zeros([1000])
fig_accuracy = np.zeros([1000])
# 按间隔定义方式:fig_accuracy = np.zeros(int(np.ceil(iteration / interval)))
2)填充真实数据fig_loss[i] = sess.run(cross_entropy, feed_dict={x_data: batch_xs, y_data: batch_ys})
fig_accuracy[i] = sess.run(accuracy, feed_dict={x_data: batch_xs, y_data: batch_ys})
3)绘制曲线fig, ax1 = plt.subplots()
ax2 = ax1.twinx()
lns1 = ax1.plot(np.arange(1000), fig_loss, label="Loss")
# 按一定间隔显示实现方法
# ax2.plot(200 * np.arange(len(fig_accuracy)), fig_accuracy, 'r')
lns2 = ax2.plot(np.arange(1000), fig_accuracy, 'r', label="Accuracy")
ax1.set_xlabel('iteration')
ax1.set_ylabel('training loss')
ax2.set_ylabel('training accuracy')
# 合并图例
lns = lns1 + lns2
labels = ["Loss", "Accuracy"]
# labels = [l.get_label() for l in lns]
plt.legend(lns, labels, loc=7)
以上这篇TensorFlow绘制loss/accuracy曲线的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持爱安网。
python画loss曲线_TensorFlow绘制loss/accuracy曲线的实例相关推荐
- python画轨迹曲线-python 画3维轨迹图并进行比较的实例
一. 数据的格式 首先我们需要x,y,z三个数据进行画图.从本实验用到的数据集KITTI 00.txt中举例: 1.000000e+00 9.043680e-12 2.326809e-11 5.551 ...
- python画cpk图_TensorFlow——Checkpoint为模型添加检查点的实例
1.检查点 保存模型并不限于在训练模型后,在训练模型之中也需要保存,因为TensorFlow训练模型时难免会出现中断的情况,我们自然希望能够将训练得到的参数保存下来,否则下次又要重新训练. 这种在训练 ...
- python画loss曲线_绘制loss曲线
第一步保存日志文件,用重定向即可: $TOOLS/caffe train --solver=$SOLVERFILE 2>&1 |tee out.log 第二步直接绘制: python p ...
- python画箭头_Python matplotlib绘制图形,包括点、曲线、注释和箭头
Python的matplotlib模块绘制图形功能很强大,今天就用pyplot绘制一个简单的图形,图形中包括曲线.曲线上的点.注释和指向点的箭头. 1. 结果预览: 2. 代码如下: from mat ...
- python画彩色螺旋线_Python turtle 绘制彩色螺旋线
小朋友总会别各种五颜六色的色彩所吸引,就拿小编的小侄子来说,自己很喜欢美术课,看到五颜六色的颜色都想尝试着图一下,但结果总是不仅人意,今天南京小码王Python培训机构,就为大家介绍一下Python ...
- python画数学函数_Python 绘制你想要的数学函数图形
Python 非常热门,但除非工作需要没有刻意去了解更多,直到有个函数图要绘制,想起了它.结果发现,完全用不着明白什么是编程,就可以使用它完成很多数学函数图的绘制.通过以下两个步骤,就可以进行数学函数 ...
- python画五角星代码_008-python绘制五个五角星
操纵海龟绘图有着许多的命令,这些命令可以划分为两种:一种为运动命令,一种为画笔控制命令 1. 运动命令: forward(degree) #向前移动距离degree代表距离 backward(degr ...
- python画多层网络_绘制多层n
我想用Python绘制一个多层网络.预期的图表如下所示: 我想用Python的Multinetx绘制这个网络.这是我的命令:import Multinetx as mx import matplotl ...
- tensorflow分类的loss函数_tensorflow中loss函数
交叉熵函数 1)sigmoid_cross_entropy_with_logits(二分类问题) 输入是logits和targets,logits就是神经网络模型中的 W * X矩阵,不需要经过sig ...
最新文章
- python实用脚本-python 实用脚本
- 掉网问题的log分析
- Cocos2d-x之Sprite
- Java四种输出语句
- 日照油库系统推荐_生产车间用什么地坪好?这款地面硬化系统使用一年后获车间主任点赞:太省心!| 项目回访...
- python爬贴吧回复内容_Python 基础语法+简单地爬取百度贴吧内容
- 不能以根用户身份运行 Google Chrome 浏览器
- linux 程序收到sigsegv信号_linux下定位多线程内存越界问题实践总结
- network reactnative_从零学React Native之14 网络请求
- 一个月工资6500,一年存了五万左右,算节省吗?
- 保监会:关于开展2012年保险业信息系统安全检查工作的通知
- Spark 整合hive 实现数据的读取输出
- Oracle数据库批量插入的问题
- python调用通达信函数_如何把通达信公式变成python
- 单双面打印价格一样吗_正式合同应该打印单面还是双面?
- Kettle使用 js 文件生成节假日表文件 附带2019-2020节假日文件
- php被挂马,近日报网站被挂马的解决方法
- btc、usdt 根据交易hash计算手续费
- 【机器学习】吴恩达机器学习Deeplearning.ai
- uni-app相关知识积累