Tensorflow实战系列教程(二) 通过简单的图像分类任务初识计算机视觉

  • Post author:
  • Post category:其他



目录


前言:


摘要:


正文:


1.原始数据及标注


2.待训练的参数及模型


3.损失函数及反向传播优化器


4.训练策略介绍


完整工程,跑起来吧!



前言:

一套计算机视觉为切入点的Tensorflow教程,如果感兴趣,欢迎留言讨论。


摘要:

通过搭建一个分类Mnist数据集的示例,利用一个简单的数学

矩阵模型

,通过训练Mnist数据集的任务,来得到一个可以

识别手写数字的模型

,我们借此示例来大致梳理一下利用Tensorflow进行计算机视觉任务的基础流程。


正文:


1.


原始数据及标注

原始数据为Mnist数据集,Mnist数据集我们从基础介绍的博文里可以找到,在这儿不作过多赘述。数据集提供了0-9十个维度的手写数字集合,目的是得到一个可以分清这十个数字的一个模型,因此标注信息为一个10维的数组。通过input_data脚本将数据集信息载入进来。

该工程中,我们通过对55000张784维的原始数据(28×28大小的单通道图片归一化),对模型参数进行训练拟合,代码为:

#截取5500张图像
total_batch = int(mnist.train.num_examples/batch_size)
#递次训练5500图像
for i in range(total_batch):
     batch_xs, batch_ys = mnist.train.next_batch(batch_size)


2.


待训练的参数及模型

在该工程中,我们对输入的784维数据,利用一个[784,10]的二维矩阵作为参数预测模型,进行运算,通过matmul运算,得到一个10维的输出。预测模型为:

# Set model weights
W = tf.Variable(tf.zeros([784, 10]))    #矩阵的W参数,待训练
b = tf.Variable(tf.zeros([10]))         #偏置值

# Construct model
pred = tf.matmul(x, W) + b


3.


损失函数及反向传播优化器

在该工程中,针对训练任务选取的损失函数为softmax函数,反向传播优化器选择梯度下降优化器,具体为:

# soft_max 越接近的分类value越大,否则越小,损失/代价函数,softmax回归
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = pred,labels = y))

# 梯度下降优化器
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)



那为什么要选取




softmax









cross_entropy




函数的结合作为这种多分类任务的损失函数呢?

我们知道softmax的数学模型为:

exp函数的函数特性如下图所示,在作用域中,exp的结果为(0,正无穷大),因此,一个多任务分类的模型预测结果经过softmax回归后,会变成一个范围在(0,1)之间的标准归一化数组。

交叉熵函数cross_entropy的数学模型为:

我们利用numpy库模拟一下其函数实现,为:

cross_entropy = -numpy.sum(y*np.log(y_pred),-1)

通常情况下log下什么都不写默认是自然对数e ,ln函数的特性函数如下图所示,根据ln函数规律,我们可以知道,如果如果y_preb与结果值很接近,则y * ln(y_preb)的值越小,因为y为标准标注[0…1…0],当y_preb与原始标注越接近,则cross_entropy的结果越小,接近于0,反之,则越接近于无穷大。

这个特性使得cross_entropy可以很好的与softmax结合,作为分类任务的损失函数,他们的值可以很好的表征了模型效果,越好的模型结果越接近于0,根据损失值的结果的导向,利用反向传播机制将参数模型不断调整至最优。


4.


训练策略介绍

训练策略选用分而治之的训练策略,将完整的数据集分为等多的batch块,通过对batch块进行逐步的训练,将模型不断调节,直至将整个数据集中的所有数据均训练到。每将完整数据集遍历一遍,则对当前模型进行一次评价,评价的时候利用测试集进行,因为完整的数据集过于庞大,无法全部载入内存。训练策略为:

training_epochs = 400   #完整数据集训练学习的次数

for epoch in range(training_epochs):
        avg_cost = 0.0
        #截取5500张图像
        total_batch = int(mnist.train.num_examples/batch_size)
        #递次训练5500图像
        for i in range(total_batch):
            batch_xs, batch_ys = mnist.train.next_batch(batch_size)
            #通过反向传播,训练网络
            _, c = sess.run([optimizer, cost], feed_dict={x: batch_xs, y: batch_ys})
            #记录累计误差
            avg_cost += c / total_batch
        print("Epoch:{0}, cost= {1}".format(epoch,avg_cost * 100))
        print("test accuracy is {0}".format(accuracy.eval(feed_dict={x:mnist.test.images, y:mnist.test.labels})))


完整工程,跑起来吧!

'''
 如需转载,请保留该信息
 by hzy
 in 西安
'''
import tensorflow as tf
import random
import input_data       #载入Mnist数据,作为tensorflow框架可以使用的数据格式
mnist = input_data.read_data_sets(one_hot=True)

# Parameters
learning_rate = 0.01    #学习率
training_epochs = 400   #循环学习的次数
batch_size = 100        #一份数据集的大小
display_step = 1

# tf Graph Input
x = tf.placeholder(tf.float32, [None, 784]) #读数据的
y = tf.placeholder(tf.float32, [None, 10]) 

# Set model weights
W = tf.Variable(tf.zeros([784, 10]))    #矩阵的W参数,待训练
b = tf.Variable(tf.zeros([10]))         #偏置值

# Construct model
pred = tf.matmul(x, W) + b

# soft_max 越接近的分类value越大,否则越小,损失/代价函数,softmax回归
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = pred,labels = y))
# 梯度下降优化器 AdamOptimizer
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)

# Initializing the variables tensorflow变量初始化
init = tf.global_variables_initializer()

#定义验证模型
correct_prediction = tf.equal(tf.argmax(pred,1), tf.argmax(y,1))
#表征准确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))

#定义访问下标数组
train_index = list(range(mnist.train.num_examples))
print(mnist.train.num_examples)
#记录训练步长
train_step_record = 0
# Launch the graph
saver = tf.train.Saver()



with tf.Session() as sess:
    sess.run(init)
    for epoch in range(training_epochs):
        avg_cost = 0.0
        #截取5500张图像
        total_batch = int(mnist.train.num_examples/batch_size)
        #递次训练5500图像
        for i in range(total_batch):
            
            batch_xs, batch_ys = mnist.train.next_batch(batch_size)
            #通过反向传播,训练网络
            _, c = sess.run([optimizer, cost], feed_dict={x: batch_xs,
                                                          y: batch_ys})
            #记录累计误差
            avg_cost += c / total_batch
        print("Epoch:{0}, cost= {1}".format(epoch,avg_cost * 100))
        print("test accuracy is {0}".format(accuracy.eval(feed_dict={x:mnist.test.images, y:mnist.test.labels})))

    print("Optimization Finished!")



版权声明:本文为h12321hzhy原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。