# -*- coding:utf-8 -*- import tensorflow as tf #引入手写数字库 from tensorflow.contrib.learn.python.learn.datasets.mnist import read_data_sets #1.数据加载 #one_hot编码格式的标签数据 mnist=read_data_sets( ‘data/‘ , on
# -*- coding:utf-8 -*-
import tensorflow as tf
#引入手写数字库
from tensorflow.contrib.learn.python.learn.datasets.mnist import read_data_sets
#1.数据加载
#one_hot编码格式的标签数据
mnist=read_data_sets(‘data/‘,one_hot=True)
#看一下数据的维度。。。。。看一下某一行数据长什么样
#提取训练集的images和 label
train_images=mnist.train.images
train_labels=mnist.train.labels
#2,数据预处理
#针对手写数字而言,我们不需要进行预处理
#3,设置一些超参数
n_inputs=784 #28*28
#分类类别大小
classes=10
#学习率
learning_rate=1e-8
#批处理数据量
batch_size=128
#迭代次数
for_num=1000
#数据占位符设置
input_images_x=tf.placeholder(tf.float32,[None,n_inputs])
out_classes_y=tf.placeholder(tf.float32,[None,classes])
#权重和偏执量
#网络设计很有关系
w={
‘wc1‘:tf.Variable(tf.random_normal([5,5,1,20],stddev=0.1)), #有20个卷积核的大小5*5,厚度1,stddev标准差
‘wc2‘:tf.Variable(tf.random_normal([5,5,20,50],stddev=0.1)),
‘wf1‘:tf.Variable(tf.random_normal([7*7*50,500],stddev=0.1)),
‘wf2‘:tf.Variable(tf.random_normal([500,classes],stddev=0.1))
}
b={
‘bc1‘:tf.Variable(tf.random_normal([20],stddev=0.1)),
‘bc2‘:tf.Variable(tf.random_normal([50],stddev=0.1)),
‘bf1‘:tf.Variable(tf.random_normal([500],stddev=0.1)),
‘bf2‘:tf.Variable(tf.random_normal([classes],stddev=0.1))
}
#4,设计网络
def CNN_LeNet(input_x,w,b):
#input_x传入的数据是二维的,不满足卷积计算的形式,卷积计算是四维,也就是说进行reshape
image_x=tf.reshape(input_x,[-1,28,28,1]) #-1为转换成任意维度,28高度,28宽度,1是单通道(黑白)
#conv-1
#tf.nn.conv2d(input,filter,strides,padding,use_cudnn_on_gpu,name)
#input 进行卷积计算的数据
#filter 窗口大小,也是四维度的
#strides 步长,四个维度的每次走多少远
#padding 只能是‘SAME‘和‘VALID’,‘SAME’表示停留在数据的边缘,‘VALID’表示会做边缘填充
#use_cudnn_on_gpu 是否使用cudnn加速,默认为TRUE
#name 变量名
# 两层卷积层,1层全连接,输出层
# 输出的数据是28*28*1
# 输出的数据是10*1
conv_1=tf.nn.conv2d(input=image_x,filter=w[‘wc1‘],strides=[1,1,1,1],padding=‘SAME‘) #[1,1,1,1]依次代表数据,高,宽,厚度移动1步
#激励,激励的是一个线性的方程
#bias_add 就是矩阵加的操作,只是他实现的是 ,bias加到value上,但是value的维度和bias的不一样
relu_1=tf.nn.relu(tf.nn.bias_add(conv_1,b[‘bc1‘]))
#池化
pool_1=tf.nn.max_pool(relu_1,ksize=[1,2,2,1],strides=[1,1,1,1],padding=‘SAME‘) #ksize池化窗口2*2的大小,strides=[1,1,1,1]
#一般为了防止过拟合,我们会加上dropout操作,也可以做 标准化 ,也可以做正则项处理 。。。。
#keep_prob保留率
conv_1_out=tf.nn.dropout(pool_1,keep_prob=0.5)
#conv_2
conv_2=tf.nn.conv2d(input=conv_1_out,filter=w[‘wc2‘],strides=[1,2,2,1],padding=‘SAME‘)
relu_2 = tf.nn.relu(tf.nn.bias_add(conv_2, b[‘bc2‘]))
pool_2 = tf.nn.max_pool(relu_2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1],padding=‘SAME‘)
conv_2_out = tf.nn.dropout(pool_2, keep_prob=0.5)
#fc层,全连接层
#1,拉伸数据
wf1_shape=w[‘wf1‘].get_shape().as_list()[0] #wf1_shape:784
_densel=tf.reshape(conv_2_out,[-1,wf1_shape]) #-1代表一共有多少数据
#2,执行FC操作
#激励,线性方程,w*x+b
fc1_relu=tf.nn.relu(tf.nn.bias_add(tf.matmul(_densel,w[