- TensorFlow 教程
- TensorFlow - 首页
- TensorFlow - 简介
- TensorFlow - 安装
- 理解人工智能
- 数学基础
- 机器学习与深度学习
- TensorFlow - 基础
- 卷积神经网络
- 循环神经网络
- TensorBoard 可视化
- TensorFlow - 词嵌入
- 单层感知器
- TensorFlow - 线性回归
- TFLearn 及其安装
- CNN 和 RNN 的区别
- TensorFlow - Keras
- TensorFlow - 分布式计算
- TensorFlow - 导出
- 多层感知器学习
- 感知器的隐藏层
- TensorFlow - 优化器
- TensorFlow - XOR 实现
- 梯度下降优化
- TensorFlow - 构建图
- 使用 TensorFlow 进行图像识别
- 神经网络训练建议
- TensorFlow 有用资源
- TensorFlow - 快速指南
- TensorFlow - 有用资源
- TensorFlow - 讨论
TensorFlow - 卷积神经网络
在理解机器学习概念之后,我们现在可以将重点转向深度学习概念。深度学习是机器学习的一个分支,被认为是近几十年来研究人员取得的一个关键步骤。深度学习实现的例子包括图像识别和语音识别等应用。
以下是两种重要的深度神经网络类型:
- 卷积神经网络
- 循环神经网络
在本章中,我们将重点介绍卷积神经网络 (CNN)。
卷积神经网络
卷积神经网络旨在通过多层数组处理数据。这种类型的神经网络用于图像识别或人脸识别等应用。CNN 与任何其他普通神经网络的主要区别在于,CNN 将输入作为二维数组,并直接对图像进行操作,而不是像其他神经网络那样关注特征提取。
CNN 的主要方法包括针对识别问题的解决方案。谷歌和Facebook 等顶级公司已投资于识别项目的研发,以更快地完成活动。
卷积神经网络使用三个基本思想:
- 局部感受野
- 卷积
- 池化
让我们详细了解这些思想。
CNN 利用输入数据中存在的空间相关性。神经网络的每一层都连接一些输入神经元。这个特定区域称为局部感受野。局部感受野关注隐藏神经元。隐藏神经元处理上述区域内的输入数据,而不会意识到特定边界外的变化。
以下是生成局部感受野的示意图:
如果我们观察上面的表示,每个连接都会学习隐藏神经元与其相关的连接的权重,并从一层移动到另一层。在这里,单个神经元会不时地发生转移。这个过程称为“卷积”。
从输入层到隐藏特征图的连接映射定义为“共享权重”,包含的偏差称为“共享偏差”。
CNN 或卷积神经网络使用池化层,这些层位于 CNN 声明之后。它将用户的输入作为来自卷积网络的特征图,并准备一个压缩的特征图。池化层有助于创建具有先前层神经元的层。
TensorFlow 中 CNN 的实现
在本节中,我们将学习 CNN 的 TensorFlow 实现。执行和正确确定整个网络维度所需的步骤如下所示:
步骤 1 - 包含 TensorFlow 和数据集合模块所需的必要模块,这些模块需要计算 CNN 模型。
import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_data
步骤 2 - 声明一个名为 run_cnn() 的函数,其中包括各种参数和优化变量以及数据占位符的声明。这些优化变量将声明训练模式。
def run_cnn(): mnist = input_data.read_data_sets("MNIST_data/", one_hot = True) learning_rate = 0.0001 epochs = 10 batch_size = 50
步骤 3 - 在此步骤中,我们将声明训练数据占位符以及输入参数 - 对于 28 x 28 像素 = 784。这是从 mnist.train.nextbatch() 中提取的展平的图像数据。
我们可以根据需要重新调整张量的形状。第一个值 (-1) 告诉函数根据传递给它的数据量动态地塑造该维度。两个中间维度设置为图像大小(即 28 x 28)。
x = tf.placeholder(tf.float32, [None, 784]) x_shaped = tf.reshape(x, [-1, 28, 28, 1]) y = tf.placeholder(tf.float32, [None, 10])
步骤 4 - 现在重要的是创建一些卷积层:
layer1 = create_new_conv_layer(x_shaped, 1, 32, [5, 5], [2, 2], name = 'layer1') layer2 = create_new_conv_layer(layer1, 32, 64, [5, 5], [2, 2], name = 'layer2')
步骤 5 - 让我们展平输出,准备用于全连接输出阶段 - 在两层步长为 2 的池化之后,维度为 28 x 28,降为 14 x 14 或最小 7 x 7 x,y 坐标,但具有 64 个输出通道。要使用“密集”层创建全连接层,新的形状需要是 [-1, 7 x 7 x 64]。我们可以为此层设置一些权重和偏差值,然后使用 ReLU 激活。
flattened = tf.reshape(layer2, [-1, 7 * 7 * 64]) wd1 = tf.Variable(tf.truncated_normal([7 * 7 * 64, 1000], stddev = 0.03), name = 'wd1') bd1 = tf.Variable(tf.truncated_normal([1000], stddev = 0.01), name = 'bd1') dense_layer1 = tf.matmul(flattened, wd1) + bd1 dense_layer1 = tf.nn.relu(dense_layer1)
步骤 6 - 另一个具有特定 softmax 激活函数和所需优化器的层定义了精度评估,这使得初始化运算符的设置成为可能。
wd2 = tf.Variable(tf.truncated_normal([1000, 10], stddev = 0.03), name = 'wd2') bd2 = tf.Variable(tf.truncated_normal([10], stddev = 0.01), name = 'bd2') dense_layer2 = tf.matmul(dense_layer1, wd2) + bd2 y_ = tf.nn.softmax(dense_layer2) cross_entropy = tf.reduce_mean( tf.nn.softmax_cross_entropy_with_logits(logits = dense_layer2, labels = y)) optimiser = tf.train.AdamOptimizer(learning_rate = learning_rate).minimize(cross_entropy) correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) init_op = tf.global_variables_initializer()
步骤 7 - 我们应该设置记录变量。这会添加一个摘要来存储数据的精度。
tf.summary.scalar('accuracy', accuracy) merged = tf.summary.merge_all() writer = tf.summary.FileWriter('E:\TensorFlowProject') with tf.Session() as sess: sess.run(init_op) total_batch = int(len(mnist.train.labels) / batch_size) for epoch in range(epochs): avg_cost = 0 for i in range(total_batch): batch_x, batch_y = mnist.train.next_batch(batch_size = batch_size) _, c = sess.run([optimiser, cross_entropy], feed_dict = { x:batch_x, y: batch_y}) avg_cost += c / total_batch test_acc = sess.run(accuracy, feed_dict = {x: mnist.test.images, y: mnist.test.labels}) summary = sess.run(merged, feed_dict = {x: mnist.test.images, y: mnist.test.labels}) writer.add_summary(summary, epoch) print("\nTraining complete!") writer.add_graph(sess.graph) print(sess.run(accuracy, feed_dict = {x: mnist.test.images, y: mnist.test.labels})) def create_new_conv_layer( input_data, num_input_channels, num_filters,filter_shape, pool_shape, name): conv_filt_shape = [ filter_shape[0], filter_shape[1], num_input_channels, num_filters] weights = tf.Variable( tf.truncated_normal(conv_filt_shape, stddev = 0.03), name = name+'_W') bias = tf.Variable(tf.truncated_normal([num_filters]), name = name+'_b') #Out layer defines the output out_layer = tf.nn.conv2d(input_data, weights, [1, 1, 1, 1], padding = 'SAME') out_layer += bias out_layer = tf.nn.relu(out_layer) ksize = [1, pool_shape[0], pool_shape[1], 1] strides = [1, 2, 2, 1] out_layer = tf.nn.max_pool( out_layer, ksize = ksize, strides = strides, padding = 'SAME') return out_layer if __name__ == "__main__": run_cnn()
以下是上述代码生成的输出:
See @{tf.nn.softmax_cross_entropy_with_logits_v2}. 2018-09-19 17:22:58.802268: I T:\src\github\tensorflow\tensorflow\core\platform\cpu_feature_guard.cc:140] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2 2018-09-19 17:25:41.522845: W T:\src\github\tensorflow\tensorflow\core\framework\allocator.cc:101] Allocation of 1003520000 exceeds 10% of system memory. 2018-09-19 17:25:44.630941: W T:\src\github\tensorflow\tensorflow\core\framework\allocator.cc:101] Allocation of 501760000 exceeds 10% of system memory. Epoch: 1 cost = 0.676 test accuracy: 0.940 2018-09-19 17:26:51.987554: W T:\src\github\tensorflow\tensorflow\core\framework\allocator.cc:101] Allocation of 1003520000 exceeds 10% of system memory.