- TensorFlow 教程
- TensorFlow - 主页
- TensorFlow - 简介
- TensorFlow - 安装
- 了解人工智能
- 数学基础
- 机器学习与深度学习
- TensorFlow - 基础
- 卷积神经网络
- 循环神经网络
- TensorBoard 可视化
- TensorFlow - 词嵌入
- 单层感知器
- TensorFlow - 线性回归
- TFLearn 及其安装
- CNN 和 RNN 的差异
- TensorFlow - Keras
- TensorFlow - 分布式计算
- TensorFlow - 导出
- 多层感知器学习
- 感知器的隐藏层
- TensorFlow - 优化器
- TensorFlow - XOR 实现
- 梯度下降优化
- TensorFlow - 形成图
- 使用 TensorFlow 进行图像识别
- 神经网络培训建议
- TensorFlow 实用资源
- TensorFlow - 快速指南
- TensorFlow - 实用资源
- TensorFlow - 讨论
TensorFlow - 优化器
优化器是扩展类,其中包括用于训练特定模型的附加信息。该优化器类使用给定的参数初始化,但重要的是要记住,不需要张量。优化器用于提高特定模型的培训速度和性能。
TensorFlow 的基本优化器是 -
tf.train.Optimizer
此类在 tensorflow/python/training/optimizer.py 的指定路径中定义。
以下是 Tensorflow 中的一些优化器 -
- 随机梯度下降
- 具有梯度裁剪的随机梯度下降
- 动量
- Nesterov 动量
- Adagrad
- Adadelta
- RMSProp
- Adam
- Adamax
- SMORMS3
我们将重点关注随机梯度下降。为其创建优化器的说明如下 -
def sgd(cost, params, lr = np.float32(0.01)):
g_params = tf.gradients(cost, params)
updates = []
for param, g_param in zip(params, g_params):
updates.append(param.assign(param - lr*g_param))
return updates
基本参数在特定函数中定义。在我们的后续章节中,我们将重点关注梯度下降优化,并实施优化器。
广告