如何使用Tensorflow和预训练模型用Python编译模型?


Tensorflow和预训练模型可以通过使用“compile”方法来编译模型。在此之前,还会定义“base_learning_rate”。

阅读更多: 什么是TensorFlow以及Keras如何与TensorFlow一起创建神经网络?

包含至少一层卷积层的神经网络称为卷积神经网络。我们可以使用卷积神经网络构建学习模型。

我们将了解如何借助预训练网络的迁移学习对猫和狗的图像进行分类。图像分类中迁移学习背后的直觉是,如果一个模型在大型通用数据集上进行训练,则此模型可以有效地用作视觉世界的通用模型。它将学习特征图,这意味着用户不必从头开始在大型数据集上训练大型模型。

阅读更多: 如何预训练自定义模型?

我们正在使用Google Colaboratory运行以下代码。Google Colab或Colaboratory帮助通过浏览器运行Python代码,并且无需任何配置即可免费访问GPU(图形处理单元)。Colaboratory构建在Jupyter Notebook之上。

print("The model is being compiled")
base_learning_rate = 0.0001
model.compile(optimizer=tf.keras.optimizers.Adam(lr=base_learning_rate),
loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
metrics=['accuracy'])
print("The base architecture of the model")
model.summary()

代码来源 −https://tensorflowcn.cn/tutorials/images/transfer_learning

输出

The model is being compiled
The base architecture of the model
Model: "model"
_________________________________________________________________
Layer (type)            Output Shape            Param #
=================================================================
input_3 (InputLayer)    [(None, 160, 160, 3)]     0
_________________________________________________________________
sequential_1 (Sequential) (None, 160, 160, 3)       0
_________________________________________________________________
tf.math.truediv (TFOpLambda) (None, 160, 160, 3)    0
_________________________________________________________________
tf.math.subtract (TFOpLambda (None, 160, 160, 3)     0
_________________________________________________________________
mobilenetv2_1.00_160 (Functi (None, 5, 5, 1280)    2257984
_________________________________________________________________
global_average_pooling2d_2 ( (None, 1280)           0
_________________________________________________________________
dropout (Dropout)           (None, 1280)           0
_________________________________________________________________
dense_2 (Dense)              (None, 1)             1281
=================================================================
Total params: 2,259,265
Trainable params: 1,281
Non-trainable params: 2,257,984

解释

  • 在训练模型之前,需要先编译模型。

  • 由于有两个类别,因此使用二元交叉熵损失,并使用from_logits=True,因为模型提供线性输出。

  • MobileNet中的250万个参数被冻结,但在密集层中包含1.2K个可训练参数。

  • 这些层在两个tf.Variable对象(权重和偏差)之间分配。

更新于: 2021年2月25日

185 次浏览

开启你的职业生涯

通过完成课程获得认证

开始学习
广告