如何使用Tensorflow和预训练模型用Python编译模型?
Tensorflow和预训练模型可以通过使用“compile”方法来编译模型。在此之前,还会定义“base_learning_rate”。
阅读更多: 什么是TensorFlow以及Keras如何与TensorFlow一起创建神经网络?
包含至少一层卷积层的神经网络称为卷积神经网络。我们可以使用卷积神经网络构建学习模型。
我们将了解如何借助预训练网络的迁移学习对猫和狗的图像进行分类。图像分类中迁移学习背后的直觉是,如果一个模型在大型通用数据集上进行训练,则此模型可以有效地用作视觉世界的通用模型。它将学习特征图,这意味着用户不必从头开始在大型数据集上训练大型模型。
阅读更多: 如何预训练自定义模型?
我们正在使用Google Colaboratory运行以下代码。Google Colab或Colaboratory帮助通过浏览器运行Python代码,并且无需任何配置即可免费访问GPU(图形处理单元)。Colaboratory构建在Jupyter Notebook之上。
print("The model is being compiled") base_learning_rate = 0.0001 model.compile(optimizer=tf.keras.optimizers.Adam(lr=base_learning_rate), loss=tf.keras.losses.BinaryCrossentropy(from_logits=True), metrics=['accuracy']) print("The base architecture of the model") model.summary()
代码来源 −https://tensorflowcn.cn/tutorials/images/transfer_learning
输出
The model is being compiled The base architecture of the model Model: "model" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= input_3 (InputLayer) [(None, 160, 160, 3)] 0 _________________________________________________________________ sequential_1 (Sequential) (None, 160, 160, 3) 0 _________________________________________________________________ tf.math.truediv (TFOpLambda) (None, 160, 160, 3) 0 _________________________________________________________________ tf.math.subtract (TFOpLambda (None, 160, 160, 3) 0 _________________________________________________________________ mobilenetv2_1.00_160 (Functi (None, 5, 5, 1280) 2257984 _________________________________________________________________ global_average_pooling2d_2 ( (None, 1280) 0 _________________________________________________________________ dropout (Dropout) (None, 1280) 0 _________________________________________________________________ dense_2 (Dense) (None, 1) 1281 ================================================================= Total params: 2,259,265 Trainable params: 1,281 Non-trainable params: 2,257,984
解释
在训练模型之前,需要先编译模型。
由于有两个类别,因此使用二元交叉熵损失,并使用from_logits=True,因为模型提供线性输出。
MobileNet中的250万个参数被冻结,但在密集层中包含1.2K个可训练参数。
这些层在两个tf.Variable对象(权重和偏差)之间分配。
广告