如何使用 Tensorflow 和 Python 从磁盘加载花卉数据集和模型?
Tensorflow 可以使用 'image_dataset_from_directory' 方法从磁盘加载花卉数据集和模型。
阅读更多: 什么是 TensorFlow 以及 Keras 如何与 TensorFlow 协作创建神经网络?
包含至少一层卷积层的神经网络称为卷积神经网络。我们可以使用卷积神经网络构建学习模型。
图像分类迁移学习背后的直觉是,如果一个模型在大型通用数据集上进行训练,则该模型可以有效地用作视觉世界的通用模型。它将学习特征映射,这意味着用户无需从头开始在大型数据集上训练大型模型。
TensorFlow Hub 是一个包含预训练 TensorFlow 模型的存储库。TensorFlow 可用于微调学习模型。
我们将了解如何使用来自 TensorFlow Hub 的模型与 tf.keras,使用来自 TensorFlow Hub 的图像分类模型。完成此操作后,可以执行迁移学习以微调模型以适应自定义图像类别。这是通过使用预训练的分类器模型来获取图像并预测它是哪个来完成的。这可以在无需任何训练的情况下完成。
我们正在使用 Google Colaboratory 运行以下代码。Google Colab 或 Colaboratory 帮助通过浏览器运行 Python 代码,无需任何配置,并且可以免费访问 GPU(图形处理单元)。Colaboratory 是建立在 Jupyter Notebook 之上的。
示例
print("The flower dataset") data_root = tf.keras.utils.get_file( 'flower_photos','https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz', untar=True) print("Load data into the model using images off disk with image_dataset_from_directory") batch_size = 32 img_height = 224 img_width = 224 train_ds = tf.keras.preprocessing.image_dataset_from_directory( str(data_root), validation_split=0.2, subset="training", seed=123, image_size=(img_height, img_width), batch_size=batch_size)
代码来源 −https://tensorflowcn.cn/tutorials/images/transfer_learning_with_hub
输出
The flower dataset Downloading data from https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz 228818944/228813984 [==============================] - 4s 0us/step Load data into the model using images off disk with image_dataset_from_directory Found 3670 files belonging to 5 classes. Using 2936 files for training.
解释
- 如果我们需要使用不同的类别训练模型,则可以使用来自 TFHub 的模型。
- 这将有助于通过重新训练模型的顶层来训练自定义图像分类器。
- 这将有助于识别我们数据集中存在的类别。
- 我们将为此使用 iris 数据集。
- 该模型使用磁盘上的图像进行训练,使用的是 image_dataset_from_directory。
广告