如何使用Python使用Tensorflow从磁盘加载花朵数据集和模型?

如何使用Python使用Tensorflow从磁盘加载花朵数据集和模型?

使用“image_dataset_from_directory”方法,可以使用Tensorflow从磁盘加载花朵数据集和模型。

更多Python相关文章,请阅读:Python 教程

至少包含一个层的神经网络称为卷积层。我们可以使用卷积神经网络来构建学习模型。

图像分类中使用迁移学习的思想是,如果在大型通用数据集上训练了一个模型,那么该模型可以有效地用作视觉世界的通用模型。它将学习特征映射,这意味着用户不必从头开始在大型数据集上训练大型模型。

TensorFlow Hub是包含预训练TensorFlow模型的存储库。

我们将了解如何使用TensorFlow Hub中的模型与tf.keras一起使用,使用TensorFlow Hub中的图像分类模型。完成后,可以执行迁移学习,以针对自定义图像类微调模型。这是通过使用预先训练的分类器模型来获取图像并预测它是什么来完成的。这可以在不需要任何训练的情况下完成。

我们使用Google Colaboratory运行以下代码。Google Colab或Colaboratory可在浏览器上运行Python代码,并且不需要任何配置并且提供免费访问GPU(图形处理单元)。Colaboratory是基于Jupyter Notebook构建的。

示例

print("The flower dataset")
data_root = tf.keras.utils.get_file(
'flower_photos','https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz',
untar=True)
print("Load data into the model using images off disk with image_dataset_from_directory")
batch_size = 32
img_height = 224
img_width = 224
train_ds = tf.keras.preprocessing.image_dataset_from_directory(
str(data_root),
validation_split=0.2,
subset="training",
seed=123,
image_size=(img_height, img_width),
batch_size=batch_size)

代码来源: https://www.tensorflow.org/tutorials/images/transfer_learning_with_hub

输出

花朵数据集
从https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz下载数据
228818944/228813984 [==============================] - 4s 0us/step
使用图片自目录'image_dataset_from_directory'将数据加载到模型中
找到3670个文件,属于5个类别。
使用2936个文件进行训练。

解释

  • 如果需要使用不同的类训练模型,则可以使用TFHub中的模型。
  • 这将有助于通过重新训练模型的顶层来训练自定义图像分类器。
  • 这将有助于识别我们数据集中的类别。
  • 我们将使用鸢尾花数据集进行训练。
  • 使用“image_dataset_from_directory”从磁盘上的图像训练模型。

Python教程

Java教程

Web教程

数据库教程

图形图像教程

大数据教程

开发工具教程

计算机教程