如何使用Python和TensorFlow从Iliad数据集创建原始字符串的数据集?
TensorFlow是由谷歌提供的机器学习框架。它是一个开源框架,与Python一起使用实现算法、深度学习应用程序等。它被用于研究和生产目的。
‘tensorflow’包可以使用以下代码行在Windows上安装−
pip install tensorflow
Tensor是TensorFlow中使用的数据结构。它有助于连接流程图中的边缘。这个流程图称为“数据流图”。张量只是多维数组或列表。
我们将使用Iliad的数据集,其中包含各种翻译作品的文本数据,包括威廉·考普尔(William Cowper)、爱德华(德比伯爵)和塞缪尔·巴特勒(Samuel Butler)的翻译作品。该模型训练有素,可以在给定单行文本时识别翻译者。使用的文本文件已经预处理。这包括删除文档头和页脚、行号和章节标题。
我们将使用Google Colaboratory来运行下面的代码。Google Colab或Colaboratory可以在浏览器中运行Python代码,不需要任何配置,并免费访问GPU(图形处理器)。Colaboratory是在Jupyter Notebook上构建的。
更多Python相关文章,请阅读:Python 教程
示例
以下是代码片段−
print("Creating a test dataset that consists of raw strings")
test_ds = all_labeled_data.take(VALIDATION_SIZE).batch(BATCH_SIZE)
test_ds = configure_dataset(test_ds)
loss, accuracy = export_model.evaluate(test_ds)
print("The loss is : ", loss)
print("The accuracy is: {:2.2%}".format(accuracy))
代码来源− https://www.tensorflow.org/tutorials/load_data/text
输出
Creating a test dataset that consists of raw strings
79/79 [==============================] - 7s 10ms/step - loss: 0.5230 - accuracy: 0.7909
The loss is : 0.5458346605300903
The accuracy is: 78.16%
说明
-
构建一个测试数据集,数据按一定的批次大小分组。
-
使用‘evaluate’方法评估该数据。
-
显示与训练数据相关的损失和准确性。