TensorFlow Lite 简介


TensorFlow Lite 是一个移动库,旨在将模型部署到移动设备、微控制器和边缘设备上。它配备了工具,可以使用五个方面在移动设备上实现设备端机器学习:延迟、隐私、连接性、大小和功耗。

它支持 Android、iOS、嵌入式 Linux 和微控制器。支持多种语言,例如 Java、Swift、Objective C、C++ 和 Python。还提供硬件加速和模型优化。

文档提供了端到端示例,用于机器学习项目,例如图像分类、目标检测、问答、姿态估计、文本分类以及不同平台上的许多其他项目。

在 TensorFlow Lite 中开发模型有两个方面:

  • 构建 TensorFlow Lite 模型

  • 运行推理。

构建 TensorFlow Lite 模型

TensorFlow Lite 模型以一种称为 FlatBuffers 的可移植格式表示,即 .tflite 文件扩展名。它具有减小的尺寸和快速的推理,使 TensorFlow Lite 能够在计算和内存资源有限的设备上高效执行。它还包括关于模型、预处理和后处理管道的元数据,这些元数据采用人类可读的格式。

推理

推理是在设备上执行 TensorFlow Lite 模型的过程,这有助于对新数据进行预测。这可以通过两种方式完成,具体取决于模型是否包含元数据。

  • 包含元数据 - 使用现成的 API 或构建自定义推理管道。使用 Android 设备,您可以使用 Android Studio ML 模型绑定或 TensorFlow Lite 代码生成器生成代码包装器。

  • 不包含元数据 - 使用 TensorFlow Lite 解释器 API,该 API 在多个平台上受支持。

更新于:2022年10月14日

430 次浏览

启动您的职业生涯

通过完成课程获得认证

开始
广告