TensorFlow Lite 简介
TensorFlow Lite 是一个移动库,旨在将模型部署到移动设备、微控制器和边缘设备上。它配备了工具,可以使用五个方面在移动设备上实现设备端机器学习:延迟、隐私、连接性、大小和功耗。
它支持 Android、iOS、嵌入式 Linux 和微控制器。支持多种语言,例如 Java、Swift、Objective C、C++ 和 Python。还提供硬件加速和模型优化。
文档提供了端到端示例,用于机器学习项目,例如图像分类、目标检测、问答、姿态估计、文本分类以及不同平台上的许多其他项目。
在 TensorFlow Lite 中开发模型有两个方面:
构建 TensorFlow Lite 模型
运行推理。
构建 TensorFlow Lite 模型
TensorFlow Lite 模型以一种称为 FlatBuffers 的可移植格式表示,即 .tflite 文件扩展名。它具有减小的尺寸和快速的推理,使 TensorFlow Lite 能够在计算和内存资源有限的设备上高效执行。它还包括关于模型、预处理和后处理管道的元数据,这些元数据采用人类可读的格式。
推理
推理是在设备上执行 TensorFlow Lite 模型的过程,这有助于对新数据进行预测。这可以通过两种方式完成,具体取决于模型是否包含元数据。
包含元数据 - 使用现成的 API 或构建自定义推理管道。使用 Android 设备,您可以使用 Android Studio ML 模型绑定或 TensorFlow Lite 代码生成器生成代码包装器。
不包含元数据 - 使用 TensorFlow Lite 解释器 API,该 API 在多个平台上受支持。
广告