Tina_NPU开发部署说明
1 前言
1.1 读者对象
本文档(本指南)主要适用于以下人员:
• 技术支持工程师
• 软件开发工程师
• AI 应用案客户
2 正文
2.1 NPU 开发简介
• 支持int8/uint8/int16 量化精度,运算性能可达1TOPS.
• 相较于GPU 作为AI 运算单元的大型芯片方案,功耗不到GPU 所需要的1%.
• 可直接导入Caffe, TensorFlow, Onnx, TFLite,Keras, Darknet, pyTorch 等模型格式.
• 提供AI 开发工具:支持模型快速转换、支持开发板端侧转换API、支持TensorFlow, TFLite, Caffe, ONNX, Darknet, pyTorch 等模型.
• 提供AI 应用开发接口:提供NPU 跨平台API.
2.2 开发流程
NPU 开发完整的流程如下图所示:

2.3 模型训练
在模型训练阶段,用户根据需求和实际情况选择合适的框架(如Caffe、TensorFlow 等)进行训练得到符合需求的模型。也可直接使用已经训练好的模型, 对于基
于已有的算法模型部署来讲,可以不用经过模型训练阶段.