ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
## PaddlePaddle [Paddle Lite_飞桨-源于产业实践的开源深度学习平台](https://www.paddlepaddle.org.cn/paddle/paddlelite) [英特尔 FPGA 部署示例-PaddlePaddle深度学习平台](https://www.paddlepaddle.org.cn/lite/v2.10/demo_guides/intel_fpga.html) ![](https://raw.githubusercontent.com/PaddlePaddle/Paddle-Lite/develop/docs/images/workflow.png) 1. Lite 预编译库[下载](https://www.paddlepaddle.org.cn/lite/v2.10/quick_start/release_lib.html) 2. 安装 python预测库 ~~~ pip install paddlelite==2.9 ~~~ 3. 通过模型可视化工具[Netron](https://github.com/lutzroeder/netron)打开文件夹下的__model__文件,查看模型结构。 https://netron.app/ 4. 开发应用程序 ~~~ https://www.paddlepaddle.org.cn/lite/v2.9/quick_start/python_demo.html 1. 声明`MobileConfig`,设置第二步优化后的模型文件路径,或选择从内存中加载模型 2. 创建`Predictor`,调用`CreatePaddlePredictor`接口,一行代码即可完成引擎初始化 3. 准备输入,通过`predictor->GetInput(i)`获取输入变量,并为其指定输入大小和输入值 4. 执行预测,只需要运行`predictor->Run()`一行代码,即可使用Lite框架完成预测执行 5. 获得输出,使用`predictor->GetOutput(i)`获取输出变量,并通过`data<T>`取得输出值 ~~~ ---- ~~~ 海云捷迅杯 一、杯赛题目:基于FPGA CNN加速器的SSD_MobileNetV1模型目标检测实现 二、参赛组别:A组、B组 三、设计任务: 1. 基于百度Paddle-lite v2.9框架①(必须)、海云捷迅自研CNN加速器(可选,也可以使用自己设计的加速器)(包含卷积、DW卷积、RELU、RELU6、量化算法,其中量化是把计算好的32位定点转为浮点再转为8位定点输出)。 2. 基于该加速器Linux驱动示例,可以看到数据重整的方法。根据算子运行位置(PS、PL)的不同,参照驱动示例来重新排列数据。 3. 基于VOC数据集进行训练。 4. 对模型在要求的设计指标内进行各种优化操作,包括剪枝、量化等。 5. 提出设计方案,实现并完成指定测试图片集的目标检测功能。 6. 基础部分60分(满足设计指标),附加部分40分(在满足设计指标的情况下,按照推理速度进行评分)。最后总分按两部分相加得到。 7. 备注:海云捷迅会提供(杯赛钉钉群内下载): 1) FPGA配置文件 2) CNN加速器相对应的Linux驱动示例 3) Paddle-lite v2.9①、SSD_MobileNetV1②(全精度版本) 的Demo程序;驱动示例;CNN加速器FPGA配置文件 四、设计指标: 1. 模型部署完成,能正确识别图片数据。 2. 帧率不低于2帧。 3. 精度不低于65%。 ~~~ ---- ~~~ http://183.230.19.155:16789/s/bb7WcRHNq3Yq2wj fpga@2022 ~~~