在ModelArts使用AI推理框架ModelBox开发

网友投稿 795 2022-05-30

ModelBox简介

ModelBox是华为云ModelArts集成的一款易用、高效、高扩展的AI推理开发框架,通过模块拖拽连线的方式将推理应用流程可视化展示,并预置了丰富的流单元供开发人员直接使用,降低了应用开发难度,支持C++、Python、Java等多种开发语言,硬件支持GPU、NPU,可以帮助开发者快速完成AI推理应用的开发和上线工作。

用户可在ModelArts开发环境中一键创建ModelBox实例并通过VsCode远程连接实例,方便地利用云上的GPU/D310资源进行推理应用开发和调试,当前在上海一区域以白名单形式开放。

创建ModelBox实例

进入上海一区域的ModelArts新版开发环境,如果访问不了可以提工单申请白名单。

在新版开发环境中点击创建,选择ModelBox镜像:

规格选择T4,配置SSH远程开发所需的密钥对和白名单IP。远程访问白名单配置为将要访问这个ModelBox实例的本地机器IP,可以在本地的浏览器搜索“本地IP查询”,查出来的就是本地对外的互联网IP。

点击确认后,等待实例创建完成。

连接并配置实例

连接实例

首先本地安装VSCode IDE,建议安装1.57版本或以下,最新版本的VSCode远程连接时有一些问题。

参考帮助文档的准备、Step1、Step2这三个章节,进行实例连接。

开发首个AI应用

开发环境预置了一个AI应用样例:车辆检测,是指通过模型检测行驶的视频流中的车辆,体验这个样例需要如下几个操作:

1)创建样例工程

2)推理流图开发运行

3)查看推理结果

创建AI应用

打开terminal,执行命令:

ma-admin createproject

命令执行完后会在/home/ma-user/work/my_project目录下创建modelbox_demo工程,

使用VSCode的OpenFolder打开该工程目录:

README文档是对工程目录结构的介绍。

工程带的样例在solution/traffic目录下,flowunit是功能单元,graph代表由功能单元组成的图,图即为整个应用的处理流程,在ModelBox中,应用都是用图的形式来表达的。

编译构建运行

使用VSCode快捷键Ctrl + Shift + P:

选择cmake configure执行

选择cmake build target

下一步的选择框输入目录名traffic

编译OK。

或者也可以直接使用命令行进行编译构建:

在ModelArts使用AI推理框架ModelBox开发

cd build && cmake .. && make traffic

构建完成后,执行如下命令运行应用:

python tools/run.py --graph solution/traffic/graph/vehicle_detection/vehicle_detection.toml

执行后,日志会输出到terminal控制台上,通过查看日志可以看到流图已经运行起来了。

查看推理结果

在浏览器地址栏输入推理视频结果的查询地址:

rtsp://localhost/test

浏览器弹出如下框点击Open

此时本地的播放器会自动启动并播放推理视频流。如果无法播放,是因为本地的播放器不支持rtsp流,需要安装支持rtsp流的播放器,例如PotPlayer。

如果播放器OK但是仍旧播放不出来,有可能是视频较短已经播放结束了,可以停掉当前运行的脚本后再重新运行一次。

播放效果如图:

AI AI开发平台ModelArts 弹性负载均衡 ELB

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:接口测试人员需要掌握的知识技能
下一篇:模板引擎的原理
相关文章