自动驾驶系统的功能有哪些(什么汽车有自动驾驶功能)
707
2022-05-28
演讲机构:香港科技大学智能驾驶中心
演讲题目:《低速自主驾驶的技术要素》
演讲人:刘明 香港科技大学智能驾驶中心主任、机器人与多感知实验室主任
刘明教授,博士毕业于瑞士苏黎世联邦理工学院(ETH),现任香港科技大学智能驾驶中心主任、机器人与多感知实验室主任,兼任多家知名科技公司首席科学家,香港科技大学电子与计算机工程学系助理教授;在机器人领域累计发表论文100余篇,近五年获得了12次国际会议最佳论文或提名奖,以及包括中国人工智能最高奖—— “吴文俊人工智能科学技术奖”在内的多项奖励。2018年10月, 刘明教授获得IROS Toshio Fukuda Young Professional Award,成为首位获得此奖项的华人。
刘明及其团队选择了以深度强化学习为框架,工程模块化系统作为辅助的无人驾驶技术路线;在原型车上,采用了二类商用车底盘的配置。刘明认为,一台好车应该是“无人驾驶二类商用车底盘 + 完整的可量产无人车解决方案”的组合。
目前无人驾驶的技术分为两大类:
一类是以端到端深度强化学习为主的模式,是偏高速车的常用方案;
另一类是比较传统的工程模块化系统。
事实上,这两种技术路线各有优劣势。端到端深度强化学习的优势在于容易做出working demo,劣势则是场景迁移能力比较弱,对样本的数量和质量都有较高要求。工程模块化系统的优势在于完成决策系统后,其他地方不会有太大纰漏,劣势在于实现精准的系统定位、障碍检测、决策、控制,需要大量的技术积累。
所以我们选择了以工程模块化为框架,深度强化学习作为辅助的模式,大致定义了一套从运营逻辑及数据接口、到无人系统核心技术模块、再到核心支撑技术的路线。简单来说包括感知系统、决策与预测系统,规划与控制以及相应的支撑技术六方面。
在感知系统方面,我们利用三维感知建图与定位,多视觉惯导融合系统、单个实时雷达来获取场景。得到三维场景之后,我们会进行实时的三维几何场景分析、三维语义场景分析、视觉场景语义分析,然后利用嵌入式平台实现基于像素点的语义分割。在三维激光场景上,可以实现实时的激光场景语义分析、手持及车载大范围实时建图,路面环境可行区域检测等技术。各位有兴趣可以到我们实验室的网站ram-lab.com做进一步了解。在感知方面,我们可以说是世界级水平。
得到三维模型的下一步是决策预测,决策预测系统包括了实时多车间协调控制、多信息的融合等技术。车辆模型辅助动态决策利用视觉和激光检测的结果,对动态物体运动行为进行预测,结合车身的动力学模型,实现控制路径的决策和规划。
近几年行业在深度强化学习点到点导航、环境探索、多机器人任务分配方面投入比较多。
除了决策预测,如何实现三维场景下的路径规划、基于迁移学习的强化学习、对复杂控制系统(如无人船、无人车)的控制都是需要解决的问题。
以上的内容都属于算法类型,与每个算法相对应的是后台的硬件或平台支撑。与感知系统对应的是传感器技术。我们目前有一款包含激光、视觉、惯性导航等七个传感器在内的集成硬件同步触发产品,并在产品基础之上开发了相当数量的算法,涵盖了姿态估计、建图、定位、识别、跟踪等,这套多感知内容获得了IEEE IROS最佳学生论文奖提名。
在算力方面,除了传统的CPU、GPU模式,我们也立项了FPGA模式来作为算法方案。
但最重要的是,无人车技术要落实到车辆上。算法就算再前沿,车本身才是决定量产的关键。我们做了一款近乎量产的车型。该车型可以安装36个10号国标周转箱,整体载重最高达1.5吨,目前在各个园区做相关推广以及部署尝试。我们会根据实际应用场景的需求来做配合工作,比如客户提出不同的标准箱要求,我们会进行箱体数量的排列、优化箱体设计与配重设计,电池换电、转向系统等一系列工作。在初始阶段,我们会采用标准商用车底盘将原型车先做出来,然后以量产件实现交付。
有了技术、原型车、场景之后,下一步是什么?我本身职业是香港科技大学教授,可能无法完全从工厂或设备的角度来做无人车的开发工作。但我认为,实现无人车最重要的理念是,首先要有一部好车。最好的车就是标准的商用车。我们选用的是无人驾驶的二类商用车底盘,包括夸父系列,里面的ABS(防抱死制动系统)、EPS(电动转向系统)、ESP(车身电子稳定控制系统)、iBooster(线控制动系统)、EPB(电子驻车制动系统)及电池管理系统胎压检测等配置都和一般商用车差别不大,甚至很多配置只有在高端商用车上才能见到。
AI 机器人 自动驾驶
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。