品牌  【直播】  50强   整机  ​【联盟】  机构  【视界】  展会  招聘  云服务          微博   公众号AIrobot518 
【​今日焦点
【行业动态】
NEWS / 新闻中心
无人驾驶车辆感知和理解世界的两个基本问题
来源:无人驾驶车辆感知和理解世界的两个基本问题 | 作者:驭势 | 发布时间: 840天前 | 2017 次浏览 | 分享到:
数据主要通过数据驱动系统演进驱动,数据驱动要解决的第一个问题就是长尾问题(长尾问题概念来自于互联网,指个性化、零散的总和却又比较大的客户需求,在无人驾驶领域指很少见的场景,但是总和同样较大)

/ 导读 /


无人驾驶车辆在运行中需要面对白天、黑夜、黄昏、大风、暴雨、雾霾等自然环境信息,以及道路上行人、车辆、红绿灯等物体信息,车辆究竟是如何做到理解这些复杂的信息?


本文用两个基本问题为您解答无人驾驶车辆如何感知和理解这个世界。



第一部分


无人车如何感知和理解这个世界?


人类驾驶员的感官主要依赖于双眼,偶尔用到耳朵,而无人驾驶车辆的AI驾驶员的感官包括了激光雷达、毫米波雷达、摄像头、差分GPS、惯性单元、轮速计等传感器。还有一个核心零部件是U-Drive自动驾驶控制器(驭势科技自研),我们也称呼它为“车脑”,在“车脑”中会运行一整套的软件或者算法。


在一辆无人车上使用的各类传感器往往各有优缺点:


激光雷达:能够直接获取 3D 的点云数据,精度高,成本也高


摄像头:获取二维图像数据,信息丰富、成本低,但是对光照要求相对敏感

毫米波雷达:精度较低,极端天气下表现较好


在无人车上需要将不同的传感器融合以获取最佳的效果。当车脑收到这些传感器数据之后,就会进入两个模块:一个是自车定位,另一个是环境感知。经过这两个模块的算法处理之后把结果输出到下游的决策/规划模块使用。



问题一:定位-我在哪里?


现在人类出门开车基本上离不开导航,人类驾驶员对定位精度要求不高,只需要在10米级。而AI驾驶员要达到厘米级的高精度定位,需要让车辆自身每时每刻知道“我在哪里”,需要精确地分辨出当前车在哪个车道,距离车道的边缘有多远、方向如何,如此后面的规划/控制模块才能做出正确的选择。


实现高精度定位有以下几种方式:


差分 GPS:差分 GPS 和手机上的普通 GPS 不一样,它是一种特殊的高精度的定位设备,它可以消除三类误差:公有误差、传播延迟误差、接收机固有误差。通过消除这些误差可以把定位精度提升到 2cm 左右。可是在现实中,道路旁边有建筑物、高架、树木,这些都会影响差分 GPS 信号的质量,所以还需要其他方式配合以获得更高精度的定位。


基于视觉特征点的定位是基于图像中局部灰度的变化来发现图像中一些稳定的特征点,利用这些特征点对图像进行编码,通过对环境持续观察以达到实现对自车的精准定位。再通过重定位找到最佳定位匹配点。此外,在无人驾驶车辆行驶中会通过定位跟踪模式持续获得精准位姿。


激光雷达定位:激光雷达点云定位是激光雷达通过扫描得到一系列单帧的点云,通过匹配位姿优化生成地图。和基于视觉特征点的定位方式一致,激光雷达也需要进行重定位找到最佳定位匹配点。


语义定位:语义定位是对道路环境中存在的人类可识别的高级特征标识进行识别并做自车定位,比如车道线、立柱、箭头等各种标识。同样,语义建图包含三步:第一步,通过激光雷达与摄像头融合的数据进行三维重建,得到彩色的点云;第二步,对三维重建结果进行语义分割,标记点云属于什么分类;第三步,自动提取出语义标识,从而完成语义地图的构建。最终自车根据语义地图来实现定位。


融合定位:融合定位是将所有的定位源输出的结果和车体内部状态融合在一起,如 IMU(惯性单元)、车身轮速计等,最终得出统一的自车定位信息发送给下游模块使用。


问题二:感知-我的周围是什么


无人驾驶车辆接收到摄像头、激光雷达以及其他感知设备输入的数据,通过这些数据可以获取周围的目标物的位置、尺寸、分类信息(车辆、行人等)和跟踪信息(速度、加速度、角速度等),还有未知分类的障碍物、目标车的尾灯、护栏、红绿灯、植被等都需要被感知到。所有这些信息都会输出到到决策/规划模块使用。


目标检测中都会使用深度学习的方法,深度学习首先通过网络学习激光雷达三维点云中的背景信息、目标物和分类信息。此外,无人车上有多种传感器,最主要的是激光雷达和摄像头,将二者融合会在目标检测的距离精度、分类精度、尺寸精度等方面都有显著提升。


无人车要能够安全、平顺的行驶,对每个目标物的准确跟踪、速度、加速度等都是必不可少的,这些信息必须要连续帧上获取,因此我们必须要目标检测机制上进行匹配跟踪、速度估计等等一系列工作。我们会获得T – 1(上一帧)时刻的目标检测结果,也会获得当前时刻的结果,这些结果可以通过卡尔曼滤波算法得出当前帧预测结果,再把这个预测结果和当前帧检测结果通过相似度计算和匈牙利匹配关联,可以通过这速度工具来获取场景中目标物编号、速度、运动方向等信息,这些信息对车辆决策/规划模块相当重要。


*卡尔曼滤波可以有效在时间线上对测量和预测进行合理加权的算法。

*匈牙利算法是一种求解最大匹配的算法。


除了常见的目标检测之外,环境中还有一些其他要素需要感知,比如之前提到的植被,无法用一个矩形框来表示,因此需要语义分割技术,它能够获得精细的感知结果。最终我们将目标检测、跟踪和语义分割融合在一起,作为整体输出给下个模块。


第二部分

无人车的定位感知能力如何持续进化


无人驾驶系统几个最核心的要素:算力+传感器、算法、数据。


算力+传感器主要依赖硬件持续升级驱动,其中包括车载控制芯片(每一代新的芯片诞生,算力都有数量级提升)、激光雷达(激光雷达性能越来越强,成本也逐步降低,进而推动定位感知能力的提升)、摄像头(分辨率不断提升,进而为算法提升奠定基础)。

​​​​第六期“全国移动机器人行业巡回调研活动”合作商招募中

​报名热线:400-0756-518​​​​

活动时间:2023-09-01至11-30

  • 磅旗科技:助力储能行业AI数字化,构建新质生产力
  • 旷视机器人征战欧洲市场 柔性仓储方案亮相LogiMAT
  • 这家包装企业牵手蓝芯科技,积极探索生产新模式
  • 跨楼层高效输送,仙工智能助力浙江泰林医学工程持续提效
  • 东海实验室和海康威视达成战略合作,携手推进智慧海洋建设
  • 镭神智能全系列3D SLAM无人叉车/AMR助力发展新质生产力
  • 冷链仓储 多倍库容|MiMA米玛窄巷道人上型三向堆垛车冷库解决方案
  • 智造再提速 |海康3D视觉引导拆码垛系统方案全面升级