展望未来

通往完全自动驾驶汽车的道路


在1939年的纽约世界博览会上,通用汽车公司展示了支持智能高速公路和自动驾驶汽车的未来世界愿景。尽管这个梦想在大约80年后才得以实现,但自动驾驶汽车技术已经取得了长足的进步。传感器网络——包括读取道路和交通标志的摄像头,感知附近路沿的超声波,基于激光的200米或更远的激光雷达,以及测量距离和速度的雷达——正在开发以辅助驾驶员。这些技术与人工智能相结合,可以帮助司机停车、倒车、刹车、加速和转向;检测车道边界;甚至可以防止昏昏欲睡的司机在开车时打瞌睡。

2018年,美国有近3.6万人死于交通事故,其中90%以上的事故是由人为错误造成的。

从上面看到的城市街道,道路上有汽车,每辆车周围都有传感器。

尽管这些进步还没有完全取代人类的驾驶位置,但这样做可以挽救生命。根据美国国家公路交通安全管理局的最新数据,2018年美国有近3.6万人死于交通事故,其中超过90%的事故是由人为错误造成的。在过去十年中,行人死亡人数上升了35%,达到每年6000多人。如果汽车感知技术能比人更好地“看到”周围环境,并能更快地做出反应,就能显著减少伤亡。

虽然人们一致认为,感知技术将超越人类对驾驶环境的观察和感知能力,但双方的共识也仅限于此。汽车行业还没有就一项将我们带入无人驾驶汽车时代的技术达成共识。事实上,解决方案可能需要不止一个。这里有三家科技公司正在推进汽车感知技术,以迎接全自动驾驶汽车的未来。

“我们专注于远程和高分辨率,这是汽车雷达最困难的问题。”

Metawave工程总监Abdullah Zaidi说

Beamsteering雷达

从20世纪早期开始,雷达就被用来帮助船只和飞机导航。它的探测和识别目标的能力,以及在复杂条件下提供精确的速度信息,使其成为自动驾驶的理想选择。

工程师在加州Metawave正在推动雷达的极限,以识别其他汽车,行人,固定的环境,道路危险,以及在所有天气条件下和在黑暗的夜晚。它的模拟雷达平台名为SPEKTRA™,形成一个狭窄的波束,并引导其在毫秒内探测和分类目标。Metawave的工程总监阿卜杜拉·扎伊迪(Abdullah Zaidi)表示,他们的技术是汽车领域分辨率最高的模拟雷达。它可以看到250米外的行人,识别330米外的车辆。

它还可以精确测量两个物体之间的小距离,称为角度分辨率,这使雷达能够区分一个物体和另一个物体。扎伊迪说:“目前的雷达无法做到这一点。”

在高速公路上行驶的汽车用图解波束显示波束转向雷达如何识别环境中的物体。

元波利用机器学习和人工智能构建模拟波束转向雷达系统。图片来源:Metawave公司。

SPEKTRA扫描环境的方式也有所不同。与一次性捕获所有信息的传统数字雷达系统不同,Metawave的雷达工作起来更像激光束,一次只能看到空间的一个特定区域。光束快速扫过周围环境,在几毫秒内检测并分类车辆视野内的所有物体。Metawave的方法增加了范围和准确性,同时减少了干扰和杂波的概率,所有这些都只需要很少的计算开销。“我们专注于远程和高分辨率,这是目前汽车雷达最难解决的问题,”Zaidi说。

元波工程师使用MATLAB®测试SPEKTRA雷达的范围和分辨率,并创建处理雷达输出的底层算法。该技术为汽车提供了诸如左转辅助、盲点监测、自动紧急制动、自适应巡航控制和车道辅助等自动驾驶功能。

智能激光雷达

第一批自动驾驶汽车是由美国政府的国防高级研究计划局(DARPA)赞助的一项竞赛的一部分,其中一些使用基于激光的系统来“观察”环境。光探测和测距(激光雷达)传感系统每秒发射数千个光脉冲,这些光脉冲被周围的物体反射并反射回车辆。在那里,计算机利用每个被称为体素的数据点来重建环境的三维图像,并最终控制汽车的移动方式。

车顶装有iDAR系统的汽车。

iDAR为汽车市场带来了航空航天和国防工业的强大传感能力。图片来源:AEye, Inc.

不过激光雷达很贵,每辆车的成本超过7万美元。单独使用它也有其局限性。恶劣的天气会干扰信号,所以它通常与其他传感技术结合,如相机、雷达或超声波。但这可能会产生大量的冗余和不相关的信息,中央计算机必须对这些信息进行解析AEye总部位于加州都柏林。

“我们的最终目标是开发一种与人类的感知系统一样好甚至更好的感知系统。”

Barry Behnken, AEye联合创始人兼高级副总裁

那里的工程师通过将激光雷达与高分辨率视频摄像机融合,实现了先进的激光雷达功能。他们的系统被称为iDAR,即智能探测和测距,它创建了一种新型的数据点,将数码相机的高分辨率像素与激光雷达的3D体素融合在一起。他们称这些点为动态角像素。由于激光脉冲和摄像机通过同一个光圈采集光学信息,因此数据流是集成的,可以同时进行分析,节省了时间和处理能力。

传统的激光雷达系统在整个环境中平均扫描一个场景,与之不同的是,iDAR调整了它的光脉冲模式,以给予场景的关键区域更多的关注。脉冲的方向由AEye的计算机视觉算法决定。他们首先分析相机数据来搜索和检测物体的边缘,然后立即瞄准高分辨率的激光雷达扫描来分类、跟踪和预测这些物体的运动。工程师使用MATLAB来确保算法使用最好的、最有效的光脉冲模式扫描场景。

Behnken表示:“我们正试图在传感器端实现尽可能多的感知,以减少车辆中央计算端的负载。”他说,在使用比传统解决方案更少的激光功率的同时,更快地获取更好的信息会带来更准确的感知。他说:“我们的最终目标是开发一种与人类的感知系统一样好甚至更好的感知系统。”

边缘检测像素颜色编码识别环境中的物体。

通过有选择地分配额外的激光雷达iDAR能够对这些物体进行分类,并计算出方向和速度。图片来源:AEye, Inc.

热浪

激光雷达、雷达和视频摄像头技术的进步将有助于自动驾驶技术走向未来。但是没有传感器可以单独完成这项工作。“它们各有长处,也各有短处,”公司副总裁兼首席技术官吉恩•佩蒂利说猫头鹰自治成像该公司总部位于纽约费尔波特。

Petilli说,传统的激光雷达非常精确,但是雪、雨和雾降低了它区分有生命物体和无生命物体的能力。另一方面,传统的雷达可以看穿积雪,在远距离上表现出色,还可以判断物体的相对速度,但仅靠它无法区分这些物体是什么。摄像头不仅可以识别红绿灯和路牌,还可以进行分类,但眩光会破坏画面质量,而且在晚上,它们只能看到车灯的灯光。

猫头鹰AI原型机的热成像。观看原型系统的完整视频.视频来源:Owl Autonomous Imaging

“在自动驾驶汽车比人类司机更安全之前,它们不会被公众接受。”

Owl AI的副总裁兼首席技术官Gene Petilli说道

Petilli说:“关键是要选择一套没有相同弱点的传感器。”

Owl AI的团队用3D热成像填补了这一空白,它可以感知人和动物发出的热信号,并极大地简化了物体的分类。该公司的传感器被称为热测距™,是一种被动系统,这意味着它不需要发射能量或光,并等待它的反弹,可以接收活体的红外热量。无论物体是移动的还是静止的,无论是白天还是晚上,在任何天气条件下,它都能看到400米外的物体,并能计算出100米外物体的3D距离和速度。

该设备由一个主镜头(与普通相机中的镜头类似)和一组位于主镜头和探测器之间的非常小的镜头组成。该阵列将场景分解为马赛克图像,每个图像从不同的角度观察感兴趣的对象。一种算法通过测量图像之间的细微差别来计算物体的距离。

Petilli表示,该公司正在使用MATLAB来完善该系统。因为他们试图测量微透镜阵列中元素之间非常微小的差异,透镜的任何失真都可能在距离计算中造成错误。因此,他们在MATLAB中对整个系统进行建模,以完善校正透镜畸变的算法。他们还运行驾驶模拟来训练深度神经网络AI算法,从而创建3D热图像。深度学习将用于评估将图像拼接成3D地图的神经网络算法。

Petilli说:“在自动驾驶汽车比人类司机更安全之前,它们不会被公众接受。”

加强安全

车辆感知技术是提供安全自动驾驶体验的关键。为了实现完全自动驾驶汽车的承诺,科技公司正在使用人工智能和计算机视觉来帮助车辆看到和感知周围的环境。尽管全自动驾驶汽车还不是常态,但这些公司正在改进新车的安全系统,让我们离这一目标更近。

Baidu
map