侵权投诉
订阅
纠错
加入自媒体

保隆科技发布动态视觉传感器:节约算力资源,面向L4级自动驾驶

2019-03-05 16:48
来源: 亿欧网

在谈到阻碍无人驾驶技术商业化的几大阻碍时,传感器和算力之间的矛盾关系,往往是各家企业重点讨论的话题。一方面,传感器采集到的信息越全面,越有利于车辆决策层来实现驾驶安全。但另一方面,过多的数据会占用计算平台本已“捉襟见肘”的算力资源。这会降低系统的响应速度,无法满足安全驾驶的需求。

日前,上海保隆汽车科技股份有限公司(后文简称“保隆科技”)举行了“汽车动态视觉与雷达传感器”的产品与技术发布会。会上,包括动态视觉传感器、77G及24G毫米波雷达、双目前视系统、红外热成像夜视仪、驾驶员预警系统、车用人脸识别系统等产品都属首次亮相。

(传统摄像头与动态视觉传感器的区别)

本次保隆科技发布的产品中最具特色的,便是名为“超眼”的动态视觉传感器(DVS)。在谈到为何要专门研发一款不同于传统摄像头的动态视觉传感器时保隆科技汽车电子单元总监李威表示,车辆在行驶过程中对于外部环境感知的需求和人类大不相同。首先,汽车的行驶速度普遍在60公里/小时以上,最高可达200公里/小时,远高于人类。其次,车辆需要适应各类时间和天气下的环境光,而人眼往往只需适应晴天阳光即可。最后,汽车需要对周围环境进行全方位感知,而人类大多数情况下只需对前方环境进行感知即可。

在李威看来,此前的车用摄像头更像是为了“讨好”人眼而存在。因为这类摄像头往往采集了过多冗余信息,尤其是在环境物体或车辆处于静止状态时。这需要大量算力进行支持,这直接加大了计算平台的压力。

(动态视觉传感器产品特点)

相比之下,动态视觉传感器的算法采用了基于事件驱动的模式。一方面,传感器在物体没有变化时,不捕捉其数据。另一方面,系统在对视频和信号进行压缩时,用独特的解码和采样机制过滤掉了背景信息,只输出物体的轮廓数据。同时,结合了毫米波雷达在空间中采集的“锚点”,传感器能够输出车辆周边环境的空间距离信息。

根据介绍,动态视觉传感器能够实现高速运动的物体捕捉、车道线识别、行人目标检测等多项功能。而通过在感知层完成了数据融合与计算,系统能够在大幅节省算力的同时,在物理层输出包括速度、方向和时间戳在内的矢量数据。

(海量数据和算力不足已经成为行业普遍痛点)

在谈到动态视觉传感器的应用方向时,产品的芯片提供方芯仑科技向亿欧汽车表示,该技术可以为自动驾驶以及ADAS功能带来显著的提升效果。在前向预警功能为例,传统相机在感知层面消耗的时间约为30毫秒,处理数据和输出指令的时间约为100到200毫秒。相比之下,动态视觉传感器的感知时间小于1毫秒,处理数据和输出指令的时间仅为10毫秒,是前者的20倍。该公司称,若以1辆在120公里/小时行驶的乘用车为例,这能够让车辆的刹车距离缩短5米。

根据规划,未来保隆科技将推动动态视觉传感器向L4自动驾驶场景应用。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

智能汽车网 猎头职位 更多
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号