订阅
纠错
加入自媒体

ICRA2019旗舰会议来袭 | 通过视觉信号预测驾驶员意图

2019-05-22 09:41
智车科技IV
关注


比较FC-LSTM、ConvLSTM、cn-clstm以及文章提出的方法,上述指标如表1所示。FC-LSTM性能最弱;这可以解释为全连通层在提取空间特征时效率低下,只有通过网络的大容量来平衡,这使得它可以学习更复杂的功能。ConvLSTM通过利用门的卷积实现了稍好一点的效果,这使得它更适合于空间特征提取。然而,它的内存效率低下阻止了使用更深层次的架构,因此限制了模型的容量。结合这两种方法,得到了一个CNNLSTM,它既能利用CNNs丰富的空间特征提取,又能利用LSTMs的时间特征表示,取得了比之前基线更好的效果。我们提出的方法在LSTM和注意机制中进一步增加了卷积,得到了最好的结果。

混淆矩阵如表2所示。注意,OFF的检测精度明显较高,而FLASHERS的检测精度较低,因为这两个类在数据集中分别表示过多和过少,即使使用分层抽样方案,图4d(a)这种不平衡自然会影响测试性能。

网络故障模式。(a)夜间明亮的灯光被错误地归类为左转。(b)远处车辆右侧的明亮反光被误列为右转弯。(c)一辆不常见的车辆识别结果为没有发出右转信号。(d)姿态解码错误,输出翻转。(e)在载有单车的车辆上作假性左转。

结论

在自动驾驶领域,检测驾驶员的意图是一项必不可少的任务,是预测诸如变道和停车等突发事件的必要手段。在本文中,研究人员解决了转弯信号分类这一重要而尚未探索的问题。提出了一种能够端到端的训练方法,能够处理车辆的不同视点。提出的神经网络通过意图、卷积和递归来推断空间和时间特征,从而在帧级对一系列观测信号的转弯信号状态进行分类。该实验使用包含120多万张实况图像的数据集来训练和评估的方法。未来在这个问题上,研究领域将会扩展到紧急车辆信号,以及更多分类的功能(例如来自曝光不足的相机的图像)的识别问题上。

参考:

[1] Frossard D, Kee E, Urtasun R.DeepSignals: Predicting Intent of Drivers Through Visual Signals[J]. arXivpreprint arXiv:1905.01333, 2019.

[2] icra2019.org

<上一页  1  2  3  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

人工智能 猎头职位 更多
扫码关注公众号
OFweek人工智能网
获取更多精彩内容
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号