广汽自动驾驶技术创新突破

发布时间:2022-8-25 10:45    发布者:eechina
关键词: 广汽 , 自动驾驶
来源:广汽研究院

近日,广汽研究院X lab团队在国际权威的nuScenes自动驾驶测试竞赛中,依靠自主研发的XTracker方法在动态多目标跟踪MOT(Multi-Object Tracking)领域获得纯视觉榜单全球第一名,并将关键指标AMOTA(多目标跟踪平均准确度)从此前39.8%大幅提升到43.0%。技术的突破不仅为广汽自动驾驶提供强有力的支撑,也进一步推动自动驾驶行业的场景落地发展。

nuScenes数据集是国际公认的权威自动驾驶公开数据集之一,数据采集自美国波士顿和新加坡的实际自动驾驶场景,是第一个提供360度的全传感器覆盖,同时包括摄像头、激光雷达和毫米波雷达数据的数据集,是唯一提供雷达数据标注的数据集,覆盖多种气候条件及多种道路场景,数据集总共包含了1000个场景、140万帧图像、39万帧激光雷达点云、23个物体类别、140万个三维标注框。

动态多目标跟踪MOT是对感知数据中检测出的多个动态目标重建运动轨迹,以确保随着时间推移动态目标轨迹ID不变,是自动驾驶中目标意图与轨迹预测、决策规划等下游任务的重要依赖项,在自动驾驶行车中跟车、变道等场景中起到关键作用。

近年来,随着自动驾驶的火热,数据、算法、算力成为企业之间的竞争要塞,一方面参与纯视觉3D目标跟踪的团队技术实力均处于世界先进水平,竞争十分激烈,不仅涵盖了理想汽车、地平线、DeepMotion、Aurora等业界知名企业,还吸引了麻省理工学院、卡内基·梅隆大学、清华大学、复旦大学、华中科技大学等国内外重点高校;另一方面,纯视觉多目标跟踪需要处理不同光线、视线遮挡、图像模糊等关键问题。目前业内尚未有成熟的技术可参照,识别跟踪速度慢、目标运动模糊、准确率低等问题成为行业共同难点。

广汽研究院X lab团队提出了XTracker方法,整体上有三大技术突破:

一是在自动驾驶行业内首次将跟踪的多视角数据,通过Transformer统一转换到BEV(Bird's Eye View, 鸟瞰图)特征空间下,从Decoder输出聚合后的BEV表征。

二是首个在BEV空间下的端到端跟踪方法——XTracker,解决了传统的跟踪方案主要采用运动建模或相似性建模,导致检测和跟踪之间存在信息流断点,XTracker采用端到端的统一建模方式,使检测和跟踪能够一起训练,结构简单、高效。

三是结合自车运动和多帧连续变化的方法,更好地完成时序特征的对齐,提高BEV表征空间下运动预测的鲁棒性。

目前自动驾驶主要分为两条探索路径,一条是以摄像头为主的视觉感知路线,另一条是以激光雷达为主的多传感器融合路线。在自动驾驶视觉感知技术大规模应用过程中,尤其是在汽车对周围运动物体的感知跟踪领域,动态多目标跟踪MOT是技术要求极高的基础性感知技术任务,该技术作为自动驾驶感知部分的必备环节,将直接影响到自动驾驶系统鲁棒性和用户体验感。未来,广汽研究院X lab团队将深耕自动驾驶视觉领域,推进多目标跟踪技术在自动驾驶落地场景中的应用,助力广汽智能化升级。
本文地址:https://www.eechina.com/thread-799035-1-1.html     【打印本页】

本站部分文章为转载或网友发布,目的在于传递和分享信息,并不代表本网赞同其观点和对其真实性负责;文章版权归原作者及原出处所有,如涉及作品内容、版权和其它问题,我们将根据著作权人的要求,第一时间更正或删除。
您需要登录后才可以发表评论 登录 | 立即注册

厂商推荐

  • Microchip视频专区
  • 5分钟详解定时器/计数器E和波形扩展!
  • 无线充电基础知识及应用培训教程3
  • PIC18-Q71系列MCU概述
  • 为何选择集成电平转换?
  • 贸泽电子(Mouser)专区

相关视频

关于我们  -  服务条款  -  使用指南  -  站点地图  -  友情链接  -  联系我们
电子工程网 © 版权所有   京ICP备16069177号 | 京公网安备11010502021702
快速回复 返回顶部 返回列表