广告

百度ANP3.0领航辅助驾驶解密

2022-12-23 汽车电子与软件 阅读:
2022年11月29日,在Apollo Day上,百度推出了一款L2+领航辅助驾驶旗舰产品ANP3.0,能在国内率先支持复杂城市道路场景,并且衔接融通高速和泊车场景。

2022年,伴随着无数自动驾驶公司降维进入到智能驾驶赛道,L2+领航辅助驾驶产品正在以肉眼可见的速度进化和成熟。但定睛一看,这种进化和成熟还仅是局限在高速场景,对于打工人需求更旺盛的城市场景,几乎仍没有拿得出手的领航辅助产品。qkyednc

但这一僵局即将在2023年中期被打破,而打破这一僵局的正是自动驾驶实力派选手——百度。20221129日,在其技术盛会Apollo Day上,百度推出了一款L2+领航辅助驾驶旗舰产品ANP3.0,能在国内率先支持复杂城市道路场景,并且衔接融通高速和泊车场景。
而在三周后的1216日,百度紧接着发布了一段ANP3.0的泛化路测视频,视频中的测试车不仅出现在了圆明园西路、沪嘉高速、东滨隧道等国内典型特色道路;还可以从容应对ETC、临时红绿灯、近距离切车等工况,看得我一时热血沸腾。
三域融通的泛化能力是行业内每家公司都在追求的至高武林绝学,但遗憾的是修炼成功者寥寥无几。而百度Apollo面对如此如此复杂的城市域路况,处于泛化测试阶段的ANP3.0还是只依靠纯视觉感知就练成这一神功。一旦在量产阶段再加入激光雷达,完成双冗余方案的配置,其体验必将再次给业内带来惊喜,也必将是行业内的一大喜事。

下文我们以泛化路测视频中的一招一式为起点,一步步深挖百度Apollo练就的浑厚内功。qkyednc

 qkyednc

 qkyednc

01

一招一式皆显英雄本色

匝道和收费站串联起城市场景和高速场景,是典型的易守难攻工况,也是领航辅助驾驶产品的兵家必争之地。
收费站场景是业界公认的难度系数很高的场景,那宽敞但没有车道线的收费广场、那收费站天棚下开开关关的ETC收费标识、那狭窄的收费岛通道、那走走停停的前方车辆、那细的令人发慌的收费杆,是对车辆感知、规划、控制发出的最极致的挑战。
所以各家领航辅助驾驶产品的路测视频一般都是在接近收费站时需要请求人类接管,而ANP3.0为了打通高速与城市,竟然实现了业界唯一的自动通过ETC功能。从路测视频中可以看到,ANP3.0能够基于进入收费广场的位置智能选择最优ETC通道,进入收费岛前会减速行驶以便ETC更好识别、识别收费杆子抬起以后会加速通过……
这招应该就是人无我有、横行天下的独孤九剑“破剑式”。
进入到城市腹地之后,道路上的交通参与者就一下子多了起来,老人、小孩、喵星人、汪星人、骑自行车的、骑电瓶车的……而在城市场景中,无保护左转又是最难的工况之一。可以说,理解并攻克了无保护左转工况,就等于提前入围智能驾驶决赛圈。
无保护左转,指的是十字路口没有专门的左转信号灯,而是和直行共用一个红绿灯。在无保护左转中,车辆一方面需要遵守交通规则,根据交通信号灯判断车辆是否可以左转,同时需要尽可能礼让直行的车辆。另一方面需要具备博弈策略,通过缓行缓停不断向直行车辆传递左转的意图,并在判断与直行车辆有安全距离的情况下加速穿过直行车道。加速穿过直行车道之后,需要立即减速缓行,并实时感知、预测斑马线中的行人、自行车道的非机动车,以便安全、高效地驶入对向车道。
无保护左转的难点有两个,一个车辆本身的感知无法做到超视距,无法提前获知路口被遮挡的直行车辆,自行车道的非机动车,斑马线上行人的运动情况,二是决策时无法融入对人类意图的理解。没有超视距,就没法做到统筹的规划,控制的一气呵成。
路测视频中ANP3.0向我们展示繁忙十字路口自带博弈的能力,一开始过于密集的直行车流让测试车辆丝毫动弹不得,我相信即便老司机肯定也只能如此。但是直行车流稍微稀疏之后,测试车辆采取了步步紧逼的策略,并最终在识别到一个身位的安全距离后成功左转。
城市场景中存在类似博弈的工况还包括无保护掉头、路口非机混行,而这一次在ANP3.0路测视频中也均有体现。博弈目前是行业难题,毕竟通过车辆上传感器很容易判断来车的距离和速度,但是对于其它车辆驾驶员、行人的一个眼神、挥手还很难领会。
这几下体现博弈的招式,想必就是以柔克刚的太极拳
无论是城市场景还是高速场景,最常见工况的处理能力决定了用户体验的下限。这也是为什么前些日子新出行要对今年主流智能电动车的LCC能力进行大横评,而从结果来看,是令人失望的。近距离切车要么不能及时识别出前车,要么给你来一个令人眩晕的刹车。
ANP3.0这些基础能力表现的如何,能否满足人们日常的出行要求,让我们下文娓娓道来。
(1)红绿灯应对能力。红绿灯是城市场景中非常重要的体现交通规则的装置、不能正确识别轻则扰乱交通,重则酿成交通事故。而红绿灯造型的多变,对车辆感知能力提出了极高的要求。ANP3.0路测视频中展示了一个类似临时红绿灯路口的通行测试,直接将难度值拉满。
(2)近距离切车应对。近距离切车是城市场景最常见的工况之一,由于距离过近,很容易出现感知漏识别,从而导致碰撞发生。而从ANP3.0路测视频中,我们可以看到,测试车辆在后方表现出切入意图后,测试车辆已经启动应对策略,并在切入车辆越过车道线后,测试车辆开始平稳减速避让,宛如老司机一般的顺滑。
3路口非机混行应对非机混行又是一个行业难题,尤其是鬼探头。一般产品不是识别不到,就是识别时已晚。而ANP3.0在路测视频中展现给我们的感觉是,通过路口时,会对路口两侧的非机动车进行预测并持续跟踪,一旦预测到未来有潜在的轨迹交点,自车会在交点前进行减速避让,妥妥的人文关怀。
除了上述典型且富有挑战的工况,ANP3.0在障碍物绕行、智能避让大车、隧道通行、极限弯道通行等工况,也同样展现出老司机一般的丝滑。
这几下体现基本功的招式,恐怕就是武艺高强之人必练的马步
几分钟的视频是ANP3.0能力的冰山一角,在从百度大厦停车库到八达岭长城的这段119KM路测道路上,ANP3.0全域无接管。期间途径了27个红绿灯路口、2ETC站点、6个左转、1次无保护掉头、1个匝道、10个隧道、20km盘山路、9次障碍物绕行、6次礼让行人、19次切车应对、8次大车避让、17次自主变道……
看来ANP3.0这次是有备而来,势要将武林盟主收入囊中。

02

点点滴滴皆是深厚内功

ANP3.0习得如此华丽而又扎实的招式,我们不禁要问:究竟是练得哪门内功心法,而这我们皆可以从1129Apollo Day上找到答案。
内功的第一层是:务实的硬件方案。
我一直坚信,盲目堆料是内功不足的表现。恰到好处的硬件方案是长长久久的秘诀。ANP3.0的计算单元采用自主研发的智驾域控制器,里面是两颗火遍宇宙的Orin X芯片,算力达到508Tops,在今年上市的一众智能电动车里,这个配置中规中矩。而智驾域控制器机身通过采用水冷散热,可以将⼯作温度做到-40℃~85℃,做到这一点,不是不说工程能力还是有几把刷子的。
传感器方面,测试研发阶段采用纯视觉感知包含7颗视距达400米的800万像素⾼清摄像头、4300万像素高感光环视专用摄像头,目前已经取得非常好的泛化路测效果。量产阶段会增加激光雷达,与视觉形成安全双冗余,激光雷达的位置、数量、规格可以基于合作伙伴进行灵活调整。
内功第二层是:业内真冗余的纯视觉+Lidar双感知方案。
ANP3.0采用Apollo特色的“BEV环视维感知,在研发测试阶段,感知方案全用视觉,就连刚刚公布的那段119公里路测视频便是基于纯视觉的感知方案。这使得ANP3.0成为世界唯,中国唯一能够支持复杂城市道路的纯视觉自动驾驶感知方案。
不过到了量产阶段,基于对实际场景Corner Case的理解,为了可以从感知上更好地应对非常规异形障碍物、夜晚障碍物,动/静态遮挡鬼探头、停车场跨层泊车等复杂城市场景,ANP3.0将使用激光雷达作为冗余感知。
ANP3.0视觉、激光雷达两套系统独立运作、低耦合,大概率是国内唯一能够做到真冗余的环境感知方案了。
ANP3.0背后的视觉感知技术也是历经好几年的修炼才达到如此火候。2019年百度启动的Apollo Lite项目,采用了单目感知环视后融合的技术框架,前端基于深度学习的2D目标检测与3D位姿估计,后端经过单相机跟踪、多相机融合等步骤,输出最终的感知结果。
Apollo Lite的表现一开始算如人意,但随着测试规模的逐步扩大,在面对一些需要多相机协同解决的Corner case时逐渐显得力不从心。同时基于规则的跟踪、融合方案也无法充分发挥数据的优势,成为感知能力快速提升的瓶颈。
为此百度对视觉感知技术框架进行了升级,推出了第二代纯视觉感知系统Apollo Lite++Apollo Lite++通过Transformer把前视特征转到BEV,在特征层面对相机观测进行前融合后,直接输出维感知结果。
而正是基于进化完成的Apollo Lite++ANP3.0在研发测试阶段已经成为国内唯⼀⼀个能依靠纯视觉跑通城市域多场景的智驾⽅案。
有了BEV环视维感知,感知系统就完善的无懈可击了吗?答案是不一定,想象一个场景:当浓密的树木遮挡住的交通指示牌,此时无论是相机还是激光雷达都将无法准确识别,而接下来不是地违反交规,就是酿成交通事故。
内功的第三层便是:具有解决超视距感知的高精地图。
关于领航辅助驾驶产品需不需要高精地图,业界的声音开始趋同:是安全、体验好领航辅助驾驶产品的必需品。与此同时,百度依托自己在制图领域的丰富积累,已探索出了一条低成本、高鲜度的高精地图制作之路。
1)采集阶段降本、增效
高精地图的主要特点之一是精度高,需要达到厘米级。而为了提高精度,降低误差,图商们常规的做法是对相同路线进行多次采集,这也导致采集阶段的效率上不来,成本下不去。而百度依托自己这些年的制图经验积累及深厚的算法积累,创新性地通过线上PNC算法优化和地图点云拼接算法的升级,提升对地图精度误差的容错力。这样一来每条路线仅需要采集1次即可制图,大幅降低了地图生产的采集成本,提高了采集效率。
2)数据融合自动化
数据融合的目标是将多次采集到的传感器数据,在统一的坐标系下进行融合,这是高精地图大规模生产的重要基础和核心能力,其中的挑战在于融合的精度要达到厘米级。各家的常规做法是先将传感器数据按照块或者道路进行划分,然后依次先在每个分块里进行数据的融合。
而百度的做法是将按照数据空间分布划分去构建多层级的图结构,确保这个全图的精度是一致的。
3)定位图层的降维
高精地图采用分层的结构,原先一份高精地图需要制作、存储特征点、激光点云反射值和Landmark三份图层,给制作流程工艺和线上存储都带来了压力。但是百度Apollo通过升级定位算法、降低对点云和特征点的依赖,仅依靠Landmark定位图层即可支撑ANP3.0的城市道路高精自定位。
4)地图元素标注需求的瘦身
高精地图既包含众多物理世界的道路元素,也需要标记为自动驾驶算法适配所需要的复杂关联对应关系。以路口红绿灯识别为例,此前需要对每个灯头都进行单独标注,并且灯头也需要与其对应的车道线进行绑定关联,标注人员的操作极为繁复,容易出错。
而百度Apollo通过提升感知红绿灯的能力以及提升对场景语义的理解能力,瘦身后的标注仅需要标注一个框,且仅需要和停止线建立一条绑定关系,降低了人工标注出错的概率和成本。
内功修炼的第四层是:数据驱动带来源源不断体验的提升。
在这个阶段,没人能保证自家产品能解决所有的Corner Case,在这个背景下,通过数据驱动去不断迭代、优化算法从而让消费者获得更好的体验是明智之举。而ANP3.0依托百度在AI 云计算和自动驾驶的积累,为内外部用户打造了一款创新的数据闭环SaaS产品。通过对数据挖掘、标注、模型训练、仿真验证的全生命周期管理,实现数据驱动智驾能力进化。
1)感知系统层面ANP3.0采⽤⾼度集成的AI系统,超过90%的感知系统模块采⽤learning化设计实现,感知系统可持续通过数据驱动进化。
2)数据采集层面,因为云驾一体的特点,能够有针对性地在线挖掘每个模型任务最需要的长尾数据。通过动态挖掘和车云交互技术,做到有的放矢地对补充模型AI能力所需的数据片段进行精准、动态低成本的挖掘,实现数据资产的快速积累。
3)模型稳定性层面,结合MLOps工程文化和流程机制,百度将复杂的模型训练步骤进行标准化封装,让训练过程更高效,模型产出更稳定,可实现模型日常周级别迭代和高优问题的迅速修复。
而以上内功绝不是假大空,而是已经经过超4000万公里专业路测验证。每天产⽣海量的L4激光雷达数据,经过⾼⾃动化的训练数据⽣产线,为L2+BEV障碍物感知模型提供支持,让ApolloL2++的新⼀代 BEV感知能⼒建设速度领先友商。
费尔南多的那句话改编用在车上也不为过:车与车之间的区别在于究竟是跑了4000万公里,还是仅仅只是跑了1万公里却重复了四千次

03

写在最后

伴随着高阶玩家的入局,伴随着消费者的万众期待,智能驾驶赛道迎来了千载难逢的发展机遇。而这这个过程,谁能抢先融通三域,谁能率先推出技术领先的城市领航辅助驾驶产品,谁能有可能成为亿万消费者心中的超级英雄
ANP3.0的稳扎稳打,一步一个脚印,让我们有理由相信:明天夏天,城市领航辅助驾驶必将开出一朵最绚丽的花朵,三域融通必将成为夜空中最亮的那颗星。
责编:Ricardo
文章来源及版权属于汽车电子与软件,EDN电子技术设计仅作转载分享,对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。如有疑问,请联系Demi.xia@aspencore.com
汽车电子与软件
汽车电子与软件
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
广告
广告
热门推荐
广告
广告
EE直播间
在线研讨会
广告
面包芯语
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了