南方财经全媒体 见习记者陈思琦 深圳报道
据深圳市人大常委会官网消息,《深圳经济特区智能网联汽车管理条例》(以下简称《条例》)经深圳市七届人大常委会第十次会议通过,将于今年8月1日起施行。
根据《条例》的定义,智能网联汽车指可以由自动驾驶系统替代人的操作在道路上安全行驶的汽车。拥有自动驾驶功能的智能网联汽车不同于人工操控的传统汽车,原有针对传统汽车的法律制度以及监管模式,已不能完全适应智能网联汽车发展的需要。
作为全国首部规范智能网联汽车管理的法规,《条例》回应了当前我国智能网联汽车发展面临的车辆不能入市、不能上牌、不能运营收费、交通事故责任认定规则不明等诸多法律问题。随着《条例》的出台实施,深圳将继续探索全域开放道路测试,规范智能网联汽车数据采集范围,并首次确定自动驾驶交通事故权责归属。
智能网联汽车技术依赖于感知的输入、计算模型以及道路场景数据,需要通过大量的道路测试来不断训练自动驾驶的场景遍历性。
2016年兰德智库数据报告显示,为验证安全性能,一套自动驾驶系统至少需要测试110亿英里(约合180亿公里)才能达到量产应用条件,该距离相当于环绕地球44万圈。
2018年4月,工信部、公安部、交通运输部印发《智能网联汽车道路测试管理规范(试行)》,深圳随即出台了具体实施细则。截至目前,深圳开放测试道路里程约145公里,测试开放区域、开放里程及牌照发放数量都位居全国前列。
在此基础上,《条例》明确将道路测试和示范应用审批权下放。具体来看,深圳市相关部门应当选择具备支撑自动驾驶及网联功能实现的适当路段、区域、时段,供智能网联汽车开展道路测试和示范应用。同时,市人民政府可以选择车路协同基础设施较为完善的行政区全域开放道路测试,具体办法由所在区人民政府另行制定。
在探索全域开放方面,坪山区先行先试,于去年9月印发《深圳市坪山区智能网联全域开放管理办法(试行)(征求意见稿)》,拟对辖区内除特殊规定非公开道路以外的道路进行分级分类全域开放,包含高速公路、快速路、城市道路等。
据了解,坪山区建立了深圳唯一的智能网联交通测试示范平台,已服务的自动驾驶相关企业20多家,总共测试里程近6万公里,当前正在建设深圳首个智能网联汽车封闭测试场。
福田、南山等区同样积极尝试。2022年2月,百度Apollo自动驾驶出行服务平台“萝卜快跑”宣布落地南山区,示范应用路线覆盖深圳湾万象城、保利文化广场、人才公园等核心地段。
在2022粤港澳大湾区车展期间,元戎启行开放10辆自动驾驶汽车为公众提供试乘服务,试乘区域包括平安金融中心、COCO Park、会展中心等福田区中心路段。
深圳元戎启行科技有限公司CEO周光告诉南方财经全媒体记者,道路测试是智能网联汽车发展的重要前提,复杂的城市路况测试对自动驾驶算法的迭代具有重要意义。如果仅允许在人烟稀少的城郊进行测试,数据质量将无法达标,不利于自动驾驶汽车的性能优化。
随着《条例》的落地实施,智能网联汽车相关企业开展道路测试与示范应用活动将迎来更多便利。此外,深圳还将鼓励有条件的企业建设道路和交通场景仿真模拟平台,对智能网联汽车的自动驾驶系统进行仿真测试和技术验证。
智能网联汽车作为移动的计算设备,不但能采集到各类交通参与人的个人信息、位置信息、路上行为等大量数据,还能采集到途经地的地理信息等数据。
去年3月,“特斯拉通过车内摄像头监控车主”事件引发舆论高度关注,不少消费者担心其车内摄像头存在隐私泄露风险。
在此背景下,《条例》将数据管理纳入智能网联汽车准入关键。在深圳销售的智能网联汽车产品,应当具备将车载设备接入政府监管平台和按照监管要求上传运行安全相关数据的能力。
《条例》专设“网络和数据安全”一章,高度重视车联网环境下的网络安全和数据保护。具体来看,《条例》明确禁止利用智能网联汽车非法收集、处理、利用个人信息,或采集与本车辆行驶和交通安全无关的信息,以及非法采集涉及国家安全的信息。
同时,智能网联汽车相关企业应当依法取得网络关键设备和网络安全专用产品的安全检测认证,依法制定智能网联汽车网络安全事件应急预案,并建立网络安全评估和管理机制,确保网络数据的完整性、安全性、保密性和可用性,防止网络数据泄露和被窃取、篡改。
2021年4月,特斯拉车主“车顶维权”事件同样引发热议,事故前半小时的完整行车数据成为争议核心。有业内人士分析称,驾驶员状态涉及个人隐私,此类数据的收集应限定在事故发生前一段时间而非全程,用以判断驾驶员是否履行合理接管义务、对事故发生有无过错。
对此,《条例》第三十七条明确,智能网联汽车车载设备应当记录和存储车辆发生事故或者故障前至少九十秒的位置、运行状态、驾驶模式、车内外监控视频等数据,并保持数据的连续性和完整性,数据存储期不得少于三十日。
据了解,自动驾驶等级分为L0-L5,L1、L2被划为辅助驾驶,L3、L4、L5按自动驾驶系统的运行能力与对人工操作的需求程度分别称作“有条件自动驾驶”、“高度自动驾驶”与“完全自动驾驶”。
《条例》明确,L3有条件自动驾驶和L4高度自动驾驶的智能网联汽车,应当具有人工驾驶模式和相应装置,并配备驾驶人。
L5完全自动驾驶的智能网联汽车可以不具有人工驾驶模式和相应装置,可以不配备驾驶人,目前仅限在市公安机关交通管理部门划定的区域、路段行驶。
《条例》规定,智能网联汽车列入国家汽车产品目录或者深圳市智能网联汽车产品目录,并取得相关准入后,可以销售;经公安机关交通管理部门登记,允许上路行驶。业内人士普遍表示,深圳将成为国内L3+自动驾驶落地第一城。
自动驾驶的落地也引发了大众对智能网联汽车交通事故权责归属的广泛关注。深圳职业技术学院智能网联汽车技术专业主任邓志君告诉记者,L3是行业普遍认为难以明确事故责任主体的阶段:“遇到系统无法处理的特殊情况,有时候驾驶员也来不及预判或反应,很难区分是车的责任还是驾驶员的责任。”
《条例》从法律层面首次界定了这一问题。《条例》明确,有驾驶人的智能网联汽车发生交通事故造成损害,属于该智能网联汽车一方责任的,由驾驶人承担赔偿责任;完全自动驾驶的智能网联汽车在无驾驶人期间发生事故造成损害,属于该智能网联汽车一方责任的,由车辆所有人、管理人承担赔偿责任。
换言之,在使用L3自动驾驶系统时,若因驾驶员及车辆违反交通规则导致事故发生,驾驶人将是责任主体。若确因智能网联汽车存在缺陷而造成交通事故损害,《条例》规定,车辆驾驶人或者所有人、管理人先行赔付后,可以依法向生产者、销售者请求赔偿。
此前发布的《深圳市培育发展智能网联汽车产业集群行动计划(2022-2025年)》指出,2021年深圳智能网联汽车产业营业收入为1066亿元,到2025年计划达到2000亿元,形成10家以上营收超百亿企业和20家以上营收超十亿企业的战略梯队。
随着《条例》对道路测试、数据安全、事故权责划分等焦点问题的明确,邓志君表示,良好的政策环境与市场环境将助力深圳智能网联汽车产业跑出更快加速度。
更多内容请下载21财经APP
每经记者:孙磊 每经编辑:裴健如
“忽如一夜春风来,千树万树端到端。”这是一位业内人士对近期智能驾驶领域的感慨。
日前,小鹏汽车方面宣布,其已经实现了端到端大模型的上车。在智能驾驶方面,由此前规则+AI组成的XNGP,切换到了以神经网络为主的端到端模型架构。
在此之前,特斯拉已经向部分用户推送FSD V12版本的纯视觉端到端自动驾驶方案;蔚来则在4月公开了端云算力规模,并透露端到端方案会在今年年内发布;理想汽车推送的AD Max3.0,其整体框架已经具备端到端的理念;小米集团董事长雷军也对外宣称,小米汽车在智驾领域实现了端到端大模型技术。一时间,“端到端”一词成了智驾领域的热点。
“采用了端到端的智驾大模型,能两天迭代一次,在未来18个月内智驾能力提升30倍。”小鹏汽车董事长、CEO何小鹏告诉《每日经济新闻》记者,“端到端的大模型,意味着自动辅助驾驶将转向完全自动驾驶。”
端到端大模型上车,智驾更“类人”
据悉,业内讨论实现完全自动驾驶主要有两种方法——分治法和端到端的方案。而当前主流的智能驾驶系统普遍应用了分治法,即将自动驾驶任务分解为感知、预测和规划三个独立的模块,随后通过系统集成来实现自动驾驶功能。
该策略的优势在于能够将复杂的自动驾驶任务简化为多个相对容易处理的子任务,有效降低了系统开发的复杂性。由此构建的系统具备较高的可解释性,允许对每个模块的输入和输出进行详细的分析,一旦发生故障,可以快速定位到问题所在。
然而,这种方法也存在一些不足,主要体现在需要编写大量的代码,并且在系统设计过程中过度依赖人为的先验知识。这限制了自动驾驶系统的潜力,导致其泛化能力不足,面对未知场景时往往难以有效应对。
“每个模型的技术栈差异较大,处于下游的规划模型需要依赖工程师编写大量代码去制定行驶规则。在模块化的技术架构下,信息的传递会出现减损,系统的维护难度大,无法从容应对复杂路况。”元戎启行CEO周光在中国电动汽车百人会论坛(2024)称。
何小鹏则告诉记者:“此前的智驾方案从技术上说,汽车在感知、定位、规划、控制方面都是分开处理的,每一个环节并没有关联。因此车辆在遇到一些场景的时候会因为人类写入的规则互相博弈而产生犹豫。端到端大模型上车后,车辆可以直接通过传感器输入的内容来输出对车辆的控制,智驾会更加‘类人’。”
图片来源:每经记者 孙磊 摄
据悉,端到端模型将感知、预测、规划三个模型融为一体,无需程序员编写冗长的代码去制定规则,而是用海量数据去训练系统,赋予机器自主学习、思考和分析的能力。端到端模型不会出现信息传递减损,能够更好地处理复杂的驾驶任务,解决了模块化模型存在的所有“痛点”。
值得一提的是,由于任务更少、避免了大量重复处理,端到端自动驾驶可以提高计算效率,并且可以通过不断扩展数据来提升系统的能力上限。
“以前所有L3、L4级别的自动驾驶都是基于规则,但即使是10万行代码能发挥的规则能力也只有55%~60%。”何小鹏告诉记者,“采用神经网络虽然一开始效果并不显著,但是准确性和安全性会实现跃升式发展。”
更为关键的是,端到端带来的自动驾驶能力的提升,依靠现有的智驾硬件就可以实现。“在当下硬件性能不变的条件下,只通过软件升级,大概12~18个月能够取得非常大的颠覆。颠覆是指我希望在包含小区在内的所有城市道路,能够做到极低的接管率和极高的安全率,而且你不会感觉到它比较慢或比较蠢,老是在那里僵住、博弈的感觉。”何小鹏说。
考验企业的数据规模与算力能力
值得注意的是,在特斯拉宣布FSD V12将采用端到端大模型之后,国内亦掀起了端到端大模型应用的热潮,小鹏汽车、理想汽车等车企,以及元戎启行、毫末智行等供应商也开始了端到端的研发和量产适配。
图片来源:每经记者 张建 摄(资料图)
不过,在业内人士看来,端到端自动驾驶系统的优势日益明显,其借助大模型技术的深入应用,为自动驾驶技术的进一步发展提供了一条高效率的途径。但对于不少企业,尤其是国内厂商而言,还有不少难题要解决。
首先,摆在国内厂商面前亟待解决的就是端到端训练的数据难题。理想汽车总裁、总工程师马东辉在理想汽车今年第一季度财报电话会上表示,特斯拉“端到端大模型”需要大量的数据和训练算力,“这不是所有车企都有能力和资源做到的”。
值得一提的是,特斯拉CEO马斯克在去年的财报会上曾提到数据在自动驾驶方面的重要性:“用100万个视频case训练,勉强够用;200万个,稍好一些;300万个,就会感到Wow(惊叹);到了1000万个,就变得难以置信了。”
截至去年,特斯拉已经分析了从特斯拉客户的汽车中收集的1000万个视频片段(clips),他们判断完成一个端到端自动驾驶的训练至少需要100万个、分布多样、高质量的clips才能正常工作。
除了数据量的差距,从这些难以计算的数据中,找出可以用于训练的有效数据,是另一个重要的挑战。对此,极越CEO夏一平表示,大模型训练比较核心的东西不是数据比谁多,而是比谁有更多的高质量数据。“数据质量很重要。数据质量不好,训练出的模型可能就是有缺陷的。”夏一平说。
“从特斯拉的开发经验来看,端到端自动驾驶真不是一般的企业能玩的,其所需的数据规模、算力规模远远超出国内企业的承受能力。除了成本高昂,端到端自动驾驶的技术难度也非常高,想要实现从学术到产品落地,相当于跨越从二踢脚到登月的难度。”毫末智行数据智能科学家贺翔认为,端到端自动驾驶方面所需的算力规模也考验着企业。
“要把端到端做好需要巨大的车队、巨大的算力、非常长时间在安全领域的浸润,这都是基础条件,如果没有这些条件是做不好的。”何小鹏告诉记者,“端到端的发展中,数据需要循环起来,算力需求很大,小鹏今年在算力上投入1亿美元,未来每年还会进一步增加。”
每日经济新闻
不久前,新智驾撰文《夜间场景,自动驾驶值得一说的「好故事」?》,认为夜间场景是高级辅助驾驶(ADAS)和自动驾驶天然存在着的商业需求,只是在实际应用和技术突破中尚存难点。
有意思的是,针对智能驾驶汽车在夜间低光或恶劣天气的棘手技术问题,有玩家号称可以一举攻破,并已装车量产。
近日,昆山星际舟智能科技有限公司(以下简称“星际舟”)对新智驾展示了,基于其自主研发的近红外光“门控”ISP 成像和识别技术,星际舟已生产出适用于白天、雨雪雾(霾)、夜间低光及炫光等场景的全天候ADAS L2+系列产品,同时,在使用最少传感器的前提下,也突破应用到了自动驾驶L3、L4级解决方案的全天候场景。
星际舟成立于2017年,是由海内外专家创办的高科技企业,创始人吴晓闯以及核心团队均来自于世界知名车企以及汽车供应商,在汽车领域有数十年工作经验,对汽车行业的技术开发有深入的研究和了解,在全天候感知识别、智能驾驶决策领域深耕多年。
然而,在车辆中运用新感知技术要想进一步获得行业认可,至少还需要回答以下问题:
1.我们当下熟悉的智能驾驶感知技术成本已被市场接受了吗?
2.智能驾驶行业为什么需要新的感知技术?
3.这种新感知技术有什么独特的竞争优势?目前处于什么进度?
4.从技术到产品再到量产,这对智能驾驶行业又意味着什么?
无论有人驾驶还是智能驾驶都要面对各种驾驶环境,人们对智能驾驶的期待之一就是要能在全天候环境下正常行驶、减少事故。但事实上下面的驾驶环境下会给驾驶带来很多问题,事故容易多发:
目前,智能驾驶所用的主要传感器包括“可见光摄像头”“毫米波雷达”“激光雷达”和“超声波雷达”,实际应用起来各有优劣:
不难发现,目前各类传感器突出的问题是在低光或恶劣天气工况都有明显的缺陷,因此自动驾驶中多种传感器同时使用是当前的一种解决方案,明显的缺点是成本高,潜在的故障点多。
即使使用可见光成像加激光雷达,也不能解决在恶劣天气下的感知和驾驶问题;在ADAS中,为节省成本,基本上采用可见光成像识别加上毫米波雷达,然而这种技术路线不能实现全天候下的高级辅助驾驶。
上述技术缺陷导致了一系列交通事故的发生,如在上列报道中提到的2018年优步的夜间撞行人事件。
又比如特斯拉Model 3的Autopilot自动辅助驾驶系统,它虽配有8个摄像头,前后共有12处超声波传感器,但在该车的产品说明书中,特斯拉还是指出能见度差(大雨、大雪、浓雾等造成)、强光(由于迎面而来的前照灯灯光或直射的阳光等)等因素会限制其辅助驾驶功能的使用。
美国AAA公司在2019年对都装有前碰撞刹车系统的雪弗莱Malibu、本田Accord、特斯拉Model 3、丰田Camry四款车进行测试时也发现,这些车辆的行人探测系统在夜间效率低,有明显缺陷,改善夜间效率可极大提升对行人的探测,这也与车辆的用户手册的描述一致。
美国国家公路交通安全管理局 (NHTSA)则表示,自2018年以来,特斯拉的Autopilot辅助驾驶系统或交通感知巡航控制系统,已经引发了11起车祸。在这些事故中,特斯拉的汽车撞上了带有闪光灯、发光箭头板或警示灯等的车辆,且大多数事故都发生在天黑后或黎明前。
类似地,欧洲2018年的ERSO报告也指出:车辆、行人、自行车等事故率高峰大多发生在低光环境(时段)。
智能驾驶诞生的初衷是为了提高行车安全性,解放人力,并拓广车辆的驾驶和应用场景,突破人可以操作的工况,但由于现有感知技术局限性,当前的高级辅助驾驶还不足以实现全天候工况下运行;而目前在自动驾驶中,则不得不使用过多的传感器来弥补单一传感器的不足,进而增加成本,增加故障点,而且并不能完全解决全天候工况问题。
因此如何突破技术瓶颈,提升智能车辆在夜间、雨雪雾霾、炫光等场景的安全性,迫在眉睫。
另外,就商业价值而言,为了提高安全性,降低保险费用,降低人力成本,货运、矿区、港口、环卫等细分场景,也对智能驾驶在夜间或低光工况下的应用有着十分迫切的需求。
国内外不少智驾企业已经开始探索相应解决方案。比如去年,阿里达摩院宣布已自主研发出用于车载摄像头的ISP处理器,达摩院自动驾驶实验室的路测结果显示,使用该处理,车载摄像头在夜间的图像物体检测识别能力比业内主流处理器有10%以上的提升。
元戎启行则在激光雷达的基础上,提出了自研的3D物体监测网络模型HVNet,表示即使在雨天、夜晚等条件下,也能精准感知障碍物。
除此之外,热成像传感器也渐渐走入行业的视线,它可以做到在无任何可见光的情况下对发热物体成像,而且能够弥补激光雷达无法对物体进行分类的自然缺陷,但其缺陷也是显而易见。
由于红外热成像技术主要是通过热辐射收集信息,热成像传感器对冷物体不能成像(车道线、交通标识牌等),相比可见光图像,其成像分辨率低、信噪比低、硬件耐用性差,对于径向运动物体的检测能力较差,成本也昂贵得多。
今年,苹果就有一项汽车夜视系统获得了专利,该系统结合了可见光、近红外(NIR)和长波红外(LWIR)传感器,苹果试图利用这几种互补的图像传感技术的组合,来解决夜间或低光环境下物体检测和分类的挑战。
面对以上种种当前传感器的局限性,星际舟找到了另一种突围方式。
据悉,星际舟研发团队自主研发了基于近红外光的门控成像识别技术,有效解决了在白天、夜间低光/炫光、雨雪雾(霾)等全天候工况下的成像和识别,基于此技术产品开发的ADAS产品和自动驾驶解决方案也适用于全天候工况,可突破目前智能驾驶汽车只能在好天气情况下使用的尴尬局面,还有望取代价格高昂的激光雷达传感器,进而减少了传感器的使用量,降低了成本,为自动驾驶突破从“开发,不计成本”阶段到真正可“用得起”的量产阶段奠定了基础。
“门控”技术则是系统可以根据外部环境自主调节快门与近红外光源脉冲的联动策略,使系统可以主动适应不同的复杂场景,使得功耗最小,成像效果更佳。
鉴于该成像模组的高帧率输出(>100帧/秒),星际舟建立了具有自主知识产权的“自适应切片网络模型”,再结合公司百万公里全天候数据集,实现了星际舟识别产品在白天、夜间低光及夜间炫光、雨雪雾(霾)和出隧道超级曝光环境下同时对物体成像识别,其效果如下列所示:
星际舟全天候成像识别及ADAS测试视频摘录:
星际舟产品架构
除此之外,星际舟还自建了全天候成像仪自动化生产线。
根据介绍,星际舟全天候近红外核心门控技术具有自主知识产权, 其基于近红外门控技术实现的全天候成像模组亦属于国内首发,星际舟表示,这是行业内首家开发出具备全自动化组装及AA制程的全天候传感器生产线。
星际舟负责生产运营的张喜林则表示,这是世界上唯一一条基于近红外门控技术的成像模组产线,整线自动化程度超过85%,每年可量产60万套产品。
星际舟表示,基于其近红外光“门控”ISP 技术开发的全天候成像识别系统,可实现在最低光源功耗下达到最佳的成像距离(25瓦/250米)和最佳全天候成像效果(白天、雨雪雾霾、夜间低光及炫光)。
目前,星际舟全天候目标识别的准确率达97%,其中行人有效识别距离达130米,车辆最远识别距离达200米,除此之外还能和毫米波融合,融合准确率达95%。
以近红外光“门控”ISP 技术为核心,如今星际舟已有全天候成像识别系统、ADAS和L4自动驾驶系列产品。
星际舟主要产品简介
而在ADAS和L4自动驾驶系统中,基于成像识别的测距较弱,为了安全冗余,星际舟加入毫米波雷达,这样的技术路线不仅解决了全天候工况问题,还具有目标测距的准确性。
更重要的是,基于近红外光“门控”ISP 技术的系列成像、识别产品,解决了传感器在夜间、低光及恶劣环境等工况无法解决的难题,加之融合毫米波雷达,这样的感知体系在ADAS和L4自动驾驶应用中,具备全天候感知的完备性,不需要使用激光雷达,因此具有取代激光雷达的潜力。
ADAS激光雷达在2021年爆发,长城、小鹏、蔚来和理想新车都推出了激光雷达方案,戴姆勒、保时捷、宝马、蔚来等企业纷纷投资激光雷达公司,许多激光雷达产业链企业也呈现出快速发展的势头。
但就目前来看,激光雷达还存在许多局限性,尤其在成本和潮湿天气环境下,有待于时间和资本的进一步投入。
据星际舟负责人介绍,星际舟的智能驾驶系统的成本则是激光雷达方案的八分之一到十分之一。
从近红外“门控”成像传感器的使用成本和应用场景来看,智能驾驶行业许多参与者的玩法有可能因此被一举颠覆,而这不是星际舟在自嗨。
现在全球很多车企已经重视做ADAS技术在夜间、低光等场景的技术积累,而星际舟基于近红外成像识别技术的系列产品已经被OEM接受,有些车企正在测试,有些车企已安装了星际舟的全天候成像识别及其ADAS系统,在中国实现首发。
目前星际舟的车规级全天候成像识别系统,已通过交通部 JT1242 AEBS 规范测试,产品也已和十几家国内外车企进行交流、测试,被誉为“世界领先”。
除此之外,星际舟的全天候AEB系统还助力中通“超级大巴”H12摘下了“2021中国商用车卓越产品奖.高端商旅之王”奖项,同时星际舟与美国通用汽车合作进一步开发下一代立体全天候成像识别;星际舟主要客户包括通用汽车、中通客车、中国一汽解放等。
星际舟的产品除了可应用在客车大巴、重卡等商用车上,还可进入乘用车;矿区、智慧公路、船舶等场景以及渣土车、水泥罐车等车型的后装市场。
对于ADAS辅助驾驶系统和L3、L4级自动驾驶方案,此前智能驾驶行业总是不断在毫米波雷达、摄像头、超声波雷达和激光雷达这四种感知技术中比较,再根据自己的预算、企业定位和产品规划等因素,进行选型、系统集成和应用。
但目前智能驾驶感知技术在夜间或恶劣天气下常常歇菜,智能驾驶汽车在这些场景的想象力也由此阻滞。
星际舟则另辟蹊径,自主研发出了近红外门控成像识别技术,并且脱离设计阶段,建立具有自主知识产权的,生产该技术产品的专业产线,实现了从研到产的量产和商业化能力,不得不说确实为智能驾驶行业感知技术的发展指向了另一种可行方向,同时实现了真正意义上的全天候ADAS。
智能驾驶行业一个值得言说的新故事,正徐徐展开新篇章。
雷锋网#雷锋网#雷锋网#
L4级的自动驾驶算法对计算平台有着极高的要求,需要计算平台以近乎实时的速度,对多种传感器所采集的海量信息进行处理,计算出最优路径并执行驾驶。
传统的计算平台虽然已经满足了算法计算上的要求,但体积大,功耗高,远远达不到车规要求。1月6日,深圳元戎启行科技有限公司公布了其计算平台解决方案——DeepRoute Tite,通过将L4级自动驾驶所需的算法移植到车规级计算平台Xavier,大幅降低了计算平台的成本和体积,并将整体功耗降到了45瓦。该方案也将在今年的国际消费类电子产品展览会(CES 2020)上亮相。
据介绍,元戎启行的计算平台解决方案,采用了一台英伟达的车规级计算平台Xavier,处理感知、预测、决策、规划与控制、导航定位等L4级自动驾驶模块。以往需要在庞大的计算平台上运行的算法,现在只要一个小小的盒子即可运行。让自动驾驶汽车的后备箱,也能和正常汽车一样,放置各类物品。
相比起来,传统的计算平台是PC机式的,不仅体积庞大,功耗也非常高,在瓦左右。如今,即使是同为车规级计算平台的NVIDIA AGX Pegasus ||,其功耗也高达300瓦,还需要增加冷却系统对设备进行冷却。而使用Xavier,元戎启行计算平台解决方案的整体功耗,只有Pegasus的七分之一左右,在后备箱环境中,不需要额外增加冷却设备也能稳定工作。
虽然在性能上,Xavier 的32万亿次/秒的计算速度,只达到了Pegasus II的十分之一,但在成本上Xavier有更高的优势,更符合量产要求。
为了用低成本的车规级计算平台实现L4级的自动驾驶,元戎启行通过自主研发的推理引擎,将自动驾驶相关算法成功移植到Xavier,将计算平台整体解决方案的成本降到了传统解决方案的一半左右,同时将功耗缩小到传统方案的近九分之一。
“通过自主研发的推理引擎,我们在计算上做了很多优化,因此,不需要超高性能的计算平台,一台Xavier即可满足L4级自动驾驶的计算需求。打个比方,我们的解决方案效果,相当于让从前只能在PC机上运行的软件,在iPad上也能够运行了。”元戎启行推理引擎和硬件加速负责人庄奇说。
庄奇介绍道:“L4级的自动驾驶场景,需要处理大量的传感器采集的数据,需要使用复杂的算法。而一般的深度学习框架和其他的推理引擎无法满足我们的需求。”
他进一步解释:“我们自研的推理引擎,能够做出更好的计算资源上的优化,让我们的自动驾驶算法能够高效和稳定地运行。既降低了成本,又保证了自动驾驶的安全性。”
通过使用这一计算引擎,45瓦的计算平台解决方案也能够满足L4级自动驾驶系统的所有计算需求,使得元戎启行的L4级自动驾驶汽车即使在复杂的城市道路中,也能如老司机般娴熟操作。
除了能实现高效的计算,元戎启行自研的推理引擎还有易移植和易扩展的优点。该推理引擎不仅能够支持英伟达、英特尔、AMD等品牌的计算平台,还能很好地适配PyTorch、Caffe、TensorFlow等深度学习框架。有利于让算法研发成果快速投入到产品的工程应用中。
元戎启行硬件技术总监刘念邱表示,元戎启行的L4级自动驾驶解决方案,更多面向可大规模量产的前装市场。因此在硬件上尽量选择成本相对较低的符合车规的产品。
随着计算平台体积和功耗的大幅度缩小,元戎启行还可通过增加计算平台数量的方式来实现安全冗余,在一个平台发生故障时能转换到另一个平台,确保自动驾驶汽车的稳定与安全。与高算力的解决方案相比,这一方案在成本和功耗上仍然有很大的优势。
为了全面满足自动驾驶算法的需求,并进一步降低硬件产品的成本,元戎启行自研了一体化的传感解决方案DeepRoute-Sense。该传感解决方案在其与东风汽车集团技术中心的合作中,已经投入了使用。
目前,元戎启行已与东风汽车集团技术中心合作,研发Robo-Taxi, 并与国内的知名出行公司展开合作,在国内中部地区推广Robo-Taxi的试运营服务。行业观察人士认为,随着相关产品不断地车规化,L4级自动驾驶的量产也将指日可待。(光明日报全媒体记者严圣禾)
本网站的文章部分内容可能来源于网络和网友发布,仅供大家学习与参考,如有侵权,请联系站长进行删除处理,不代表本网站立场,转载联系作者并注明出处:https://clwxseo.com/jishufuwu/2721.html