首页 > 汽车技术 > 正文

深度解析特斯拉最强自动驾驶芯片及视觉传感器

2020-01-15 20:33:08·  来源:无人车情报局  
 
2、HW 2.0到HW 3.0:芯片算力飞跃,自主研发掌控硬件
HW2.0使用NVIDIA的Drive PX 2芯片,主板的整体集成度并不高,有大片留白。所有芯片加起来理论算力仅有NVIDIA的Drive PX 2的一半。HW2.5芯片整体集成度空前提高,在之前主板构造的基础上增加了4块CPU,集成度上的飞跃带来算力的跃升,基本达到了Drive PX 2的理论算力水平。
在HW3.0时特斯拉使用自主研发芯片FSD,在计算层拥有了完全掌控力。FSD采用双芯片设计,算力达到了144TOPS,对比HW2.5性能提高了21倍,而功耗仅提高了25%。同时在安全性则在系统层面也有很多考虑,比如大量的冗余设计。
 
同一块板卡上配备两颗芯片,同时都对同样的数据进行分析,然后对比分析结果(或者相互验证),再得出最终结论。目前,HW3.0已经完全能够应对L5级别自动驾驶所需的感知层数据量和计算能力,成为特斯拉智能驾驶技术的核心竞争力。
3、OTA软件升级之路:从智能汽车到智能移动空间
特斯拉的软件迭代通过OTA空中升级实现,主要经历三个阶段。
第一阶段:创新、探索:4.0版本—6.0版本。本阶段内特斯拉受产能和技术限制,尚未加入真正意义上的自动辅助驾驶功能,升级领域聚焦于智能网联、语音交互、实时导航服务等功能,创造了人车交互的雏形。特斯拉早期的版本平均更新速度是34天发布一次,更细微的维护版本更新速度则为平均每60天更新一次,保持高频率迭代升级。平均每60天更新一次,保持高频率迭代升级。  
                                                                
第二阶段:重大突破:6.1版本—7.1版本。特斯拉首次加入了自动车道保持、自动变道和自动泊车三大辅助驾驶功能。只要向内侧拨动两次定速巡航杆,就能开启辅助驾驶。打开转向灯,汽车会在安全的情况下自动变道,全程无需司机驾驶。特斯拉正式落地实现自动驾驶功能。
    
第三阶段:完善、开拓:8.0版本—10.0版本。特斯拉持续优化现有的自动辅助驾驶功能。8.0版本当中,对 Autopilot 就有200项的改进,除了对体验流畅度和响应速度要求更高以外,在安全性方面也得到增强。另外,特斯拉开始拓展在舒适度和娱乐功能上的拓展,8.0版本加入爱宠模式:当车主暂时离开,车内会自动给猫狗等宠物调节到舒适的温度,保持车内透气恒温。10.0版本加入第三方应用,可在线看 YouTube、Netflix 流媒体,加入在线卡拉 OK 等新功能。特斯拉从“智能驾驶汽车”逐渐向“移动智能空间”转变。
     
4.特斯拉在智能驾驶领域具有核心优势
智能辅助驾驶技术的核心在于计算层的芯片和算法,特斯拉在这两个领域有一定的先发优势、且已逐步切换至自主研发芯片、算法的阶段。在感知层打破了视觉传感器流派的瓶颈,执行层则做到了目前最为完善的自动驾驶功能。鉴于其在自动驾驶领域技术研发积累、硬件软件基本自主可控以及成本优势,预计智能辅助驾驶技术也将成为特斯拉的长期核心竞争力。
1、计算层优势——双芯片算力领航,ECU设计重新定义汽车
1.1 自主研发芯片:算力安全双保险
特斯拉目前使用完全自主研发的FSD全自动驾驶芯片,算力单芯片72TOPS,板卡144TOPS。
FSD主板设计的最大特点是双芯片设计形成冗余,减少了功能区故障隐患,同时提高了图像处理的安全与精准性。根据马斯克的说法,FSD芯片主板做了完整的冗余,也就是说HW3.0 的每一个功能区都可以损坏,而整套硬件依然可以保持正常工作。
同时,主板内部设置了两个处理器,同一块板卡上的两颗芯片的供电和数据通道都是独立且互为备份的。两颗芯片对同样的数据进行分析,相互验证、比对分析,再得出最终结论,极大地提高了图像处理的安全和准确性。
从单个处理器来看,FSD处理器由一块负责通用数据处理的中央处理器CPU、一块负责图形处理的GPU、两块负责深度学习和预测的神经处理单元NPU和一块内置图像处理器ISP组成。
FSD的核心优势在于强大的图像处理和高速传输数据能力。GPU单元为图形处理单元,工作是协助核心处理器完成图形和动画的渲染,让用户能在屏幕上获取有效信息。图像处理器 ISP 的作用主要是将摄像头产生的原始 RGB 三原色数据转化成复杂的图像信息。GPU和ISP构成了智能驾驶AI芯片的主角。
FSD内置了主频为 1GHZ 的 GPU,拥有 600TOPS 的超强运算力,同时图像处理器ISP最高可以25 亿像素/秒的高速处理 10 亿像素的数据量数据。大概是往21块1080P的全高清屏幕塞60帧画面的程度,这已经追上现在世界上最快的消费级图像传输标准 DisplayPort 1.4 了,而车载芯片“传统上”要落后消费级起码一个时代的。
FSD的数据传输速度也远超过现在特斯拉配备的8摄像头传感器所产生的数据,为之后的特斯拉向L5级别自动驾驶升级预留了足够的数据传输空间。
 
FSD的优势之二在于神经处理单元NPU储存芯片容量巨大、带宽速度极快。NPU负责根据深度学习模型对ISP产生的图像数据作出处理——但在此之前,这些数据将会存储在SRAM内。
SRAM可以简单地将它理解为比运行内存速度快很多,同时成本也高很多的存储芯片,一般被应用在处理芯片的1-3级缓存上。FSD现在拥有32MB 的缓存,对比来看,零售价16999元的英特尔酷睿i9-9980XE,SRAM缓存总量也仅为33.75MB,2010年英特尔CPU的最大SRAM仅为16MB,2014年也只是增长到了24MB。
巨大的 SRAM 容量总结为 FSD 芯片对比市场上同类芯片的最大的优势。另外,特斯拉芯片总工程师Pete Bannon 表示,处理全自动驾驶的缓存带宽至少要达到1TB/秒,而 FSD 芯片的 SRAM 实际上能提供 2TB/秒的带宽。
FSD的优势之三在于CPU架构的优化。特斯拉采用的是三个四核CPU的并联架构,运行频率为 2.2GHZ。多个核心叠加的方式保证了多线程总性能不比如今顶级的 4 核心移动端CPU弱,甚至更胜一筹。与上一代HW2.5相比,HW 3.0的CPU性能提升到了上一代的2.5 倍。
1.2颠覆EEA构架,集中化打破自动驾驶硬件瓶颈
    
汽车电子电气架构(EEA)是指以划分不同功能域的方式来集中控制不同ECU(电子控制单元),包括车身与便利系统、车用资讯娱乐系统、底盘与安全系统、动力系统,以及高级辅助驾驶系统(ADAS)等五个大域。这其中,每个域或子域都有对应的域控制器DCU和各种ECU,共同构成汽车电子电气架构的网络拓扑。
自动驾驶对于EEA架构提出了挑战。自动驾驶要求更高的算力和更多传感器件,分布式的ECU架构如果无限制扩张,势必面临着巨大挑战:
(1)ECU的算力不能协同,并相互冗余,产生极大浪费。
(2)大量分离的嵌入式OS和应用程序Firmware,由不同Tier1提供,语言和编程风格迥异,导致统一维护和OTA升级困难。
(3)分布式的架构需要大量的内部通信,客观上导致线束成本大幅增加,加大装配难度。
(4)第三方应用开发者无法与这些硬件进行便捷的编程,软件开发低效。
特斯拉的Model 3对EEA架构进行了垂直整合,算力向中央集中、向云端集中。压缩自动驾驶硬件成本,减少成本。特斯拉的中央计算模块(CCM)直接整合了驾驶辅助系统(ADAS)和信息娱乐系统(IVI)两大域,以及外部连接和车内通信系统域功能;左车身控制模块(BCM_LH)和右车身控制模块(BCM_RH)分别负责剩下的车身与便利系统、底盘与安全系统和部分动力系统的功能。EEA(电子电气架构)架构只有三大部分:CCM(中央计算模块)、BCM LH(左车身控制模块)、BCM RH(右车身控制模块)。
类比于计算机硬件架构,英特尔的x86通过垂直整合把之前的运算器、控制器、存储器、输入设备和输出设备五大部分整合为CPU、南北桥芯片三大部分,计算机朝集中化,轻量化方向发展,才使计算机正式进入寻常百姓家。特斯拉类似于X86的整合方式重新定义了智能驾驶硬件架构,通用性、标准化的硬件架构设计压缩了不同软硬件融合、协同算力造成的成本浪费,使智能汽车行业的进化变得更加高效。
2、感知层优势——视觉为主+深度学习
2.1传感器方案:摄像头为主,多传感器融合
目前智能驾驶感知层解决方案分为两种流派:以特斯拉为代表的视觉主导方案和以WAYMO为代表的激光雷达主导方案。视觉主导方案以摄像头为主导,配合毫米波雷达、超声波雷达、低成本激光雷达;激光雷达主导方案以激光雷达为主导,配合毫米波雷达、超声波传感器、摄像头。
激光雷达最重要的两个属性是测距和精度。激光雷达可以主动探测周围环境,属于“主动视觉”,即使在夜间仍能准确地检测障碍物。因为激光光束更加聚拢,所以比毫米波雷达拥有更高的探测精度。缺点在于成本高昂、技术不成熟、影响车辆整体外观。激光雷达成本高于2万元,而摄像头最多仅2000元,雷达则更便宜,激光雷达主导的解决方案为主机厂带来成本压力。
摄像头测距能力相对较弱,且受环境光照的影响大,但摄像头的核心优势在于非常适用于物体识别、数据量远超其他传感器。摄像头成像原理与人眼类似,都是物体反射的光通过镜片在传感器上成像,人眼就能看懂摄像头拍摄的内容,摄像头可以完成物体分类。同时摄像头拥有最丰富的线性密度,其数据量远超其他类型的传感器。基于图像信息密度最高的优势,使得它处于整个感知融合的中心地位。
 
 
特斯拉通过传感器融合辅助规避了摄像头受天气影响的弊端,在功能上取代了激光雷达传感器;通过提高摄像头监测距离、利用FSD的高速数据传输、GPU强大算力极大地提高了成像的精度,基本打破了视觉方案的瓶颈,同时降低了自动化系统的成本。这意味着特斯拉纯视觉方案也可更进一步,甚至有可能率先达到“机器开车人辅助”甚至“机器开车”的L4、L5级别自动驾驶。
特斯拉Autopilot的感知工作主要依赖3个前置摄像头、2个侧方前视摄像头、2个侧方后视摄像头、1个后视摄像头、12个超声波传感器、1个毫米波前置雷达,实现了多传感器融合冗余。特斯拉通过8个摄像头完成360度全方位检测周围环境,雷达则负责探测前方障碍物的距离及行进速度,且不受天气影响。基本替代了激光雷达的功能。
其中侧视摄像头已经保证了左右两车道无盲区。侧后视装在翼子板上,位置靠前;侧前视装在 B 柱,位置在侧后视的安装位置之后 1m。侧前视和侧后视相互重叠,这4个摄像头完全覆盖了左右车道,为特斯拉的L3级别的功能:变道、合流、出高速提供全方位成像。前视摄像头是一个三目摄像头的总成件,配合雷达解决了特斯拉前向测距的问题,可探测车前250m的路况,为ADAS功能中的自适应巡航ACC、交通拥堵辅助TJA等功能提供成像。
 
 
2.2深度学习:神经网络算法提高精度
深度学习搭建时空结构网络,实现机器不干预的自我学习,深度学习能够在图像识别能力上显著超越传统算法。Clarif AI 针对行人等复杂物体识别实验数据显示,2010年误检率(Error Rate)在30%-80%之间,两年传统算法优化将误检率降低至20-30%左右,陷入瓶颈。深度学习算法则进一步降低误检率,接近至10%以下。ImageNet数据同样显示,深度学习算法可将行人的识别率提升至90%以上。
特斯拉的神经网络图像识别算法,是基于其自研的计算机芯片以及大量配套的软件算法。特斯拉称之为车队学习网络(fleet learning network),特斯拉的每一位司机其实都参与到了神经网络的训练中,共同组成车队为特斯拉的自动驾驶系统喂入新的数据,搜集自动驾驶所需的高精度地图。
特斯拉的 AI 软件能够处理来自视觉传感器收集到的车道线、交通、行人等信息,将这些信号与已知的物体进行匹配再最终作出决策。
特斯拉通过车队学习获得大量驾驶数据,再辅以快速进步的算法使得驾驶质量进一步提升。若出现摄像头完全无法理解或引起混乱的图像,工程师会上传到云端,由工程师进行标注导入神经网络进行训练,直到神经网络掌握对该场景的识别。
此外,全球各地不同国家有着完全不同的路况、交规、暴雨、冰雹、大雾、甚至洪水、火灾、火山等罕见的长尾场景。每一次AP启用状态下的人为介入接管,系统都会记录下该场景的信息和数据,并自行学习人类的决策和驾驶行为。
目前特斯拉已积累了海量驾驶数据。MIT 按照特斯拉公布的交付量、特斯拉汽车平均行驶里程和 AP 启动状态下行驶里程计算,到2019年,特斯拉累计路测数据已经达到4.8亿英里,估测到2020年将突破 15 亿英里。按照特斯拉官方说法,特斯拉路测数据占全行业总路测数据的99%,可以处理99.999%的场景。
同时,特斯拉不断增长的销售量使数据搜集速度超过其他深度学习智能驾驶项目一个维度。Google的自动驾驶汽车用4年一共积累了不到250万公里的数据,特斯拉只需要15个小时便达到了。
分享到:
 
反对 0 举报 0 收藏 0 评论 0
沪ICP备11026620号