2025年01月09日
TataElxsi2025年01月09日
瑞萨2025年01月09日
Creaform2025年01月09日
CES20252025年01月09日
PTC
2025年01月08日
伏能士
2025年01月07日
Mendix 低代码平台
2025年01月06日
达索
2025年01月06日
海克斯康
2025年01月09日
宜科
2025年01月09日
梅卡曼德
2025年01月09日
堡盟
2025年01月08日
瓦尔特
2025年01月07日
新思科技
数据闭环是指运用AI大模型等新技术,对数据挖掘、自动标注、模型训练、仿真测试进行升级,让智驾数据运用从小规模且重人工的方式,转化为可大规模运用且高自动化运转的方式,实现智驾数据处理更流畅、智驾功能体验更佳。数据闭环的主要流程包括数据采集、数据传输、数据存储、数据预处理、数据清洗、自动标注、模型训练、仿真测试、车端验证、数据回灌。
数据采集
数据采集是数据闭环的起点,可以依靠传感器技术,通过道路采集车、量产车、车主数据贡献等方式进行数据采集,此外多模态大模型技术也能够通过场景生成进行数据采集,丰富数据库的内容,解决Corner case的问题。
汽车环境感知传感器能够精确捕捉并整合车辆周围的各种环境数据,使智能驾驶系统做出精准、实时决策的核心依据。其中,四种主要的环境感知传感器包括激光雷达、毫米波雷达、高清摄像头和超声波雷达,四种环境传感器采集到的数据经过相关处理后能够更加高效用于云端存储、数据标注、模型训练、仿真测试等数据闭环流程中。
多模态大模型的场景生成技术通过融合视觉、语言和传感器数据,生成逼真的虚拟环境,用于训练和测试自动驾驶系统,提升其在复杂场景下的泛化能力和决策准确性。
数据传输
在自动驾驶数据闭环中,数据传输很关键,它负责将采集到的大量传感器数据从车辆传输到数据处理中心。这一过程不仅需要确保传输高效,还要确保数据的安全性和完整性。数据传输目前涉及数据压缩、数据加密、网络优化等技术。
数据存储
自动驾驶车辆生成的数据量巨大,对存储系统的容量提出了极高要求。例如,一个高清摄像头每秒可以生成数GB的数据。假设单辆测试车可采集10TB的原始数据,预计全年数据存储成本将超过800万美元。车辆数据包括视频、图像、雷达信号等多种格式,每种数据类型可能需要不同的存储和处理策略,增加了存储系统的复杂性。因此存储系统需要具备高扩展性和高可靠性,以应对自动驾驶产生的海量数据。其中云储存的分布式存储架构和对象存储技术,具备大容量、高可靠性、高性能、高伸缩性、低成本等优势。
数据预处理和数据清洗
车端收集的数据通常来源于各种传感器和车载系统,在用于分析或模型训练之前,必须经过严格的数据预处理和清洗,以确保其质量和一致性,同时提高后续处理环节的效率。车端数据可能来自不同的传感器和设备,每种设备可能都有其特定的数据格式。
数据预处理的第一步是将这些数据转换成统一的格式(格式化),以便于进一步的处理。其中时间戳需要统一格式以同步不同源的数据,传感器读数可能需要转换成相同的量纲或单位系统。车端数据可能由于技术问题或信号干扰而出现缺失。数据清洗需要识别这些缺失值,并根据缺失的机制剔除或者补全。对于传感器读数偏差或数据录入错误。需要通过校准过程或对比其他数据源来识别并纠正这些错误。目前云计算和边缘计算能够进行数据处理。
自动标注
传统的人工标注耗时长,成本高。自动驾驶一个视觉算法训练涉及的图片标注量就达几十万级,人工标注耗时耗力,1小时的视频数据需要800个工时来进行人工标注,100万帧车道线需250个标注员一个月才能完成,效率低下;人工标注的标签体系不统一,标注质量参差不齐。由于标注的标准难以统一,质量参差不齐,数据挖掘效率低下,容易导致错误频发、重复挖掘、返工率高等问题,数量与质量皆难保障。
AI自动标注利用机器学习和深度学习技术自动识别和标记数据集中的对象或事件,极大地提高了数据标注的速度和效率。它减少了人工标注所需的大量时间和劳动力,同时降低了人为错误,确保了标注的一致性和准确性。此外,AI自动标注可以处理大规模数据集,支持复杂的场景和多样的数据类型,为机器学习模型提供了高质量的训练数据,加速了后续的模型训练和迭代过程。
随着BEV感知技术的出现,图像特征开始从2D的透视图转换到了3D空间,输出车体世界坐标系下的3D静态或者动态的结果,而BEV需要的真值数据并且动态物体还需要考虑时序信息,由此4D标注技术成为了未来BEV+Transformer架构发展不可或缺的一部分。下图是地平线基于BEV感知的4D标注技术方案。
模型训练
经过标注后的数据将被用于后续的模型训练,而模型训练主要可分为预训练与微调两个阶段。模型训练会将处理好的数据输入到模型中进行训练,通过不断调整权重和偏置等参数,使模型逐渐拟合数据,达到预期的性能和准确率。然而,整个模型训练过程需要具备较高的计算性能,也需要处理海量的数据,并且模型运行的功耗也会提升,所以超算中心(HPC)成为了解决大规模数据处理、高算力需求以及高功耗的关键。
为了提升模型训练效率,超算中心成为主机厂未来的必要基础建设,部分主机厂和自动驾驶相关企业已建成或正在布局自己的超算中心。从长期来看,超算中心的价值不仅在于提供强大的计算能力,还在于可以大大减少开发者部署硬件设施时所需消耗在测试与优化上的时间成本。
仿真测试
高阶智驾需要在各种复杂和多样的场景中进行测试,随着数据量的提升,传统的仿真测试已经无法满足高阶智驾对仿真测试的需求。
云仿真凭借其高并发测试、强协同性、易对接性以及满足大算力需求的优点,能够促进高阶智驾数据闭环。
数字孪生凭借AI和VR等技术,通过虚拟仿真模拟真实道路环境和交通情况,为自动驾驶系统提供丰富的测试场景,降低测试成本和时间,并且能够极大提高仿真测试的安全性。
NeRF和3DGS技术用于仿真测试
(1)NeRF技术
NeRF,全称为神经辐射场(Neural Radiance Fields)。它利用神经网络和机器学习技术,将三维场景转化为一种连续的函数,这个函数可以描述场景中任意一点在任意方向上的颜色和密度。NeRF技术的核心在于使用神经网络对场景进行编码,并利用多视角图像数据进行训练,最终生成一个能够精准描述场景的三维模型。自2019年NeRF技术首次提出以来,其研究进展迅速,在三维场景的重建、动画制作、虚拟现实等领域取得了显著成果。NeRF技术不仅可以生成高质量的三维模型,还可以通过训练神经网络实现实时渲染和交互,目前被广泛用于自动驾驶的仿真领域。
但大多数NeRF方法需要完整的视频序列进行耗时的离线训练,无法实现实时渲染,限制了其实用性。自动驾驶场景本身就是无界限的场景,之前用NeRF的方法建模时,都是假设场景是稳定的,对于动态场景的捕捉力度不足,在有多个动目标、光线变化的场景里,NeRF合成的图质量很差。
(2)3D Gaussian Splatting 技术
3D高斯泼溅(3D Gaussian Splatting, 简称3DGS)是用于实时辐射场渲染的3D 高斯分布描述的一种渲染技术,通过将多视角图像表示的三维场景转化为各向异性3D高斯点云表示的场景,并能通过参数优化和密度控制来提高重建质量。
与神经辐射场(NeRF)等用位置和视点条件神经网络表示3D场景的神经隐式表示不同,3D GS利用一组高斯椭球来对场景进行建模,因此可以通过将高斯椭球光栅化为图像来实现高效渲染。3DGS在渲染速度、图像质量、定位精度等方面呈现出了非常优异的表现,全面补足了NeRF的短板。同时,基于3DGS的重建场景能够1:1复刻在真实智驾上发现的边缘场景(Corner Case),通过动态场景泛化,提升端到端智驾系统应对Corner Case的能力。下图NeRF和3DGS的对比。
(1)融合方案突破3DGS技术局限
针对3DGS在实际应用上的短板,51Sim将3DGS通过AI算法驱动与传统图形渲染技术融合,突破了单一技术的局限。
(2)在通过3DGS点云建模的基础上,通过优化的AI融合算法,将静态3DGS场景与此前积累的静态场景库、动态的交通场景库和各类传感器仿真进行了自然融合。确保了整体场景的连贯性和视觉真实感,并实现了场景丰富度指数级增加。同时,利用先进的全局渲染技术,生成高质量视图,确保多相机视角的一致性和高保真度,实现了逼真的渲染效果。
下图是3DGS融合动态、静态交通要素的前后对比
车端验证和数据回灌