- 2025-04-07
-
发表了主题帖:
活动分享 | 从确定性验证到多模态数据生成:智能驾驶与座舱的全栈仿真技术
智能驾驶技术快速发展,仿真验证技术正深度重塑研发进程。从确定性验证到多模态数据生成,从HiL测试到虚拟座舱验证,全栈仿真技术已成为加速落地的核心驱动力,既提升验证效率,又助力突破技术瓶颈。
在此背景下,康谋特别策划了“从确定性验证到多模态数据生成:智能驾驶与座舱的全栈仿真技术”专题研讨会,深入探讨HiL测试策略×合成数据工具链×虚拟场景闭环方法论体系,以构建更高效可靠的智能驾驶验证方案。
我们期待与您共同探索仿真技术的最新突破,推动智能驾驶技术的商业化进程!
活动议程
- 2025-03-31
-
发表了日志:
巧用合成数据重构智能座舱
-
发表了主题帖:
仿真驱动、数据自造:Anyverse巧用合成数据重构智能座舱
随着汽车向智能化、场景化加速演进,智能座舱已成为人车交互的核心承载。从驾驶员注意力监测到儿童遗留检测,从乘员识别到安全带状态判断,座舱内的每一次行为都蕴含着巨大的安全与体验价值。
然而,这些感知系统要在多样驾驶行为、复杂座舱布局和极端光照条件下持续稳定运行,传统的真实数据采集方式已难以支撑其开发迭代需求。智能座舱的技术演进,正由“采集驱动”转向“仿真驱动”。
一、智能座舱仿真的挑战与突破
图1:座舱实例图
智能座舱中的AI系统,不仅需要理解驾驶员的行为和状态,还要同时感知乘员、儿童、宠物乃至环境中的潜在交互风险。其仿真面临几大挑战:
(1)行为维度复杂:如疲劳驾驶、身体遮挡、婴儿误留、饮水打电话等多样行为难以统一采集;
(2)环境变因多样:如夜间光照、红外反射、遮挡物等情况干扰传感器判断;
(3)隐私合规严苛:特别是在儿童检测等场景,获取真实数据存在法律与伦理障碍。
这些因素决定了:高质量的、多模态的合成数据与虚拟仿真,已成为智能座舱感知系统研发不可或缺的支撑工具。
二、合成数据:真实世界外的“数据宇宙”
在智能座舱开发中,获取高质量训练数据往往面临隐私、成本和长尾场景覆盖不足的问题。合成数据以其可控、高效、多样、合规等优势,正成为训练AI感知系统的重要资源。
图2:多种类型传感器下的合成数据(Anyverse)
相比真实数据,合成数据具有以下优势:
(1)全面多样:可灵活生成不同人群、行为、座舱结构与环境变量组合,轻松覆盖极端和低频场景;
(2)精准标注:输出像素级真值、凝视向量、关键点、分割图等,省去人工标注;
(3)高效合规:不涉及真实乘员或儿童影像,天然满足GDPR等隐私法规;
(4)可重复与可扩展:相同条件下随时重建,便于模型对比测试与大规模数据扩增。
在 DMS、OMS、儿童存在检测(CPD)、安全带识别、宠物识别等多个智能座舱感知模块中,合成数据不仅作为训练数据使用,也广泛应用于模型验证、场景补全与鲁棒性测试。
三、研究积累:智能座舱仿真技术的支撑
智能座舱的核心不再只是对驾驶员状态的检测,更在于理解人在车内的各种行为与交互模式。为了实现这一目标,学术界在近几年不断推进舱内仿真与合成数据相关研究,这些成果也为 Anyverse 的平台能力提供了坚实的技术基础。
其中,CVPR 2023 发表的 BEHAVE 数据集是第一个聚焦全身人-物体交互的大规模 3D 数据集。该研究通过多视角 RGB-D 采集与三维重建,精细还原了人类与日常物品之间的自然行为,包括动作接触点、物体遮挡、身体姿态等,为仿真平台构建乘员使用手机、饮水、与物体互动等细致行为场景提供了完整建模方案。
图3:BEHAVE数据集
在视线与注意力建模方面,ICCV 2019 的 Gaze360 提出了无需设备佩戴的 3D 凝视估计方法。该数据集涵盖不同光照和姿态条件下的大量受试者样本,引入时间建模与不确定性表达,为驾驶员注意力评估和视觉交互训练提供了更加贴近实际场景的支持,也使得 Anyverse 能够更加自然地模拟驾驶员在不同状态下的凝视方向和关注点。
图4 :Gaze360视线标注数据集
图5:Anyverse合成的打瞌睡的司机元数据可视化
这些研究标志着舱内感知正从静态姿态识别,逐步迈向对复杂交互行为和多模态信息的深度建模。Anyverse 正是建立在这类前沿研究成果的基础之上,不断拓展其在角色行为生成、传感器仿真、多视角场景构建等方面的能力,助力智能座舱系统走向更加真实、可靠与安全的交互未来。
四、Anyverse:舱内多模态感知仿真平台
Anyverse 是一套专为舱内感知系统设计的多模态仿真平台,覆盖从驾驶员监控(DMS)到乘员识别(OMS)、儿童存在检测(CPD)、安全带识别、红外仿真、雷达仿真等多场景需求。
图6:Anyverse功能概览
图7:多样化的舱内合成数据
1、关键功能亮点
(1)多样化舱内合成数据生成
支持多年龄、种族、姿态的角色建模,覆盖儿童座椅状态、宠物遮挡、错误安全带系法等复杂情境,输出 RGB、IR、ToF、Radar 等多传感器格式数据。
(2)快速虚拟验证与闭环测试
适配 Euro NCAP、IIHS、China NCAP 等安全法规标准,提供像素级真值标注、行为追踪与模型性能可视化验证。
(3)物理级传感器仿真引擎
支持基于 SBR 技术的雷达建模、高保真红外与近红外成像、MIMO 系统仿真,输出雷达立方体与点云格式数据。
(4)开放、可复用的数据资产库
提供可自定义的角色、座舱结构、传感器布置与互动物体库,快速构建多变场景,显著降低研发成本。
凭借高保真仿真能力与多模态数据生成优势,Anyverse 展现出在整车厂、Tier 1 与算法研发团队中广泛部署的潜力,正加速舱内感知系统的训练与验证闭环。
五、结语:仿真驱动的智能座舱创新路径
智能座舱的真正挑战,不是识别驾驶员是否闭眼,而是理解“此时此刻车内发生了什么”。这需要多模态、多角色、多行为的精准感知系统,更需要背后支撑它的,一整套高保真、低成本、标准对齐的仿真机制。
从数据生成到算法验证,从法规适配到部署测试,Anyverse 提供的不仅是一个仿真平台,更是智能座舱走向真正“理解人”的关键基础设施。
未来的人车交互,不止于响应,而源于洞察!
参考文献:
1. Sundaram, S., et al. (2023). BEHAVE: Dataset and Method for Tracking Human-Object Interaction. CVPR 2023.
2. Kellnhofer, P., et al. (2019). Gaze360: Physically Unconstrained Gaze Estimation in the Wild. ICCV 2019.
3. Nguyen, T., et al. (2023). Synthevehicle: A Synthetic Dataset and Benchmark for Vehicle Interior Perception. WACV 2023.
- 2025-03-28
-
发表了主题帖:
将NeRF和3DGS进行感知验证和端到端AD测试
基于3DGS和NeRF的三维重建技术在过去的一年中取得了快速的进步,动态模型也变得越来越普遍,然而这些模型仅限于处理原始轨迹域内的对象。
HRMAD作为一种混合方案,将传统的基于网格的动态三维神经重建和物理渲染优势结合,支持在任意位置部署网格动态代理,自由调整环境条件,在多个相机视角下进行自由切换,与传统仿真方法相比有效减少了领域差距,同时保留了可控性。
一、方法描述
HRMAD提出的NeRF2GS双模型训练范式显著提升了合成质量,尤其是道路和车道标志,同时满足交互式帧率。通过此块级并行训练架构,可以处理超过10万平方米场景重建,并同步传输出分割掩膜/法线图/深度图。通过物理光栅化/光线追踪渲染后端,HRMAD支持多个相机模型、LiDAR和Radar的实时多模态输出。如图1所示的模型架构。
图1
具体而言,HRMAD基于RGB相机、GNSS和LiDAR的同步数据进行模型训练。该方案结合了NeRF优秀的泛化能力和3DGS实时的渲染速度,通过T-S结构,将NeRF生成的深度、法线和外观监督信息传递给3DGS模型,并通过正则化将LiDAR深度数据引入NeRF,从而实现更准确的几何结构建模。
传统基于透视投影的渲染方法通常依赖于特定的投影模型,为了在3DGS场景中适配任意传感器,HRMAD提出了一种新的渲染算法架构,如下图2所示。
图2
该架构基于共享代码库实现了光栅化和光线追踪渲染,用于计算高斯沿射线的贡献。这样不仅能够在三维重建场景中支持任意相机畸变模型,还能够减轻LiDAR仿真中伪影的产生。图3展示了在aiSim中采用HRMAD渲染场景并配置LiDAR后,点云的可视化效果。
图3
图4表明HRMAD在极端视角下RGB、深度、法线和分割(基于Mask2Former)模态下的几何细节和表面特性,重建面积约为165000平方米(ZalaZone测试场,此重建场景将于aiSim5.7版本进行发布)。
图4
二、下游任务验证
1、重建质量验证
由于HRMAD采用的是基于双边网格的色彩校正方法,传统的PSNR指标不再适用,而SSIM和LPIPS指标对结果相似性更为敏感,但从结果上看,这两个指标仍然受到ISP解耦导致的RAW与重建图像之间色彩失配的影响。这一影响体现在了评估结果中,如表1,表中对比了原始3DGS和TCLC-GS在6个Waymo场景上的指标表现。
表1
2、语义分割验证
在语义分割上分别从三个角度评估模型性能,首先通过统计所有像素中语义分类一致的比例,反映全局重建一致性。
通过Mask2Former获取真实图像上计算的分割Mask,并与HRMAD-NeRF(Teacher)和HRMAD-NeRF(Student)渲染得到的分割Mask进行比较,验证重建的准确性。同时为了降低道路、天空等易分割区域对整体结果的偏差影响,针对"Car"进行单独IoU计算。
为确保验证过程的公平性,真实图像被重投影至与渲染过程一致的无畸变针孔相机参数空间,当重建结果正确标注了远距离或被遮挡物体,而Mask2Former因输入信息有限导致误判时,此类误差会被计入评估指标。同时在夜间拍摄场景和相机直对太阳的场景中(如场景11037651和14663356),掩膜一致性显著下降。结果如表2所示。
表2
其次在非常规视角下进行模型渲染,并基于Mask2former生成的Mask与模型预测Mask进行比较。此渲染视角沿自车轨迹生成,并在[-1,3]米范围内平移前视相机仿真模型。表3展示了针对道路表面信息和车辆的重建性能。其中Car类型的重建性能相对较低,这是由于Mask2Frame无法检测远处或被遮挡的物体,从而扩大了差异。图5显了示相关结果,绿色为匹配区域,蓝色和橙色分别表示模型预测Mask和Mask2Former的Mask输出。
表3
图5
最后在极端渲染视角下(高5m,横向偏移2m,向下偏转25°),针对车道线和路沿语义分割结果进行了定性评估,如图6所示。
图6
3、3D目标检测验证
为了验证HRMAD在3D目标检测上的一致性,采用在Waymo Open数据集训练中公开的DEVIANT 3D目标检测模型,进行定量和定性实验。
定量实验中,在Waymo-13469905891836363794片段中从[0,3]横向偏移视角下进行验证,并通过平移变换后的3DBBox定量计算。定性实验选取三个驾驶片段进行静态环境渲染,并基于网格渲染添加动态车辆,主要用于评估仿真生成的车辆是否引入了领域差距。
表4基于Waymo指标进行验证,Original为原始图像。特别在近距离下,HRMAD的表现性能要优于原始图像,这是由于原始图像中假阳FP数量更高。在非常规视角渲染下,观察到的差异主要是横向偏移视角下目标截断的数量增加,但整体检测结果在很大程度上保持一致。
表4
图7为DEVIANT模型在HRMAD渲染Waymo场景中的表现。
图7
三、结语
虽然HRMAD渲染方法旨在最大程度减少区块边界的不连续性,但仍不可避免地会产生可见的伪影,特别是在天空和远距离目标区域中。比如天空的RGB重建效果良好,但在自动驾驶仿真测试场景中,在非常规视角下仍然会导致伪影和结构痕迹。
在下游任务中,HRMAD针对自动驾驶场景的评估结果已非常接近真实数据,但由于样本有限,仍需要更大规模的数据集进行进一步验证。未来的研究也会致力于进一步缩小重建场景和真实数据之间的领域差距,具体来说,可以通过探索层次化高斯泼溅来减少区块伪影,并利用生成的法线信息改进LiDAR强度模拟,来更好地反应点云数据的方向敏感强度。
- 2025-03-24
-
发表了日志:
多模态自动驾驶混合渲染HRMAD:将NeRF和3DGS进行感知验证和端到端AD测试
- 2025-03-21
-
回复了主题帖:
技术分享 | AVM合成数据仿真验证方案
se7ens 发表于 2025-3-19 10:14
谢谢分享
很好奇仿真的结果可以导入到控制器里验证真实AVM效果吗?还是说仅仅验证传感器配置而已?
您好,目前的方案链路是仿真传感器数据-AVM算法-AVM合成数据的开环链路,在这个链路下更多的其实就是对传感器内外参以及AVM算法定性或者定量评估;
除了这个文章的分享,后面还有一个基于仿真器SDK(传感器&控制器)与BEV算法联调的方案分享:BEV算法与车道线提取算法根据仿真相机图像求解车道信息,提供给控制器实现车道保持与车速控制。后面会持续更新
- 2025-03-18
-
发表了日志:
技术分享 | AVM合成数据仿真验证方案
-
发表了主题帖:
技术分享 | AVM合成数据仿真验证方案
随着自动驾驶技术的快速发展,仿真软件在开发过程中扮演着越来越重要的角色。仿真传感器与环境不仅能够加速算法验证,还能在安全可控的条件下进行复杂场景的重复测试。
本文将分享如何利用自动驾驶仿真软件配置仿真传感器与搭建仿真环境,并对脚本进行修改,优化和验证4个鱼眼相机生成AVM(Around View Monitor)合成数据的流程。通过这一过程,一同深入体验仿真软件的应用潜力!
一、流程概述
AVM是一种通过多相机实现车辆周围环境的实时监控和显示的系统,广泛应用于自动驾驶和高级驾驶辅助系统(ADAS)的环境感知中。本文基于仿真软件与脚本生成AVM图像的流程如下所示:
图1:基于仿真软件构建AVM图像流程
首先,在Unreal Engine中配置标定投影参数所需的地图,并在仿真器中为车辆部署4个方向的鱼眼相机;
其次,基于相机内参进行去畸变,并记录求解投影矩阵所需的关键参考值,例如AVM画幅尺寸、参考点的相对坐标、参考区域的大小与位置、车辆与参考区域的距离等;
随后,在完成了角点提取预处理的标定图像中快速选取参考点,生成单方向的BEV视图,重复4次完成标定去畸变;
后文将对每个流程进行具体描述。
二、仿真传感器与环境配置
对于AVM功能而言,通常需要配备4个及以上的大FOV相机以拍摄车辆周围的图像,在此基础上还可配备雷达以更好地获取车辆周围的障碍物信息。
图2:仿真软件相机传感器障碍物真值输出
由于本文所使用仿真软件的相机传感器可以直接输出识别对象(车辆、行人等)的2D、3D边界框真值,所以只需配置4个方向的鱼眼相机即可满足整体需求:
(1)前置鱼眼相机:安装在前方车标附近,约15°俯视角;
(2)后置鱼眼相机:安装在后备箱附近,约25°俯视角;
(3)左、右侧鱼眼相机:分别安装在左右后视镜下方,约40°俯视角与相对车纵轴约100°的偏航角。
图3:环视OpenCV鱼眼相机传感器配置
除了传感器的配置,考虑到脚本是通过选取地面点,求解相机到地面的投影矩阵,并转换生成BEV视图进行组合,所以还需要构建一张特征明显、易于辨认标定效果的地图。
本文所使用的仿真软件支持在Unreal Engine中进行地图编辑与导出,并带有一定数量的3D资产库,因此可以基于一张基础室内地图,布置一定数量的正方形黑白标定板,根据需要搭建一个标定地图:
图4:基于仿真软件插件的Unreal Engine地图编辑
首先,在Unreal Engine中打开项目,并进入室内合成地图;
然后,从3D资产库中选择100cm×100cm×5cm的标定板静态网格体,拖放到地图中;
随后,通过直接拖动模型上的变换工具或者修改侧边栏中的变换属性框调整标定板的位置与姿态;
进而,配置标定板的材质,以黑色、白色的交替顺序铺展标定板;
最终形成一个长方形的标定区域。
图5:编辑完成后的地图效果参考
批量铺展的过程可以拆分为对2×2的标定板组合实施横向与纵向阵列,完成后的地图如图所示,整体是一个6m×11m的矩形区域,车辆放置在中间2m×5m的矩形区域中。
三、图像处理与AVM合成验证集
如前文所述,本文使用的AVM脚本是基于车辆四周,位于相邻两个相机重叠视野的标定物,通过选取参考投影区域实现鱼眼相机到BEV的转化,以前视鱼眼相机为例:
图6:投影区域及BEV转化示意图
首先,由于是仿真传感器的标准OpenCV鱼眼相机模型,焦距、中心像素位置、畸变参数等内参均已知,可直接使用OpenCV的去畸变函数实现去畸变,如图6的(c)到(d)所示;
其次,设定图6(a)与(b)所示关键参数,确定图像上的点对应的真实世界位置,进而计算尺度:
(1)AVM视野总宽total_width = 2 × shift_width + 6 × board_size;
(2)AVM视野总长total_height = 2 × shift_height + 11 × board_size;
(3)board_size为标定板边长,此处为100,单位cm;
(4)shift_width与shift_height为视野延伸距离,单位cm;
(5)左上角投影点projection_point_0:(shift_width + 100, shift_height),以此类推右上角、左下角、右下角投影点坐标,形成投影区域;
(6)inner_height与inner_width为投影区域相对车辆的横向、纵向距离,单位cm,由此可以推算出自车所处区域;
而后,对去畸变相机图像追加Shi-Tomasi角点提取处理,并增加半自动采点的模式切换,自动选取鼠标点击像素位置周围欧式距离最小的角点,保障准确度的同时提升效率;
最后,如图6(d)选取4个角点,形成与(b)对应的参考投影区域,输出的BEV视图如图6(e)所示。
图7:环视BEV合成AVM示例
以此类推可以得到4个方向的BEV视图及对应的投影参数,结合车辆图层作为覆盖,即可生成对应传感器布置下的二维AVM合成图像,如图7所示,其中每个像素分辨率为1cm²。
图8:传感器外参优化示例
通过仿真软件,一方面可以在控制算法不变的情况下寻找出更优的传感器外参布局,另一方面也可以在控制传感器不变的情况下在多种不同场景验证,进而迭代优化AVM算法的表现。结合相机传感器自带的标注信息,后续也可以进行包括障碍物识别在内的更多功能验证。
图9:不同场景下的AVM合成数据
四、总结与展望
本文介绍了基于一款仿真软件生成AVM合成数据的完整流程,包括传感器与地图的配置、图像处理与BEV视图生成以及最终的AVM合成验证。
不难看出,仿真软件的高效性与灵活性保障了在安全可控的环境中快速验证算法性能的可行性,并可以通过多场景测试与参数优化改进算法,最终提升其综合表现。
- 2025-03-10
-
发表了日志:
康谋应用 | 基于多传感器融合的海洋数据采集系统
-
发表了主题帖:
康谋应用 | 基于多传感器融合的海洋数据采集系统
在海洋监测领域,基于无人艇能够实现高效、实时、自动化的海洋数据采集,从而为海洋环境保护、资源开发等提供有力支持。其中,无人艇的控制算法训练往往需要大量高质量的数据支持。然而,海洋数据采集也面临数据噪声和误差、数据融合与协同和复杂海洋环境适应等诸多挑战,制约着无人艇技术的发展。
针对这些挑战,我们探索并推出一套基于多传感器融合的海洋数据采集系统,能够高效地采集和处理海洋环境中的多维度数据,为无人艇的自主航行和控制算法训练提供高质量的数据支持。
一、方案架构
无人艇要在复杂海上环境中实现自主导航,尤其是完成障碍物检测和跟踪任务,其关键在于对海面环境的高效感知。因此,通过集成多种传感器,包括相机、激光雷达、IMU(惯性测量单元)和GPS(全球定位系统),能够采集更全面、更精确的海洋环境数据。但这种系统也会进一步涉及时间同步、数据传输与存储以及环境适应性等问题。
基于以上考虑,采用BRICKplus(工控机)+ETH6000+传感器套件(6*iDS相机+1*LiDAR+1*IMU+1*GPS)方案架构,如下图所示:
基于BRICKplus+ETH6000构建的数采平台,提供12个以太网接口(10*1Gb+2*10Gb)可以有效接入各个传感器,并为后续升级技术架构、接入更多传感器预留更多空间。多传感器产生的数据量巨大,对数据传输和存储提出了高要求,特别是8MP相机6个同时采集。
采用BRICKplus提供大容量(8/16/32TB)高速写入(16Gbit/s)存储硬盘,能够高效稳定落盘传感器数据。采用GPS模块,支持(g)PTP时间同步与定位。
二、系统搭建
为了更好的感知无人艇周边环境信息,对传感器分布和方式进行了设计和调整,布局如下图所示。该布局可以更有效的应对海面复杂环境下的数据采集。
三、数据采集
在面向无人艇数据采集时,需要使传感器套件(四类传感器)能够同时采集数据,并具备时间同步,实时可视化、存储和回放等能力。整体软件架构采用ROS+传感器集成方式,支持即插即用,使用便捷。
比如在iDS相机采集链路上,涉及到多相机同步采集的实现难度大、图像数据的实时传输和存储需求高和动态参数调整的灵活性不足等问题。通过定制化开发,采用ROS+PEAK SDK方案进行深度集成,实现了多相机同步采集、实时可视化、动态参数调整等功能,灵活适应海面复杂的采集环境,提高了系统的通用性。
四、总结
在海洋监测和无人艇控制领域,数据采集的准确性和可靠性至关重要。基于多传感器融合的海洋数据采集系统方案,利用高性能的BRICKplus+ETH6000模块作为中央处理单元,连接多个传感器,能够实现高速数据传输和同步。
该系统采用ROS框架与传感器SDK进行定制开发,实现了多线程数据采集、处理和发布。同时支持配置文件动态加载传感器参数,支持实时调整和优化,进而显著提高了数据采集的同步性、实时性和可靠性,为无人艇的自主航行和控制算法训练提供了高质量的数据支持。
- 2025-03-04
-
发表了主题帖:
解析3DGS:革新自动驾驶仿真场景重建的关键技术
随着自动驾驶技术的迅猛发展,构建高保真、动态的仿真场景成为了行业的迫切需求。传统的三维重建方法在处理复杂场景时常常面临效率和精度的挑战。在此背景下,3D高斯点阵渲染(3DGS)技术应运而生,成为自动驾驶仿真场景重建的关键突破。
一、3DGS技术概述与原理
1、3DGS的技术概述
3DGS是一种基于3D高斯分布的三维场景表示方法。通过将场景中的对象转化为多个3D高斯点,每个点包含位置、协方差矩阵和不透明度等信息,3DGS能够精确地表达复杂场景的几何形状和光照特性。
与传统的神经辐射场(NeRF)方法相比,3DGS在渲染速度和图像质量方面表现出色,弥补了NeRF在动态场景处理和细节保留上的不足。
图1:3DGS重建流程
2、3DGS的技术原理
在3DGS中,首先通过SfM(Structure from Motion)技术进行数据预处理,校准相机位置并恢复其内部和外部参数,生成稀疏点云。然后,基于这些点云初始化一组3D高斯点,每个高斯点的初始位置、协方差矩阵和不透明度都会进行设置。
训练过程中,3DGS通过反向传播不断优化这些高斯点的位置、形状和不透明度。值得注意的是,3DGS采用了自适应密度控制,能够在每次反向传播后去除那些不重要的高斯点,并根据需要对高斯点进行分裂或克隆,以保证场景重建的精度和细节。
图2:训练过程中高斯点的优化
二、3DGS在自动驾驶仿真中的应用
在自动驾驶领域,3DGS技术被广泛应用于高保真仿真场景的重建。通过将多视角图像转化为3D高斯点云,3DGS能够快速、精确地重建复杂的街道场景,为自动驾驶系统的训练和验证提供真实的虚拟环境。例如,Huang等人提出的S³Gaussian方法,通过自监督学习,从4D一致性中分解动态和静态元素,实现了高质量的街道场景重建。
此外,Zhou等人提出的DrivingGaussian方法,针对环视动态自动驾驶场景,发展了基于3D高斯的重建仿真技术。该方法能够有效建模复杂的多尺度背景和前景,提升了自动驾驶系统在复杂环境下的感知能力。
图3:S³Gaussian方法
图4:DrivingGaussian方法
1、3DGS的优势与挑战
(1)优势
高效性:通过显式建模方法,3DGS避免了传统神经网络训练中的计算开销,训练速度更快,渲染效率更高。
精度:3D高斯点可以细致地捕捉场景中的每个细节,从而实现高精度的三维重建。
实时性:3DGS支持实时渲染,适合需要快速响应的应用场景,如自动驾驶仿真。
(2)挑战
场景复杂度:对于极为复杂的三维场景,3DGS可能需要大量的高斯点,这会增加计算负担和内存消耗。
动态场景的支持:目前,3DGS主要集中在静态场景的重建,如何高效地处理动态场景中的物体变化,仍然是一个技术挑战。
三、仿真软件中的3DGS重建功能
aiSim仿真平台结合3DGS技术,可以提供强大的三维重建功能,极大地提升了自动驾驶仿真测试的效率和精度。
仿真软件中,3DGS被用于从多视角图像中重建复杂的三维场景。aiSim能够精确地捕捉环境的几何形状和光照特性,为自动驾驶系统提供高保真的虚拟环境。这种高精度的三维重建使得自动驾驶算法能够在仿真中进行更为真实的测试,减少了对实际道路测试的依赖。
图5:大FoV相机渲染出现非一致性(左)重建3DGS渲染方案后(右)
仿真软件中新构建的GGSR通用高斯泼溅渲染器优化了重建场景下光线追踪传感器的渲染效果,增强了广角镜头渲染下的一致性,并能减少伪影的产生,实现高保真度的3DGS重建场景兼容。
在重建的静态场景之上,工具支持自定义动态的场景交通流。通过添加动态实体,可以模拟交通流、行人行为等动态元素,为自动驾驶系统提供更为全面的测试场景。这种动态重建能力使得仿真工具在验证自动驾驶系统的泛化能力和应对复杂场景的能力方面,展现出了巨大的优势。
图6:十字路口车辆起步场景
四、结语
3DGS作为一种新兴的三维场景重建技术,凭借其高效、精确和实时的特点,在自动驾驶仿真领域展现出了巨大的潜力。我们有理由相信,未来3DGS将为更多行业带来创新性的解决方案。
▍参考文献
1. 3D Gaussian Splatting for Real-Time Radiance Field Rendering
2. S3Gaussian: Self-Supervised Street Gaussians for Autonomous Driving
3. DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes
-
发表了日志:
解析3DGS:革新自动驾驶仿真场景重建的关键技术
- 2025-02-25
-
发表了日志:
康谋方案 | 基于AI自适应迭代的边缘场景探索方案
-
发表了主题帖:
康谋方案 | 基于AI自适应迭代的边缘场景探索方案
构建巨量的驾驶场景时,测试ADAS和AD系统面临着巨大挑战,如传统的实验设计(Design of Experiments, DoE)方法难以有效覆盖识别驾驶边缘场景案例,但这些边缘案例恰恰是进一步提升自动驾驶系统性能的关键。
本文分享aiFab解决方案,该方案现已具备了更为先进的自适应测试方法,显著提升了寻找极端边缘案例并进行分析的能力。
一、传统解决方案:静态DoE
标准的DoE方案旨在系统性地探索场景的参数空间,从而确保能够实现完全的测试覆盖范围。但在边缘案例,比如暴露在潜在安全风险的场景或是ADAS系统性能极限场景时,DoE方案通常会失效,让我们看一些常见的DoE方案:
1、网格搜索法(Grid)
实现原理:将场景空间按照网格进行划分,并测试所有的参数组合。
优势:确保覆盖所有的范围。
缺点:在大参数空间下计算耗时将会难以估计。
2、随机抽样(Random Sampling)
实现原理:在定义的参数空间内进行随机选择测试样例。
优势:易于实现,而且扩展性能好。
缺点:可能会错过重要的样例从而导致测试效果大打折扣。
3、拉丁超立方体抽样(LHS)
实现原理:确保每个参数在相应区间内进行均匀采样,从而改善数据结果的分布。
优势:比随机抽样效率更高,覆盖范围更加合理,样本分布也更均衡。
缺点:过于均衡从而无法有效考虑到边缘案例的情况。
这些传统方法在一定程度上覆盖了ADAS和AD系统场景测试范围,但是其结果或多或少都存在一定的缺陷,如针对于边缘场景,传统方法没有考虑高风险因素以及自适应学习过往测试结果的过程,针对这一点我们分享一个新的自适应DoE解决方案:aiFab解决方案。
二、aiFab解决方案
在传统的DoE方案中,将所有的场景视作同等重要,然而事实上,在ADAS/AD系统的测试过程中,边缘场景则影响着关键性能的提升。在康谋aiFab解决方案中,基于AI的自适应DoE解决方案将会根据先前的测试结果,动态选择测试用例,在未通过的案例中学习并调整泛化注意力。
1、贝叶斯优化(BO):通过学习优化的智能测试
贝叶斯优化将全量搜索场景的方法转换成由数据驱动的智能方案,与随机取样等方案不同:
(1)BO方案将会预测最有可能暴露失败风险的新测试用例。
(2)BO方案采用替代模型Surrogate model,比如采用高斯过程Gaussian Processes,然后通过已有的数据来逼近测试场景参数与关键性指标的映射目标函数。
(3)然后结合采集函数Acquisition Function,比如通过下置信届LCB或者期望改进EI等方法,有效平衡“探索”和“利用”之间的取舍,在有限次数测试下,有效找到目标函数的最优解。
2、映射目标函数之关键性指标
贝叶斯优化依靠关键性指标(KPI)决定了是否为目标场景,aiFab中常见的KPI包括:
(1)碰撞时间TTC:决定车辆距离碰撞有多近
(2)入侵后时间PET:交通冲突后剩余时间间隔
(3)速度变化Delta-v:车辆碰撞过程中的速度变化
通过不同的KPI更新模型,我们的泛化方案能够将计算资源集中在最需要的地方,从而更高效的发现关键边缘场景,而不是在常规场景上耗费时间。
3、仿真记录演示
为说明aiFab自适应泛化场景,以下通过一系列仿真记录来演示自车在不同临界指标下左转的场景,每次迭代将会始终关注更为严苛的边缘案例,以确保能够发现潜在风险。
原始记录:
速度变化(Delta-v):当Ego车辆与 Exo1车辆进行正面高速碰撞时,通过最大化它们的速度,可以使碰撞时的 Delta-v达到最大,从而增加碰撞的严重性。
入侵后时间(PET):用于评估潜在碰撞或接近碰撞的风险,即那些可能由于交通流或信号变化而产生的高风险情形。
入侵时间(ET):评估车辆在交通冲突区域(如交叉口或其他关键区域)停留时间的指标,特别是当车辆的速度较低时。它反映了“Ego”车辆在这些区域内暴露于潜在风险的时间长度。
潜在碰撞时间(PTTC):是通过车道基础的度量来实现的,主要聚焦于识别和预防发生追尾碰撞的可能性。
三、结语
凭借最新的自适应DoE功能,aiFab给ADAS/AD验证带来了诸多益处:
(1)更快的发现边缘案例:找到高风险场景而无需全量的网格测试
(2)更低的资源耗费:专注于特定方向的案例场景
(3)更好的风险覆盖范围:提升检测稀少边缘关键场景的能力
通过将自适应测试集成到aiFab中,aiFab解决方案提高了效率,同时增强了ADAS和自主系统的安全性、性能和信心。
- 2025-02-11
-
发表了主题帖:
应对海量数据挑战,如何基于Euro NCAP标准开展高效智驾测试与评估?
一、前言
随着自动驾驶技术的快速发展,庞大的测试数据和复杂的场景需求为性能与安全评估带来了巨大挑战。如何高效管理海量数据、挖掘关键场景,并满足以Euro NCAP(European New Car Assessment Programme,欧洲新车安全评鉴协会)为代表的严格评估标准,已成为行业亟待解决的核心问题。
这不仅关乎技术研发的效率与精度,更是智能驾驶车辆进入市场、提升竞争力的关键前提。本文我们将围绕如何应对海量数据所带来的挑战进行探讨,分享提高场景测试与性能安全评估的见解。
二、 场景测试与性能评估的挑战
在自动驾驶技术的研发与测试过程中,“场景”是一个核心概念,也是验证自动驾驶系统性能和安全性的关键手段之一。无论是行业专家还是普通关注者,谈及自动驾驶测试时,都会提到“场景”以及“基于场景的测试”。
图 1自动驾驶场景概念图
场景通常由静态要素(道路、交通标志、建筑物等)、动态目标(车辆、行人等)、环境条件(天气、光照等)、行为模式(变道、急刹车等)组成,旨在描述车辆可能面临的各种复杂情况。由于内容极为丰富,国际标准ISO 34501通过四层抽象分级模型对其进行分类,即功能场景、抽象场景、逻辑场景和具体场景,后两者便是当下关注的重点。
图 2 四层抽象分级模型与场景测试挑战
对于测试而言,除了在各个场景下的性能表现,通常还得满足一些法规或者评估标准。例如,对于车辆的安全性而言,最广为人知的便是Euro NCAP的评级。
Euro NCAP的评级结果不仅会为消费者选购车辆提供重要参考,也是诸多汽车制造商和技术开发者研发过程中明确的安全目标。无论是传统燃油车还是智能驾驶车辆,获得Euro NCAP的高评分都是进入欧洲市场、提升市场竞争力的重要前提。
然而,随着自动驾驶技术的高速发展,测试需求与标准的日益复杂化,自动驾驶研发与测试中所产生的数据日益增加,对逻辑场景与具体场景的需求也逐步攀升,这也就为场景测试带来了诸多挑战:
a)海量的测试数据与场景
自动驾驶测试需要处理极其庞大的场景库和测试数据,如何高效地管理和利用这些数据成为一大难题。
b) 指标分析与数据管理的难度
随着测试指标的逐渐增加,如何对测试结果进行全面、准确的分析,以及如何高效地管理测试数据,都是亟待解决的问题。
c)性能与安全评估方法的效率
自动驾驶系统的性能和安全性评估需要高效快捷的方法,以应对大规模测试的需求。
d)真实场景向仿真场景的转换
为了实现重复测试,需要将真实场景高效地转化为仿真场景,即LogSim到WorldSim的转化。
e)高昂的测试成本
应对上述种种挑战需要投入大量的资源,包括人力、时间和资金。
面对这些挑战,我们尝试在云端搭建一个模块化的数据管理与场景挖掘平台,并集成Euro NCAP 道路稳健性协议(包括速度辅助系统、车道支持系统和辅助驾驶),进而实现了高效场景测试与性能安全评估。
图 3 数据管理与场景挖掘概览
三、数据管理与高效分析方法
在自动驾驶测试中,海量的驾驶数据与复杂的场景构建是基础,同时也是挑战。如何高效地管理这些数据,并从中提取出有意义的场景,成为验证自动驾驶系统性能与安全性的关键环节。3、4章节将从数据管理、聚合分析、场景提取与评估技术以及场景导出四个方面,详细探讨如何高效处理海量数据并挖掘关键场景。
1、数据管理技术:高效处理海量信息
对于场景测试或者以Euro NCAP为代表的性能评估而言,通常会产生大量的驾驶数据,例如Euro NCAP 2026年新版安全驾驶汽车辅助协议(Safe Driving Vehicle Assistance)就明确提出部分功能的评估需要满足至少2000公里的测试。
面对海量的驾驶记录与复杂的场景需求,数据管理需要兼顾高效性、灵活性与协作性。对此,我们尝试基于云搭建模块化的数据管理平台,旨在实现驾驶数据的高效处理、评估与检查。
a) 驾驶数据摘要与高级查询
通过鼠标单击查看驾驶记录的摘要信息,获取清晰的驾驶数据概览,并采用事件(Event)、操作设计域(ODD)或场景(Scenario)三类标签,以组合的方式快速查询需要的驾驶记录。
图 4 快速摘要与高级查询
b) 可视化界面与团队协作
基于相机视角、感知还原、GPS轨迹、车辆速度等多维度创建可视化界面,对场景进行深入分析。同时,采取URL分享的方式,实现团队成员之间的高效协作与共同分析数据。
图 5 自定义可视化界面
2、聚合分析技术:从海量数据中洞察规律
除了单一场景的快速查询与分析,针对海量驾驶数据的整体规律分析同样至关重要。为此,我们使用聚合分析的方法,通过多级指标(Metrics)对驾驶数据进行整理、分类和聚类分析,加速发现数据中的潜在规律。
图 6 聚合分析
a) 多级指标的灵活分析
通过采取感知、行为、舒适度等多级指标进行分析。例如,当想要了解“自动驾驶系统开启状态”、“特定速度区间”、“白天”的违规率,就可以设定对应指标,构建指标矩阵与直方图,随着指标的增加,矩阵与直方图会产生动态变化,得以快速掌握概况以及各个指标下统计出的违规率。
b) 一键聚类与场景跳转
聚合分析技术能够基于指标矩阵对驾驶记录进行自动聚类,并支持关键场景的快速跳转。单击矩阵中的特定数值即可直接查看对应的场景列表,并快速跳转到可视化界面,查看场景细节,进行深入分析。
四、场景挖掘、评估与ASAM OpenX场景导出
为了在大量驾驶数据的挑战下提高场景测试与评估的效率,我们基于感知算法从原始驾驶数据中提取出场景,将原有的大量里程与时间浓缩为了一系列特定场景,并结合了自定义标准与Euro NCAP标准建立了多种预设评估方式,保障效率与准确性的同时尽可能节省时间与精力。
1、场景提取与评估技术:挖掘关键场景与性能见解
如何从大量的驾驶数中提取有意义的场景并进行性能评估,是自动驾驶测试的重要环节。我们通过对激光雷达、相机、GPS等原始传感器输入的数据进行感知,从真实或仿真数据中高效挖掘场景,提供多维度的性能与安全见解。
图 7 场景挖掘流程示意图
a) 自动清除空驶里程
驾驶数据中通常存在大量没有特殊事件发生的空驶里程,占据了大量存储空间但对测试无意义。我们通过设定场景提取的条件,例如自车速度、障碍物速度、自车与障碍物纵向距离等,自动剔除这些“空驶里程”,准确提取出常用场景(如SOTIF、ISO 26262、Euro NCAP等标准规定的场景),进而节省时间成本。
b) 性能与安全评估
提取的场景可以基于预设的Euro NCAP或自定义标准进行性能评估。例如,设定最大速度或碰撞时间(TTC)等指标,就可以快速筛选出不符合预期的场景,并通过可视化界面查看详细信息。对于失败的场景,一键点击跳转到数据管理与分析平台,查看感知还原的场景、相机视频、速度等细节进行深度分析。
图 8 自定义标准与Euro NCAP标准的场景评估
2、场景导出器:从LogSim到WorldSim的转换
为了推动仿真测试的便捷化,我们基于相机图像、激光雷达点云、GPS定位信息等原始驾驶数据,通过内部的感知算法将其转化为仿真场景,完成了从LogSim到WorldSim的高效转换。转化后的仿真场景能够被导出为仿真所需的ASAM标准文件格式(OpenSCENARIO与OpenDrive),实现数字孪生。
图 9 场景导出器:一键导出与自定义导出
数据输入支持多种数据格式(如RosBag、LCM、ADTF等),并可以根据需求自定义导出场景的时间范围(最长30秒),导出的场景文件可以直接导入支持标准OpenX格式文件的仿真器(如aiSim5),根据需要进行修改后运行仿真测试。
图 10联动aiSim仿真器的场景仿真示例
五、集成式Euro NCAP道路评估器
为了更快速且可靠地对驾驶系统性能安全进行评估,并帮助在未来Euro NCAP的安全辅助评估中拿到高评分,数据管理与分析平台(DAP)内将集成Euro NCAP道路评估器(On-road Evaluator),获得基于海量驾驶数据的深刻见解。
1、基于Euro NCAP协议的三大评估板块
通过在数据管理与分析平台中集成Euro NCAP道路评估器,可以支持对道路ADAS性能快速提供评估结果,减少评估时间和成本,同时确保严格遵守既定的标准,帮助在评定中获得更高的星级。
图 11 道路评估器三大评估板块
Euro NCAP道路评估器主要针对Euro NCAP 2026协议归纳出三大板块进行评估:
a) SAS(Speed Assist System,速度辅助系统)
b) LSS(Lane Support System,车道支持系统)
c) AD(Assisted Driving,辅助驾驶)
这些板块进一步被细分为多个功能模块,例如AEB(自动紧急制动)、LKA(车道保持辅助)、SLIF(速度限制信息功能)等,覆盖了智能驾驶车辆在不同场景下的关键安全功能。
2、Euro NCAP道路评估器工作流及特点
通过道路评估器可以快速测试ADAS功能,例如SLIF与LKA,并快速评估Euro NCAP KPI,自动生成反馈报告,使得直击问题根源与优化系统性能变为可能,进而在最终评定中得以获得更高的星级。
图 12 Euro NCAP道路评估器工作流程
道路评估器的工作流分为以下几个步骤:
1. 基于参考传感器硬件设备采集驾驶数据
2. 使用 Euro NCAP On-Road Evaluator 进行数据处理
3. 基于 ODD 的 Euro NCAP 道路 KPI 评估
4. 快速得到 KPI 计算和评分的反馈
通过上述工作流,Euro NCAP道路评估器便能够做到在完全遵循Euro NCAP中关于SAS、LSS、AD的要求的前提下,基于操作设计域(ODD)对车辆进行快速评估,节省大量时间和资源。
图 13 速度限制信息功能示意图(SLIF)
结合DAP的基础功能模块,道路评估器可以实现数据可视化、相机视图、数据管理的定制化功能,如图13所示,便于深入研究特定的失败事件或异常场景。在此基础上,通过精确的评估算法,道路评估器能够避免代价高昂的返工,最大限度上节省该方面的成本。
六、总结
在自动驾驶技术的研发与测试中,场景测试是验证系统性能与安全性的核心手段。康谋IVEX方案通过高效的数据管理、场景挖掘与性能评估技术,解决了海量数据处理、复杂场景构建、高昂测试成本等难题,并深度耦合Euro NCAP相关协议,推动基于真实世界场景的安全评估标准化。
通过数据驱动的方式,不仅提升了系统的测试效率,还能够助力智能驾驶车辆在Euro NCAP评定中获得更高评分,加速自动驾驶技术的研发与落地,为行业发展提供重要支撑。
-
发表了日志:
应对海量数据挑战,如何基于Euro NCAP标准开展高效智驾测试与评估?
- 2025-02-06
-
发表了主题帖:
BEV感知技术:多相机数据采集与高精度时间同步方案
本帖最后由 康谋自动驾驶 于 2025-2-14 10:11 编辑
随着自动驾驶技术的快速发展,车辆准确感知周围环境的能力变得至关重要。BEV(Bird's-Eye-View,鸟瞰图)感知技术,以其独特的视角和强大的数据处理能力,正成为自动驾驶领域的一大研究热点。
一、BEV感知技术概述
BEV感知技术,是一种从鸟瞰图视角(俯视图)出发的环境感知方法。与传统的正视图相比,BEV视角具有尺度变化小、视角遮挡少的显著优势,有助于网络对目标特征的一致性表达。基于这样的优势,可以更有效的对车辆周围环境进行感知。
图1:BEV 感知图
因此,在自动驾驶感知任务中,BEV感知算法通常包括分类、检测、分割、跟踪、预测、计划和控制等多个子任务,共同构建起一个完整的感知框架。
BEV感知算法的数据输入主要有图像和点云两种形式。根据数据源不同,BEV算法主要分为BEV Camera(纯视觉)、BEV LiDAR(基于激光雷达)和BEV Fusion(多模态融合)三类。其中,图像数据具有纹理丰富、成本低的优势,此外,基于图像的任务、基础模型相对成熟和完善,比较容易扩展到 BEV 感知算法中。
为了更好的训练BEV Camera感知算法,往往需要先搭建一个高质量的数据集。而搭建一套BEV感知数据采集系统,通常包括以下几个关键环节:
1. 硬件选型与集成:选合适的摄像头和计算采集平台,集成稳定系统。
2. 数据采集:在实际环境中采集图像数据,覆盖不同场景、光照和天气。
3. 时间同步:确保不同传感器数据时间精确同步,是后续算法训练的必要前提。
4. 系统调试和部署:调试系统确保组件协同工作,部署到实际应用环境。
因此,在实际搭建过程中,常会遇到技术复杂性高、成本投入大、数据质量与时间同步实现难、系统稳定性与可靠性要求高等挑战。针对这些问题,本文分享一套BEV Camera数据采集方案,能高效搭建高质量的BEV感知数据集,加速算法研发和训练。
二、BEV Camera数据采集系统方案
BEV Camera数据系统采集方案以BRICKplus为核心系统平台,通过扩展PCIe Slot ETH6000模块连接6个iDS相机,利用GPS接收模块获取卫星时钟信号,提供XTSS时间同步服务,并支持13路(g)PTP以太网接口,确保高精度时间同步。
BRICKplus搭载BRICK STORAGEplus硬盘,提供大容量高速存储,满足高带宽数据采集需求,确保数据的完整性和可靠性。
图2:系统集成
三、数据采集
在BEV Camera数据采集方案中,难点在于如何同步多相机的采集动作、确保数据的高精度时间同步以及高效传输。因此,在整个软件方面,我们采用ROS+PEAK SDK方案进行深度集成,实现了多相机的参数配置、数据采集与传输。
为了更灵活应对实际采集环境需求,对相机(如曝光时间、帧率和分辨率等)参数进行了统一管理和存储,这些参数可在节点启动时通过配置文件动态加载,为相机的初始化提供了灵活性。
图3:相机参数配置
为实现多相机的同步采集和高效传输,我们利用了ROS的多线程和节点管理功能。通过为每个相机创建独立的采集线程,并启动采集循环,确保了每个相机的采集过程独立且高效。引入全局控制信号与信号处理机制,确保了统一管理所有相机的采集和同步结束状态。
图4:相机实时可视化
四、时间同步
为了实现多相机的时间同步,一般有两种方式:软时间同步和硬件时间同步。软时间同步主要依赖于软件层面的算法和协议来实现时间同步。其精度通常在微秒级别,适用于对时间同步精度要求不是较高的场景。
图5:多相机软件时间同步
为了应对时间同步精度要求较高的采集场景,如自动驾驶和高精度测量等。在BEV Camera数据采集方案中,进一步支持相机进行硬件时间同步。通过XTSS软件可以有效管理数采平台的时间同步功能,能够快速轻便配备各个传感器的时间同步配置。
图6:XTSS 时间同步管理
通过GPS模块提供高精度的时间基准,并利用支持硬件时间戳的以太网接口直接捕获数据包的时间戳。其时间同步精度可以达到纳秒级别,具备高稳定性,不受软件和网络延迟影响。
图7:多相机硬件时间同步
五、总结
在自动驾驶技术的快速发展中,BEV Camera数据采集系统的构建至关重要。通过采用BRICKplus平台,结合PCIe Slot ETH6000模块和iDS相机,我们实现了多相机的高效数据采集和存储。通过ROS+PEAK SDK的深度集成,实现了多相机的参数配置、数据采集与传输。利用GPS接收模块和XTSS时间同步服务,确保了多相机的高精度时间同步。
BEV Camera数据采集方案有效解决了多相机同步采集和高精度时间同步的难题,还提供了灵活的相机参数配置和高效的数据传输,能够满足自动驾驶和高精度测量等场景的需求。
- 2025-01-21
-
发表了日志:
本地匿名化解决方案:隐私保护、自主掌控和高效运行!
-
发表了主题帖:
本地匿名化解决方案:隐私保护、自主掌控和高效运行!
数据隐私与安全在当今数字化时代占据着举足轻重的地位。在应对数据保护法的复杂要求和网络攻击的威胁时,大多数企业都面临着重重挑战,因此诸多企业对可靠、可扩展且安全的数据管理解决方案的需求愈发迫切。
正是在这一背景下,康谋精心打造了本地匿名化一站式解决方案,该方案将隐私和安全作为其核心设计原则,旨在助力企业以信心和效率从容应对当今复杂多变的隐私和安全需求。
一、本地匿名化解决方案
该解决方案巧妙地利用Terraform部署技术,能够在自有集群中实现灵活的自动扩展。无论数据处理需求是在多个服务器的GPU和CPU上运行,还是涉及到复杂的数据架构,系统都能确保在部署后的第一时间进行自动扩展。这一特性不仅确保了数据处理的高吞吐量,而且提供了高效管理跨多样基础设施的复杂数据的途径。
二、方案优势
1、隐私与安全保护
本地部署为处理敏感数据提供了最为安全且合规的环境。通过在用户自己的基础设施中托管匿名化处理过程,用户可以全面掌控数据,确保严格遵守最严格的数据保护法规。
无论是需要持续处理小批量数据,还是偶尔处理海量数据,该解决方案都能迅速响应,根据需求动态扩展到数百台GPU和CPU机器,或在不必要时迅速缩减,以有效控制成本。此外,方案还支持许多平台上的Spot Instance,为灵活资源分配提供更多选择。
2、灵活性与控制力
本地匿名化解决方案与数据管理和处理流程紧密集成,可以提供无与伦比的灵活性。用户可以自由配置资源,并根据需要授予不同业务部门访问权限。
这种高度独立且动态的运营模式,助力更加灵活多变的数据处理能力,从而满足不同场景下的需求。
3、离线解决方案
本方案还提供了一种独特的离线解决方案,无需与外部服务器持续通信,这一特性不仅提升了安全性,而且确保在最严格的隐私和合规要求下仍能稳定进行各种操作。比如,即使在网络受限或敏感信息不能外泄的场景下,也能顺利完成数据处理任务。
三、应用案例
本地匿名化解决方案具备云无关性,以应对具备多样性的客户基础设施。无论用户的系统托管在亚马逊网络服务(AWS)、谷歌云、阿里云还是其他任何云平台上,本平台都能无缝集成,提供同样卓越的服务和可扩展性。
这种广泛的兼容性让用户的数据处理更加灵活便捷,无需担心因平台限制而影响部署。
本地匿名化解决方案已被欧洲多个行业领导者广泛采用,如CARIAD、大众(VW)和德国铁路(Deutsche Bahn)等。客户们通过使用本地匿名化解决方案,成功地在短时间内完成了数千小时视频的匿名化处理,验证了平台处理庞大数据集的卓越能力和高效性。
四、总结
综上所述,本地匿名化解决方案为企业的数据管理、安全保障和利用带来了革命性的变化。通过提供可扩展、安全且高效的平台,该方案能够确保企业能够全面遵守数据保护法规,同时提升运营灵活性,并优化运营效率,为您的业务发展奠定坚实的基础。
- 2025-01-20
-
回复了主题帖:
深度自然匿名化:隐私保护与视觉完整性并存的未来!
hellokitty_bean 发表于 2025-1-15 16:40
DNAT就是AI fake。。。。。。。。。。不过,只要能还原,能可控,是不是可以?待探讨
DNAT不能被还原,这也是它安全性保障的关键,所以还是非常可靠的