| EN

公司服务

● 传感器融合和环境理解 >>

车载传感技术 随着自动驾驶技术的发展,自动化等级的提升,系统本身的功能安全性和稳定性被越来越多得收到重视。然而,无论是毫米波雷达,激光雷达还是基于摄像头的识别算法,都因其本身的工作原理和使用的波频,而具有一定的探测感知局限性。目前为止,没有一种单一传感器可以达到100%的探测成功率。 多源传感器融合 介于自动驾驶功能安全性需求的提升和各类传感器探测和识别误差的存在,不纯粹依靠硬件技术的环境感知传感的质量的提升势在必行。多源传感器融合技术顺势被引入了自动驾驶领域。多源传感器融合技术将各类传感器运用于同一区域的目标的探测和测量,并通过对多通道的传感器输入信号的数据后处理,使各个传感器互相成为互补性冗余系统。从而,各个传感器的缺点得以互补。

理论上,该技术对探测和测量效果的提升是肯定的。然而,在应用上,错误的参数配置或不合适的算法或算法运用位置的选择会导致算法效果下降, 或甚至出现反效果。
PilotD在多源传感器数据融合领域积累有大量的经验和项目基础,主要基于此服务客户解决下述问题,并确保高度的融合效率:
1)面向应用的针对性算法选择和改进;
2)融合点选择或多层融合融合点选取;
3)算法在各类外界影响因素的影响下的鲁棒性测试和分析;
4)融合算法工作能力范围和精度标定;
5)动态融合算法优化方法;
6)传感器数据预处理和基于信息分析的探测结果预测。


环境理解 基于上述传感器融合结果,我们更提供进一步的环境理解层算法。其中包括:目标分类,目标意图分析,目标轨迹预测,目标危险等级预判等多类后处理的可能性。
最终通过传感器数据使驾驶周边环境在车载ECU中面前真实地呈现出来,从而使客户地自动驾驶或者高级驾驶员辅助系统达到更好地驾驶和控制效果。

● 新型自动驾驶系统设计和开发 >>


在高自动化等级的自动驾驶开发过程中,由于影响因素众多,很难通过架构式功能分析,一次性确定所有功能模块和及其性能需求。我司可基于在环仿真测试,通过穷举和迭代的研发方法,为汽车生产商和系统供应商发现新的自动驾驶系统中的问题,并提出解决方案,帮助客户更快地达到更加高的驾驶自动化等级。具体涉及以下方面:
1)多路传感器数据采集和融合
2)电子执行器操控
3)新的系统架构构建
开发方向主要包含两方面:
1)针对新的运用场景的Level 3或以上的系统开发与验证;
例如:结合全速域自适应巡航(Full-range ACC)和车道保持系统(Lane Keeping Assistant)的高速公路拥堵自动驾驶员等
2)现有自动驾驶系统的运用场景的扩展。
例如:非规范停车场的车位识别和自动泊车等。
开发服务范围包含以下领域:
1)主控制策略
2)执行器控制
3)传感器数据分析和融合算法
……
除了算法和系统开发服务外,我司也提供相关算法和系统的测试验证,以及制作测试验证结果报告服务。为客户提供从算法开发,到算法优化,再到算法验证测试的一站式服务。

● ViL自动驾驶车辆在环平台\HiL硬件在环仿真测试 >>

XiL在环测试技术 根据ISO-26262中推荐的系统开发流程V模型,除了初期用于原理和软件系统验证的SiL(Software in the Loop)测试之外,集成部分硬件系统的验证测试也是系统开发与验证不可或缺的一部分。通过仿真环境,结合部分硬件系统的计算结果进行测试,具有三方面优势:
1)可以使软件和硬件的兼容性和功能完整性得以验证;
2)在研发前期没有原型车的情况下,以较低成本测量验证子系统模块功能安全性;
3)局部子系统的全方位测试验证,可以方便有针对性的达到系统辨识(System Identification)和错误追踪定位(Error Tracking)的目的。
自动驾驶中的运用 在自动驾驶系统验证,PilotD除了纯仿真测试SiL外,也提供HiL(Hardware in the Loop)系统测试以及针对集成度更高的系统的ViL(Vehicle in the Loop)测试解决方案和服务。我司与德国著名车载设备测试台架设备供应商ZD Automotive GmbH达成战略合作。我司的解决方案:
1)基于我司软件GaiA的RT(Real-Time)版,提供仿真环境和各类车载传感器的信号;
2)使用ZD公司的ZDBOX作为信号转换器、发生器和采集器,从而使GaiA能与被测目标(例如:某控制器ECU,或被测车辆)进行信息交换;
3)对于各类硬件的各种接口提供基于高精度仿真的高真实度信息,并将信息转换到与接口可以交互的形式。(例如:在ViL中,对于雷达的对象列表(Object List),或者对于激光雷达的点云(Point Cloud)等) 在该套HiL和ViL解决方案中,GaiA仿真平台与ZDBOX数据采集发送器可采用两种方式连接:
1)使用有线数据电缆连接,
2)使用数据云端进行数据交互。

基于上述方案,PilotD解决方案具有以下优点:
1) 强实时性
GaiA平台与ZDBOX软硬件双重同步机制保证平台与车辆或者控制器之间的信号传输具有高实时性。
2) 强便携性
基于数据云端的通讯方式使仿真平台和车辆或者控制器分离,便于用户远程控制,根据自身条件,灵活的搭建测试环境。
3) 高适配性
ZDBOX提供包括CAN,CAN-FD,FlexRay,LIN,Ethenet,RS232等各种车载总线协议的通讯可能;GaiA软件可以提供上百种车辆数据以及环境感知传感器(毫米波雷达,激光雷达,摄像头等)在各个数据处理阶段的原始数据。由此,该套系统能适配客户的各类需求。另外,PilotD也提供各类软硬件适配和标定服务,可一站式完成客户搭建完美HIL/ViL测试平台的需求。
4) 高性价比
我司解决方案的架构中,将仿真器和信号发生器分离,帮助客户省去了高昂的车载高性能仿真设备的成本,使解决方案本身的性价比最大化。

● 真实场景重现 >>

真实场景的三维重现
真实场景的三维重现,或称高精地图已经成为自动驾驶不可或缺的一部分。他主要有高精度的三维场景模型和语义信息组成。真实场景三维重现的主要用于两个方面:
1)用于实时与环境感知传感器探测到的信息进行匹配,从而达到高精度定位本车位置的目的。
2)用于在仿真环境中真实还原真实测量场景,从而使用仿真环境代替实车测试成为可能。其对驾驶环境的高度还原性,保证了仿真测试结果的高度有效性。
真实场景(或高精地图)的采集主要有两种主流的方法:
1)使用车载激光雷达进行扫掠建模;
2)使用机载特制摄像头进行飞行倾斜摄影扫掠建模。
倾斜摄影
PilotD在中国与合作伙伴共同推出基于飞机倾斜摄影扫掠构建并重现真实场景的服务。 相对于传统的使用车载激光雷达进行扫掠建模,该解决方案有下述优势:
1)达到10厘米等级的绝对高精度和相对高精度;
2)除了道路外,周边的建筑和道路附属物都能被记录并建模。这可以保证模型的最高的还原度;
3)建得的模型直接自带真实纹理贴图(直接通过拍摄获得,而非后期臆想补贴);
4)飞行扫掠效率更高;
5)更加适合用于基于摄像头的slam定位匹配,或者图像识别深度学习的训练和测试。

● 基于事故分析的测试场景生成和重现 >>

事故分析与自动驾驶 系统的测试验证可以分为两种,基于正逻辑的测试验证,和基于逆逻辑的测试验证。
1)基于正逻辑的测试验证旨在通过分析系统功能,根据被测系统的所有使用场景(Usecase),导出用于测试系统的测试用例(Testcase),从而验证系统在所有使用场景下的功能安全性。
2)基于逆逻辑的测试验证与基于正逻辑的测试验证相反。这类方法旨在通过错误分析方法(例如:FTA, FMEA等)寻找被测系统容易出错的使用场景作为测试场景测试被测系统。如果被测系统能在容易出错的使用场景下正常运行,则可从反面论证系统的功能安全性。
基于逆逻辑的测试验证方法,相较于基于正逻辑的测试验证方法,更加适合对于复杂系统(例如:高等级自动驾驶系统)的验证。因其具有测试用例数量低,测试具有针对性等优点。也因此,被业界认为是高等级自动驾驶系统测试验证的方法之一。
对于自动驾驶系统,错误分析被自然而然地与事故分析联系到了一起。自动驾驶的最初目的是模仿人类驾驶员的驾驶行为。因此,人类驾驶员犯错的场景(事故场景),也可以被认定为自动驾驶系统容易出错的场景,从而作为测试用例测试验证自动驾驶系统。

基于事故分析的自动驾驶测试场景
PilotD与上海联合道路交通安全科学研究中心达成战略合作伙伴关系。两家共同致力于基于交通事故分析和仿真重现的自动驾驶验证技术的拓展和推广。
一方面,我司基于上海联合道路交通安全科学研究中心自2005年起采集到数千条交通事故场景信息,筛选有用信息,并在GaiA仿真环境中还原重现,构成测试用例集。另一方面,我司基于现有的交通事故场景,改变并遍历场景构建中的重要参数,从而扩充测试用例集,最终达到扩大测试覆盖率,和完善测试用例集的目的。
以此,我司将为加速自动驾驶技术验证等级提升和早日市场化推波助澜。

● 自动驾驶系统测试用例构建 >>

自动驾驶系统测试用例 测试验证是当今世界在自动驾驶系统的开发中遇到的主要挑战之一。这一挑战主要体现在用于自动驾驶系统验证的测试用例的完整度上。由于这类系统的复杂性以及影响其功能安全的数量众多的各种外界影响因素的存在,现有的测试用例生成方法很难保证系统级验证的完整性和有效性。
目前,用于验证测试系统的测试用例生成方法一般有三种:
1)基于接口的测试用例生成;
2)基于使用规范的测试用例生成;
3)基于风险的测试用例生成。
这三种生成方法都各有各的优缺点。无法满足自动驾驶系统测试需求,或者无法在满足自动驾驶功能安全性测试需求的前提下,保证测试效率。
PilotD的混合测试用例生成方法
PilotD提供一种新型的面向应用的自动驾驶系统验证用例生成解决方案:混合测试用例生成方法。该方法基于并整合上述三种方法,并扬长避短,使自动驾驶系统的验证测试测试用例的生成达到:
1)测试覆盖率高
2)测试用例结构性强
3)测试效率高
等,诸多优点。
PilotD的测试用例的生成方法,通过综合考虑各种外部影响因素,对ADS中的特定应用进行建模和分析,并通过拆分分析法,得到ADS系统各部件面向应用的使用工况。随后,基于系统各部件误差的分类,识别对每个使用工况至关重要的部件误差类型。同时,根据各部件的工作原理,总结出外部影响因素与各部件误差类型的对应关系。通过组合这些因素,可以生成测试用例,用于试探对某一使用工况至关重要的特定部件的某一错误类型会否被“激发”。从而,使用这些测试用例,达到系统验证的目的。
PilotD使用的这种结构化的测试用例推断生成方法,以及测试用例的简化流程,能够基于客户的系统或自动驾驶应用的功能定义,快速帮助客户总结出具有高度测试覆盖率的测试用例集;并将使用该测试用例的测试成本控制在可操作的范围内。以此,PilotD能帮助客户快速完成新自动驾驶系统的验证测试流程,并加快系统发布周期。
文献参考 1)Cao, P. and Huang, L., "Application Oriented Testcase Generation for Validation of Environment Perception Sensor in Automated Driving Systems," SAE Technical Paper 2018-01-1614, 2018, https://doi.org/10.4271/2018-01-1614.

● 视频及图像识别 >>

SRS 图像识别系统 设计思路: SRS 图像识别系统是一个基于摄像头传感器,用于探测和识别其他交通参与者的外形尺寸与位置,或交通标识与提示信息,提供给无人驾驶车辆的系统。本系统的优点在于精度相较于一般的图像识别项目来说较高,本系统主要设计三大模块:视频采集模块、图像实体识别模块以及图像标定与尺寸计算模块。 视频图像采集模块: SRS的视频图像采集模块主要涉及摄像头对视频的采集。现在标准版的视频图像采集模块将在3秒内完成视频图像采集30-50帧图片,并将关键帧传送给图像实体识别模块,最终将这个系统操作时间控制在系统相应需求内。其中,使用摄像头硬件的性能越好,该功能效果就会更佳。 图像实体识别模块: SRS的图像实体识别模块也就是本系统的核心部分,主要涉及识别交通参与者的尺寸信息(包括其高度与直径,或者高度与宽度)、交通参与者的中心位置(包含径向),交通标识与提示信息,对于这部分我司提供两套解决方案。一、基于传统图像识别技术模版匹配的解决方案。二、基于深度学习resnet、vggnet以及inception的自动化图像识别以及标定的解决方案。按照客户具体需求,我司可以选取并实现最优方案完成项目。
● 基于传统图像识别技术模版匹配的解决方案 该方案主要使用一些传统的图像识别技术包括预处理、特征抽取、分类器设计以及模版匹配。在自动驾驶环境中,由于交通标识与提示信息(包含车道)比较单一尺寸固定,可以采用拍摄各个被识别物体的图片,并将这些图片经过一系列处理做成图像模版,从而比较轻松的定位被识别物体。 本解决方案的优点在于使用的数据量较少,可以较为快速的构造一套较为准确的识别系统。对于自动驾驶,在识别的物体种类固定且数目较少的情况下,该方法可以对交通标识与提示信息(包含车道)提供高品质和高效率的探测。 ● 基于深度学习resnet、vggnet以及inception的自动化图像识别以及标定的解决方案 本解决方案在于使用最新的深度学习图像识别技术来构造一套较为自动化的图像识别以及标定解决方案,本解决方案的具体方法就是基于现有Resnet (深度残差网络) ,对自动驾驶场景所涉及的图片进行一个 fine-tuning 的过程,并最终使现有的深度残差网络学习到自动驾驶的应用场景图片中的元素,使得该网络能够较为有效的应用在自动驾驶场景中。所谓fine-tuning和迁移学习虽然是两个不同的概念。但局限到CNN的训练领域,基本可以将fine-tuning看作是一种迁移学习的方法。举个例子,假设我们有一个新的数据集,让工程师做一下图片分类,这个数据集是关于汽车的。问题是,相对于市面上种类繁多的汽车车型,数据集中汽车的类别很少,数据也不多,从零训练开始训练CNN的效果很差,很容易过拟合。在这种情况下,Transfer Learning成为一种好的解决方案。Transfer Learning用别人已经训练好的Imagenet模型来做。该ImageNet可能本不是用于自动驾驶的,但因为由此得来的ImageNet可以拥有很多带标签的训练集数据,使得预训练的模型(如:CaffeNet)泛化能力得以扩大。无视中间层,仅需要对后几层进行微调,通常应用结果就非常理想。简单来说,我们就是通过一个别人已经使用数以百万计图片构建的模型对我们现有的场景进行微调与适应,使得那数以百万计图片的复杂图像特征都可以应用到本案例中,使得本系统在使用较为少图片的情况下获得较好的准确率。最重要的是,在目标任务上达到很高performance所需要的数据的量相对很少。这样就能够高效并且稳定对自动驾驶的应用场景进行建模从而准确的得到想要的结果。
该方案的另一个优势在于能够使用GPU来解决非常复杂的矩阵与向量运算,在被识别交通参与者种类繁多且形式各异的情况下,依然能够达到较快的响应速度和优异的识别品质。对于普通的机器学习图像识别技术,自动驾驶环境中图像识别的一个重要难点在于环境光在高反光物料上的反射会对图像识别产生干扰,影响图像识别。而我司基于深度学习resnet、vggnet以及inception的自动化图像识别可以自动学习到上述干扰,并很好的解决该问题。
图像标定与尺寸计算模块: SRS的图像标定与尺寸计算模块的功能使最终需求的被识别交通参与者的大小和位置的测量成为可能。该模块在图像识别检测模块检测到具体物体的位置以后,进行一系列图像的处理,包括像素点计算,来确定他们最终的标定位置与大小。并进行第二次模版匹配来保证检测程序的准确度,再最终输出结果。这样就保证了稳定的探测与高质量的测量。