Anomaly Detection in Autonomous Driving: A Survey – 自动驾驶中的异常检测:一项调查 (CVPRW 2022)

  • Post author:
  • Post category:其他



声明:此翻译仅为个人学习记录

文章信息



摘要

如今,自动驾驶汽车在我们的道路上朝着未来迈出了卓越的步伐。尽管自动驾驶汽车在封闭条件下表现良好,但它们仍难以应对意外情况。这项调查提供了基于相机、激光雷达、雷达、多模态和抽象目标级数据的异常检测技术的广泛概述。我们提供了一个系统化,包括检测方法、边界情况级别、在线应用程序的能力和其他属性。我们概述了最新技术,并指出了当前的研究差距。



1. 引言

街道上每天都会出现异常情况,也称为边界情况,这就是自动驾驶汽车需要应对的原因。这种“罕见事件的长尾”[45]被许多人视为大规模部署自动驾驶汽车的核心障碍[1,50,81]。尽管在处理罕见和未知问题方面取得了令人兴奋的进展[47,91,92],但检测异常仍然至关重要,这仍然是一项挑战[55]。在自动驾驶(AD)中,有许多级别的边界情况和多种传感器模式,包括摄像头、激光雷达和雷达。尽管对基于摄像头的方法进行了广泛的调查[14],但对其他传感器或更高抽象层次的边界情况(包括调查)几乎没有研究。在此,我们概述了AD领域中针对不同传感器模态的异常检测方法,包括未明确为AD开发但我们认为适用的方法。

我们在表1-5中描述了模态相机、激光雷达、雷达、多模态和抽象目标级别的异常检测技术。它们的进一步描述在于它们的一般检测方法、边界情况的类型、评估数据集或模拟,以及它们可能的在线应用。我们将Breitenstein等人的检测方法分为五个概念:“重建、预测、生成、置信分数和特征提取”[14]。置信度得分技术通常通过后处理得到,而不干扰神经网络的训练,并细分为贝叶斯方法、学习得分和通过后处理获得的得分。重建方法试图重建常态,并将任何偏离常态的行为视为异常。生成方法与以前的重建方法密切相关,但也考虑了鉴别器的决定或到训练数据的距离。特征提取可以基于手工或学习的特征来确定类别标签或比较各种特征级别上的模态。基于预测的技术预测正常情况下预期的下一帧。图1中提供了一个概述。

在这里插入图片描述

图1. 基于相机、激光雷达、雷达、多模态和抽象目标级数据的异常检测方法概述。

我们遵循Breitenstein等人[13]的方法,以像素、域、目标、场景和场景为层次对边界情况进行系统化处理,每一个都很难检测到。海德克等人[40]扩展了这些基于相机的水平,以纳入激光雷达和雷达传感器。与他们的工作类似,我们交替使用术语“异常”和“边界情况”。在本次调查中,我们将重点放在自然的外部边界情况上。因此,我们排除了传感器层上的异常[40];像素级的异常;以及对抗性攻击导致的异常。

我们列出了所有使用的数据集或模拟环境,并将其标记为具有在线能力的技术,如果它们或具有相同计算复杂度(或更高,用**表示)的类似方法被报告为具有在线性能,或将帧速率命名为高于10 FPS。标记为*的方法不提供推理性能度量,因此标记为脱机。



2. 摄像机数据的异常检测

自动驾驶汽车通常配备不同的摄像头系统,如立体、单目和鱼眼摄像头,以确保对环境的丰富感知。因此,摄像机数据中的异常检测具有更强大的视觉感知的巨大潜力。在本节中,我们将根据Fishyscapes(FS)基准[31]引入另外两个标准:辅助数据和再训练。前者表示一种方法在训练过程中是否需要异常数据。然而,重新训练规定了方法是否不能使用预训练的模型,而是需要特殊的损失或重新训练,这可能会降低性能[31]。表1中列出了所有基于相机的方法。


置信分数

。基于置信分数的方法构成了基于神经网络不确定性估计的异常检测基线。作为早期的工作之一,Kendall等人的Bayesian SegNet[51]通过蒙特卡洛丢弃抽样得出了语义分割(SemSeg)网络SegNet的不确定性,其中类的方差越高,表示不确定性越高。不确定性可以解释为检测道路障碍物的像素级异常分数[69,89]。Jung等人提出了检测道路上未知障碍物的类似方法[48]。他们获得了分割网络的类条件标准化最大对数。这个过程的动机是发现最大对数对于不同的预测类有自己的范围。由此从训练样本中确定平均值和标准偏差。因此,标准化可归为学习置信分数方法。除了标准化之外,他们还抑制了类边界,并应用扩展平滑来考虑广泛接受领域中的局部语义。海德克等人[41]对Mask R-CNN的认知不确定性建模[39],并量化实例的类别和位置不确定性。他们概述了基于位置和类别不确定性检测异常的标准。由于位置不确定性导致的异常由超出预定义阈值的缩放边界框的标准偏差定义。此外,当任何类别的标准偏差高于预定义阈值时,由于类别不确定性,实例被视为异常。但是贝叶斯分割网络由于其多次前向通过网络,每帧都有蒙特卡洛丢失,因此推理速度较慢。因此,Huang等人[44]通过帧序列中基于区域的时间聚合来模拟采样过程,并保持网络的在线能力。为了确保运动目标的不确定性估计正确,先前的分割通过光流被扭曲。Bevandi´c等人[6]提出了一种多任务网络,以同时将输入帧分割成语义,并输出异常概率图。当模型面临异常值时,当概率超过阈值时,后者会覆盖SemSeg,以校准置信分数。最近,Du等人[28]提出了通用学习框架虚拟异常值合成(VOS),该框架通过合成虚拟异常值来对比地形成神经网络的决策边界。首先,他们估计了倒数第二个潜在空间中的类条件多变量高斯分布。然后,从该学习分布的足够小的ε-似然区域对异常值进行采样。类边界附近的这些虚拟异常值鼓励模型在分布内(ID)和分布外(OOD)数据之间形成一个紧凑的决策边界。此外,他们提出了一种新的训练目标,将自由能量作为不确定性度量,其中ID数据具有负能量,虚拟异常值具有正能量。在推理过程中,基于不确定性得分,使用逻辑回归器检测OOD目标。

虽然前一种方法集中于目标层面的异常,但Breitenstein等人[12]是第一个检测集体异常的方法。他们基于引用数据集学习正常数量的类实例。通过Mask R-CNN[39]预测类实例本身以类的离散分布结束。此外,他们还引入了地球移动器距离(EMD)的变化进行推断,即地球移动器偏差(EMDEV)。除了分布的比较之外,EMDEV是一个有符号的值,它指示场景是否包含比通常更多或更少的类实例。


重建

。重建和生成方法主要用于目标级别的异常检测,因为模型学习在没有异常目标的任何辅助数据的情况下再现训练数据的正常性。例如,Vojir等人最近的一项工作[89]提出了重建模块JSR-Net,以基于像素得分检测道路异常。他们通过将已知类别的信息合并到异常分数中来增强训练的SemSeg网络。网络架构由重构和语义耦合模块组成。前者连接到SemSeg网络的主干,以有区别的方式重建道路,这意味着它减少了道路的重建损失,同时增加了剩余环境的损失。在随后的模块中,生成的像素误差图与SemSeg的输出逻辑相耦合,以得到像素级异常分数。扩展模块在增强的道路图像上训练,其中噪声块或输入图像的一部分被随机定位在道路上并被标记为异常。对各种数据集的评估表明,JSR Net与其他相比具有优势[5,23,56,57],同时保持了闭集分割性能。

Ohgushi等人[69]在具有真实和合成道路障碍物的公路数据集上根据LaF基准评估了类似的方法。与Vojir等人相反,他们将SemSeg的熵损失与真实图像和重建图像之间的感知损失相结合,以形成异常图。他们概述了一组后处理步骤,其中最终障碍物得分图取决于语义信息、上述异常图和用于细化局部区域的超像素划分。

表1. 摄像机数据异常检测技术概述。

在这里插入图片描述

Di Biase等人[25]通过将重建误差与分割网络的两个不确定性图相结合,利用图像重新合成[57]。除了分割输出之外,网络还输出软最大熵和距离。类似于[69],感知差异被用作输入图像和合成图像之间的重建损失。所有预测的地图和输入图像在具有三个部分的空间感知相异性模块中进行融合:编码器、融合模块和解码器。在融合模块中,编码和重新合成的输入和语义图像被级联,并用1×1卷积进行融合。通过逐点相关针对联合编码的不确定性和感知差异来评估所得到的特征图。通过对融合的特征进行解码并利用语义信息进行空间感知归一化,提供最终的像素级异常分割。


生成

。根据FS、LaF和Segment Me If You Can(SMIYC)障碍物跟踪基准,Grci´c等人[35]的NFlowJS密集异常检测优于所有当代技术,并代表了当前最先进的基于摄像头的异常检测。NFlowJS被联合训练以在常规图像上生成具有标准化流(NF)的合成负补丁,同时基于这些创建的混合内容图像训练密集预测网络。由此,所生成的负补丁被定义为异常掩模。在训练期间,鼓励区分模型为生成的补丁产生均匀的预测分布。这导致NF的生成性分布远离内点。同时,它被训练为最大限度地提高内点的可能性。这些相反的目标支持在训练数据的边界处生成图像,同时使辨别模型对异常敏感。特别是,由于前一方面的原因,合成的异常补丁可能包含与模型以高置信度预测的内点相似的部分。对这种行为的强烈惩罚破坏了模型对实际内点像素的置信度。因此,他们发现Jensen Shannon(JS)散度是一种轻微的惩罚高置信度预测的损失。在推断过程中,闭集分割被阈值超过温度缩放软最大值生成的异常图以及输出概率和均匀分布之间的JS散度所掩盖。与以前的生成模型相比,NFlowJS只依赖于训练期间的异常合成,从而提高了实时推理速度。Blum等人[8]还评估了基于NF的方法,并对其FS基准进行了逻辑回归。然而,这些结果与NFlowJS无法相比。

Nitsch等人[68]采用并增强了Lee等人[54]的生成方法来检测目标异常。Lee等人提出了一种辅助生成对抗网络(GAN),它鼓励目标分类器为训练分布之外的样本提供低置信度。Nitsch等人通过事后网络统计扩展了该方法,该统计估计了瓶颈层网络权重上的类条件高斯分布。余弦相似性度量确定分布距离,并基于经验阈值对给定样本进行分类。由于它们只执行分类,因此必须提前完成目标的定位。

类似地,Lis等人[57]采用GAN来重新合成输入图像,并通过外观差异检测目标级别的异常。然而,与[69,89]相反,图像生成基于最终的SemSeg图,其中解码器基于SemSeg的中间特征空间重建图像。由于SemSeg保留了场景布局,但失去了精确的场景外观,常规的重建错误(如感知损失)将在没有信息结果的情况下输出较高的总体差异。因此,他们提出了一种差异网络,该网络通过具有共享权重的多个VGG16[83]网络对输入和重新合成的图像进行编码。这些特征与卷积编码语义图一起连接,并在所有提取级别上相关。[38,95]还采用了语义到图像合成,并以条件GAN(cGAN)的形式进行了评估,随后进行了不同性评分。

L¨ohdefink等人[60]提出了一种检测域移位的方法。自动编码器以自我监督的方式学习给定数据集的域。该方法通过自动编码器峰值信噪比(PSNR)的分布来表征训练数据域。在推断过程中,通过通过EMD比较数据的学习和输入PSNR分布来估计域失配(DM)。评估表明,当面对不同于源域的目标域时,自动编码器的DM度量与SemSeg性能的降低之间存在很强的秩序相关性。虽然推理是实时的,但该方法必须累积一定数量的图像,因为它使用批作为输入。


特征提取

。Bolte等人提出了另一种域偏移检测。[10],其中比较了特征图的均方误差(MSE)。对整个数据集或批次评估MSE。类似地,Zhang等人[101]提出了基于VGGNet特征的训练嵌入距离的DeepRoad框架来验证单个输入图像[83]。Bai等人[2]检测城市道路场景中的异常,并将整个输入场景分类为异常。他们通过尺度不变特征变换(SIFT)特征的k均值聚类来识别正常城市场景的一组代表。最后,利用一类支持向量机(一类SVM)对图像进行分类。

总体而言,许多先前概述的技术在没有外部数据的情况下工作,但需要对所提出的扩展模块或整个检测体系结构进行再训练。



3. 激光雷达数据的异常检测

大多数情况下,自动驾驶汽车并不完全依赖摄像头数据。尽管相机数据具有三种传感器模式中最高的分辨率,但它缺乏深度的精确测量。因此,光探测和测距(lidar)传感器提供了环境的三维深度图,通常可以在传感器设置中找到。虽然在像素级别上有很多关于激光雷达点云局部去噪的研究[3,74],但我们对目标和域级别的异常感兴趣,其中整个点簇或外观上的大而恒定的移动被视为异常。尤其是雨、雪和雾等天气条件严重影响数据。表2列出了所有基于激光雷达的方法。


置信分数

。Zhang等人的最新研究[100]表明,降雨会影响激光雷达测量质量,因为产生的点云更稀疏、噪音更大,平均强度更低。因此,他们的目标是用深度半监督异常检测(DeepSAD)方法量化激光雷达的退化[77]。他们首先将3D激光雷达数据投影到2D强度图像中。然后,DeepSAD将图像转换为一个潜在空间,在那里,所有正常的图像,即无雨的扫描,都落入超球面,所有异常的图像,如受雨影响的图像,都被映射到远离超球面中心的地方。最后,将变换后的测试图像到所学习的超球面中心的距离解释为异常分数。由于模型体系结构将异常定义为那些从超球面落下的异常,我们将所提出的方法列为表2中的学习置信度检测方法。经过训练的DeepSAD在动态模拟测试数据上达到了降雨强度和退化分数之间的Spearman相关性,高达0.82。这表明由于天气条件,异常检测的量化相当准确。尽管该方法是针对下雨和正常天气条件开发的,但我们怀疑所提出的方法可适用于其他天气条件,如雪和雾。

在过去,已经提出了几种架构来检测点云中的目标,如VoxelNet[102]、PointRCNN[82]和PointNet++[73]。然而,这些是基于封闭集设置的,因此只能检测包含在训练集中的类。相反,开放集检测方法能够在定期检测预定义类时将封闭集之外的目标明确分类为未知目标。因此,开放集设置放松了将所有检测分类为预定义类之一的约束。因此,人们期望假阳性率会提高,并且模型会在从未见过的实例上承认目标的新颖性。

Wong等人首次提出了3D点云开放集检测器的想法。[94]。他们提出了一个开放集实例分割(OSIS)网络,该网络学习一种不可知类别的嵌入,将点聚类到实例中,而不管其语义如何。该推断基于鸟瞰(BEV)激光雷达框架,由两个阶段组成:封闭集和开放集感知。在第一阶段,2D卷积的主干提取多尺度特征,然后将其馈送到检测和嵌入头。后者是OSIS的核心,学习类别不可知的嵌入空间。此外,嵌入头生成了可能的闭集类的原型。然后通过学习的嵌入空间将点与已知类别的原型相关联。在第二阶段,剩余的未关联点被视为未知。通过基于密度的带噪声应用程序空间聚类(DBSCAN),将这些目标聚类为未知目标的实例[29]。所概述的方法属于学习置信分数的范畴,因为原型是在训练期间学习的,而未知目标是通过其类别关联的不确定性来识别的。OSIS在两个大规模的非公开数据集上进行了评估。在这里,该技术在检测目标级别上的单点异常方面优于其他基于深度学习的自适应实例分割算法。

表2. 汽车激光雷达数据异常检测技术综述

在这里插入图片描述

OSIS网络后来被用作比较Cen等人开发的度量学习与无监督聚类(MLUC)网络的基线[17]。他们关注两个主要挑战:以高概率识别未知目标的区域,并用适当的边界框包围这些区域的点。在第一个问题的背景下,本文表明,基于度量学习的欧氏距离和(EDS)比朴素的软最大概率度量更适合区分已知和未知目标的区域。他们用嵌入空间的所有原型的欧氏距离表示来代替闭集检测的分类器。基于欧氏距离的概率被合并到损失函数中,使得已知类的嵌入向量接近相应类的相应原型。然而,未知目标被映射到嵌入中心附近,具有较小的EDS。EDS测量闭集检测的不确定性。因此,EDS低于阈值λEDS的框被视为未知目标的区域。与OSIS类似,这些低置信度的边界框随后通过无监督深度聚类来细化。MLUC显著优于OSIS。


重建

。Masuda等人[65]展示了一种检测目标点云是否异常的方法。与前面的方法不同,该技术基于单个封装目标的点云。由于汽车激光雷达提供全环境扫描,因此需要首先通过检测或聚类方法提取感兴趣的单个目标或区域。所提出的VAE基于FoldingNet解码器[98],并学习重建被视为正常的已知目标集合。然后基于重建和作为异常分数的切角距离将点云分类为异常。该方法在ShapeNet[21]数据集上进行了评估,该数据集还包括AD域之外的各种目标。结果很有希望,因为该模型的平均AUC为76.3%,其中已知类别被定义为异常。

总体而言,激光雷达数据中目标层面的异常检测刚刚取得进展,此前研究已经导致了各种封闭集检测架构。



4. 雷达数据的异常检测

雷达是AD中经常使用的第三种传感器模式。与激光雷达传感器相比,它以较低的分辨率和较不详细的空间信息为代价,具有更高的距离。与前两种模式相比,雷达对不断变化的天气和白天条件更为稳健[90]。在下文中,我们专注于为汽车工业中安装的雷达系统(如环绕、远程和近程雷达)设计的异常检测技术,并排除基于超宽带和穿墙雷达的技术。我们还通过用于检测的方法集(数学、特征工程、机器学习(ML)或深度学习(DL))来描述方法。表3中列出了所有基于雷达的方法。

雷达通过测量电磁多路径波的飞行时间及其反射来估计目标的位置。由于多径传播,雷达甚至可以检测到被遮挡的目标[86]。然而,由于这也会导致噪声、反射和伪影,这一优势被削弱了。特别是反射表面,如高速公路上的护栏或光滑的墙壁,会产生不存在的伪影,通常被称为“幽灵目标”[18,79,90]。这些是影响汽车雷达的长期挑战[58]。出于这个原因,由于本次调查侧重于像素级以上的异常,我们特别关注检测重影目标等的方法。


特征提取

。Liu等人的最新工作[58]提出了一种多径传播模型,以基于护栏反射的目标距离差来识别和消除重影。所建立的模型和数值结果表明,每辆实车与其对应的幻影目标之间的距离差仅略有不同。相比之下,两个甚至位置相近的真实目标之间的距离差异通常要大得多。所提出的重影消除算法利用了这一发现,因为它基于预先数值确定的最大距离差阈值∆r来区分真实目标和重影目标。虽然这种数学方法在模拟中简单有效,但必须考虑其约束,因为它仅限于具有固定大小的三条车道的高速公路般的驾驶场景。此外,目标和反光护栏之间的距离仅取三个值,并且没有模拟真实车辆的车道变化。Holder等人[43]、Kamann等人[49]、Visentin等人[88]和Roos等人[76]也做了类似的工作。

表3. 汽车雷达数据异常检测技术综述

在这里插入图片描述

最新的ML算法被用于检测各种驾驶场景中的雷达异常,而无需上述数学模型的约束。在这种情况下,重影目标通常被定义为一个单独的类。例如,Griebel等人[36]利用PointNet++架构实现了一种DL方法。原始架构使用多尺度分组(MSG)层来提取点云中不同尺度的特征。MSG模块使用循环形式来查询点的相邻信息。他们引入了原始分组模块的扩展,假设异常雷达目标发生在雷达传感器原点周围的环形区域,与汽车目标的距离相同。所谓的多表单分组(MFG)模块是原始循环和新环形查询表单的组合。因此,该模块在多个尺度上合并了两种表单的邻域信息。此外,它们不仅关注多路径异常的检测,如重影目标,还关注由多普勒速度模糊或到达方向估计误差引起的其他单目标异常。后者是局部异常值,属于像素级别。

Kraus等人[52]利用PointNet++不仅区分真实目标和幽灵目标,还将它们分类为(幽灵)行人或(幽灵)自行车。因此,评估仅限于非视距(NLOS)数据集[80],仅包括易受伤害的道路使用者。他们通过在200ms的时间内积累测量数据来应对稀疏雷达数据的挑战。

虽然前一种方法检测单发2D雷达数据中的异常,但Chamsedine等人[18]评估了PointNet++架构,以检测密集3D雷达数据中出现的幽灵目标。与其他常见的3D检测网络[53,102]相比,PointNet++架构能够学习单个点特征,因此非常适合将单个雷达点分类为真实目标或幻影目标。消融研究表明,空间信息的表示形式是重要的,因为球面坐标中的点的额外编码提高了网络的性能。

另一种值得注意的方法是Prophet等人[72]的程序,无论其原因如何,都可以检测重影异常,其中通过扫描的径向速度和阈值来识别初始移动目标,以提高场景理解。然后,为每个被测检测(DUT)定义一组手工制作的特征。这些特征包括DUT参数、车辆运动状态、第一步计算的误差值、静态和移动邻居的数量,以及DUT周围占用网格图(OGM)的计算。此外,它们包括布尔特征,该布尔特征指示在前一帧中DUT周围存在移动邻居检测。因此,该技术是第一个结合时间数据以改进检测的技术。最后,这些特征被输入到ML算法中,如SVM、k近邻分类器(KNN)或RF。根据对36916次检测数据集的后续评估,RF以91.2%的成功率优于所有其他算法。类似地,Ryu等人[79]在一组六个特征上训练多层感知器(MLP),以从跟踪算法中去除重影目标。


重建

。Garcia等人[32]使用由上述占用网格和移动检测图组成的双通道图像作为全卷积网络(FCN)的输入。所提出的架构在编码器和解码器部分中被分段。前者将语义信息提取成较低分辨率的表示,后者重建空间信息并将提取的表示映射回原始图像大小。在生成的概率图中,移动目标被认为是重影检测。该技术在50幅图像的测试集上实现了92%的二值分类精度。总体而言,许多方法假设,与传统的(即,如表3所示的重建或基于置信度的技术)相比,可以通过其特征集来区分虚目标和真实目标。尽管如此,我们预计未来的工作将通过考虑时间信息进一步改进,如[72]所示。

表4. 多模态传感器数据异常检测综述

在这里插入图片描述



5. 多模态数据的异常检测

自动驾驶车辆通常配备多种模式。在下文中,我们概述了基于单个传感器之间的不规则性或通过融合信息来识别异常的技术。所有多模态方法见表4。


特征提取

。继之前在雷达数据中检测幽灵目标之后,Wang等人[90]提出了一种多模态技术。Transformers非常适合3D点云,因为它们的注意力机制是排列不变的,这对于传统的神经网络来说很难做到。此外,与前面提到的PointNet++等体系结构不同,transformers显式地对点的交互进行建模。作者采用多模态变换网络通过参考激光雷达点来检测雷达幻影目标。雷达点云比激光雷达点云稀疏得多,这阻碍了数据匹配。因此,单个雷达点通过KNN查询周围的激光雷达点,并提供局部特征信息,如“放大镜”。他们对非结构化雷达数据本身进行自我注意,以识别幻影目标,因为这些目标与相应的真实目标具有很高的相关性。注意力模块被堆叠成网络。最后,利用PointNet++的全连接分割头将单个雷达点分类为可能的重影目标。所提出的方法在nuScenes数据集上进行了评估[16]。值得一提的是,幽灵目标的真值是通过比较雷达和激光雷达数据生成的。

Sun等人[85]提出了基于RGB-D数据的SemSeg实时融合网络。多模式架构的主要目标是通过结合深度信息来改进图像分割。此外,他们认为多源分割框架还能够检测意外的道路障碍,提供统一的像素级场景理解。然而,对CS数据集[22]的评估没有提供意外障碍的检测性能度量,因为该方法集中于封闭集类的SemSeg。Gupta等人[37]以MergeNet的形式实现了另一种基于RGB-D的道路障碍物检测。正如该架构的名称所暗示的,该模型通过第三个元Refiner-net合并了两个网络,即Stripe-net和Context-net。Stripe-net基于分割成条纹的图像并行提取RGB和深度数据的低级特征。这迫使网络学习窄带信息和一小部分参数内的鉴别特征。此外,这允许更可靠地检测小型道路障碍物。相比之下,Context-net是在整个RGB图像上训练的,并确定要学习高级特征。Refiner-net作为一个元网络,将互补功能结合起来,最终形成一种课程学习形式。因此,MergeNet被训练为区分道路、非道路和小型障碍物,我们认为后者是不正常的。

Ji等人[46]提出了一种监督VAE(SVAE),以合并不同维度的多个传感器模态。这对于密集激光雷达数据和低分辨率雷达数据的融合尤其有用。他们在训练后放弃了解码器,并将学习到的编码器用作特征提取器。然后,模态的潜在表示与其他编码模态一起被馈送到完全连接的层中,以识别车辆的异常操作模式。尽管该方法是为野外机器人设计的,但我们希望它可以应用于其他驾驶场景。

总之,在图1中可以看到,所有的多模态异常检测技术都是基于单个模态提取特征的比较。我们认为,多模态检测可能变得更加相关,因为它拓宽了潜在异常的搜索空间,同时降低了误报的风险。



6. 抽象目标数据的异常检测

前几节概述了适用于特定传感器模态的异常检测技术。以下方法侧重于更抽象的模式分析,即检测场景中的异常行为,这些场景不一定与传感器模态相关。因此,这些方法旨在检测情景水平上的异常[13],并处理非自我车辆的危险和异常驾驶行为。所有基于抽象目标级别的方法都可以在表5中找到。

表5. 抽象目标级数据异常检测技术综述

在这里插入图片描述


预测

。Yang等人[97]基于隐马尔可夫模型(HMM)评估驾驶车辆的行为,以检测异常场景。马尔可夫模型的观测状态由条件蒙特卡罗密集占用跟踪器(CMCDOT)框架[78]提供,并通过概率占用网格包括实时速度和车辆位置。该框架基于点云和里程数据得出这些观测结果。因此,在模拟的多车道公路场景中,管道可以可靠地推断出两辆非自我车辆的危险和异常驾驶行为。

Bolte等人[9]提出了场景级别的异常检测,其中在一系列传感器数据(即相机图像)上观察到模式。他们考虑了所有的亚型:异常、新奇和危险的场景[13]。由于场景异常的性质,他们量化了移动目标(如行人或汽车)的异常行为。真实帧和预测帧之间的误差被认为是异常分数。预测帧由对抗性自动编码器生成,并基于过去的输入帧序列。因此,异常分数也可以解释为模型的不可预测性。使用MSE、PSNR和结构相似性指数度量(SSIM)[93]度量对模型进行评估,并通过阈值确定异常场景。他们通过将输入图像划分为用户特定大小和重量的网格单元来定位异常行为的目标,因为这些目标具有较高的碰撞风险。

Liu等人的论文中概述了一种类似但更全面的方法。[59]。他们采用U-Net[75]作为图像到图像的转换模型,基于过去的帧序列预测下一帧。与前一种方法不同[9],他们的框架还考虑了场景的时间信息。它们通过光流约束来扩展其目标函数,以保留移动目标的运动信息。通过Flownet计算光流[26]。他们利用对抗性训练来区分真实图像和伪图像,以进一步提高未来帧预测的性能。异常场景再次由实际帧和预测帧的PSNR超过预定义阈值来识别。


重建

。Stocco等人提出SelfOracle[84]用于检测安全关键的不当行为,如碰撞和失控事件。该架构使用VAE来重建当前场景的一组先前输入图像,并计算相应的重建误差。在正常数据的训练期间,该模型通过最大似然估计将概率分布拟合到观测到的重建误差。然后可以使用估计的分布来确定阈值θ,以区分异常行为和正常行为。参数ε对应于尾部的概率,因此θ控制检测的假阳性率。此外,SelfOracle通过对重建错误序列应用简单的自回归滤波器来实现时间感知异常评分,因为当前错误可能容易受到单帧异常值的影响。虽然他们只在模拟环境中评估SelfOracle,但这种方法似乎很有前途,甚至优于作者对DeepRoad框架的实现。

最后,目标层面的异常检测严重依赖于人类的驾驶行为。因此,随着道路上自动驾驶汽车的兴起,AD将在行为预测方面经历一个很大的概念漂移。



7. 结论

在本文中,我们对自动驾驶领域的异常检测技术进行了广泛的综述。虽然Breitenstein等人的调查[14]仅限于相机数据,但我们描述了不同传感器模态的技术。最近的大多数进展都与基于图像的异常检测有关,而基于激光雷达和雷达的方法仍在努力获得动力。造成这种情况的一个原因是缺乏基准,迄今为止,基准只存在于相机行业。社区缺少标记异常的常见数据集,这使得检测技术的统一比较变得困难。表1-5显示,每种模态可能更适合于检测一种或仅有几种类型的边界情况,例如,基于激光雷达的技术主要关注单点异常。总体而言,最先进的技术尤其能在场景层面上检测到上下文异常,而集体异常则远远落后。


Acknowledgment

This work results from the project KI Data Tooling (19A20001J), funded by the German Federal Ministry for Economic Affairs and Climate Action (BMWK).



References

[1] Drago Anguelov. Taming the Long Tail of Autonomous Driving Challenges. https://www.youtube.com/watch?v=Q0nGo2-y0xY, 2019. 1

[2] Shuang Bai, Chao Han, and Shan An. Recognizing Anomalies in Urban Road Scenes Through Analysing Single Images Captured by Cameras on Vehicles. Sensing and Imaging, 19, 2018. 3, 4

[3] Haris Balta, Jasmin Velagic, Walter Bosschaerts, Geert De Cubber, and Bruno Siciliano. Fast Statistical Outlier Removal Based Method for Large 3D Point Clouds of Outdoor Environments. IFAC-PapersOnLine, 51, 2018. 4

[4] Petra Bevandi´c, Ivan Kreˇso, Marin Orsiˇ ´c, and Siniˇsa ˇSegvi´c. Simultaneous Semantic Segmentation and Outlier Detection in Presence of Domain Shift. Pattern Recognition, 11824, 2019. 3

[5] Petra Bevandi´c, Ivan Kreˇso, Marin Orsiˇ ´c, and Siniˇsa ˇSegvi´c. Simultaneous Semantic Segmentation and Outlier Detection in Presence of Domain Shift. Pattern Recognition, 11824, 2019. 2

[6] Petra Bevandi´c, Ivan Kreˇso, Marin Orsiˇ ´c, and Siniˇsa ˇSegvi´c. Dense outlier detection and open-set recognition based on training with noisy negative images. arXiv:2101.09193, 2021. 2, 3

[7] Hermann Blum, Paul-Edouard Sarlin, Juan Nieto, Roland Siegwart, and Cesar Cadena. Fishyscapes: A Benchmark for Safe Semantic Segmentation in Autonomous Driving. In IEEE/CVF International Conference on Computer Vision Workshop, 2019. 3

[8] Hermann Blum, Paul-Edouard Sarlin, Juan Nieto, Roland Siegwart, and Cesar Cadena. The Fishyscapes Benchmark: Measuring Blind Spots in Semantic Segmentation. International Journal of Computer Vision, 129, 2021. 3

[9] Jan-Aike Bolte, Andreas Bar, Daniel Lipinski, and Tim Fingscheidt. Towards Corner Case Detection for Autonomous Driving. In IEEE Intelligent Vehicles Symposium, 2019. 8

[10] Jan-Aike Bolte, Markus Kamp, Antonia Breuer, Silviu Homoceanu, Peter Schlicht, Fabian Huger, Daniel Lipinski, and Tim Fingscheidt. Unsupervised Domain Adaptation to Improve Image Segmentation Quality Both in the Source and Target Domain. In IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, 2019. 3, 4

[11] Markus Braun, Sebastian Krebs, Fabian Flohr, and Dariu M. Gavrila. EuroCity Persons: A Novel Benchmark for Person Detection in Traffic Scenes. IEEE Transactions on Pattern Analysis and Machine Intelligence, 41, 2019. 3

[12] Jasmin Breitenstein, Andreas B¨ar, Daniel Lipinski, and Tim Fingscheidt. Detection of collective anomalies in images for automated driving using an earth mover’s deviation (emdev) measure. In IEEE Intelligent Vehicles Symposium Workshops, 2021. 2, 3

[13] Jasmin Breitenstein, Jan-Aike Termohlen, Daniel Lipinski, and Tim Fingscheidt. Systematization of Corner Cases for Visual Perception in Automated Driving. In IEEE Intelligent Vehicles Symposium, 2020. 1, 7, 8

[14] Jasmin Breitenstein, Jan-Aike Term¨ohlen, Daniel Lipinski, and Tim Fingscheidt. Corner Cases for Visual Perception in Automated Driving: Some Guidance on Detection Approaches. arXiv:2102.05897, 2021. 1, 8

[15] Gabriel J. Brostow, Julien Fauqueur, and Roberto Cipolla. Semantic object classes in video: A high-definition ground truth database. Pattern Recognition Letters, 30, 2009. 3

[16] Holger Caesar, Varun Bankiti, Alex H. Lang, Sourabh Vora, Venice Erin Liong, Qiang Xu, Anush Krishnan, Yu Pan, Giancarlo Baldan, and Oscar Beijbom. nuScenes: A Mul-timodal Dataset for Autonomous Driving. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020. 3, 7

[17] Jun Cen, Peng Yun, Junhao Cai, Michael Yu Wang, and Ming Liu. Open-set 3D Object Detection. arXiv:2112.01135, 2021. 5

[18] Mahdi Chamseddine, Jason Rambach, Didier Stricker, and Oliver Wasenmuller. Ghost Target Detection in 3D Radar Data using Point Cloud based Deep Neural Network. In 25th International Conference on Pattern Recognition. IEEE, 2021. 5, 6

[19] Robin Chan, Krzysztof Lis, Svenja Uhlemeyer, Hermann Blum, Sina Honari, Roland Y. Siegwart, Mathieu Salzmann, P. Fua, and Matthias Rottmann. Segment Me If You Can: A benchmark for anomaly segmentation. arXiv:2104.14812, 2021. 3

[20] Robin Chan, Matthias Rottmann, and Hanno Gottschalk. Entropy maximization and meta classification for out-of-distribution detection in semantic segmentation. In IEEE/CVF International Conference on Computer Vision, 2021. 3

[21] Angel X. Chang, Thomas Funkhouser, Leonidas Guibas, Pat Hanrahan, Qixing Huang, Zimo Li, Silvio Savarese, Manolis Savva, Shuran Song, Hao Su, Jianxiong Xiao, Li Yi, and Fisher Yu. ShapeNet: An Information-Rich 3D Model Repository. arXiv:1512.03012, 2015. 5

[22] Marius Cordts, Mohamed Omran, Sebastian Ramos, Timo Rehfeld, Markus Enzweiler, Rodrigo Benenson, Uwe Franke, Stefan Roth, and Bernt Schiele. The cityscapes dataset for semantic urban scene understanding. In Proc. of the IEEE Conference on Computer Vision and Pattern Recognition, 2016. 3, 7, 8

[23] Clement Creusot and Asim Munawar. Real-time small obstacle detection on highways using compressive RBM road reconstruction. In IEEE Intelligent Vehicles Symposium, 2015. 2, 3

[24] Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei. ImageNet: A large-scale hierarchical image database. In IEEE Conference on Computer Vision and Pattern Recognition, 2009. 3

[25] Giancarlo Di Biase, Hermann Blum, Roland Siegwart, and Cesar Cadena. Pixel-wise Anomaly Detection in Complex Driving Scenes. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021. 3

[26] Alexey Dosovitskiy, Philipp Fischer, Eddy Ilg, Philip Hausser, Caner Hazirbas, Vladimir Golkov, Patrick van der Smagt, Daniel Cremers, and Thomas Brox. FlowNet: Learning Optical Flow with Convolutional Networks. In IEEE International Conference on Computer Vision, 2015. 8

[27] Alexey Dosovitskiy, German Ros, Felipe Codevilla, Antonio Lopez, and Vladlen Koltun. CARLA: An open urban driving simulator. In Proceedings of the 1st Annual Conference on Robot Learning, 2017. 8

[28] Xuefeng Du, Zhaoning Wang, Mu Cai, and Yixuan Li. VOS: Learning What You Don’t Know by Virtual Outlier Synthesis. arXiv:2202.01197, 2022. 2, 3

[29] Martin Ester, Hans-Peter Kriegel, J¨org Sander, and Xiaowei Xu. A density-based algorithm for discovering clusters in large spatial databases with noise. In Proceedings of the Second International Conference on Knowledge Discovery and Data Mining. AAAI Press, 1996. 5

[30] Mark Everingham, Luc Van Gool, Christopher K. I. Williams, John Winn, and Andrew Zisserman. The Pascal Visual Object Classes (VOC) Challenge. International Journal of Computer Vision, 88, 2010. 3

[31] Fishyscapes. Results – The Fishyscapes Benchmark. https://fishyscapes.com/results, 2022. 2

[32] Javier Martinez Garcia, Robert Prophet, Juan Carlos Fuentes Michel, Randolf Ebelt, Martin Vossiek, and Ingo Weber. Identification of Ghost Moving Detections in Automotive Scenarios with Deep Learning. In IEEE MTTS International Conference on Microwaves for Intelligent Mobility, 2019. 6

[33] A Geiger, P Lenz, C Stiller, and R Urtasun. Vision meets robotics: The KITTI dataset. The International Journal of Robotics Research, 32, 2013. 3, 5

[34] Jakob Geyer, Yohannes Kassahun, Mentar Mahmudi, Xavier Ricou, Rupesh Durgesh, Andrew S. Chung, Lorenz Hauswald, Viet Hoang Pham, Maximilian M¨uhlegg, Sebastian Dorn, Tiffany Fernandez, Martin J¨anicke, Sudesh Mirashi, Chiragkumar Savani, Martin Sturm, Oleksandr Vorobiov, Martin Oelker, Sebastian Garreis, and Peter Schuberth. A2D2: Audi Autonomous Driving Dataset. arXiv:2004.06320, 2020. 3

[35] Matej Grci´c, Petra Bevandi´c, Zoran Kalafati´c, and Siniˇsa ˇSegvi´c. Dense anomaly detection by robust learning on synthetic negative data. arXiv:2112.12833, 2021. 3

[36] Thomas Griebel, Dominik Authaler, Markus Horn, Matti Henning, Michael Buchholz, and Klaus Dietmayer. Anomaly Detection in Radar Data Using PointNets. arXiv:2109.09401, 2021. 6

[37] Krishnam Gupta, Syed Ashar Javed, Vineet Gandhi, and K. Madhava Krishna. MergeNet: A Deep Net Architecture for Small Obstacle Discovery. In IEEE International Conference on Robotics and Automation, 2018. 7

[38] David Haldimann, Hermann Blum, Roland Siegwart, and Cesar Cadena. This is not what I imagined: Error Detection for Semantic Segmentation through Visual Dissimilarity. arXiv:1909.00676, 2019. 3, 4

[39] Kaiming He, Georgia Gkioxari, Piotr Dollar, and Ross Girshick. Mask R-CNN. In IEEE International Conference on Computer Vision, 2017. 2

[40] Florian Heidecker, Jasmin Breitenstein, Kevin R¨osch, Jonas L¨ohdefink, Maarten Bieshaar, Christoph Stiller, Tim Fingscheidt, and Bernhard Sick. An Application-Driven Conceptualization of Corner Cases for Perception in Highly Automated Driving. arXiv:2103.03678, 2021. 1

[41] Florian Heidecker, Abdul Hannan, Maarten Bieshaar, and Bernhard Sick. Towards Corner Case Detection by Modeling the Uncertainty of Instance Segmentation Networks. Pattern Recognition. ICPR International Workshops and Challenges, 12664, 2021. 2, 3

[42] Dan Hendrycks, Steven Basart, Mantas Mazeika, Andy Zou, Joe Kwon, Mohammadreza Mostajabi, Jacob Steinhardt, and Dawn Song. Scaling Out-of-Distribution Detection for Real-World Settings. arXiv:1911.11132, 2022. 3

[43] Martin Holder, Clemens Linnhoff, Philipp Rosenberger, Christoph Popp, and Hermann Winner. Modeling and simulation of radar sensor artifacts for virtual testing of autonomous driving. In 9. Tagung Automatisiertes Fahren, 2019. 6

[44] Po-Yu Huang, Wan-Ting Hsu, Chun-Yueh Chiu, Ting-Fan Wu, and Min Sun. Efficient Uncertainty Estimation for Semantic Segmentation in Videos. Computer Vision – ECCV, 11205, 2018. 2, 3

[45] Ashesh Jain, Luca Del Pero, Hugo Grimmett, and Peter Ondruska. Autonomy 2.0: Why is self-driving always 5 years away? arXiv:2107.08142, 2021. 1

[46] Tianchen Ji, Sri Theja Vuppala, Girish Chowdhary, and Katherine Driggs-Campbell. Multi-Modal Anomaly Detection for Unstructured and Uncertain Environments. arXiv:2012.08637, 2020. 7

[47] K J Joseph, Salman Khan, Fahad Shahbaz Khan, and Vineeth N Balasubramanian. Towards Open World Object Detection. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021. 1

[48] Sanghun Jung, Jungsoo Lee, Daehoon Gwak, Sungha Choi, and Jaegul Choo. Standardized max logits: A simple yet effective approach for identifying unexpected road obstacles in urban-scene segmentation. In IEEE/CVF International Conference on Computer Vision, 2021. 2, 3

[49] Alexander Kamann, Patrick Held, Florian Perras, Patrick Zaumseil, Thomas Brandmeier, and Ulrich T. Schwarz. Automotive Radar Multipath Propagation in Uncertain Environments. In 21st International Conference on Intelligent Transportation Systems. IEEE, 2018. 6

[50] Andrej Karpathy. Tesla Autonomy Day. https://www.youtube.com/watch?v=Ucp0TTmvqOE, 2019.1

[51] Alex Kendall, Vijay Badrinarayanan, and Roberto Cipolla. Bayesian SegNet: Model Uncertainty in Deep Convolutional Encoder-Decoder Architectures for Scene Understanding. arXiv:1511.02680, 2016. 2, 3

[52] Florian Kraus, Nicolas Scheiner, Werner Ritter, and Klaus Dietmayer. Using Machine Learning to Detect Ghost Images in Automotive Radar. In IEEE 23rd International Conference on Intelligent Transportation Systems, 2020. 6

[53] Alex H. Lang, Sourabh Vora, Holger Caesar, Lubing Zhou, Jiong Yang, and Oscar Beijbom. PointPillars: Fast Encoders for Object Detection From Point Clouds. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019. 6

[54] Kimin Lee, Kibok Lee, Honglak Lee, and Jinwoo Shin. A simple unified framework for detecting out-of-distribution samples and adversarial attacks. Advances in Neural Information Processing Systems, 31, 2018. 3

[55] Kaican Li, Kai Chen, Haoyu Wang, Lanqing Hong, Chao Ye, Jianhua Han, Yukuai Chen, Wei Zhang, Chunjing Xu, Dit-Yan Yeung, Xiaodan Liang, Zhenguo Li, and Hang Xu. CODA: A Real-World Road Corner Case Dataset for Object Detection in Autonomous Driving. arXiv:2203.07724, 2022. 1

[56] Krzysztof Lis, Sina Honari, Pascal Fua, and Mathieu Salzmann. Detecting Road Obstacles by Erasing Them. arXiv:2012.13633, 2021. 2, 3

[57] Krzysztof Lis, Krishna Kanth Nakka, Pascal Fua, and Mathieu Salzmann. Detecting the Unexpected via Image Resynthesis. In IEEE/CVF International Conference on Computer Vision, 2019. 2, 3

[58] C. Liu, S. Liu, C. Zhang, Y. Huang, and H. Wang. Multipath propagation analysis and ghost target removal for FMCW automotive radars. In IET International Radar Conference, 2021. 5, 6

[59] Wen Liu, Weixin Luo, Dongze Lian, and Shenghua Gao. Future Frame Prediction for Anomaly Detection – A New Baseline. arXiv:1712.09867, 2018. 8

[60] Jonas Lohdefink, Justin Fehrling, Marvin Klingner, Fabian Huger, Peter Schlicht, Nico M. Schmidt, and Tim Fingscheidt. Self-Supervised Domain Mismatch Estimation for Autonomous Perception. In IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, 2020. 3, 4

[61] Cewu Lu, Jianping Shi, and Jiaya Jia. Abnormal event detection at 150 FPS in MATLAB. In IEEE International Conference on Computer Vision, 2013. 8

[62] Weixin Luo, Wen Liu, and Shenghua Gao. A Revisit of Sparse Coding Based Anomaly Detection in Stacked RNN Framework. In IEEE International Conference on Computer Vision, 2017. 8

[63] Vijay Mahadevan, Weixin Li, Viral Bhalodia, and Nuno Vasconcelos. Anomaly detection in crowded scenes. In IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2010. 8

[64] Andrey Malinin and Mark Gales. Predictive uncertainty estimation via prior networks. Advances in Neural Information Processing Systems, 31, 2018. 3

[65] Mana Masuda, Ryo Hachiuma, Ryo Fujii, Hideo Saito, and Yusuke Sekikawa. Toward Unsupervised 3d Point Cloud Anomaly Detection Using Variational Autoencoder. In IEEE International Conference on Image Processing, 2021. 5

[66] Gerhard Neuhold, Tobias Ollmann, Samuel Rota Bulo, and Peter Kontschieder. The Mapillary Vistas Dataset for Semantic Understanding of Street Scenes. In IEEE International Conference on Computer Vision, 2017. 3

[67] Gerhard Neuhold, Tobias Ollmann, Samuel Rota Bulo, and Peter Kontschieder. The Mapillary Vistas Dataset for Semantic Understanding of Street Scenes. In IEEE International Conference on Computer Vision, 2017. 3

[68] Julia Nitsch, Masha Itkina, Ransalu Senanayake, Juan Nieto, Max Schmidt, Roland Siegwart, Mykel J. Kochenderfer, and Cesar Cadena. Out-of-Distribution Detection for Automotive Perception. In IEEE International Intelligent Transportation Systems Conference, 2021. 3

[69] Toshiaki Ohgushi, Kenji Horiguchi, and Masao Yamanaka. Road Obstacle Detection Method Based on an Autoencoder with Semantic Segmentation. Computer Vision –, 12627,2021. 2, 3

[70] Peter Pinggera, Sebastian Ramos, Stefan Gehrig, Uwe Franke, Carsten Rother, and Rudolf Mester. Lost and Found: Detecting small road hazards for self-driving vehicles. In IEEE/RSJ International Conference on Intelligent Robots and Systems, 2016. 3, 7

[71] Peter Pinggera, Sebastian Ramos, Stefan Gehrig, Uwe Franke, Carsten Rother, and Rudolf Mester. Lost and Found: Detecting Small Road Hazards for Self-Driving Vehicles. arXiv:1609.04653, 2016. 7

[72] Robert Prophet, Javier Martinez, Juan-Carlos Fuentes Michel, Randolf Ebelt, Ingo Weber, and Martin Vossiek. Instantaneous Ghost Detection Identification in Automotive Scenarios. In IEEE Radar Conference, 2019. 6, 7

[73] Charles Ruizhongtai Qi, Li Yi, Hao Su, and Leonidas J Guibas. PointNet++: Deep hierarchical feature learning on point sets in a metric space. Advances in Neural Information Processing Systems, 30, 2017. 4, 6

[74] Yousra Regaya, Fodil Fadli, and Abbes Amira. PointDenoise: Unsupervised outlier detection for 3D point clouds enhancement. Multimedia Tools and Applications, 80, 2021. 4

[75] O. Ronneberger, T. Brox, and P. Fischer. U-net: Convolutional networks for biomedical image segmentation. Medical Image Computing and Computer-Assisted Intervention, 9351, 2015. 8

[76] Fabian Roos, Mohammadreza Sadeghi, Jonathan Bechter, Nils Appenrodt, Jurgen Dickmann, and Christian Waldschmidt. Ghost target identification by analysis of the Doppler distribution in automotive scenarios. In 18th International Radar Symposium. IEEE, 2017. 6

[77] Lukas Ruff, Robert A. Vandermeulen, Nico G¨ornitz, Alexander Binder, Emmanuel M¨uller, Klaus-Robert M¨uller, and Marius Kloft. Deep semi-supervised anomaly detection. In International Conference on Learning Representations, 2020. 4, 5

[78] Lukas Rummelhard, Amaury Negre, and Christian Laugier. Conditional Monte Carlo Dense Occupancy Tracker. In IEEE 18th International Conference on Intelligent Transportation Systems, 2015. 8

[79] In-hwan Ryu, Insu Won, and Jangwoo Kwon. Detecting Ghost Targets Using Multilayer Perceptron in Multiple Target Tracking. Symmetry, 10, 2018. 5, 6

[80] Nicolas Scheiner, Florian Kraus, Fangyin Wei, Buu Phan, Fahim Mannan, Nils Appenrodt, Werner Ritter, Jurgen Dickmann, Klaus Dietmayer, Bernhard Sick, and Felix Heide. Seeing Around Street Corners: Non-Line-of-Sight Detection and Tracking In-the-Wild Using Doppler Radar. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020. 6

[81] Jeff Schneider. Self Driving Cars & AI: Transforming our Cities and our Lives. https://www.youtube.com/watch?v=jTio MPQRYc, 2019. 1

[82] Shaoshuai Shi, Xiaogang Wang, and Hongsheng Li. PointRCNN: 3D Object Proposal Generation and Detection From Point Cloud. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019. 4

[83] Karen Simonyan and Andrew Zisserman. Very deep convolutional networks for large-scale image recognition. arXiv:1409.1556, 2015. 4

[84] Andrea Stocco, Michael Weiss, Marco Calzana, and Paolo Tonella. Misbehaviour prediction for autonomous driving systems. In Proceedings of the ACM/IEEE International Conference on Software Engineering, 2020. 8

[85] Lei Sun, Kailun Yang, Xinxin Hu, Weijian Hu, and Kaiwei Wang. Real-time Fusion Network for RGB-D Semantic Segmentation Incorporating Unexpected Obstacle Detection for Road-driving Images. arXiv:2002.10570, 2020. 7

[86] Khac-Phuc-Hung Thai, Olivier Rabaste, Jonathan Bosse, Dominique Poullin, Israel Hinostroza, Thierry Letertre, and Thierry Chonavel. Around-the-corner radar: Detection and localization of a target in non-line of sight. In IEEE Radar Conference, 2017. 5

[87] Udacity. Final leaderboard of Udacity Challenge 2. https : / / github.com / udacity / self -driving-car, 2016. 3, 8

[88] Tristan Visentin, Jurgen Hasch, and Thomas Zwick. Analysis of multipath and DOA detection using a fully polari-metric automotive radar. In European Radar Conference. IEEE, 2017. 6

[89] Tomas Vojir, Tom´asˇˇSipka, Rahaf Aljundi, Nikolay Chumerin, Daniel Olmeda Reino, and Jiri Matas. Road anomaly detection by partial image reconstruction with segmentation coupling. In IEEE/CVF International Conference on Computer Vision, 2021. 2, 3

[90] LeiChen Wang, Simon Giebenhain, Carsten Anklam, and Bastian Goldluecke. Radar Ghost Target Detection via Multimodal Transformers. IEEE Robotics and Automation Letters, 6, 2021. 5, 7

[91] Xin Wang, Thomas E Huang, Trevor Darrell, Joseph E Gonzalez, and Fisher Yu. Frustratingly simple few-shot object detection. arXiv:2003.06957, 2020. 1

[92] Xinlong Wang, Zhiding Yu, Shalini De Mello, Jan Kautz, Anima Anandkumar, Chunhua Shen, and Jose M Alvarez. FreeSOLO: Learning to Segment Objects without Annotations. arXiv:2202.12181, 2022. 1

[93] Z. Wang, A.C. Bovik, H.R. Sheikh, and E.P. Simoncelli. Image Quality Assessment: From Error Visibility to Structural Similarity. IEEE Transactions on Image Processing, 13, 2004. 8

[94] Kelvin Wong, Shenlong Wang, Mengye Ren, Ming Liang, and Raquel Urtasun. Identifying Unknown Instances for Autonomous Driving. arXiv:1910.11296, 2019. 4, 5

[95] Yingda Xia, Yi Zhang, Fengze Liu, Wei Shen, and Alan L. Yuille. Synthesize Then Compare: Detecting Failures and Anomalies for Semantic Segmentation. Computer Vision – ECCV 2020, 12346, 2020. 3, 4

[96] Feng Xue, Anlong Ming, Menghan Zhou, and Yu Zhou. A Novel Multi-layer Framework for Tiny Obstacle Discovery. arXiv:1904.10161, 2019. 3

[97] Chule Yang, Alessandro Renzaglia, Anshul Paigwar, Christian Laugier, and Danwei Wang. Driving Behavior Assessment and Anomaly Detection for Intelligent Vehicles. In IEEE International Conference on CIS and IEEE Conference on RAM, 2019. 7, 8

[98] Yaoqing Yang, Chen Feng, Yiru Shen, and Dong Tian. FoldingNet: Point Cloud Auto-Encoder via Deep Grid Deformation. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018. 5

[99] Fisher Yu, Haofeng Chen, Xin Wang, Wenqi Xian, Yingying Chen, Fangchen Liu, Vashisht Madhavan, and Trevor Darrell. BDD100K: A Diverse Driving Dataset for Hetero geneous Multitask Learning. arXiv:1805.04687, 2020. 3

[100] Chen Zhang, Zefan Huang, Marcelo H. Ang, and Daniela Rus. LiDAR Degradation Quantification for Autonomous Driving in Rain. In IEEE/RSJ International Conference on Intelligent Robots and Systems, 2021. 4, 5

[101] Mengshi Zhang, Yuqun Zhang, Lingming Zhang, Cong Liu, and Sarfraz Khurshid. DeepRoad: GAN-based meta-morphic testing and input validation framework for autonomous driving systems. In Proceedings of the 33rd ACM/IEEE International Conference on Automated Software Engineering, 2018. 3, 4, 8

[102] Yin Zhou and Oncel Tuzel. VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection. In IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018. 4, 6



版权声明:本文为i6101206007原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。