目标跟踪理论方法小结 .

  • Post author:
  • Post category:其他




转载自:

http://blog.sina.com.cn/s/blog_4b700c4c01017wz5.html




一、引言:在需要监控的环境里,如何能够判断出进入特定区域的目标,并且能够跟踪目标的轨迹。分为两种情况:一是静态背景下的目标跟踪;二是动态背景下的目标跟踪。




二、静态背景下的目标跟踪方法



1、单目标:目标跟踪还可以分为单目标的跟踪和多目标的跟踪。单目标的静态背景下的目标跟踪指的是摄像头是固定在某一方位,其所观察的视野也是静止的。通常采用背景差分法,即先对背景进行建模,然后从视频流中读取图像(我们称之为前景图像),将前景图像与背景图像做差,就可以得到进入视野的目标物体。对于目标的描述,通常用目标连通区域的像素数目的多少来表达目标的大小,或者用目标区域的高宽比等。目标的位置信息可采用投影的方式来定位。





2、多目标:静态环境下的多目标跟踪,需要确定每个目标的特征,位置,运动方向,速度等信息。





3、预处理:由于获得的图像总会有着噪声,需要对图像做一些预处理,如高斯平滑,均值滤波,或者进行一些灰度拉伸等图像增强的操作。

三、动态背景下的目标跟踪



摄像头在云台控制下的旋转,会使得他所采集的图像时可在变化,所以,对于整个目标跟踪过程来说,背景是变化,目标也是在整个过程中运动的,所以跟踪起来较有难度。





目前课题组提出的方案是:跟踪过程:在摄像头不同偏角情况下取得若干背景图片,建立背景图片库――>摄像头保持固定时,取得当前帧图片,与图片库中的背景图像匹配,背景差分(灰度差分?),获得目标――>目标特征提取――>实时获得当前帧图片,采用跟踪算法动态跟踪目标。





提取特征是一个难点,课题组提出多颜色空间分析的方法。根据彩色图像在不同的颜色空间里表征同一物体呈现出的同态性,可以把目标物体在不同的颜色空间里进行分解,并将这些关键特征信息进行融合,从而找出判别目标的本质特征。





跟踪过程中采用的各种方法说明:





1)在0-360度不同偏角时,获得背景图片,可进行混合高斯背景建模,建立图片库,以俯仰角和偏转角不同标志每张背景图片,以备匹配使用;





2)背景差分获得目标后,对差分图像需要进行平滑、去噪等处理,去除干扰因素;





3)对目标采用多颜色空间(HSV、YUV)特征提取,对不同颜色空间的特征相与(AND),得到目标特征,以更好的在当前帧图片中找到目标;





4)实时得到的当前帧图片,进行混合高斯建模,排除树叶摇动等引起的背景变化;





5)跟踪算法可采用多子块匹配方法、camshift方法等。

四、相关理论介绍



近几年来,一种名为CamShift的跟踪算法凭借其在实时性和鲁棒性方面良好的表现,正受到越来越多的关注。现阶段CamShift算法已经广泛应用到感知用户界面中的人脸跟踪中,以及一些半自动的运动目标跟踪。一方面,CamShift算法应该属于基于区域的方法,它利用区域内的颜色信息对目标进行跟踪;另一方面,CamShift算法却是一种非参数技巧,它是通过聚类的方式搜寻运动目标的。





简单的说,CamShift算法利用目标的颜色特征在视频图像中找到运动目标所在的位置和大小,在下一帧视频图像中,用运动目标当前的位置和大小初始化搜索窗口,重复这个过程就可以实现对目标的连续跟踪。在每次搜寻前将搜索窗口的初始值设置为运动目标当前的位置和大小,由于搜索窗口就在运动目标可能出现的区域附近进行搜寻,这样就可以节省大量的搜寻时间,使CamShift算法具有了良好的实时性。同时,CamShift算法是通过颜色匹配找到运动目标,在目标运动的过程中,颜色信息变化不大,所以CamShift算法具有良好的鲁棒性。由于RGB颜色空间对光照亮度变化比较敏感,为了减少光照亮度变化对跟踪效果的影响,CamShift 算法将图像由RGB 颜色空间转化到HSV 颜色空间进行后续处理。





CamShift 的算法流程如图3.4 所示。首先选择初始搜索窗口,使窗口恰好包含整个跟踪目标,然后对窗口中每个像素的H上的值采样,从而得到目标的色彩直方图,将该直方图保存下来作为目标的色彩直方图模型。在跟踪过程中,对视频图像处理区域中的每一个像素,通过查询目标的色彩直方图模型,可以得到该像素为目标像素的概率,图像处理区域之外的其他区域作为概率为0的区域。经上述处理,视频图像转换为目标色彩概率分布图,也称为目标颜色投影图。为便于显示,将投影图转化为8位的灰度投影图,概率为1 的像素值设为255,概率为0的像素值为0,其他像素也转换为相应的灰度值。所以,灰度投影图中越亮的像素表明该像素为目标像素的可能性越大。





图中虚线标示的部分是CamShift算法的核心部分,主要目标是在视频图像中找到运动目标所在的位置,这一部分被称为Mean Shift算法。由于Mean Shift是CamShift的核心,所以正确理解MeanShift就成了理解CamShift算法的关键,下面就重点讨论Mean Shift算法。

2、混合高斯模型



背景中当树叶在摇动时,它会反复地覆盖某像素点然后又离开,此像素点的值会发生剧烈变化,为有效地提取感兴趣的运动目标,应该把摇动的树叶也看作背景。这时任何一个单峰分布都无法描述该像素点的背景,因为使用单峰分布就表示己经假定像素点的背景在除了少量噪声以外是静止的,单模态模型无法描述复杂的背景。在现有效果较好的背景模型中有些为像素点建立了多峰分布模型(如混合高斯模型),有些对期望的背景图像进行预测,这些算法的成功之处在于定义了合适的像素级稳态(Stationarity )准则,满足此准则的像素值就认为是背景,在运动目标检测时予以忽略。对于特定的应用场景,要想对特定算法的弱点与优势进行评价,必须明确这种像素级稳态准则。





对于混乱的复杂背景,不能使用单高斯模型估计背景,考虑到背景像素值的分布是多峰的,可以根据单模态的思想方法,用多个单模态的集合来描述复杂场景中像素点值的变化,混合高斯模型正是用多个单高斯函数来描述多模态的场景背景。

混合高斯模型的基本思想是:对每一个像素点,定义K个状态来表示其所呈现的颜色,K值一般取3-5之间(取决于计算机内存及对算法的速度要求),K值越大,处理波动能力越强,相应所需的处理时间也就越长。K个状态中每个状态用一个高斯函数表示,这些状态一部分表示背景的像素值其余部分则表示运动前景的像素值。






http://hi.baidu.com/new8sun/blog/item/6e1cfe5d45e3d04afaf2c078


.html






计算机视觉目标检测跟踪

标准测试视频下载







andrew31在ilovematlab论坛中分享的网址链接:



1. PETS2001的测试视频




http://www.filewatcher.com/b/ftp/ftp.cs.rdg.ac.uk/pub/PETS2001.0.0.html




可以得到5个DATASET,有训练和测试视频:



2. 阴影检测(Shadow Detection)测试视频及CVPR-ATON 阴影检测相关论文




http://cvrr.ucsd.edu/aton/shadow/




3

. IBM人类视觉研究中心监视系统性能评价提供的视频





http://www.research.ibm.com/peoplevision/performanceevaluation.html



原文:



http://blog.163.com/jw_67/blog/static/136199256201039104624436


/




在视频中获取移动目标,这涉及到图像分割,背景消除和阴影去除,主要思想,是去除背景,获取前景。这里一般把近似不动的物体默认为背景,而运动的物体为前景。除了采用分类器训练以外,还有一些很常见的算法。这里我参考一些论文和朋友总结把这些算法归类,如果要相应论文的,可以联系我,希望对有用到的朋友一点帮助。



一,通过模板的图像分割:




1.






将边缘点聚类成线





2.






Hough变换





3.






RANSAC





二,背景消除:





1.



基于像素方法





a 帧差法(frame differencing)





b 均值-阈值方法(mean-threshold method)





c 混合高斯模型(Gaussian mixture model)





d 非参数模型(non-parametric)





2.



基于区域方法





a LBP纹理(LBP-texture)





b 共生矩阵(co-occurrence matrices)





c 协方差矩阵(covariance matrices)





d 直方图方法(accumulated histogram)





3.



其他方法





向量分解法(eigenspace decomposition)








西安电子科技大学张瑞娟的一篇硕士论文“图像配准理论及算法研究”,我收获很大,所以我也总结一些对我有用的算法,将来便于查找应用。





我做的目标追踪这一块,虽然和图像配准不是一个方向,但是前期工作都是一样的,首先都需要物体检测,特征检测和匹配。这里我总结一些对我有用的,也希望对和我一样研究方向的人有帮助。这里图像配准可以换成物体匹配的。





1,

图像配准要素结合:特征空间,搜索空间,搜索策略,近似性度量





2,

图像配准方法:





2.1基于灰度信息的方法,





交叉相关(互相关)方法,相关系数度量,序贯相似检测算法,信息理论的交换信息相似性准则





2.2基于变换域的方法





相位相关法,Walsh Transform变换





2.3基于特征的方法





常用的图像特征有:特征点(包括角点、高曲率点等)、直线段、边缘(Robert、高斯-拉普拉斯LoG、Canny、Gabor滤波等边缘检测算子)或轮廓、闭合区域、特征结构以及统计特征如矩不变量等





注:像素灰度信息的互相关算法相比,特征提取包含了高层信号信息,所以该类算法对光照、噪声等的抗干扰能力强。





3,常用的空间变换模型





刚体变换(平移、旋转与缩放的组合)、仿射变换、透射变换、投影变换、非线性变换





4,

常用的相似性测度





4.1距离测度





均方根误差,差绝对值和误差,兰氏距离,Mahalanobis距离,绝对差,Hausdorff距离等





4.2角度度量法(概率测度)。





4.3 相关度量法





5,配准算法的评价标准





配准时间、配准率、算法复杂度、算法的可移植性、算法的适用性、图像数据对算法的影响等(这里虽然不是目标追踪的评价标准,但是我们可以借鉴这些评价算法的标准)




===================================================================================




以下转载自:

http://blog.csdn.net/pp5576155/article/details/6962694







图像跟踪是一个不断发展的研究方向,新的方法不断产生,再加上其它学科的方法的引入,因此对于图像跟踪算法的分类没有确定的标准。对于所有的跟踪算法,需要解决两个关键问题:目标建模和目标定位[35]。以下根据目标建模所用的视觉特征和目标定位所用的方法对跟踪算法分类。

1.据视觉特征分类:欲实现目标的准确定位需要以描述目标的视觉特征建立其表观模型。具有良好可分性的视觉特征,是实现对跟踪目标与视场背景精确分割与提取的关键,因此视觉特征的选择是实现鲁棒跟踪前提。若所选视觉特征具有较强可分性,即使简单的跟踪算法也能实现可靠跟踪。反之不然。常用的视觉特征分类如下:

颜色:由于颜色特征具有较好的抗击平面旋转、非刚性变形以及部分遮挡的

能力,变形目标跟踪中表现出较强的鲁棒性,因此广泛的应用于视频跟踪的目标特征选择上。文献[56]中的基于颜色直方图跟踪算法(Color Histogram),采用Mean Shift算法实现对非刚性目标的鲁棒跟踪。此算法的不足表现在目标遮挡和相邻两帧出现较大的目标位移时,由于Mean Shift算法搜索区域局限于局部状态空间,此时会出现跟踪发散。为解决此问题,文献[57,58]中,由Perez等人和Nummiaro等人提出将颜色特征作为粒子滤波观测模型,实现了复杂环境下(目标遮挡)的可靠跟踪。此算法不足在于,当背景出现与目标颜色分布相似干扰物时,易造成粒子发散,因此

Birchfield等人[39]提出空间-颜色直方图跟踪算法,充分利用像素点之间的空间关系而不局限于颜色分布,改善了跟踪性能。


边缘:虽然颜色特征具有较好的抗目标形变的能力,但是缺乏对目标空间结构的描述,且对光照敏感。因此在光照变化频繁的跟踪视场下,常采用目标边缘特征。文献[40-44]将边缘信息作为目标可分性特征,从而实现可靠跟踪。由于颜色与边缘特征具有互补特性,因此将两种信息融合建立目标特征模型的算法,近年来引起研究者广泛关注[45-47]。上述基于边缘特征的跟踪算法存在计算耗时较长以及形状模型单一的问题,制约了跟踪算法的实时性及可靠性。

因此文献[48-50]提出了基于边缘方位直方图特征的跟踪算法,此算法对光照变化不敏感且比单一轮廓边缘特征具有更丰富的信息。


光流特征:光流特征通常是采用Lucak-Kande算法计算像素点光流的幅值和方向,文献[51]为利用光流实现人脸跟踪实例。由于光流法运算量较大很难满足实时性要求,并且光流法本身对光照变化和噪声敏感,都限制了光流法的实际应用。


小波:由于金字塔可实现在不同角度、尺度上对图像进行描述的功能,这也是实现差分运动估计的基础[52,53]。


局部特征描述子:图像的局部区域特征具有对光照、尺度、旋转的不变性。局部区域特征从局部区域内提取特征点,并以相应的描述子对其描述。文献[54,55]分别以局部二元模式和(SIFT)特征实现目标跟踪。

空间与颜色融合:颜色特征描述目标全局颜色分布,属于全局信息,虽然具有一定的抗目标形变能力,但由于缺乏对像素间空间结构的描述易受到背景中相似颜色分布区域的干扰,文献[56,57]将空间信息与颜色直方图融合,作为目标特征取得了良好的跟踪效果。

特征基(Eigen-Basis):将图像信息从高维空间映射到低维空间,图像在低维空间成为一个流形,通过一定的几何、统计工具可以提取和分析。PCA、LDA是图像跟踪领域构建子空间广泛采用的方法。特征跟踪(Eigen-Tracking)方法[18,58-61]以Karhunen-Loeve构建表征目标表观的特征基,再通过递增SVD实现对特征基的在线更新。文献[62]以局部线性嵌入流形LLE将跟踪问题映射到非线性低维流型空间去解决。

模式分类:利用分类器将跟踪目标从背景中分割出来是以模式分类的方法解决视频跟踪问题。文献[64,65]同时强调目标与背景的重要性,通过特征评价算法建立对目标和背景具有良好可分性的的视觉特征实现跟踪。Avidan[65]以支持向量机SVM离线学习得到目标与背景特征,称为支持向量机跟踪算法(SVM-Tracking)。文献[67]利用集成学习将弱分类器(Adaboost方法训练得到弱分类器)组合成强分类器,由此强分类器实现对视频帧中目标与背景分类,即像素分类置信图(Confidence Map),由分类置信图的模式得到当前帧中目标位置,将输出的目标位置反馈,训练出新的强分类器以实现后续的分类。为克服上述文献中由于采用离线学习方法使得跟踪算法不满足实时性的问题,

Grabner等人[68]提出了基于在线Adaboost训练分类器的跟踪算法。


2.依据目标定位所使用的方法分类:目标定位根据历史信息推理当前帧中目标位置信息的过程。依据目标定位方法对跟踪算法分类如下:

概率跟踪方法:概率跟踪方法是采用

Bayesian滤波理论

解决状态估计问题在视频跟踪领域的应用,通过预测和修正过程采用一种递推方式实现时变状态的估计。表征目标位置信息的状态量通常由位置坐标、速度、尺度以及旋转角度构成,状态量通过状态转移模型向前推进即实现状态预测,通过最新观测值以及观测似然模型对状态预测置信度进行评价,从而对预测值做出修正。在模型线性(状态转移模型和观测模型)、系统噪声和观测噪声服从高斯分布时,

Kalman滤波

能给出Bayesian滤波最优解;对于非线性Bayesian滤波,

扩展Kalman(EKF)

以及无味

Kalman(UKF)

[69,70]给出了次优解。

隐马尔科夫模型(HMM)

[44]用于实现状态空间有限、离散情况下的状态估计。对于状态模型和观测模型均为非线性且噪声为非高斯,同时状态分布呈多模态,利用

Monte Carlo(MC)方法

通过采样估计目标状态后验分布,取得了良好的效果,其中以

PF为代表的MC采样方法

成为了研究热点。

确定性跟踪方法:该类算法的基本思想是由目标检测或者手动设置方式获取目标模板,度量目标模板与备选目标位置的相识度称为评价函数。跟踪的过程,即将备选目标位置与目标模板匹配的过程。

以最优化方法计算评价函数最大值,使得评价函数取得最大值时的备选目标位置判断为是目标在当前视频帧中的估计位置

[36,56,71]。通常选择颜色直方图距离作为相识度评价函数。该类算法在一定场景下能实现快速可靠的跟踪,但是该类算法的可靠性是建立在目标模板在跟踪过程中不发生变化的假设之上,因此当目标表观模型改变,跟踪结果与实际目标位置会产生较大偏离甚至失跟。针对此问题,文献[72]提出实时更新目标表观直方图的方法,提高了确定性跟踪算法的鲁棒性。由于概率跟踪方法能够解决复杂背景下的目标状态估计,特别是以PF为代表的MC积分法实现对Bayesian滤波的近似已成为跟踪算法的主流。由于PF以一组随机加权样本近似Bayesian滤波,不受模型线性高斯假设的限制,PF已成为解决非线性非高斯模型下的状态估计问题的有力工具[38,41,42]。





[30]B.Jung and G.S.Sukhatme.A generalized region-based approach for multi-target tracking in outdoor environments.[C]In:Proceedings of IEEE International Conference on Robotics and Automation,New Orleans,LA,United States,2004,2004,2189-2195.

[31]B.Jung and G.S.Sukhatme.Detecting moving objects using a single camera on a mobile robot In an outdoor environment.[C]In:Proceedings of International Conference on Intelligent Autonomous Systems,2004,980–987.

[32]L.Mun Wai,I.Cohen and J.Soon Ki.Particle filter with analytical inference for human body tracking.[C]In:Proceedings of IEEE Workshop on Motion and VideoComputing,2002,159-165.

[33]H.Z.Ning,T.N.Tan,L.Wang,et al.People tracking based on motion model and motion constraints with automatic initialization.[J]Pattern Recognition,2004,37(7):1423-1440.

[34]T.Xiang and S.G.Gong.Beyond tracking:Modelling activity and understanding behaviour.[JInternational Journal of Computer Vision,2006,67(1):21-51.

[35]C.Shen.Robust visual tracking in image sequences.[D]The University of Adelaide,2005.

[36]D.Comaniciu,V.Ramesh and P.Meer.Kernel-based object tracking.[J]IEEE Transaction on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.

[37]P.Perez,C.Hue,J.Vermaak,et al.Color-based probabilistic tracking.[C]In:Proceedings of 7th European Conference on Computer Vision,2002,661-675.

[38]K.Nummiaro,E.Koller-Meier and L.Van Gool.An adaptive color-based particle filter.[J]Image And Vision Computing,2003,21(1):99-110.

[39]S.T.Birchfield and S.Rangarajan.Spatiograms versus histograms for region-based tracking.[C]In:Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,San Diego,CA,United States,2005,2,1158-1163.

[40]N.Peterfreund.Robust tracking of position and velocity with Kalman snakes.[J]IEEE Transactions on Pattern Analysis and Machine Intelligence,1999,21(6):564-569.

[41]M.Isard and A.Blake.CONDENSATION-Conditional density propagation for visual

tracking.[J]International Journal of Computer Vision,1998,29(1):5-28.

[42]P.H.Li,T.W.Zhang and A.E.C.Pece.Visual contour tracking based on particle filters.[J]Image and Vision Computing,2003,21(1):111-123.

[43]J.Deutscher and I.Reid.Articulated body motion capture by stochastic search.[J]International Journal of Computer Vision,2005,61(2):185-205.

[44]Y.Chen,Y.Rui and T.S.Huang.JPDAF based HMM for real-time contour tracking.[C]In:Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Kauai,Hawaii,2001,1,543-550.

45]C.Shen,A.van den Hengel and A.Dick.Probabilistic multiple cue integration for particle filter based tracking.[C]In:International Conference on Digital Image Computing:Techniques and Applications,Sydney,2003,1,399–408.

46]A.Li,Z.Jing and S.Hu.Particle filter based visual tracking with multi-cue adaptive fusion.[J] Chinese Optics Letters,2005,3(6):326-329.

47]P.Perez,J.Vermaak and A.Blake.Data fusion for visual tracking with particles.[J]Proceedings Of the IEEE,2004,92(3):495-513.

48]E.Maggio,F.Smeraldi and A.Cavallaro.Combining colour and orientation for adaptive Particle filter-based tracking.[C]In:Proceedings of British Machine Vision Conference Oxford,UK 2005.

49]B.Han,C.Yang,R.Duraiswami,et al.Bayesian filtering and integral image for visual Tracking [C]In:Proceedings of 6th International Worshop on Image Analysis for Multimedia Interactive Services Montreux,Switzerland,2005.

50]C.Yang,R.Duraiswami and L.Davis.Fast multiple object tracking via a hierarchical particle filter.[C]In:Proceedings of IEEE International Conference on Computer Vision,Beijing,China,2005,I,212-219.

51]D.DeCarlo and D.Metaxas.Optical flow constraints on deformable models with applications To face tracking.[J]International Journal of Computer Vision,2000,38(2):99-127.

52]A.D.Jepson,D.J.Fleet and T.F.El-Maraghi.Robust online appearance models for visual tracking.[J]IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(10):1296-1311.

53]P.Viola and M.J.Jones.Robust real-time face detection.[J]International Journal of Computer Vision,2004,57(2):137-154.

54]T.Ojala,M.Pietikainen and T.Maenpaa.Multiresolution gray-scale and rotation invariant Texture classification with local binary patterns.[J]IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(7):971-987.

55]C.Wen-Yan,C.Chu-Song and H.Yi-Ping.Discriminative descriptor-based observation model For visual tracking.[C]In:Proceedings of 18th International Conference on Pattern Recognition,Hong Kong,2006,3,83-86.

56]C.Yang,R.Duraiswami and L.Davis.Efficient mean-shift tracking via a new similarity measure.[C]In:Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,San Diego,CA,United States,2005,I,176-183.

[57]M.S.Arulampalam,S.Maskell,N.Gordon,and T.Clapp,A tutorial on particle filters for online nonlinear/non-Gaussian Bayesian tracking[J],IEEE Proceedings on Signal Processing,vol.50,no.2:174–188,2002.

[58]Djuric,P.M,Kotecha,J.H,Jianqui Zhang,Yufei Huang,Ghirmai,T,Bugallo,M.F,Miguez, J,Particle filtering[J].IEEE Signal Processing Magazine,2003Vol.20(No.5):19-38

[59]J.S.Liu and R.Chen,Sequential Monte Carlo methods for dynamic systems[J],Journal of the American Statistical Association,vol.93,no.443:1032–1044,1998.

[60]H.Bersini and F.Varela.Hints for Adaptive Problem Solving Gleaned from Immune Network.[J]In Parallel Problem Solving from Nature,H.P.Schwefel and H.M‘hlenbein(Eds.),Publisher-Springer-Verlag,1990:343–354

[61]De Castro,L.N.&Von Zuben,F.J.(Eds.).Recent Developments in Biologically Inspired Computing[M].Idear Group Inc.2004

[62]L.Booker,S.Forrest,M.Mitchell,and R.Riolo.Perspectives on Adaptation in Natural and Artificial Systems[M].Oxford University Press.2003

[63]L.N.de Castro and J.Timmis,Artificial Immune Systems:A New Computational Intelligence Approach[M],Springer 2002

[64]De CASTROLN,Von ZUBEN F J.learning and optimization using the clonal selection principle[J].IEEE Tran on Evolutionary computation,special Issue on Artificial Immune systems,2002.6.(3):239-251.

[65]R.Douc,O.Cappe,and E.Moulines,Comparison of resampling schemes for particlefiltering[C],Proc.of Image and Signal Processing and Analysis(ISPA),Sept.2005,pp.64–69.

[66]Jeroen D.Hol,Thomas B.Sch?n and Fredrik Gustafsson,On Resampling Algorithms for Particle Filters[C].Nonlinear Statistical Signal Processing Workshop,Cambridge,United Kingdom,September 2006.

[67]叶其孝,沈永欢.实用数学手册[M],科学出版社,2006.1.

[68]张贤达,现代信号处理[M],清华大学出版社,第二版,2002年.

[69]张贤达,时间序列分析―高阶统计量方法[M],清华大学出版社,1996

[70]V.M.Zolotarev.One-dimensional Stable Distributions.Amer.Math.Soc.Tkansl.of Math.Monographs[M],Vol.65.Amer.Math.Soc.Providence,R.I.(Transl.of the original1983 Russian).

[71]W.Feller.An Introduction to Probability Theory and its Applications[M].Vol.2,2nd edn. Wiley,New York,1971.

[72]G.Samorodnitsky and M.Taqqu.Stable Non-Gaussian Random Processes:Stochastic Models with Infinite Variance[M].Chapman and Hall,NewYork,London,1994.

[73]M.Shao,C.L.Nikias.Signal processing with fractional lower order moments:stable processes and their applications[C].Proceedings of the IEEE,July 1993,81(7):986-1010.

[74]J.M.Chambers,C.L.Mallows and B.W.Stuck,A Method for Simulating Stable Random Variables[J],JASA,1976,Vol.71,No.354:340-344

[75]Aleksander Weron and Rafal Weron,Computer Simulation of Levy alpha-Stable Variables and Processes[J],Lec.Notes in Physics,1995,457:379-392