【无标题】关于CAMERA的转载

  • Post author:
  • Post category:其他



关于CAMERA的转载

GAMMA测试方法及分析:

https://wenku.baidu.com/view/bceaf6300a4c2e3f5727a5e9856a561252d321aa.html

camera主观测试经验分享:

http://max.book118.com/html/2016/0802/50061502.shtm

http://www.docin.com/p-1408441708.html

ISP图像调试工程师:

tone Mapping(ISP):

http://www.cnblogs.com/bigbigtree/p/3458797.html

自动白平衡(熟悉3A算法):

http://blog.csdn.net/wzwxiaozheng/article/details/40586293

https://wenku.baidu.com/view/24632048767f5acfa1c7cd7e.html

自动对焦(熟悉3A算法):

https://wenku.baidu.com/view/40ec4a14fc4ffe473368ab96.html

宽动态增强(熟悉图像预处理和后处理技术)

http://www.docin.com/p-1783311889.html

对比度增强(熟悉图像预处理和后处理技术)

经典对比度增强算法:

http://blog.csdn.net/ebowtang/article/details/38236441

色彩还原(熟悉图像预处理和后处理技术)

http://blog.sina.com.cn/s/blog_5e125dcf0100k8s3.html

色彩还原:

https://wenku.baidu.com/view/123fb51a6edb6f1aff001f10.html

边缘增强(熟悉图像预处理和后处理技术)

http://blog.csdn.net/u013033431/article/details/50907907

http://dsqiu.iteye.com/blog/1638589

概念:

图像增强处理的一种。它是将遥感图像(或影像)相邻像元(或区域)的亮度值(或色调)相差较大的边缘(即影像色调突变或地物类型的边界线)处加以突出强调的技术方法。经边缘增强后的图像能更清晰地显示出不同的物类型或现象的边界,或线形影像的行迹,以便于不同的物类型的识别及其分布范围的圈定。

实现方式:

例如利用相关掩膜技术,将原图像(影像)拷制成一张正膜片和一张负膜片,并使两张不同性质的膜片精确重叠,在曝光冲印时,将两张膜片相互错动很小的距离,这样得到一张相应影像有稍许错位“镶边”的图像,其大部分影像正负抵消,而其边缘部分出现一亮线(或暗线),达到从背景中突出影象边界线的显示效果,使图像达到增强。边缘增强还可通过其它方法或计算机处理来实现。

3D和2D降噪(熟悉图像预处理和后处理技术)

2D降噪:只在2维空间域上进行降噪处理。基本方法:对一个像素将其与周围像素平均,平均后噪声降低,但缺点是会造成画面模糊,特别是物体边缘部分。因此对这种算法的改进主要是进行边缘检测,边缘部分的像素不用来进行模糊。

3D降噪:增添了时域处理,因此变为3维。和2d降噪的不同在于,2d降噪只考虑一帧图像,而3d降噪进一步考虑帧与帧之间的时域关系,对每个像素进行时域上的平均。例如,假设场景静止,那么连续两帧图像内容没变,他们的差值就是2倍的噪声。通过减少时域上的改变降低噪声。

相比2d降噪,3d降噪效果更好,且不会造成边缘的模糊,但存在的主要问题是:画面不会是完全静止的,如果对不属于同一物体的两个点进行降噪处理会造成错误。因此该方法需要运动估计,其效果好坏也与运动估计相关。而运动估计计算量大,耗时长,是制约3d降噪的主要瓶颈。

智能手机摄像头原理图解教程

http://wenku.baidu.com/link?url=KSK7Go57xYfrwtUjOoXU8D23D-rUtKzjeMAxd0h_Hrdf7G-fu5V8o_7oXgP7TY4EFwkniKrcMEcLlXviyX-jBmS8DFiOepmmcEIRXT8MAoy

Camera帧率和AE的关系

1.camera首先是通过曝光的pixel加上dummy pixel以及曝光的line加上dummy line来决定一帧的曝光时间,这一帧曝光时间的倒数就是帧率,这个没有错吧,但是看代码时候看到preview的时候软件会不断的给sensor写shutter值,环境亮暗变化时候shutter值也不断的变化。这样每一帧的曝光时间就不同了,这样的话帧率就会自动调节,不就不一定了么?

还有写shutter的值是否增加了dummy line呢?还是增加了dummy pixel呢?我以前好像看到过别人说增加dummy pixel会增加曝光时间,而增加dummy line不会增加曝光时间,这又怎么理解?

还有base shutter,pre shutter这些都是什么意思,根据什么设置?

最近在看camera的东西,看的比较难受,看的是RAW格式的代码,

现在在帧率和AE上比较纠结,搞不明白,请高手指教。

——————————————————————————————————————————————————————

2.一般sensor曝光时间都是指曝光多少行,

曝光时间<帧长时,

帧率fps = PCLK/(行长x帧长)

曝光时间>帧长时,

帧率fps = PCLK/(行长x曝光时间)

——————————————————————————————————————————————————————

3.曝光时间是帧率的倒数的说法是不对的,例如sensor在阳光下的曝光时间可以到1/1000s,帧率是不是就能到1000fps呢?

——————————————————————————————————————————————————————

4.曝光就是让sensor感光,并把积累的电荷转换为数字,

所以曝光所需要的行数 x 每一行所需要的时间 = 曝光时间;

所需行数就会与dummy line有关,

而每一行所需的曝光时间就会与dummy pixel有关,

而整个画面的帧率就与这些有关系。

”preview的时候软件会不断的给sensor写shutter值,环境亮暗变化时shutter值不断的变化“———这就属于自动曝光控制机制;

——————————————————————————————————————————————————————

5.行长和帧长可以理解为HSYNC和VSYNC的长度,假设HSYNC和VSYNC都是高有效,dummy pixel和dummy line则是增加低电平的时间。可以参考芯片的datasheet上的时序图。

——————————————————————————————————————————————————————

6.sensor曝光是一行一行来做,dummy line不会占用曝光时间但是会影响帧率,dummy pixel会增加曝光时间,所以会影响帧率。

固定帧率的时候,这个时候每一行的曝光时间是固定的,但是会造成不同场景下面图像亮度不够的问题。有时候为了满足这比较暗的场景下面得到更多的光信息,这个时候需要加大曝光时间,来达到我们希望的效果,比如lowlight下增加了曝光时间,但是帧率自然就下降了。

需要帧率优先还是曝光优先,要看不同应用了,一般拍照时候是曝光优先,录像时候是帧率优先(固定帧率)

——————————————————————————————————————————————————————

CMOS Sensor的调试经验分享:

https://www.cnblogs.com/whw19818/p/5819140.html

VSYNC与HSYNC与PCLK与什么有关系

在手机平台,LCD,Camera,TV的接线上,都会用到PCLK,VSYNC和HSYNC这三个信号。可见这三个信号和显示关系非常大。首先我们先看这三个信号的作用:

PCLK:有些方案给他起名字叫:DotCLK。是像素点同步时钟信号。也就是每个PCLK对应一个像素点。

VSYNC:是场同步信号。以高电平有效为例,VSYNC置高直到被拉低,这个区段所输出的所有影像数据组成一个frame。

HSYNC:是行同步信号。就是在告诉接收端:“HSYNC”有效时段内接收端接收到的所有的信号输出属同一行。

若要显示一个640×480的画面,显示不正确的时候,若量PCLK,VSYNC和HSYNC这三个信号,就可以知道这三个信号配置是否有问题,一般来讲,这种情况是有公式的:

VSync = HSYNC x 320;

Hsync = PCLK x 640;

————————————————————————————————————————————————————

sensor的同步信号可以简单的理解为sensor向其信号接收端所发送的宣告信号

比如HSYNC,就是sensor这告诉接收端:“HSYNC”有效时段内sensor所有的信号输出属同一行。

VSYNC同理,以高电平有效为例,VSYNC置高直到被拉低,这个区段sensor所输出的所有影像数据组成一个frame

同步信号的频率决定于pixel clock,比如一行有640个pixel,那么HSYNC的频率为:PCLK/(640+dummy);Vsync同理。

—————————————————————————————————————————————————————

PCLK怎么获得?

1.PCLK是由MCLK进行分频而来……

2.PCLK是个时钟,通过寄存器只能调节它的频率什么的,它是控制像素输出的一个时钟;

3.在曝光时间的算法中需要知道PCLK的值,是因为在sensor内没有时间观念,只有频率,所以在算曝光计算时需要将所要的曝光的秒数转换为曝光的clock数,同样的

Clock数,在不同的频率下代表的时间是不同的,例如同样的1000个clock在12HZ和24HZ下代表的时间就差了二倍。

而PClk的值一般是以提供给sensor的MCLK除以sensor内部分频后的值,而每个sensor的分频设计方式不太相同,所以需要对照datasheet才行。

4.我解释一下pll,PC-camera芯片晶振产生时钟,pll进行倍频输出MCLK给sensor,sensor再通过pll产生合适的PCLK,一般PC-camera芯片输出的MCLK是固定的几个值,

而sensor这边输出的PCLK根据调节相应的寄存器在可以输出的值在一定范围内可随意调,sensor输出PCLK和曝光是两个独立的过程,对于曝光可以设置target值进行亮度调整,

如果是非SOC sensor可以改变dummy line和dummy pixel来调节帧率,对于水波纹的消除可以根据PCLK可抑制消除,这样的PCLK有约束,如果真可输出频率范围内的频率输出则可以

调节dummy pixel来消除。

5.MCLK = 倍率系数*Pclk

MCLK是指芯片的主时钟,由BB提供,是CCM sensor的时钟源,MCLK由sensor处理后变成传输数据所需要的PCLK,PCLK指pixel采样的时钟

————————————————

版权声明:本文为CSDN博主「jinron10」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/jinron10/article/details/103472065

有兴趣的各位可以互加QQ微信等联系方式,随时沟通!

分类:

音视频