合出了三星GM1龙王,什么水平?第一次合出来LD很高的三星GM1龙王

原标题:深度解析三星GM1GM1和索尼IMX586

先說结论GM1的4800万像素本质上还是1200万像素。即便手机可以输出4800万像素的照片也更像是通过插值实现的。而IMX586则是真正传统定义的4800万像素

接下來我们就从技术层面分析一下GM1和IMX586。

我们都知道对于相机来说最重要的硬件就是感光元件了CMOS/CCD,目前手机采用的感光元件都是CMOS这里就不展開讲了。

这是一种将光学影像转换成电子信号的设备无论是相机还是手机,能拍出数码相片最大的功臣之一就是感光元件

同时,顾名思义感光元件就真的是一个“感光”的元件它只对光线的明暗敏感,但是无法感知颜色

如果我们直接用感光元件来成像,它看起来就潒是一团黑影

这显然不是我们想要的照片。

如何得到一张彩色的照片呢这里就不得不引出RGB的概念了。

三原色光模式(RGB color model)又称RGB颜色模型或红绿蓝颜色模型,是一种加色模型将红(Red)、绿(Green)、蓝(Blue)三原色的色光以不同的比例相加,以产生多种多样的色光(且三原色嘚红绿蓝不可能用其他单色光合成)

数字影像之父Bryce Bayer基于RGB模式,通过在感光元件前加上一个滤镜的方法终于实现了彩色照片

如下图所示,下媔这一层灰色的就是感光元件每个方块代表一个像素块。上面这层彩色的就是Bayer滤镜

滤镜上每个小方块与感光元件的像素块对应,也就昰在每个像素前覆盖了一个特定的颜色滤镜

比如最左边的的红色滤镜块,只允许红色光线投到感光元件上那么对应的这个像素块就只反映红色光线的信息。

注意上图为示意图,感光元件上是不会出现彩色的它只记录光线明暗程度。

Bayer滤镜跨出了照片从黑白到彩色的一夶步但是对于挑剔的人眼来说,每个像素只有一个颜色是远远不够的所以还需要后期色彩还原去猜色,最后形成一张完整的彩色照片

这一整套流程,就叫做Bayer阵列

我们通过一张图来展现Bayer阵列的工作方式:

第一张图为原始图像,我们采用带有Bayer滤镜的120x80像素传感器来拍摄

苐二张图是感光元件输出的图像,就像我们在第一部分所说的感光元件只能记录光线明暗程度,所以我们看到的是一张黑白的照片

第彡张图是通过Bayer滤镜后输出的图像,已经能够看出花是花、草是草可是图像不够细腻,这样一张照片来发朋友圈还是远远不够的

第四张圖就是最终通过色彩还原输出的图像了,虽然由于硬件限制像素过低,不过这已经是一张合格的照片了

不难看出数码相机包括手机拍攝照片的大致流程:

感光元件→Bayer滤镜→色彩还原

这就是一张照片从按下快门,到我们从屏幕中欣赏到自己作品的流程也叫作Bayer阵列。

首先希望大家明白一个基础的概念——像素,然后再来谈谈文章的主角IMX586

像素是数码显示的基本单位,其实质是一个抽象的取样为了通俗表达,我们通常会用方块来表示

每一个色块代表一个像素,而像素越多图像的解析度就会越好。

明白了像素的概念以后我们再来谈談IMX586。

IMX586是索尼适用于手机的全新堆栈式CMOS感光元件这颗感光元件有效像素高达4800万,实现了业界最高水准手机拍摄的技术参数表也因此再次被改写。

IMX586最大的特色就是使用 Quad Bayer 阵列不同于经典的Bayer阵列是以2x2共四格分散RGB的方式成像,Quad Bayer 阵列扩大到了4x4并且以2x2的方式将RGB相邻排列。

在使用搭載IMX586传感器手机拍照的时候Quad Bayer 阵列会让每一个像素点就近计算周围的颜色,并且通过独立的信号处理变换像素结构从而实时输出4800万像素的高清照片。

换句话说IMX586的4800万个感光单元每个都能独立显示并且输出数据。4800万像素的照片是硬件直出的无需软件插值。

通过下图我们可鉯清楚的看到Quad Bayer 阵列的特性。

GM1的输出方式如下图所示虽说也将阵列扩大到了4x4,但是和IMX586最大的不同是每个2x2阵列都只能识别同样的颜色,并苴只能一起输出数据也就是说,GM1硬件输出的照片其实跟1200万传感器输出的照片没有本质区别

三星GM1官网披露的数据也可以佐证这一点,GM1的規格表中我们可以看到其分辨率为,也就是1200万像素

所以,IMX586与GM1的根本差异在于前者可以通过变换像素结构的方式实现真正的4800万像素,從而让照片具有更强的解析力放大之后也能更加清晰,而这也正是高像素最大的优势

GM1的4800万像素本质上还是1200万像素。即便手机可以输出4800萬像素的照片也更像是通过插值实现的。而IMX586则真正是传统定义的4800万像素

(本文转自知呼熊军民)

这是微博Peloton的原文虽然我看不懂,但我一次不差的复制下来供大家参考
跟在关联会社搞电装品的朋友出来恰饭席间谈起586和GM1这事

586的每个像素都能独立的控制曝光时间,但並不会造成像素的不同步在独立控制曝光时间的同时,依然能做到同步生成影像也就是说,在高反差场景中(既有高亮阳光直射区域亦存在死角黑场),普通的CMOS的像素曝光时间是相同的所以过曝和欠曝同时在一个场景中出现,导致画面的宽容度大打折扣而586可以单獨控制像素的曝光,最暗的部分像素自行延长曝光时间在最亮的部分像素降低曝光时间,这样一来整块传感器的动态范围就被大大提升叻

当然,虽然现在基本都是多张合成+自动HDR算法一定程度可以弥补GM1的缺陷。但586片上由像素自行直接硬件控制曝光时间来决定 不会产生任何画质的影响,更不会让ISP消耗额外的时间与电量合成用来合成

2. 众所周知,不论是CCD还是CMOS传感器的原始数据是只有灰度明暗变化的 RAW数据包。颜色只能依靠Bayer滤阵的滤光薄膜后天添加在每个像素上只能覆盖一片R或G或B颜色的滤色片,缺少的另外两种颜色信息依靠空间色彩插值嘚方式去猜测

在弱光环境下,586是把4个像素合成1个输出此时就相当于一个正常Bayer阵列的CMOS。也就是说在整片CMOS上此时像素排列为4000 × 3000, 其中绿銫像素是600万R和B的像素各有300万。这样总的加起来就是“四合一”输出的1200万像素 但这个1200万仅仅是单色像素的相加,那么缺少的另外两色像素必须靠计算,绿色像素还好说因为每个绿色像素都和一个R和一个B相临,所以将相邻的R、B像素的色彩取值带入后即可获取准确的RGB信息。但是绿色像素只有600万即便获得R、B像素,最终也只能生成600万的RGB信息缺少的另外600万只能依靠另外的R、B像素。但遗憾的是 R和B之间是隔開的,它无法像G像素那样去获取相邻像素取值 所以R、B像素相互间就必须靠猜测插值。也正因此最终输出的RGB色彩信息必然存在误差和错漏,同时因为相当一部分色彩分辨率信息是猜测获取所以其空间分辨率会有一定幅度衰减和降低。

为了弥补Bayer阵列的问题以及弥补高像素与像素感光面积间的矛盾,一系列Quad Bayer阵列Sensor应运而生但遗憾的是,Bayer阵列的几十年的应用使得ISP硬件一般仅仅支持Bayer阵列的Demosaic算法(其实鄙人特别囍欢的一家是富士通--也就是现在的Soxionet Milebeaut系列)

3000的图像(即便是S.LSI企画中4月导入生产的更新型号也是这样)。所以GM1不比Bayer的12MP强多少,586不比Bayer的48MP弱太多

另外哆句嘴,CMOS的信号处理是由单个像素完成的每个像素本身就是信号放大器,信号放大变成模拟信号然后由通路流向ADC,转成数字信号因為放大后的模拟信号流向ADC的距离很长,而CMOS像素与模拟信号放大器是一一对应的所以大量的模拟信号,单个经过很长的路径传输到 ADC这中間模拟信号极易受到电磁场的干扰,和像素间相互干扰以三星GM1的落后索尼至少6年/2代以上的工艺来讲(想想看,为什么三星GM1自家的ISOCELL用了2年索尼DTI出样后立马改为同样的结构),以及GM1同样48MP的物理像素数 GM1的读出噪声铁定要比586大。

3. 同样的差距还在工艺上索尼LSI采用的是绝缘体上硅工藝,需要将CMOS的硅底衬精密研磨再在其上进行电路机械加工,而其它诸如三星GM1、OV的BSI CMOS对于BSI工艺中复杂度没有之一的精密研磨工序都是退避三舍直接采用普通硅进行封装。因此早先其底衬厚度相当于索尼的50倍。唯一的好处是成本仅仅相当于索尼的25%但也因此,宽容度、灵敏喥等会受到影响

我不是华为用户但是我赞赏华为对Sony Sensor的采用。倘若一昧仅为表面参数噱头和更低采购单价而使用技术力不济但是廉价的Sensor長此以往,不断探求技术顶峰的厂商失去投资的动力技术力薄弱的业者登堂入室。那么最终蒙受损失的是整个业界。

在过去的几年里我见过很多这样的事情,技术者对技术的追求敌不过商业上的阴谋我曾经见过东芝的川西岡部长为了保固期25年的DRAM因为无法敌过韩商“逆周期”投资被迫停产而鞠躬道歉,也见到索尼松下的电视事业是如何被韩系业者的低价倾销策略冲垮;知道了索尼曾经的旗舰HX920在近藤氏嘚企画里只是中端产品应该达到的画面;曾经称雄称霸的富士通Milebeaut ISP在C3的堵截下被迫与松下系统LSI分部合并几乎退出了手机ISP业务。真的很难过很糟糕。我永远不会忘记这些技术者眼中的痛楚声音里的颤抖,以及灵魂深处的悲哀

还需要多少这样技术者向营销与资本的低头,財能唤起人们在心底对技术的尊敬

这是对与错之间的抉择,这是正义与非正义之间的抉择这是事关未来的抉择:究竟科技业者是应该贏在技术还是赢在营销与资本?

我要回帖

更多关于 三星 的文章

 

随机推荐