正在阅读:为何看到的景色和拍下来的照片差这么远?为何看到的景色和拍下来的照片差这么远?

2016-03-17 00:15 出处:PConline原创 作者:南方的东北佬 责任编辑:zhaolianyu

  【PConline 点评】拍照是门技术活,很多人都相信了,因为有很多人冲着网上看到的美图去到了实地,然后拍同样的照片发现根本不是一回事,也和自己看到的美景差太远了,所以就得出一个结论:我的相机太差了,我技术也太差了。实际上你看到景色不能复制般地拍下来有很多原因,我们一起来探讨一下都是什么因素导致你拍出一张烂照片。

为何看到的景色和拍下来的照片差这么远?
为何看到的景色和拍下来的照片差这么远?

  当我们拍到一张不怎么样的照片时,我们往往会觉得相机太差了,这么漂亮的景色,居然拍成这样,肯定是这相机不行。于是动了换相机的念头。等换到更好的相机时,拍照质量终于有提升啦,不过还是经常拍不出景色原来的样貌,照片还是丑丑的。这个时候终于意识到是自己摄影技术没到家,回头去恶补摄影常识。修炼成大神后还是经常无法还原景色原来的美,于是乎开始怀疑人生了。

  事实上你看到很漂亮的的景色却没办法通过照片去还原,这真不怪你,也不能老是去怪相机。因为你看到的东西并不一定是物体本来的样子。而相机也有记录影像能力的限制,超过了它能力范围内的都无法记录。所以有些场景拍摄的效果要是能达到肉眼直接观看的效果,才怪!那一定不是直接拍摄所得,要么使用了特殊的配件和拍摄手法,要么通过后期调整过。

大脑
人脑这个超级计算机为看到的景象做了处理

  相机拍不到肉眼所见的理由也很好解释,这和人的大脑有很大的关系。人眼看到的景象是有大脑处理过后才给予你感知的。人的眼球是接收光线的器官,但真正将光线转换为视觉的成像过程是在大脑进行。也因为大脑有较快的处理速度以及海量的存储数据的空间,所以我们最终看到的景象是大脑加工合成过的。

剪影照片
剪影照片利用高反差故意压暗人物(摄影部落网友作品)

  拍照片与肉眼观看差距最大的时候是高反差场景,比如我们站在一个地方逆光看着一个人,人眼可以看清这个人的样貌,也可以看清背后背景的内容。但当我们用相机拍照的时候,往往照片是背景正常曝光的时候人已经全黑了,或是人正常曝光,但背景白茫茫一片已经没有什么细节。相信很多朋友都被卡在这种情况上,和肉眼看的效果比简直没救了好吗!而出现这种差异的奥秘在于人脑过于强大,以至于观看暗部区域和亮部区域时的正常曝光画面都记录于脑中,最后将两者合成的高宽容度画面反馈回意识。形成了肉眼可以同时看清亮部和暗部的情况。

眼球成像
眼睛充当了镜头的功能

  因此人们常说的人眼宽容度比相机要高的说法是不太正确的。因为最终影响我们所见的是大脑,而眼睛本身只是充当了镜头的角色,通过控制瞳孔大小来控制进光量。之所以可以看到如此高宽容度的景象,最重要的一步是人脑将不同曝光量的景象进行汇总,并且及时调用,使得我们认为看到的景象就是应该如此高宽容度。其实通过眼睛看到的实际景象并不比拍出的高光比照片好多少。眼球的实际通光性能甚至不及一批高端镜头。

  为此我们得到一个结论,就是你拍的照片没有看到的那么好看,是正常的,如果想还原看到的内容,则必须通过一些手段去模拟大脑做的工作。因此我们有了HDR拍摄手法,可以通过渐变镜这样的附件去改善大光比场景的拍摄,还可以通过后期图像调整来解决难题。

包围曝光
使用包围曝光来拍摄多张不同曝光值的照片

  HDR拍摄手法是连续拍摄多张不同曝光量的照片,而后通过后期处理来挑选每张照片不同亮度部位曝光量正确的部分进行合成,这种拍摄方式是模拟人脑的合成方法。

渐变镜
渐变镜可以降低反光

  使用渐变镜可以改善一些风光照片,可以让天空与地面的曝光差降低,但使用渐变镜的局限性较大,只能用于亮度差的位置明显分区域才适合使用。而拍摄高反差的人像,则多用闪光灯对人物进行补光来降低曝光差。

后期处理照片
拍摄一张保留亮部的欠曝照片,后期很容易处理成高宽容度的照片

  如今最简单的方法是后期调整来改善画面的反差,不过对原片质量的要求较高。拍摄时也尽可能地降低曝光值来拍摄。而且对后期处理能力有一定的要求。相当一部分的原片党是拒绝的,所以也只能是少部分人的专利。

  除了高反差外,还有很多情况会出现拍照效果与肉眼观看不同,如各种颜色的灯光环境下,相机不能识别正确的颜色等等。这些也都是人类有个强大的大脑在作怪,而相机只是老老实实记录它看到的东西,虽然相机也有贵贱,但这个记录原则还是不变的。因此残酷的结论是你拍的照片觉得不好看,很多时候是因为你看到的太好看而已。如果不愿意花大精力去纠正相机的记录效果,还是接受了这个不争的事实吧。

为您推荐

加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
最新资讯离线随时看 聊天吐槽赢奖品