首页 理论教育 探秘‘黑科技’背后简单原理

探秘‘黑科技’背后简单原理

时间:2023-08-21 理论教育 版权反馈
【摘要】:如果你不了解倾斜摄影,可能会以为,拍个照片就能建模,这太神奇了,肯定是最近才诞生的黑科技吧?倾斜摄影说的是拍照的时候摄像机和被拍摄物体有个倾斜角。这种技术不展开介绍,我们重点讲述倾斜摄影。“倾斜摄影”一开始不是为了3D建模,而是为了保护战场上飞行员的生命安全才进行的妥协。很多的技术需求都是这样,在战争中埋下种子,在商业中开花结果,倾斜摄影的故事,就从此拉开了帷幕。

探秘‘黑科技’背后简单原理

如果你不了解倾斜摄影,可能会以为,拍个照片就能建模,这太神奇了,肯定是最近才诞生的黑科技吧?其实还真不是。

和倾斜摄影相对应的是正向摄影,顾名思义,就是从正上方往下进行拍摄。

倾斜摄影说的是拍照的时候摄像机和被拍摄物体有个倾斜角。两者的区别,仅仅是在于能不能拍摄到物体的侧面。

正向航拍摄影如今在地图绘制方面还是有着很广的应用,比如日常使用的导航软件,里面的地图都是用这种方法绘制的。

这种技术不展开介绍,我们重点讲述倾斜摄影。它和正向摄影只有拍摄角度这么一点区别,后来怎么能成为自动建模的黑科技呢?还得从头说起。

“倾斜摄影”一开始不是为了3D建模,而是为了保护战场上飞行员的生命安全才进行的妥协。

第一次世界大战的时候,为了能让指挥官对战场的地形、敌方的部署有清晰的了解,战争双方都会派出侦察机对战场进行侦查。那时候的相机刚发明出来不久,还都是大块头,飞行员就把这种叫作Graflex的相机扛上飞机,航拍之后冲洗出来给指挥官使用。

受限于当时的相机技术,飞机只能飞得很低才能拍出足够清晰的照片,而低空飞行就会带来被地对空武器打下来的风险。所以,手持Graflex相机的飞行员们,只能在很远的地方,偷偷摸摸地拍一下照片,然后掉头就跑。

在指挥官心目中,理想的战场侦察影像应该是能够纵览全局,最好能体现出一些地形的三维信息来,就像这张图中的样子:

但是飞行员远远拍下来的,是倾斜的影像,挂在指挥官墙上的作战地图成了这个样子:

指挥官对此当然是很不满,那也没办法,战争中飞行员的生命可是比飞机还贵重的。于是人们就开始考虑:能不能通过某种办法,把这种倾斜的影像恢复成真实的三维场景呢?

在20世纪初,这还只是一个美好的愿望。很多的技术需求都是这样,在战争中埋下种子,在商业中开花结果,倾斜摄影的故事,就从此拉开了帷幕。

我们知道,在拍照的过程中,三维的物体投影在二维的影像上,物体被“压扁”了。它上面每一个点的三维坐标信息,在降维到二维平面之后,有一个维度的信息不可逆地丢失了。(www.xing528.com)

那有没有一种机器,能把这个丢失的信息还原呢?还真有,而且这部机器人们已经携带了几十万年,那就是大脑和双眼。

眼睛看到的并不是真实的三维世界,而是世界在视网膜上面的二维投影,那么人们为什么能感受到三维空间呢?换句话说,大脑是怎样通过眼睛来进行三维建模的呢?

物体上下左右的位置关系人们可以直接从眼睛获得的二维图像加以判断,要建立三维模型,还需要加入第三个维度的深度信息,也就是需要物体距离我们有多远。

我们用这样一个简单的例子来说明:

在上面这张图里,最下方是两只眼睛,中间两条黑线不是眉毛,而是代表了视网膜成像的平面。我们是怎么判断绿色的树距离我们比红色的花要近呢?你可以看到,左眼和右眼看到的图像是不一样的图像——在左眼里,树的图像在花的右侧,而在右眼里,树的图像跑到了左侧。

现在你就可以停下来,找一近一远两样东西,分别闭上左眼再闭上右眼,是不是它们的位置关系发生变化了?3D电影利用的就是这样的原理。

大脑靠这种双眼看到图像不一样的结果,再辅助一套算法,就可以把上面这张图中的光线变化逆向推演,从而得出物体远近的深度坐标。这套算法我们用一张图说明:

为了简化,假设两只眼睛在一个平面上,只有水平方向的变化,垂直方向没有变化。如果想知道P点在空间里的深度坐标z,已知数有这么几个:左视图和右视图光心距离B(也就是双眼的距离)、眼睛的焦距f(就是视网膜和光线交点的距离)、两张图上的横坐标视差Xleft-Xright=D(就是P点在两只眼睛看到的图像里位置变化了多少),就能求出P点的z坐标值,推导的过程这里不给了,只给出结果:

上面这段几何和数学说明,你看不懂也完全没关系,后面我们也不会再写任何的数学公式了。这里只需要你记住:想把一个点在三维空间中的位置还原出来,必须知道这三个数:

相机的焦距。

两个镜头之间的距离。

同一个点在两张照片上位置的变化。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈