该博文是接着前面一篇博文“又一个有关地球素颜照的乌龙:辟谣一则新闻的说法”来讨论的。让我们先看看这个有关地球素颜照的说法是如何产生的。
1)日本气象厅12月18日发布了一个新闻,报道向日葵-8号的发射和运行状况,在其官方网站的新闻如下:
At 02:40 UTC on 18 December 2014, the first images from all 16 bands were captured by JMA's Himawari 8 next generation geostationary meteorological satellite, which was launched on 7 October 2014. Testing and checking of the Himawari-8 system, including related ground facilities, are going well. Himawari 8 is scheduled to start operation in mid-2015.
2)网易新闻12月21日转载《当代生活报》的一篇文章,气象卫星首次拍到地球彩照,内容也应该没有什么太大问题:日本气象厅18日公开了10月发射升空的新型气象卫星“向日葵8号”首次拍摄到的彩色地球图像。这张图像在赤道上空3.6万公里同步轨道拍摄,由气象卫星拍摄的地球彩色图像尚为世界首举。据悉,拍摄时间为18日上午11时40分左右。日本气象厅称,“向日葵8号”仍处于功能调试阶段,顺利的话最快将于明年7月左右正式投入使用。据报道,“向日葵7号”每30分钟对半个地球进行一次观测,“向日葵8号”的观测频率提高到了每10分钟一次。对日本以及台风等特定区域观测时,观测频率可达到2分30秒一次。图像彩色化还有利于观测以往难以与火山灰相区别的沙尘。
3)12月22日,Mail Online(每日邮报)发布了 Jonathan O'Callaghan的一篇文章,介绍这颗气象卫星。不得不说,这篇文章的题目和内容容易让人产生误解,特别是grey, true colour, filter, editing,但这些词如果从遥感影像处理的层次上来看,其实是没有什么问题的。
在这篇报道中,Jonathan还是挺负责的,在正文中特意对true colour进行了解释,但并没有解释完整。这是产生误解的根源。而且在题目中还突出了GREY和REALLY两个字。
The use of the words ‘true colour’ is a little bit of a misnomer, as this is not exactly what the planet would look like to the human eye.
... Most images we see of Earth are colour corrected to show how humans would see them. This image, however, was taken in multiple bands and shows the natural appearance of Earth from space.
... The image is said to be 'true colour' as it shows what the planet would look like from space without a human eye. However, to us the planet appears slightly more blue and colourful. By brightening the picture, shown, more detail and features can be revealed.
然后,Jonathan还继续就这个内容进行了延伸,显示了蓝色弹珠的照片。他的说法是没有问题的,因为人家说了图像增强和色彩校正是为了适合人眼在太空看到的状况。
Other images of Earth, such as Nasa's famous Blue Marble images (Western Hemisphere shown), use image enhancement and colour correction to show what the planet would look like to the human eye from space.
4)12月24日,中文网站的报道,“日本卫星拍下"无修正"照片 地球素颜曝光”感觉也还是传递了英文中的信息:过去民众印象中,水蓝色的地球其实是美国太空总署利用色彩校正处理过的照片,和向日葵8号拍下的灰色地球有很大的不同。不过,这张所谓“真实色彩”照片,指的并不是人类肉眼观看的影像,而是呈现地球在太空中的真实样貌。
但其实这段话挺费解的,如果“真实色彩”并不是人类肉眼观看的影像,那么又如何呈现地球在太空中的真实样貌?真实样貌难道不是人看到的样子?
这样的信息传递,导致了什么样的结果呢?大家可以用“地球素颜照”在搜索引擎中检索一下就明白了。下面是我刚检索的结果:
......
类似的内容,许多网站在转发时,对题目进行了改造,但主要内容大致相似,文章后的评论,更是越来越偏离真相。因为这些天比较忙,当时刚看到一篇这样的新闻时,没有时间去追踪其源头,就仅仅针对中文新闻简单写了一篇博文“又一个有关地球素颜照的乌龙:辟谣一则新闻的说法”来表达我的看法。文中,我从瑞利散射的角度,说明了卫星影像获取的过程,并最后强调:对遥感照片,不进行后期处理,那根本就不是地球最原始样貌的照片,而是遮挡了部分颜色光线的照片。为了还原其本来的面貌,就必须对有些颜色进行增强处理而还原。
后来,在与陈昌春博友的讨论中,我对该误解的源头进行了追踪,也就产生了本博文。写到这里,似乎文章就应该结束了。但是,有网友认为我上面的说法不对,说大气是地球的一部分,应该将大气散射和吸收作为地球的一部分。这种说法,我无法完全认同。当然,正好可以借这个事儿,来给大家谈谈遥感影像处理的过程。
地球遥感卫星拍摄影像,有时候会用数码相机进行类比,但其实二者还是有很大差别的。数码照相机,一般是拍摄连续的可见光波段,然后按照红、绿、蓝分配给三个独立的图像传感器进行处理,每一个传感器承担像素1/3的信息处理量。多光谱遥感卫星采用的是“分色摄影”,利用多波段扫描仪来实现,获得多波段扫描影像,但这些波段并非连续的。每个影像都是灰度图像,只代表这个波段所捕获的能量,用不同的亮度来表示。以最具代表性的美国陆地卫星Landsat为例,目前在轨运行的Landsat 8有11个波段,包括从蓝色到短波红外的陆地成像仪(OLI,9个波段)和2个热红外传感器(TIRS)。由于蓝色波段光线的吸收,早期的Landsat传感器MSS是忽略掉这个波段的,主要从蓝绿波段开始采样,但会采集近红外波段,总共4个波段,因此,那个时候的遥感图像合成被称为伪彩合成。后来TM传感器出现了,增加了蓝色波段和热红外波段,波段数也增加到7个(有关Landsat更有趣的故事,可参考我的另外一篇博文:悼念老朋友Landsat 5)。那么,在图像合成中,如果用RGB通道分别对应的TM传感器的3(红)、2(绿)、1(蓝)三个波段,就称为“真彩”(true colour)合成,这是为了同其他波段合成的图像进行区别。true colour这里翻译成“真彩”是一个专业术语,并非“真实色彩”的意思,上面由此引申出素颜照的误解也就来源于此。打个不恰当的例子,皮革行业中的“真皮”也不是指“真正动物皮”的意思。但是,人眼所见的颜色是连续光谱,与遥感的真彩图像并不相同,也就出现了 Jonathan 对true colour的解释。
那么,为什么Jonathan要特意解释这个东西呢,原来向日葵-8号作为新一代气象卫星可圈可点之处还是挺多的。让我们再来说说气象卫星吧。顾名思义,气象卫星就是为气象业务服务的,与资源卫星不同,它不用关注地表的状况,而是关注云图的变化,那么要达到这个目的,在可见光波段,有一个灰度图像(或称黑白图像)就足够了(图1,图2)。因此,在日本的这颗卫星发射升空之前,气象卫星数据对可见光部分都无法实现彩色合成,因此新闻中称“由气象卫星拍摄的地球彩色图像尚为世界首举”是完全正确的。令人惊讶的是,向日葵-8的观测通道达16个(如此之高的通道数目,直逼地球资源卫星了,而且其波段分配与大多资源卫星类似),可见光和近红外通道其星下点分辨率为0.5~1公里,也是目前地球静止轨道气象卫星中波段最多,成像最清晰的。时间分辨率也有了很大提高,全圆盘观测仅为10分钟,区域观测频率达1~2分钟/次。这里我们可以注意到,与向日葵-8号相关的“第一”还是挺多的,但这些“第一”都必须带有一些限制条件。我们可以说向日葵-8号是世界上第一个时间分辨率和空间分辨率最大,波段数最多,且能拍摄彩色云图的地球静止轨道气象卫星,但不能说日本的卫星拍摄了地球的第一个“素颜照”,更不能说美国NASA的蓝色弹珠是骗人的。顺便说一下,由于气象业务不能随便中断,因此一般采用双星布局,这样当发现某颗卫星运行质量下降或者超过使用寿命时,就可以用备份星迅速替换下来,保证业务运行的连续性。因此,日本另外一颗即将发射的向日葵-9就是作为备星使用的。
图1 中国风云2号获取的卫星云图。这张图是预制的地面背景与云层数据合成的照片。
图2 而日本向日葵-8公布的卫星云图,现在是这个样子的,其地面背景显然也是一个预制的底图
最后一个问题,日本气象厅公布的这个“素颜照”有没有进行过遥感技术上的处理?当然啦,这是必须的,比如扭曲校正和灰度图像拉伸处理。为什么要进行这些处理呢?前一个容易理解,因为并不能保证卫星与地球的完全静止,总是会发生一些微小的偏移,那么在图像扫描过程中就可能发生一些错位,因此必须纠正。而拉伸是最基本的图像处理方法,可改善图像显示的对比度。如果对比度比较低,那么就无法清楚的表现出图像中地物之间的差异,因此,往往需要在显示的时候进行拉伸处理。拉伸是按照波段进行的,它通过处理波段中单个像素值来实现增强的效果。为了说明这个效果,用我电脑中有的数据来说明一下。这里的数据是Landsat5在2009年10月21日拍摄的上海市局部区域的数据。可比较一下图3和图4经过拉伸处理前后的效果。
图3 拉伸处理前的真彩合成效果
图4 拉伸处理后的真彩合成效果
认为大气吸收和散射是地球“素颜照”一部分的朋友,你真的觉得图3更反映地球的实际情况吗?遥感图像还有许多处理方法和过程,你真的认为这是一种欺骗吗?
PS本来是图像处理软件photoshop的简称,慢慢演变成对所有图像编辑处理的代名词。其实,现在要修饰一张照片,非专业人士已经很少有人用photoshop了,因为操作太复杂。遥感图像处理中,如果用photoshop来处理,那也是非常不专业的,常用的软件是ENVI和Erdas,其实,我更喜欢用Idrisi。什么是遥感影像的美化呢,用我上课时的一张PPT(图5)来进行说明一下。
图5 上海崇明东滩。左图是RGB波段合成并进行拉伸处理的效果(真彩),中间是红外、红、绿波段合成并进行拉伸处理的效果(伪彩),右图也是红外、红、绿波段合成图像,但色彩进行了变换处理,主要是为了突出植被的分布(美化)。显然,右图要美观得多,不过,其蓝色的海显示出色彩的失真,因为崇明岛周边的海水是黄色的。
转载本文请联系原作者获取授权,同时请注明本文来自赵斌科学网博客。
链接地址:https://wap.sciencenet.cn/blog-502444-854399.html?mobile=1
收藏