给大伙提个醒,北京清华大学自动化系成像与智能技术实验室戴琼海院士,还有天文系蔡峥副教授,2月23日搞出了大动静。他们携手搞了个跨学科的研究,弄出了个叫“星衍”(ASTERIS)的AI模型,专门用来搞天文观测增强。这招挺绝,直接把詹姆斯·韦伯空间望远镜的探测深度给拉高了1个星等,找到的那些极暗弱高红移候选天体,是以前的3倍多。这下可好了,最深远、最昏暗的星系图被他们给画出来了。这事儿上了国际顶刊《科学》,审稿人都说这工作牛气冲天。 大家总爱说要探索宇宙的尽头,那些最遥远、最暗弱的天体藏着多少秘密啊。为了这个目标,科学家们以前要么拼命做大望远镜的镜子,要么提高传感器性能,甚至把仪器送到太空去。可这老路子有个毛病,钱花了、时间耗了,边际效应一来就碰上了瓶颈。再加上天光背景噪声和望远镜的热辐射混在一起,就像一片乌云挡住了暗弱星光。以前的方法在这种环境里更是举步维艰。 好在戴院士的团队一直盯着观测天文学的核心难题不放。他们把计算光学原理跟人工智能算法搅和在一起,硬是把海量的数据给“解”了出来。最后搞出来的“星衍”,就像把一张二维的照片变成了三维的立体画,把那些藏在暗处的细节都给抠出来了。 这玩意儿的核心秘诀在于“光度自适应筛选机制”。以前大家都觉得背景噪声是瞎捣乱,现在它不光盯着这些噪声看,还把噪声的波动跟天体本身的亮度联合起来建模。这样一来,模型就能专心致志地去抓那些微弱的信号。更绝的是,哪怕信号弱到不行,“星衍”也能直接拿带噪声的真实数据去练,照样能还原出高保真的目标信号。 以往用AI解天文数据的研究不少,但大多盯着电脑视觉的标准看。那些指标老让人跑偏:数据看着干净了,其实把微弱的信号磨平了,甚至还会把天体的形态给改了。咱们团队这次完全不一样,专门搞了套基于天文科学的AI评价方法。我们不去追求单纯的视觉效果,而是看能不能真正提高探测能力、保持形态和光度这些科学需求。 “星衍”不光是让望远镜看东西更深了,还得保证看的准。它用了个“分时中位,全时平均”的双重策略。这一招让找暗弱信号的本事大涨,同时也把假信号的概率给降下去了。 你看这效果多猛!在詹姆斯·韦伯望远镜的观测数据上一试,“星衍”把发现暗弱天体的完备度直接拉高了1.0个星等,准确率更是提升了1.6个星等。星等这玩意儿数值越大代表越暗,这相当于把望远镜的光子收集效率提升了近一个数量级。这下好了,研究极端暗弱天体的大门被彻底打开了。 靠着这项技术,研究团队在詹姆斯·韦伯望远镜的深度数据里找到了超过160个宇宙早期的候选高红移星系。这个数量可是以前的3倍之多!这些星系出现在宇宙大爆炸后的2到5亿年间,也就是那个被称作“宇宙黎明”的时代。这下可好了,人类终于能画出目前最深邃、最暗弱的早期星系光度函数了,这对搞懂宇宙第一缕曙光是怎么来的有大帮助。 最厉害的是,“星衍”不光能搞定詹姆斯·韦伯望远镜的数据,还能跨平台跨波段运作。它现在已经成功用在詹姆斯·韦伯空间望远镜和昴星团地面望远镜上了。覆盖的波段从可见光(约500纳米)一直延伸到了中红外(5微米)。这就意味着它不仅是个解码尖端数据的工具,还是个通用的深空数据增强平台。咱们人类探寻宇宙的“巨眼”这下算是配上了AI大脑!