AI能实时解读大脑信号,快速还原出人在0.5秒内看的图像

新知榜官方账号

2023-10-20 01:30:26

AI能实时解读大脑信号,快速还原出人在0.5秒内看的图像

现在,AI已经能实时解读大脑信号了!这不是耸人听闻,而是Meta的一项新研究,能够凭脑信号猜出你在0.5秒内看的图,并用AI实时还原出来。在此之前,AI虽然已经能从大脑信号中比较准确地还原图像,但还有个bug——不够快。为此,Meta研发了一个新解码模型,让AI光是图像检索的速度就提升了7倍,几乎“瞬间”能读出人在看什么,并猜出个大概。

像是一个站立的男人,AI数次还原后,竟然真的解读出了一个“站立的人”出来:LeCun转发表示,从MEG脑信号中重建视觉等输入的研究,确实很棒。

那么,Meta究竟是怎么让AI“快速读脑”的?大脑活动解码如何解读?目前,AI读取大脑信号并还原图像的方法,主要有两种。其中一种是fMRI(功能性磁共振成像),可以生成流向大脑特定部位的血流图像;另一种是MEG(脑磁图),可以测量脑内神经电流发出的极其微弱的生物磁场信号。然而,fMRI神经成像的速度往往非常慢,平均2秒才出一张图(≈0.5Hz),相比之下MEG甚至能在每秒内记录上千次大脑活动图像(≈5000Hz)。所以相比fMRI,为什么不用MEG数据来试试还原出“人类看到的图像”呢?

基于这一思路,作者们设计了一个MEG解码模型,由三个部分组成。第一部分预训练模型,负责从图像中获得embeddings;第二部分是一个端到端训练模型,负责将MEG数据与图像embeddings对齐;第三部分是一个预训练图像生成器,负责还原出最终的图像。训练上,研究人员用了一个名叫THINGS-MEG的数据集,包含了4个年轻人(2男2女,平均23.25岁)观看图像时记录的MEG数据。这些年轻人一共观看了22448张图像(1854种类型),每张图像显示时间为0.5秒,间隔时间为0.8~1.2秒,其中有200张图片被反复观看。除此之外,还有3659张图像没有展示给参与者,但也被用于图像检索中。

所以,这样训练出来的AI,效果究竟如何?图像检索速度提升7倍整体来看,这项研究设计的MEG解码模型,比线性解码器的图像检索速度提升了7倍。其中,相比CLIP等模型,又以Meta研发的视觉Transformer架构DINOv2在提取图像特征方面表现更好,更能将MEG数据和图像embeddings对齐起来。作者们将整体生成的图像分成了三大类,匹配度最高的、中等的和匹配度最差的。不过,从生成示例中来看,这个AI还原出来的图像效果,确实不算太好。即使是还原度最高的图像,仍然受到了一些网友的质疑:为什么熊猫看起来完全不像熊猫?作者表示:至少像黑白熊。(熊猫震怒!)当然,研究人员也承认,MEG数据复原出来的图像效果,确实目前还不太行,主要优势还是在速度上。例如之前来自明尼苏达大学等机构的一项名为7TfMRI的研究,就能以较高的复原度从fMRI数据中还原出人眼看到的图像。

无论是人类的冲浪动作、飞机的形状、斑马的颜色、火车的背景,基于fMRI数据训练的AI都能更好地将图像还原出来。对此,作者们也给出了解释,认为这是因为AI基于MEG还原出来的视觉特征偏高级。但相比之下,7TfMRI可以提取并还原出图像中更低级的视觉特征,这样生成的图像整体还原度更高。

你觉得这类研究可以被用在哪些地方?

论文地址:https://ai.meta.com/static-resource/image-decoding

本页网址:https://www.xinzhibang.net/article_detail-17325.html

寻求报道,请 点击这里 微信扫码咨询

关键词

AI 大脑信号 图像检索

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯