人工智能(AI)有朝一日能读懂我们的大脑并追踪我们的想法吗?最近的一系列研究表明,当我们在听故事、想要交谈或看图像时,人工智能能够以文本和图像的形式解码和翻译我们的大脑活动。10月18日(周三),meta AI(前身为Facebook)的一个团队在巴黎展示了这项工作的最新成果,展示了这些惊人的进步。
jean - r
米·金和他的同事描述了他们的人工智能算法是如何基于对志愿者大脑活动的分析,忠实地再现志愿者看到的照片的。他们的观察结果以预印本的形式发表,即在科学期刊上发表之前尚未经过同行评审的论文。它们是基于通过脑磁图(MEG)和功能性磁共振成像(fMRI)对观看照片的志愿者获得的数据集。这些数据随后被提交给一系列人工智能解码器,这些解码器学会了解释并将它们转录回图像。
结果呢?虽然原作和复制品之间的相似度并不完美,但相似之处往往是惊人的。一只斑马披着牛皮和霍加皮的混合外衣,一个拿着风筝的小女孩头顶上有一个不明物体,但一个冲浪者似乎和照片中的模特骑着同样的波浪,一个穿着红色潜水服的滑雪者保持着和原来一样的姿势。King是一名学术研究员(CNRS, ENS),目前正在进行一项为期五年的元人工智能任务,他承认,“即使对我们团队的研究人员来说,”“wow效应”是保证的。“就在两年前,我从未想过会有这样的结果。”
最近几个月,语言领域的几篇论文展示了人工智能解码大脑活动的潜力,无论是通过侵入性手段——通过植入瘫痪患者大脑的电极收集数据——还是非侵入性手段,如MEG、功能磁共振成像(fMRI),这些大型机器将受试者的头部浸入其中,但也有一个简单的脑电图(EEG)帽。
5月1日,在《自然神经科学》(Nature Neuroscience)杂志上,由亚历山大·胡特(Alexander Huth)领导的德克萨斯州奥斯汀大学(University of Austin)的一个团队描述了一种尝试,即使用人工智能解码器来重现被放置在功能磁共振成像扫描仪中的受试者听到的短篇故事。实验并没有完全得出结论,但表明人工智能可以部分检索单词和大意。它还能够根据志愿者想象的故事或他们观看的视频生成文本。部分意思被保留了下来,比纯粹的随机文本更忠实。就好像大脑通过这些不同的方式——通过听、想象或观察叙述——产生了“一种在视觉和口语之间共享的神经密码,”金说。