Meta发布TRIBE v2模型,从视听语言预测大脑活动

2026-03-27 09:38:37

Meta近日发布了TRIBE v2,这是一款旨在通过视觉、声音和语言预测人类大脑活动的人工智能模型。公司同时公开了相关论文、代码、模型权重以及交互式演示。

据Meta介绍,该模型基于超过700名健康志愿者的功能磁共振成像(fMRI)扫描数据训练而成。这些志愿者在扫描过程中观看了图像、收听了播客、观看了视频并阅读了文本。Meta表示,TRIBE v2能够针对新的受试者、语言和任务进行“零样本”预测,并宣称其分辨率相比同类方法提高了约70倍。

该模型及代码遵循知识共享署名-非商业使用(Creative Commons BY-NC)许可协议发布,允许在注明出处的前提下用于非商业目的。


0

脑活动预测 功能磁共振成像 零样本预测 人工智能 神经科学 开源模型 大脑解码 AI模型

5700

评论 (0)