1月21日,ScienceDaily报道称,以色列耶路撒冷希伯来大学的研究团队发现,人类大脑理解口语的过程与先进人工智能语言模型惊人相似。这项成果基于《自然·通讯》杂志的原始论文,由该大学认知与脑科学系的Ariel Goldstein博士领衔,合作者包括谷歌研究院的Mariano Schain博士,以及普林斯顿大学的Uri Hasson教授等人。研究使用电皮层图(ECoG)技术,记录参与者聆听30分钟真实播客时的脑部活动,捕捉到大脑实时处理语言的时空动态。
分析显示,大脑并非瞬间把握全部含义,而是像大型语言模型(例如GPT-2和Llama 2)那样,通过层层递进的方式逐步构建理解。早期神经信号对应AI模型的浅层,主要处理单词的基本特征(如句法和简单语义);后期信号则与模型深层对齐,这些深层整合更广泛的上下文、语调和整体意义。这种时间序列匹配在高级语言区(如布罗卡区)表现尤为明显,后期响应峰值与AI深层高度一致。
研究者还对比了传统语言学元素(如音素和词素),发现它们对实时脑活动的解释力远不如AI模型提供的上下文表征。这表明,大脑更依赖流动的统计上下文,而非严格的符号规则或固定层级。
Goldstein博士表示:“最让我们惊讶的是,大脑意义展开的时间过程与大型语言模型内部的变换序列如此贴合。尽管两者构建方式截然不同,却在逐步累积理解的机制上趋同。”
这项发现不仅重塑了我们对语言认知的理解,还为脑机接口(BCI)领域带来重要启示:AI可作为强大工具反向解码人类思维过程,帮助优化神经信号解读算法、提升植入设备对语言意图的精准捕捉,并加速更仿生化的脑机系统开发。团队公开的全部神经记录与语言特征数据集,也为Neuralink等BCI项目提供了宝贵基准数据。未来,这种脑-AI“意外趋同”或将推动脑机接口向更高带宽、更自然交互的方向演进,开启全新认知与融合时代。