随着人工智能技术的飞速发展,大语言模型(LLMs)在处理海量数据时展现出了惊人的模式识别能力。然而,这些模型在面对需要认知泛化(Cognitive Generalization)的复杂任务时,往往表现出明显的局限性。与人类能够通过抽象思维将经验迁移至全新情境不同,大模型通常依赖于对训练数据的统计拟合。为了弥补这一鸿沟,研究人员提出了一种创新的训练框架——心理表征引导监督(Mental Representation-Guided Supervision, MRGS)。
该研究的核心逻辑在于模拟人类的认知过程。人类在处理问题时,并非仅仅依赖感官输入,而是构建内部的心理表征(Mental Representation),即对外部世界规律的抽象模型。MRGS范式通过在训练过程中引入这种表征机制,强制模型学习概念间的逻辑关系,而非仅仅记忆输入与输出的映射。
在实验验证阶段,研究团队通过对比实验发现,采用MRGS训练的模型在面对分布外(Out-of-distribution)任务时,表现出了显著的鲁棒性。具体而言,模型在逻辑推理、因果推断以及跨领域知识迁移任务中的准确率提升了约15%-25%。这种提升证明了通过显式地引导模型构建心理表征,可以有效激活其潜在的逻辑推理能力,使其从“概率预测者”向“认知主体”演进。
此外,研究还深入探讨了心理表征的结构化特征。通过对模型隐层空间的分析,研究人员观察到,经过MRGS训练的模型能够形成更具层次感和语义连贯性的特征映射,这与认知心理学中关于人类大脑处理复杂信息的神经机制高度吻合。这一发现不仅为提升模型性能提供了工程学方案,也为探索人工智能与人类智能的同质性提供了重要的理论支撑。
Journal Reference: Human-like cognitive generalization for large models via mental representation-guided supervision, Nature Communications.