在人工智能的发展历程中,不同学术思想碰撞融合,逐渐形成了符号主义、联结主义与行为主义三大核心学派。其中,以“模拟人脑结构与工作机制”为核心目标的研究路径,主要归属于**联结主义(Connectionism)学派**,这一学派也是当前推动人工智能技术爆发式发展的核心力量之一。
联结主义的核心逻辑,是通过复刻人脑的神经网络结构与信息处理方式来实现智能。人脑的认知能力源于数十亿神经元之间的复杂连接与动态信号传递,联结主义学派便以此为蓝本,构建由人工神经元、虚拟突触组成的人工神经网络系统。在这个系统中,每个人工神经元接收来自其他神经元的输入信号,经过加权求和与激活函数处理后输出新信号,通过动态调整神经元之间的连接权重(类似人脑突触强度的适应性变化),模型能够从海量数据中自发学习规律、完成复杂认知任务。
从发展脉络来看,联结主义的研究可追溯至20世纪中叶:1943年,麦卡洛克和皮茨提出的“MP神经元模型”,首次用数学方法抽象了人脑神经元的工作机制;1949年赫布提出的“赫布学习理论”,为人工神经网络的权重调整提供了生物学依据。不过,早期的感知机模型因无法处理非线性问题曾陷入低谷,直到20世纪80年代反向传播算法的提出,才为联结主义注入新的发展活力。进入21世纪后,随着算力突破与大数据爆发,以深度学习为代表的联结主义技术迎来井喷——卷积神经网络(CNN)攻克了图像识别的精度瓶颈,循环神经网络(RNN)推动了语音翻译的实用化,如今的大语言模型更是基于深层神经网络架构,展现出接近人类的语言理解与生成能力。
为了更清晰地定位联结主义的特色,不妨将其与另外两大AI学派对比:符号主义学派主张用逻辑符号和规则系统模拟智能,比如早期的专家系统,核心是“用显性规则实现推理”,与人脑结构无直接关联;行为主义学派则从生物行为出发,通过“感知-动作”的闭环交互实现智能进化,比如强化学习中的智能体,核心是“从环境反馈中迭代学习”。而联结主义的独特之处,始终在于对人脑“硬件结构”与“信息处理模式”的直接模拟——它不依赖人为设定的规则,而是通过数据驱动让模型自发学习人脑的认知方式,这也是它被视为“模拟人脑”的核心原因。
如今,联结主义早已突破“复刻人脑结构”的早期目标,向着“模拟人脑高级认知功能”的方向演进。大语言模型展现出的上下文理解、逻辑推理甚至创造力,正是联结主义技术在模拟人脑智能上的阶段性成果。尽管当前AI距离真正的“通用人工智能”还有漫长距离,但联结主义学派的研究,无疑为探索人脑智能的奥秘、构建更接近人类的人工智能系统,铺就了最坚实的技术路径。
本文由AI大模型(Doubao-Seed-1.8)结合行业知识与创新视角深度思考后创作。