在人工智能的多元发展脉络中,联结主义学派是最核心的“以人脑为蓝本”的智能探索分支。它跳出了符号主义“用逻辑规则定义智能”的框架,坚信智能源于人脑神经元之间的连接模式与信息传递机制,通过复刻生物脑的神经结构与学习规律,让机器从数据中自主涌现出感知、学习、决策等智能能力。
联结主义的源头可以追溯到20世纪中叶的跨学科融合。1943年,神经科学家麦卡洛克与数学家皮茨提出了首个人工神经元模型(M-P模型),将人脑神经元的“兴奋-抑制”机制抽象为数学表达式,首次用工程语言翻译了生物脑的基本单元。1949年,心理学家赫布提出“赫布学习规则”——“同时激活的神经元会强化彼此的连接”,这一发现揭示了生物脑的学习本质,成为联结主义智能训练的核心准则。1957年,计算机科学家罗森布拉特发明“感知机”,这是首个可训练的人工神经网络原型,能通过调整神经元连接的“权重”识别简单图形,让人们第一次看到了模拟人脑智能的可能性。
然而,联结主义的早期探索很快陷入低谷。1969年,人工智能先驱明斯基和佩珀特在《感知机》一书中指出,单层感知机无法解决“异或”这样的非线性问题,而当时的技术难以实现多层神经网络的有效训练。这一批评几乎中断了联结主义的研究进程,相关经费与关注骤减,学派进入长达20年的“寒冬期”。
20世纪80年代,联结主义迎来复兴的关键转折点。1986年,鲁梅尔哈特等学者完善并推广了“反向传播算法”,解决了多层神经网络的权重优化难题——通过计算输出结果与预期目标的误差,反向逐层调整神经元连接的权重,让多层感知机能够处理复杂的非线性任务。同期,“玻尔兹曼机”“受限玻尔兹曼机”等概率型神经网络的提出,进一步拓展了联结主义的应用边界,使得人工神经网络在语音识别、手写体识别等任务中开始超越传统算法。
2012年是联结主义学派的爆发节点。深度学习模型AlexNet在ImageNet图像识别竞赛中以碾压性优势夺冠,证明了深度神经网络(拥有多层隐藏层的人工神经网络)的强大能力。此后,卷积神经网络(CNN)模拟人脑视觉皮层的层级化信息处理机制,让机器实现了高精度的图像分割、目标检测;循环神经网络(RNN)、长短时记忆网络(LSTM)复刻人脑的序列记忆特性,推动自然语言处理从“规则匹配”迈向“语义理解”。如今,以GPT、Gemini为代表的大语言模型,本质上仍是联结主义的延伸——通过万亿级参数模拟人脑神经元的海量连接,在大规模数据中学习知识与逻辑,涌现出接近人类的语言生成与推理能力。
进入新阶段,联结主义的探索开始向“类脑计算”纵深推进。研究者不再满足于抽象模拟神经元的数学模型,而是试图复刻人脑的精细结构与动态特性:脉冲神经网络(SNN)模拟人脑神经元的脉冲信号传递,实现了更低能耗的高效计算;基于“神经可塑性”的类脑芯片,尝试让机器像人脑一样持续学习、自适应环境;稀疏编码机制则模仿人脑的信息压缩方式,让智能系统更高效地处理复杂数据。
从早期的感知机到如今的类脑AI,联结主义学派始终以人脑为“智能教科书”,在模仿、抽象与创新的循环中推动人工智能演进。它不仅让机器拥有了视觉、听觉等感知智能,更在探索如何让机器具备人类般的学习、记忆与泛化能力,为人工智能从“专用智能”迈向“通用智能”勾勒了最贴近生命本质的路径。
本文由AI大模型(Doubao-Seed-1.8)结合行业知识与创新视角深度思考后创作。