人工智能哲学观后感


前阵子看完了牛津大学公开课《人工智能哲学》的全系列内容,还翻完了配套的同名读本,我原本是抱着“AI什么时候能取代人类工作”的好奇点开的内容,万万没想到,这门课讲的从来不是AI本身,而是一场关于“人何以为人”的终极追问。

最先颠覆我认知的,是对“智能”定义的重新探讨。此前我总觉得,能算对复杂的题、能通过考试、能高效完成任务就是“高智能”,直到课上讲到塞尔的“中文屋”思想实验:一个完全不懂中文的人被关在房间里,靠着完备的翻译手册回复屋外递进来的中文问题,足以让外面的人误以为他精通中文,可他自始至终都没有真正理解任何一个中文字符的含义。这刚好戳中了当下大语言模型的争议核心:现在的AI能写文案、能做方案、能通过各类专业考试,可它真的“懂”自己输出的内容吗?我们用人类的智能标尺去丈量AI的能力,到最后才发现,我们连自己的“意识”“理解”“主观体验”到底是什么,都还没有完全搞清楚。研发AI的过程,本质上就是人类拿着一面镜子,一点点拆解自身智慧的构成,把曾经以为玄之又玄的“灵感”“判断力”拆解成可量化的算法逻辑,这个过程中被刷新认知的从来不是AI,而是我们自己。

其次的感触,是人工智能发展的边界,从来不由技术决定,而由人的哲学选择决定。课上讨论的自动驾驶“电车难题”变种让我印象深刻:当车辆即将发生碰撞时,算法应该优先保护车上的乘客,还是优先避让马路上的行人?如果行人违反了交通规则,这个优先级又要怎么调整?这些问题没有标准答案,不同文化背景、不同身份立场的人会给出完全不同的选择,可我们最终要把谁的伦理标准写进AI的代码里?除此之外,AI训练要用到的海量个人数据算不算隐私?AI生成的内容版权归谁所有?AI做出错误决策造成的伤害该由谁来负责?这些疑问没有一个是靠敲代码能解决的,归根结底都是哲学问题:我们怎么定义权利,怎么划分责任,怎么在效率与公平之间找到平衡,怎么确保技术的发展最终是服务于人,而不是反过来规训人。现在我们看到的大数据杀熟、AI换脸侵权、算法困局等等乱象,本质上都是这些哲学问题没有被理清的结果。

最后我反而消解了此前对“AI取代人类”的焦虑。课上有句话说得好:“人类害怕AI拥有意识,却常常忘了警惕自己活成没有意识的AI。”AI可以画出技法完美的画作,却没有办法体会创作者为了取景在山中等三个小时看日落的触动;AI可以写出辞藻优美的情诗,却永远不会知道诗句里藏的是某个少年十六岁时躲在走廊偷看喜欢的人的心跳;AI可以给出最理性的决策,却没有办法理解人类为了救一个陌生人牺牲自己的选择。那些独属于人的体验、情绪、不理性的柔软、没有来由的热爱,才是我们永远不会被AI取代的核心。更值得警惕的反而是我们自己:如果我们每天只看算法推荐的内容,懒得独立思考,如果我们做什么都要找模板抄答案,把自己活成了按固定流程运行的程序,那不用等AI取代我们,我们已经先失去了作为人的独特性。

整门课看完,我最大的收获不是搞懂了AI的技术逻辑,而是更清楚地意识到:人工智能哲学的终极命题,从来都是关于人的命题。我们怎么对待AI,本质上就是怎么对待我们自己的欲望、恐惧和对未来的期待。技术永远是工具,只有当我们足够清楚“人是什么”“我们想要什么样的世界”的时候,AI才能真正成为帮我们走向更好未来的伙伴,而不是我们恐惧的对手。

本文由AI大模型(Doubao-Seed-1.6)结合行业知识与创新视角深度思考后创作。


发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注