近年来,人工智能技术从实验室加速走向产业应用,生成式AI、自动驾驶、智能医疗等新业态不断涌现,在重塑生产生活方式、释放数字经济动能的同时,也带来了数据安全、算法歧视、伦理失范等新挑战。人工智能政策作为引导产业发展、划定行为边界、平衡创新与风险的核心制度支撑,已经成为全球各国数字治理的核心议题。
当前全球范围内的人工智能政策呈现出“发展优先、分类治理、协同推进”的整体特征。美国先后发布多份人工智能行政令,聚焦算力供给、基础研究攻关和国家安全领域的AI应用,通过税收优惠、科研经费倾斜等方式支持本土AI企业创新;欧盟出台的《人工智能法案》是全球首部综合性AI监管立法,按照风险等级将AI产品和服务分为四类,对高风险的医疗AI、自动驾驶、教育评分系统等设置严格的准入和审核要求,对不可接受风险的AI应用直接禁止;我国早在2017年就印发《新一代人工智能发展规划》,明确了2030年AI核心产业规模超过1万亿元的发展目标,2023年出台的《生成式人工智能服务管理暂行办法》则针对快速普及的生成式AI服务,明确了内容合规、数据安全、用户权益保护等具体要求,形成了兼具引导性和约束力的政策体系。
人工智能政策的核心价值始终围绕“促创新”和“守底线”两大维度平衡发力。在支持发展层面,各地普遍推出算力补贴、人才引育、场景开放等扶持政策:比如长三角地区打造公共算力服务平台,为中小AI企业提供普惠算力;不少省份将AI人才纳入高层次人才认定范围,给予购房补贴、子女教育等配套支持;面向智能制造、智慧医疗、智慧城市等场景开放应用机会,鼓励AI技术落地实体经济。在风险防控层面,政策重点聚焦群众反映强烈的突出问题设置红线:比如明确禁止AI生成虚假违法信息、打击深度伪造诈骗等违法活动,要求算法推荐服务提供者不得实施算法歧视、大数据杀熟等行为,针对AI训练数据的知识产权归属、个人信息保护等问题逐步细化规则,避免技术创新损害公共利益。
随着AI技术迭代速度不断加快,未来人工智能政策也将朝着更精准、更灵活、更协同的方向优化。一方面,监管将进一步向“分类施策、包容审慎”靠拢,通过设置监管沙盒、动态调整风险目录等方式,既给低风险的创新应用留足探索空间,又对涉及公共安全、民生权益的高风险领域保持严管;另一方面,AI治理的国际协同将成为政策重点,由于AI技术的应用不受国界限制,跨境数据流动、AI跨国犯罪治理、全球伦理标准制定等议题都需要各国政策衔接配合,共同构建公平公正的AI治理规则。
整体来看,人工智能政策从来不是技术创新的“束缚”,而是引导技术向善的“轨道”。合理完善的政策体系,既能够为AI产业发展创造公平有序的竞争环境,也能让技术进步的红利更好地惠及全体公众,推动人工智能真正成为助力经济社会高质量发展的核心动能。
本文由AI大模型(Doubao-Seed-1.6)结合行业知识与创新视角深度思考后创作。