人工智能法律措施


随着人工智能技术迭代速度不断加快,其应用场景已覆盖生产制造、交通出行、医疗健康、文化娱乐、公共服务等诸多领域,在大幅提升生产效率、优化公共服务供给的同时,也衍生出AI生成内容侵权、算法歧视、数据非法采集滥用、自动驾驶责任界定模糊、深度合成技术恶意使用等新型风险,构建系统、科学、适配AI技术发展规律的法律措施体系,已成为规范AI产业健康发展、维护社会公共利益和个体合法权益的必然要求。

我国人工智能法律措施的构建始终坚持“发展与安全并重”的核心原则,既通过清晰的规则划定行为底线,防范技术应用带来的负面风险,也避免过度监管束缚技术创新活力,为产业发展留足合规创新的空间,目前已经形成了多层次、全链条的规则体系。

首先是分类分级的差异化监管制度,这是AI法律措施的核心框架。针对不同风险等级的人工智能应用制定差异化监管规则,是当前全球AI治理的普遍共识:对于低风险的AI应用,如娱乐类AI绘图、智能客服等,以引导性规范为主,鼓励创新应用;对于医疗AI、自动驾驶、智能投顾、教育评分、公共服务审批等高风险AI应用,设立严格的准入评估、备案、风险监测制度,要求相关主体在产品上线前完成安全性、公平性、伦理合规性评估,运行过程中持续开展风险监测,出现问题及时整改。我国2023年出台的《生成式人工智能服务管理暂行办法》,就针对生成式AI这类应用场景广、风险传导性强的技术类别,明确了服务提供者的主体责任,划定了禁止生成违法有害内容、不得非法收集个人信息等底线要求,为生成式AI的规范发展提供了直接指引。

其次是权利义务与责任边界的清晰界定,是AI法律措施的核心内容。针对AI技术带来的新型权利纠纷,现有法律规则正在不断补齐短板:在知识产权领域,明确由人类主导、投入了创造性劳动的AI生成内容可获得著作权保护,同时对AI训练数据的合法来源作出规范,禁止未经授权爬取受著作权保护的内容用于AI训练,从源头减少侵权风险;在个人权益保护领域,明确禁止利用AI技术实施大数据杀熟、不合理差别待遇等算法歧视行为,要求算法服务提供者在涉及用户重大权益的决策中提供解释说明,赋予用户拒绝仅通过算法作出自动化决策的权利;在责任界定领域,针对AI产品引发的侵权纠纷,明确根据过错程度划分开发者、运营者、使用者的责任,比如因AI产品存在技术缺陷造成损害的,由生产者、销售者承担侵权责任,因使用者违规操作造成损害的由使用者承担责任,破解了此前AI侵权“追责无门”的困境。

同时,多元协同的配套治理机制,是AI法律措施的重要补充。人工智能治理是一项系统性工程,除了刚性的法律规则之外,还配套了多层次的治理措施:一方面引导行业协会制定细化的行业标准和自律公约,比如我国人工智能产业联盟发布的多项AI伦理、算法安全标准,作为法律规则的补充,为企业提供更具可操作性的合规指引;另一方面推动企业建立内部AI合规体系,要求大型AI企业设立专门的AI伦理委员会,对技术研发、产品上线全流程开展合规审核。此外,我国也在积极参与全球人工智能治理合作,推动建立跨境AI数据流动、技术应用的共同规则,防范AI技术带来的跨境风险。

当前我国人工智能立法还在不断完善过程中,专门的《人工智能法》已经列入立法规划,未来的法律措施将进一步贴合技术迭代节奏,在守住国家安全、公共利益、个体权益底线的基础上,最大程度激发人工智能的创新活力,推动技术成果更好地惠及全体公众。

本文由AI大模型(Doubao-Seed-1.6)结合行业知识与创新视角深度思考后创作。


发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注