科技治理的例子


随着数字技术、人工智能等前沿领域的快速迭代,科技发展带来的公共利益风险、权益侵害问题逐渐凸显,科技治理已经成为全球各国规范技术应用、引导科技向善的核心举措。近年来,国内外已经出现了诸多兼具实操性和示范意义的科技治理实践,覆盖算法应用、内容生成、数据安全、低碳发展等多个维度:

第一个典型案例是算法推荐治理,破解“技术剥削”与“大数据杀熟”痛点。很长一段时间里,外卖平台用“最短配送时间阈值”考核骑手,迫使骑手闯红灯、逆行抢时间,电商、出行平台利用用户画像“千人千价”,同样的商品老用户反而支付更高价格,算法从效率工具变成了侵害个体权益的“黑箱”。2022年我国正式施行《互联网信息服务算法推荐管理规定》,明确要求算法推荐服务者不得将“最严算法”作为考核要求,要给骑手设置合理的订单派发、超时宽限机制,同时禁止利用算法对用户实施价格歧视。政策落地后,美团、饿了么等平台先后调整骑手考核规则,增设异常订单申诉通道,超时扣款比例下降超过30%;多家电商平台取消了基于用户标签的差异化定价,算法的隐蔽性被逐步打破,技术应用重新回归服务人的本质。

第二个典型案例是生成式人工智能(AIGC)治理,平衡创新活力与权益保障。2022年以来ChatGPT、AI绘图、AI换脸等应用快速普及,随之而来的是训练数据侵权、AI诈骗、虚假信息传播等问题:有画师的原创作品被未经授权纳入AI训练库,有不法分子利用AI换脸伪造亲属视频实施诈骗,还有AI生成的虚假新闻在网络上快速传播造成公共秩序混乱。对此我国2023年出台《生成式人工智能服务管理暂行办法》,明确要求生成式AI服务提供者要保障训练数据来源合法,不得侵犯知识产权、个人隐私等权益,生成的音视频、文本内容要添加显著标识,避免公众混淆。目前抖音、小红书等内容平台已经上线AI内容标注功能,用户发布AI生成内容必须主动标识,否则会被限制流量甚至下架;多家AI绘图平台也推出了原创作者“作品禁训”通道,创作者可以申请自己的作品不被纳入AI训练数据集,既给AIGC产业留足了创新空间,也守住了公共利益的底线。

第三个典型案例是数据安全治理,筑牢个人信息与国家数据安全防线。数据是数字时代的核心生产要素,但数据违规收集、无序出境的风险也日益突出。2021年滴滴出行赴美上市期间,存在违法收集用户行程信息、人脸识别数据等问题,甚至存在重要数据出境的安全风险,相关部门依法对滴滴启动网络安全审查,最终在2022年对滴滴处以80.26亿元罚款,同时要求其全面整改数据安全漏洞。这一案例成为我国数据治理的标志性事件,后续《数据安全法》《个人信息保护法》配套的执行规则逐步完善,明确要求处理100万人以上个人信息的企业赴境外上市必须申报网络安全审查,重要数据出境必须经过安全评估,从制度层面堵住了数据无序流动的漏洞。

第四个典型案例是高耗能科技应用治理,匹配绿色低碳发展目标。前些年虚拟货币挖矿在国内多地泛滥,“矿场”消耗大量电力,甚至部分地区挤占民生用电、拉高碳排放,而虚拟货币交易还存在诈骗、洗钱等金融风险。2021年我国明确将虚拟货币“挖矿”活动列入淘汰类产业,全面清退国内的虚拟货币挖矿项目,同时禁止虚拟货币相关交易活动。治理落地后,国内虚拟货币挖矿算力占全球的比例从最高峰的75%降到不足1%,每年可减少碳排放超过4000万吨,有效匹配了我国“双碳”目标的发展要求,也防范了相关金融风险。

这些科技治理的案例都证明,好的科技治理从来不是对技术创新的限制,而是通过划定边界、明确规则,让技术发展真正服务于公共利益,实现创新活力与社会公平的平衡。未来随着更多前沿技术的落地,科技治理的实践也会不断更新,为技术的健康发展保驾护航。

本文由AI大模型(Doubao-Seed-1.6)结合行业知识与创新视角深度思考后创作。


发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注