我国人工智能产业首个监管办法印发 专家:如何准确执行是关键
西南政法大学网络空间治理研究院副院长、数字法治政府研究院研究员郑志峰在接受封面新闻采访时表示,“《办法》为生成式人工智能治理提供了监管框架,但如何准确、适当执行是关键。”
西南政法大学网络空间治理研究院副院长、数字法治政府研究院研究员郑志峰。受访者供图。
目标和适用范围更明确
义务更合理监管更科学
今年4月,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能相关产业监管给出了回应。
在郑志峰看来,《办法》相对征求意见稿,目标更明确,更强调鼓励发展与风险治理的平衡。
第二,适用范围更明确。征求意见稿适用范围涵盖研发、利用生成式人工智能产品,面向境内公众提供服务,而《办法》聚焦利用生成式人工智能向公众提供服务,将生成式人工智能产品研发等情形排除在外,为行业发展留出空间。
第三,义务更合理。相较征求意见稿,《办法》不再强调利用生成式人工智能生成的内容应真实准确,而要求提升生成式人工智能生成内容的准确性和可靠性,契合生成式人工智能技术特点。此外,在用户画像、不合法生成内容等问题上,《办法》为提供者配置的义务都更加合理。
第四,监管更科学。《办法》第十六条增加了网信、教育、科技、工信、公安、广播电视、新闻出版等部门的监管职责,第十七条仅要求“提供具有舆论属性或社会动员能力的生成式人工智能服务的”履行特别备案评估程序,让监管更加系统科学。
体现过往监管思路
对未来立法产生影响
郑志峰认为,生成式人工智能是人工智能技术发展新阶段,《办法》对生成式人工智能的规制一定程度上体现了我国过往对人工智能监管的思路,同时也会对未来人工智能立法产生影响。
宏观层面,无论生成式人工智能,还是未来的人工智能立法,都需要以《网络安全法》《数据安全法》《个人信息保护法》《科学技术进步法》为基础。
微观层面,《办法》提出了训练数据处理、分级分类监管等具体措施,未来都可能出现在人工智能立法中。
在对未成年人使用生成式人工智能服务监管方面,他表示,《办法》积极落实《民法典》《个人信息保护法》《未成年人保护法》及新闻出版总署《关于进一步严格管理切实防止未成年人沉迷网络游戏的通知》等法律法规对未成年人权益特别保护的具体规定,明确未成年人使用生成式人工智能的生活场景,采取有效措施防范用户存在过度依赖或沉迷的风险。
郑志峰指出,一方面,第四条要求生成式人工智能服务不得生成暴力、淫秽色情等法律法规禁止的内容;另一方面,第十条要求提供者采取有效措施防范未成年人用户过度依赖或沉迷生成式人工智能服务。此外,提供者还需履行未成年人个人信息保护等各种义务。
机遇与风险并存
向世界提供人工智能治理的中国方案
郑志峰表示,生成式人工智能让人们看到了通用人工智能的可能性,可广泛赋能各个行业、各个领域,助力数字经济、数字社会、数字政府建设,但在此过程中,相关风险也将陆续暴露。
一是生成式人工智能本身固有的一些风险,如生成内容虚假或侵害他人知识产权、数据泄露等;另一方面则需要结合具体场景,如“生成式人工智能+教育”可能会引发作弊、抄袭等风险,“生成式人工智能+聊天”可能会存在歧视、诈骗等问题,“生成式人工智能+政务”可能会存在泄密、国家安全等问题。
面对这些问题,国际社会同样讨论热烈。当前,欧盟、美国等在人工智能监管方面提出了一系列有关的法律政策,形成了有代表性的监管经验和模式。
郑志峰认为,我国高度重视参与人工智能的国际治理,在《新一代人工智能发展规划》中提出“积极参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作。”面对生成式人工智能掀起的全球热潮,《办法》的出台向世界提供了人工智能治理的中国方案。
“《办法》为生成式人工智能的治理提供了监管框架,但后续如何准确、适当的执行是关键。例如,第七条要求‘使用具有合法来源的数据和基础模型’,但什么是‘具有合法来源’需明确;第八条要求“提供者应制定符合本办法要求的清晰、具体、可操作的标注规则”,后续宜出台数据标注指南;第十条要求“采取有效措施防范未成年人用户过度依赖或沉迷生成式人工智能服务”,何为有效措施也需进一步探索。”郑志峰同时表示,提供者究竟对生成内容承担何种赔偿责任等问题,存在“留白”,需持续观察。
版权声明:本文为三牛号作者或机构在本站上传并发布,仅代表该作者或机构观点,不代表本站的观点或立场,三牛网仅提供信息发布平台。