人物声音

当前位置: 首页 > 人物声音 > 正文

姜南 李鹏媛:探索治理边界 健全生成式人工智能发展

来源:社会科学报   时间:2024-04-22  浏览:

2024年2月,OpenAI发布的文字转视频模型Sora在智能影像生成领域取得突破,被视为具备“世界模拟”能力,Sora在展示其应用潜力的同时,进一步提升了真实与虚假界限辨别的难度。3月13日,欧盟议会正式通过了《人工智能法案》,标志着全球人工智能领域监管迈入全新时代,也说明欧盟在对这项颠覆性技术的监管方面走在了世界前列。随着生成式人工智能的快速发展,科技伦理风险和知识产权保护问题也日益凸显,涉及的相关伦理挑战以及知识产权的保护成为业界研究和讨论的焦点。生成式人工智能对现有数据、算法、算力分而治之的治理范式提出了严峻挑战,网络安全、数据安全、个人信息保护、数据跨境流动等现有制度还存在不相容之处,治理范式、现有理论均存在缺失,急需制度完善以促进产业发展。

  生成式人工智能引发的风险挑战

信息捏造的风险。生成式人工智能在信息生成方面的强大能力带来了虚假信息的滋生。客观数据的偏差和主观需求的操控使得生成的信息具有极高的迷惑性,对社会公众认知的真实性提出了严峻挑战。如何有效应对信息捏造问题,保障信息的真实性和可信度,成为当务之急。

据隐私的风险。生成式人工智能服务的普及使得用户将个人或企业内部数据不可避免地上传到相关系统中,存在较大的数据及商业机密泄露风险。2023年3月,韩国三星集团发生了三起由ChatGPT误用导致设备信息和会议内容泄露的案例。5月,美国科技巨头脸书母公司Meta被爱尔兰数据保护委员会开出12亿欧元的巨额罚单,创下《通用数据保护条例》生效5年来罚款金额的新纪录,理由是脸书等社交平台违反欧盟《通用数据保护条例》。由此可见,生成式人工智能对数据的敏感性和影响力呼唤着对数据隐私安全性更为严格的管理和监管。

信息垄断的风险。生成式人工智能的算法和数据瑕疵可能导致严重后果,且其在市场上可能形成信息垄断,提高信息甄别成本。算法的共谋和推荐可能导致企业进一步扩大垄断,甚至通过算法预警方式扼杀其他生成式人工智能企业。一旦形成信息垄断,将导致人类无法真正辨别生成式人工智能所产生的结果是否真实,从而产生数字鸿沟。

责任机制的风险。生成式人工智能仍然是数据驱动型产品,OpenAI的相关协议是生成式人工智能治理范式的良好借鉴。基于数据生命周期对相关协议进行责任分析,表现出责任承担机制不明的情况。过度收集、未明确数据挖掘原则以及对数据共享与传输规定的缺失,给生成式人工智能产品方带来数据合规、数据挖掘可责性等方面的挑战。

知识产权的风险。生成式人工智能的高智能化程度对知识产权的归属提出了新的挑战。虽然OpenAI公司在ChatGPT的《共享和发布政策》中提到生成内容的归属属于用户,但仍然存在一系列知识产权争议。如果研发机构在训练人工智能时未能获得训练材料提供者的充分授权,就很可能产生知识产权纠纷。

  强化生成式人工智能治理的政策启示

强化生成式人工智能治理的顶层设计。第一,构建软硬法结合的规范体系。在法律法规后续的配套规定中仍需加强安全平等理念的价值引领,建立灵活和反应迅速的治理框架。在责任承担方面可以由服务提供者承担主体责任,用户承担部分责任。建立符合训练数据性质、结构和特征的新型数据财产权制度,健全各类技术规范和技术标准。第二,依托政府与行业监管。上海市应当制定全面的伦理准则或倡导发起全球领先的伦理框架。相关部门应加强行业监督,督促企业落实伦理审查及信息披露义务,根据使用场景、安全级别、私密程度、敏感程度对数据分类分级、动态更新底层数据。

完善生成式人工智能科技伦理审查体系。第一,强化全生命周期审核管理。搭建涵盖人工智能算法、数据、模型的全生命周期审核管理体系。建立认知风险“识别-监测-研判-预警”机制,在事前治理上,警示潜在风险;在事中、事后治理上,精准评估技术危害,通过采取多样化手段最大程度减轻生成式人工智能技术异化对主体造成的不良影响。第二,构建算法伦理审计机制。制定一套清晰的算法伦理审计标准和指南,设立独立的机构负责算法伦理审计,培养具有伦理素养的技术专业人才。建立定期的审计周期,重点评估算法的决策透明度,加强个人信息保护法律和伦理意识。

推进生成式人工智能健康长远发展。第一,健全科技伦理治理平台。通过多方参与共同讨论和解决伦理问题,定期举行会议,讨论当前热点问题,分享最新研究成果,探讨技术发展趋势。针对特定的伦理问题成立专门的工作组或专项小组,通过在线平台、公共咨询和公众论坛等方式,鼓励公众参与生成式人工智能伦理问题的讨论。第二,积极推动生成式人工智能的应用。引导企业将其应用于实际的业务场景中,充分发挥上海科教资源、人才资源、产业资源丰富的地域优势,吸引和培育更多的人工智能企业和创新团队,全面跟进生成式人工智能发展趋势。

政策的制定应该充分考虑技术创新的推动力,同时确保伦理和法律框架的健全性,通过规范、标准和监管机制,进一步平衡社会公共利益、用户和企业的权益,从而促进生成式人工智能的健康发展。

(作者:同济大学上海国际知识产权学院副院长、教授 姜 南 同济大学上海国际知识产权学院博士研究生 李鹏媛)

链接:http://shekebao.com.cn/detail/4/26499



联系我们

同济大学 版权所有    上海市四平路1239号 021-65982200

同济大学新闻中心主办    E-mail:newscenter@tongji.edu.cn

沪ICP备10014176号    沪公网安备:31009102000038号    沪举报中心

Baidu
map