关注这里:
微信
理论之光 > 思想周刊 > 智库 > 最新推荐 > 正文
人工智能应用软件爆火后的法治“冷思考”
2023-03-21 09:31:00  作者:笪 颖  来源:新华日报

“推出2个月即拥有1亿月活用户”“高等教育界担心ChatGPT会成为学生作弊神器”……随着以ChatGPT、文言一心为代表的AIGC(利用人工智能技术来生成内容)应用软件的“出圈”和爆火,隐藏其后的各种技术风险以及可能导致的社会问题、法律问题等也不断引发新关注。近日,新华传媒智库记者采访了五位来自南京师范大学中国法治现代化研究院的专家学者,从法治的角度,对火爆“出圈”的AIGC进行“冷思考”。

容易引发各种侵权问题

程德文(中国法治现代化研究院副院长)

此类软件有侵犯个人隐私和商业秘密之虞。以ChatGPT为例,当用户输入个人数据、商业秘密等信息时,这些软件就可能将其纳入自身的语料库,从而产生信息泄露风险。与此同时,软件惊人的深度合成能力也给网络空间治理带来了新挑战,如果人工智能应用软件通过信息整合,输出了敏感个人信息,且未得到信息主体明确同意、授权,就有可能侵犯个人隐私。它们还可能在使用和输出信息过程中产生以著作权为代表的知识产权纷争,如若内容库中的文本、图片、声音涉及著作权,那么人工智能应用软件从外部资源抽取内容建立内容库的行为就极容易导致作品“再现”从而侵犯复制权。

或将加剧抄袭和剽窃现象发生

徐歌旋(中国法治现代化研究院研究员)

司法实践中,我国已发生两起因人工智能创作引发的著作权侵权纠纷。可以预见,以ChatGPT等为代表的人工智能应用软件可能面临的知识产权问题将更为突出和严峻。此外,由于这类智能软件使得教育资源的获取更为高效,它们在为学生提供海量、丰富信息的同时,也可能对学术研究的科研诚信与伦理规范带来挑战,加剧抄袭和剽窃现象发生,进而影响教育和学术生态。现实中,如果无法阻止这类智能应用软件进入学术圈,那么当务之急就是加紧研究探讨它们在科研写作中的最大占比以及论文原创性的判断方法。

主观性问题有可能进一步放大

孟星宇(中国法治现代化研究院研究员)

由于数据标注审查人员缺乏法律层面的资格审查限制,在以ChatGPT为代表的人工智能应用软件不断进行信息交互的过程中,基于人工校准所形成内容的主观性问题有可能随之进一步放大,进而对维护社会秩序与社会稳定产生风险隐患。此外,ChatGPT在内容生成方面也容易产生法律风险,如其所传播的内容不符合网络生态要求,或扰乱我国商业领域规则秩序,或与现行知识产权保护规则形成冲突,甚至响应有害指令、带有价值偏见等,无疑将会给现行的科技伦理规制带来新挑战。

加快健全我国算法安全治理机制

杜维超(中国法治现代化研究院研究员)

ChatGPT的出现使得深度合成类算法监管面临新问题,需要进一步健全我国算法安全治理机制以规范其应用。建议:一是进一步构建技术全生命周期监管链条,将监管贯穿深度合成类算法开发、测试和使用的整个技术生命周期。二是坚持分类分级原则,并进一步明确深度合成算法服务的主体身份识别标准,明确区分算法监管和数据监管以及建立重点领域监管长效机制等。三是发挥政府部门在网络综合治理中的主导功能和核心作用,进一步强化构建“合理分工、过程调适、齐抓共管、优势互补”多元共治监管格局。

明确最低限度的信息安全责任机制

尹培培(中国法治现代化研究院研究员)

数据与智能叠加的网络技术、匿名化的网络环境都意味着风险的不可避免性。网络空间的治理既要为技术进步预留充足空间,又要考虑公众的基本信息安全诉求。尽管人工智能技术应用越来越表现出前所未有的,甚至令人惊喜的智能性,但究其本质,它们依然是一个聪明的工具。对这些智能技术应用的法律责任规制应当从源头展开。这就要求软件的使用者应当对自动生成的内容进行把关和筛选,即发布者应当对包含不良信息的传播造成的损害后果承担相应的法律责任。通过明确最低限度的信息安全责任机制避免出现后期无人负责现象。

来源:新华日报   编辑:徐羽蝶