昨天,网络疯传一条关于杭州市政府3月1号取消限行的“新闻稿”。
据浙江之声,记者调查发现,这是一条不实新闻。据了解,昨天下午杭州某小区业主群里讨论ChatGPT,一位业主就开玩笑说尝试用它写篇杭州不限行的新闻稿看看。随后该业主在群里直播了ChatGPT写作过程,还把文章发群里。其他业主不明所以截图转发了,最后导致错误信息被传播。
据了解,警方已介入调查。涉事业主也在群里公开道歉。截至目前,杭州相关政府部门均没有发布此类政策。
图片来源:杭州网
ChatGPT有何风险?
据中国邮电报报道,ChatGPT的强大功能也隐含不少法律风险。北京盈科(上海)律师事务所互联网法律事务部主任谢连杰接受采访时表示,ChatGPT对信息、数据来源无法进行事实核查,可能存在个人数据与商业秘密泄露和提供虚假信息两大隐患。
ChatGPT依托海量数据(603138)库信息存在,其中包括大量的互联网用户自行输入的信息,因此当用户输入个人数据或商业秘密等信息时,ChatGPT可能将其纳入自身的语料库而产生泄露的风险。虽然ChatGPT承诺删除所有个人身份信息,但未说明删除方式,在其不能对信息与数据来源进行事实核查的情况下,这类信息仍然有泄露风险。他表示,人工智能生成的信息并不总是准确的。“ChatGPT常常出现‘一本正经地胡说八道’的情况,需要一定的专业知识才能辨别真伪;也可能有不法分子恶意‘训练’人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身和财产安全。”
泰和泰(重庆)律师事务所高级合伙人朱杰认为,ChatGPT在建立语料库、生成文本时,如果使用并非公开的开源代码、使用开源代码商用未办理许可证或者未按照许可证的要求实施,可能会导致侵权。朱杰解释说,这类人工智能主要是通过挖掘人类日常交流以及文本来进行统计分析,因此,对于一些受著作权保护的文本、视频、代码等,如果没有经过权利主体的授权,直接复制到自己的数据库中,并在此基础上修改、拼凑,极有可能侵害他人的著作权。
此外,据中青报报道,华中科技大学法学院副教授滕锐在接受中青报·中青网记者采访时表示,ChatGPT是大量不同的数据集群训练出来的语言模型,目前其背后仍是“黑盒”结构,即无法确切对其内在的算法逻辑进行分解,所以不能确保使用ChatGPT过程中,其所输出的内容不会产生攻击伤害用户的表述。
“如果ChatGPT的回复是错误或虚假信息,会具有极大的误导性,有潜在法律风险。”在他看来,ChatGPT难免存在一些侵犯用户隐私的内容。
北京京师(上海)律师事务所高级合伙人李阳律师分析,ChatGPT这类的AI软件没有独立人格,不具备我国著作权法规范中“作者”的主体资格。AI软件有可能使用未经授权的作品作为素材,只要是网络上公开的数据和信息,就有可能成为被AI学习的数据,除了主动询问软件开发者,基本没有其他有效方式可以阻止。
李阳认为,作者很难查清楚自己的作品是否被AI用来“学习”了,“权利人如果要进行维权,在当前法律体系下难度很大”。
“任何一项新数字技术出现时,年轻人的反应最敏锐,对新事物的接受能力也很强。他们不仅仅是消费者,也有可能是未来新技术的创造者。”武汉大学法学院教授孙晋提醒,年轻人也要注意,网络不是法外之地,利用新技术时,不要触碰道德和法律底线。
最新评论