ChatGPT的六大合规风险


like
like 2023-06-08 13:11:58 50403
分类专栏: 资讯

ChatGPT在全球科技行业掀起了生成式人工智能的“军备竞赛”,但是人们对生成式人工智能(AIGC)的合规风险普遍认识不足。

Gartner最近撰文指出,企业法务和合规负责人应该认知并解决企业面临的六种ChatGPT(包括其他基于大语言模型的生成式人工智能工具)合规风险,并开始建立护栏确保企业能安全且负责任地使用生成式人工智能工具。

“ChatGPT和其他大型语言模型工具容易产生多种风险,”Gartner法律与合规实践高级总监分析师冉弗里德曼(Ron Friedmann)指出:“法律和合规领导者应评估这些问题是否对其企业构成重大风险,以及在企业内部及其第三方/多方推广AI应用时企业内部需要采取哪些控制措施。否则,企业可能会面临法律、声誉和财务方面的严重后果。

图片

法务和合规负责人应评估的六大ChatGPT风险包括(同样适用于其他大语言模型工具):

01、捏造的或失实信息

ChatGPT和其他大语言模型工具最常见的问题是倾向于提供不正确的(尽管表面上合理的)信息。

ChatGPT也容易产生‘幻觉’,包括捏造答案,以及不存在的法律或科学引用。弗里德曼说:”法律和合规领导者应该发布指导意见,要求员工在采信答案之前审查大语言模型工具生成内容是否准确、恰当和实用。“

02、数据隐私和机密性

法律和合规领导者应该意识到,输入到ChatGPT中的任何信息,如果未关闭聊天记录功能,都可能成为其训练数据集的一部分。

提示词中使用的敏感、专有或机密信息可能会被用于回复企业外部用户的提问。弗里德曼说:”法律和合规部门需要为ChatGPT的使用建立一个合规框架,并明确禁止将敏感的组织或个人数据输入公共大语言模型工具。“

03、模型和输出偏差

尽管OpenAI努力减少ChatGPT中的偏见和歧视,但这些问题的案例已经频频发生,尽管OpenAI和其他公司正在积极努力将这些风险降至最低,但这个问题可能会永远存在。

大语言模型不太可能完全消除偏见,因此法务和合规人员需要掌握管理人工智能偏见的法律,并确保合规性。弗里德曼说:”这可能需要与专家合作,以确保人工智能生成可靠内容,并通过审计和技术功能进行数据质量控制。“

04、知识产权(IP)和版权风险

大语言模型工具,尤其是ChatGPT,训练时使用了大量互联网数据,其中可能包括受版权保护的材料。因此,ChatGPT之类的大语言模型输出的内容也有可能侵犯版权或知识产权保护。

ChatGPT没有提供其内容生成的具体原理和机制。弗里德曼说:”法律和合规领导者应该密切关注适用于ChatGPT(以及其他生成式人工智能工具)输出内容相关版权法规的任何变化,并要求用户仔细审查他们生成的内容,以确保不侵犯版权或知识产权。“

05、网络欺诈风险

不法分子已经在滥用ChatGPT来大规模生成虚假信息(例如,虚假评论)。

此外,集成或接入大语言模型模型(包括ChatGPT)的应用程序也容易受到提示注入攻击的影响。所谓提示注入攻击是一种黑客技术,攻击者使用恶意对抗性提示诱骗人工智能模型执行违反其内容审核规则的任务,例如编写恶意软件代码或开发网络钓鱼站点。

法务和合规领导者应与网络安全风险负责人协调,探讨是否或何时就此问题向公司网络安全人员发布备忘录。弗里德曼补充道:”他们还应该对信息来源进行尽职调查和审计,以验证信息的质量。“

06、消费者保护风险

如果企业的应用(例如客服聊天机器人)未能向消费者披露是否使用了生成式人工智能技术(例如ChatGPT),企业将面临失去客户信任的风险,甚至可能遭到起诉。

例如,美国加利福尼亚州的聊天机器人法律要求,在某些消费者互动中,企业必须清晰、明确地告知消费者正在与机器人进行交流。

法务和合规负责人需要确保企业的大语言模型应用(例如ChatGPT)符合所在司法辖区内的所有相关法规和法律,并已向客户进行了适当的披露。

在当下网络安全盛行的时代,良好的网络安全意识宣导至关重要,人员安全意识是企事业单位网络安全保护的第一道防线。安全意识培训是网络安全策略和企业运营不可或缺的部分。为提升全民网络安全防范意识,天融信教育推出网络安全意识系列产品和服务。学习网络安全基础知识和必要技能,共筑网络安全屏障,共担网络安全责任。

网站声明:如果转载,请联系本站管理员。否则一切后果自行承担。

本文链接:https://www.xckfsq.com/news/show.html?id=21826
赞同 1
评论 0 条

加入交流群

请使用微信扫一扫!