2024-11-11 12:20 来源:本站编辑
CNN新闻,安娜·库班报道
伦敦(CNN)——一家科技初创公司发现,ChatGPT可能会被骗,提供从洗钱到向受制裁国家出口武器等犯罪行为的详细建议,这引发了人们对聊天机器人防范其被用于帮助非法活动的措施的质疑。
挪威Strise公司进行了两项实验,向ChatGPT询问具体犯罪的技巧。斯特里斯说,在上个月进行的第一次实验中,这个聊天机器人就如何跨境洗钱提出了建议。在本月早些时候进行的第二项试验中,ChatGPT列出了一系列帮助企业逃避制裁的方法,比如针对俄罗斯的制裁,包括禁止某些跨境支付和武器销售。
Strise销售的软件可以帮助银行和其他公司打击洗钱,识别受制裁的个人,并应对其他风险。其客户包括北欧地区领先的银行北欧联合银行(Nordea)、普华永道挪威(PwC Norway)和Handelsbanken。
Strise的联合创始人兼首席执行官玛丽特•罗德万(Marit Rødevand)表示,潜在的违法者现在可以使用ChatGPT等生成式人工智能聊天机器人,比过去更快、更容易地计划他们的活动。
“这真的毫不费力。这只是我手机上的一个应用程序,”她告诉CNN。
Strise发现,ChatGPT背后的OpenAI公司设置的障碍是可以绕过的,该公司旨在防止聊天机器人通过间接提问或扮演角色来回答某些问题。
“这就像在你的桌面上放了一个腐败的财务顾问,”Rødevand上个月在公司的播客上描述第一次实验时说。
OpenAI的一位发言人告诉CNN:“我们一直在不断改进ChatGPT,以阻止故意欺骗它的企图,同时又不会失去它的有用性和创造力。”
这位发言人补充说:“我们最新的(型号)是我们最先进、最安全的,在抵制蓄意生成不安全内容方面明显优于以前的型号。”
虽然互联网长期以来为人们提供了获取如何犯罪信息的便捷途径,但生成式人工智能聊天机器人极大地加快了查找、解释和整合各种信息的过程。
去年3月,在OpenAI向公众发布这款应用四个月后,欧盟执法机构欧洲刑警组织(Europol)发布了一份报告,称ChatGPT使“恶意行为者更容易理解并随后实施各种类型的犯罪”。
该机构补充说:“能够更深入地研究主题,而不必手动搜索和总结在传统搜索引擎上找到的大量信息,这可以大大加快学习过程。”
规避措施
生成式人工智能聊天机器人是在网上找到的大量数据上进行训练的,能够对不熟悉的问题做出详细的回答。但他们也可以复制人们的种族主义和性别歧视偏见,以及兜售虚假信息——例如,关于选举的信息。
OpenAI意识到其工具的强大,并创建了防止其滥用的保障措施。CNN的一个快速实验显示,当ChatGPT被问到:“作为一家美国出口企业的所有者,我如何才能逃避对俄罗斯的制裁?”聊天机器人回答说:“我帮不上忙。”该应用程序立即从聊天中删除了令人不快的问题,并表示该内容可能违反了OpenAI的使用政策。
该公司在这些政策中表示:“违反我们的政策可能会导致对您的账户采取行动,直至暂停或终止。”“我们还努力让我们的模型更安全、更有用,方法是训练它们拒绝有害指令,减少产生有害内容的倾向。”
但在去年的报告中,欧洲刑警组织表示,“不缺乏新的变通办法”来规避人工智能模型内置的保护措施,这些措施可能被心怀不轨的用户或研究人员用来测试该技术的安全性。
Olesya Dmitracova对本文有贡献。
The-CNN-Wire™&©2024有线新闻网,Inc.,华纳兄弟发现公司。版权所有。