2024-05-23 09:58 来源:本站编辑
科技巨头Adobe的一项研究调查了人们对虚假信息和深度造假的担忧。
一份新报告显示,超过四分之三的人担心虚假信息和深度造假会影响即将到来的选举,干扰民主进程。
科技公司Adobe开展的这项名为“信任的未来”的研究发现,由于担心错误信息,94%的英国受访者希望政府与科技公司合作,对人工智能(AI)进行监管。
这项针对2000名英国成年人的调查发现,81%的人认为错误信息是社会面临的最大威胁之一,76%的人表示他们目前很难核实他们看到的在线内容是否可信。
包括英国首相苏纳克、工党领袖凯尔·斯塔默爵士和伦敦市长萨迪克·汗在内的许多知名政界人士都成为了深度造假的对象,这些人试图在网上传播有关他们的错误信息。
流行的照片编辑软件Photoshop和人工智能图像生成器Firefly的制造商Adobe表示,科技公司对公众进行深度伪造和错误信息的教育,并使用工具清楚地标记人工智能生成的内容,以便人们知道他们看到的内容何时是计算机生成的,这一点至关重要。
该公司使用一个名为Content Credentials的第三方系统,该系统由跨行业标准公司C2PA运营,并将信息缓存附加到人工智能生成的内容上,使人们能够清楚地看到是谁制作的,如何制作的,以及何时制作的。
在信任研究中,Adobe发现83%的人认为,如果没有广泛的工具来帮助他们澄清他们看到的内容是否真实,选举中的政治候选人应该被禁止在他们的竞选材料中使用生成式人工智能。
Adobe执行副总裁、总法律顾问兼首席信托官达纳•拉奥(Dana Rao)表示:“我们都对生成式人工智能改变创造力和生产力的力量感到兴奋。
“作为商业应用人工智能技术的领导者,我们长期以来一直在考虑其对社会的影响。正如这项研究的结果清楚表明的那样,我们必须让消费者了解深度造假的危险,并为他们提供了解真相的工具。
“随着选举的到来,现在是时候采用内容认证(Content Credentials)等保护性技术,帮助恢复人们对我们正在消费的数字内容的信任。”
去年12月,科技大臣米歇尔·多尼兰告诉国会议员,政府正在与社交媒体公司合作,制定计划,打击选举前后的错误信息和深度造假,并将在英国大选之前建立“健全的机制”,大选将于2025年1月之前举行。
Adobe的研究还发现,29%的人表示,他们已经减少了社交媒体的活动,因为他们看到平台上传播了大量的错误信息。
虚假信息专家、内容真实性倡议组织(Content Authenticity Initiative)的顾问亨利•艾德尔(Henry Ajder)表示,这份报告的发现是一个“真正的警钟”。该组织由科技公司、学者和其他倡导行业标准内容认证工具的人士组成。
他补充说:“无论我们是否意识到,深度造假和人工智能生成的内容继续以惊人的速度发展,在我们的数字生活中越来越普遍。
“在这个世界各地选举的大年,问题不再是人工智能深度造假是否会被恶意使用,而是它们在破坏民主进程方面会有多有效。”