欢迎来到进口食品商务网!

人工智能首席执行官称人工智能有“灭绝的风险”,他们正试图找到罪魁祸首

2024-04-25 18:20 来源:本站编辑

数百名人工智能研究人员、首席执行官和工程师签署了一份声明,警告说,人工智能造成灭绝的可能性与流行病和核战争一样大。

声明称:“减轻人工智能带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起,成为全球的优先事项。”包括OpenAI首席执行官萨姆·奥特曼、OpenAI联合创始人兼首席科学家伊利亚·苏茨克沃、谷歌DeepMind首席执行官德米斯·哈萨比斯和Anthropic首席执行官达里奥·阿莫代伊在内的数百名人工智能高管签署了这份协议。

“人工智能专家、记者、政策制定者和公众越来越多地讨论人工智能带来的一系列重要和紧迫的风险。即便如此,对一些先进的人工智能最严重的风险也很难表达出担忧。”“简明扼要的声明……旨在克服这一障碍并展开讨论。这也是为了让越来越多的专家和公众人物认识到这一点,他们也在认真对待先进人工智能的一些最严重的风险。”

其他著名的签名人包括被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)教授和蒙特利尔大学(University of Montreal)教授约书亚·本吉奥(Yoshua Bengio),他是此前一封呼吁暂停人工智能发展六个月的公开信的主要签署人。

自这份声明被分享以来,许多人工智能研究人员和伦理学家指出,这份声明加深了一种假想的存在主义恐惧,并淡化了人工智能的真正问题,其中许多问题是由签署这份声明的人创造的,至今仍未得到解决。

“将人工智能存在的风险与气候变化和流行病相提并论是一种误导,因为这两者都是非常具体的、当前的风险(数百万人正在受到影响),而人工智能摧毁人类的风险是非常假设的,”拥抱脸公司的研究科学家兼气候主管萨沙·卢奇奥尼告诉Motherboard。Luccinoi在推特上发布了图表,显示谷歌的排放类型在2020年至2021年间是如何上升的,与电力相关的排放量增加了一倍多,他想知道这是否与谷歌大规模部署像Bard这样的大型语言模型(llm)有关。

“我认为这是像开放人工智能这样的公司控制叙事的一种方式,并将公众的注意力从数据同意、系统合法性以及他们产生的虚假和误导性信息(以及所有这些如何影响我们的生计)等事情上转移开。从本质上讲,这是一种误导,将公众的注意力从重要的事情转移到适合他们叙事和商业模式的事情上。”

华盛顿大学语言学系教授艾米丽·m·本德在接受Motherboard采访时表示:“在我看来,整件事就像是媒体的噱头,试图抓住媒体、公众和政策制定者的注意力,让每个人都把注意力集中在科幻情节上。”“这似乎有两个目的:它把他们的技术描绘得比实际更强大、更有效,它把人们的注意力从以这项技术的名义正在造成的实际危害上转移开。”这些问题包括信息生态系统的污染、偏见的大规模强化和复制、剥削劳工的做法和经济的进一步具体化,使‘数字边界墙’等压迫性监视成为可能,窃取数据和创造性工作。”

3月下旬,一群公众人物和领先的人工智能研究人员,包括埃隆·马斯克(Elon Musk)和杨安泽(Andrew Yang)等人,签署了一封公开信,呼吁暂停训练比GPT-4更强大的人工智能系统6个月。那封公开信对人工智能采取了更长远的看法。长期主义是许多硅谷科技精英所信奉的一种观点,正是这种观点驱使他们积累财富,为遥远的未来的人类解决问题,而不是专注于当前的问题。

同样,周二的简短声明是对未来的一种制造恐慌的预测,它偏离了人工智能今天正在制造的非常现实的问题。它也是由同样的人制作的,他们从自己的人工智能开发和投资中获得了经济上的好处;人们想当然地认为,没有任何事情可以减缓或阻止人工智能的发展步伐。

“为什么某些事情需要被定义为‘存在风险’才能发挥作用?”对于重要的事物来说,灭绝状态是必要的吗?”Mozilla的计算机科学家、研究员黛博拉·拉吉(Deborah Raji)发推文说。“比起‘让我们帮助下一个人’的世界观,这种‘拯救世界’的叙事方式真的让我感到困惑。”

上周,奥特曼威胁说,OpenAI可能会在欧盟“停止运营”,原因是他对欧盟人工智能法案(EU AI Act)的担忧,该法案将要求“为培训提供受版权保护的数据摘要”。随着其模型的发布,OpenAI变得越来越封闭源代码和保密。泄露其训练数据和模型背后的其他信息将使公司面临更多的竞争,甚至可能来自那些在训练数据集中可以找到版权作品的人的诉讼。

“在我看来,监管机构并没有被人工智能的炒作所蛊骗,也没有主张民选政府有权保护人民的利益,防止企业越权。在这样的背景下,难怪那些从数据窃取和劳动力剥削的商业模式中获利的公司会试图重新组织讨论,”Bender告诉Motherboard。

中国进口商网声明:未经许可,不得转载。