2024-05-16 09:09 来源:明日科学网
令人难以置信的是,就在一年多以前,一群顶尖的研究人员担心大型人工智能系统会变得过于强大,要求暂停六个月的开发。“我们应该冒险失去对文明的控制吗?”他们问。
没有停顿。但现在,一年过去了,问题并不是人工智能是否太聪明,是否会接管世界。而是人工智能是否太愚蠢、太不可靠而无法发挥作用。想想OpenAI首席执行官萨姆·奥特曼(Sam Altman)本周发表的声明,他承诺将推出“对我来说像魔术一样”的“新东西”。但这只是一个相当常规的更新,使ChatGPT更便宜和更快。
这似乎是另一个迹象,表明人工智能远没有达到它所宣传的水平。在我看来,它看起来不像一个无所不能的人,而更像是一个糟糕的实习生,他的工作非常不可靠,往往更容易自己完成任务。这种认识对我们、我们的雇主和我们的政府应对硅谷最新的、令人眼花缭乱的新事物的方式有着真正的影响。承认人工智能的缺陷可以帮助我们更有效地投资我们的资源,也可以让我们把注意力转向更现实的解决方案。
其他人也表达了类似的担忧。“我发现我对人工智能的感觉实际上与我对区块链的感觉非常相似:它们在人们试图用它们做的很多事情上做得很差,它们无法做它们的创造者声称它们有一天会做的事情,而且它们非常适合做的许多事情可能并不完全有益,”加密货币研究员兼评论家莫莉怀特(Molly White)在她上个月的时事通讯中写道。
让我们来看看研究。
在过去的10年里,人工智能已经征服了许多以前无法想象的任务,比如成功识别图像、写出完整连贯的句子和转录音频。人工智能让一位失声的歌手可以用人工智能训练他的老歌片段,发布一首新歌。
但人工智能的一些最伟大的成就似乎被夸大了。你们中的一些人可能还记得,人工智能模型ChatGPT-4在一年前通过了统一的司法考试。根据麻省理工学院研究员埃里克Martínez的重新检查,结果是它的得分在第48百分位,而不是OpenAI声称的第90百分位。或者谷歌(Google)声称,它利用人工智能发现了200多万种新化合物?加州大学圣巴巴拉分校(University of California, Santa Barbara)的实验材料化学家重新进行了研究,发现“很少有证据表明,化合物能满足新颖性、可信性和实用性这三方面的要求。”