欢迎来到进口食品商务网!

艾德里安·韦克勒:人工智能助手的时代给爱尔兰的工作场所和披萨食客带来了麻烦

2024-06-10 05:57 来源:明日科学网

他们已经来了。人工智能工作助手来了。

还会有人看你的邮件吗?

还会有人看你的邮件吗?

我不确定他们会。

微软的Copilot可能是我们这些大公司里的人首先使用的人工智能助手,它可以让你把所有的任务都分解成短小的小块。它会对邮件进行总结,并给出回复建议:你所要做的就是点击发送。

然后,收到你回复的人可以使用他们的Copilot来总结和回复你的回复,甚至可以在你的日记中添加一个新的会议或设置一个团队呼叫。

{"quote":{"text":"我们可以很快分辨出某物是合成的还是假的"}},

但你不需要真的参加团队的电话会议,因为Copilot只是记录和分析其中的音频(假设有其他人出现),给你一些要点和“行动项目”。

任何文档、pdf文件或公司报告都可以通过Copilot快速转换为摘要。

然后就可以写一份备忘录,描述当天(或一周,或一个月)的“工作”。

也许,这就是人工智能乌托邦主义者在谈论一个充满休闲和更少办公室苦差事的未来时所想到的——像副驾驶这样的助手为你制作季度报告,让你把精力解放出来,专注于更有创意、不那么单调的任务。

但对于我们中的相当一部分人来说,它带来了一些真正的障碍。

我们人类是有直觉的。我们可以很快分辨出某样东西是合成的还是假的——从可疑的拼写和标点符号,到以“订婚”为由提出的乏味、模糊的问题。

对于Copilot、ChatGPT、Google Gemini(上周在爱尔兰推出)等人工智能助手来说,这是一个巨大的问题。

我们知道什么时候一封电子邮件或短信不是真的来自某人,或者它是用简短的人类签名合成的。

我们到底给了聊天机器人多少信任?或电话留言吗?或者把群发邮件设计得像直接邮件一样?

当然,如果我们遇到了IT问题,或者它们包含了一些真正有价值的信息,我们会忍受它们。

但这种情况多久发生一次呢?

一般来说,我们会立即认为它们不是真的。我们并不觉得有必要承认他们,更不用说回应他们了。它们并不代表任何实际的人力投入。它们是自动生成的快捷方式,与任何实际的工作关系都没有什么联系。

在最坏的情况下,他们也会给你带来麻烦。养成跳过文档或报告的习惯,并依赖Copilot或ChatGPT来提供可用版本,这真的非常非常危险。

去年,美国律师斯蒂芬斯·施瓦茨(stephens Schwartz)凭借ChatGPT为客户的人身伤害案件进行研究,登上了世界各地的头条。他让这位人工智能助手总结一下他可以使用的先例——ChatGPT编了一些。

2024年的情况并没有太大不同。我们离消除人工智能助手的幻觉还很遥远。

而且,你认为自己从人工智能助手那里聪明地获得的总结不仅可能是编造的——它也可能在其他任何方面产生误导。

即使你的提示非常具体,人工智能助手在突出和总结事情时所做的选择也可能与你和你的公司真正想要的不同。

{"quote":{"text":"读读这该死的报告。写那该死的邮件"}},

这在一定程度上是因为ChatGPT和Copilot这样的助手依赖于大型语言模型,而这些模型的获取和训练都是以保密和不透明的方式进行的。

目前在这个特定的问题上,《纽约时报》(声称ChatGPT复制并粘贴了其新闻报道的整个版面)等机构提起了多起诉讼。

但它会潜移默化地把你引向你可能不想要的方向,并决定你对同事说些什么。

我的意思是:Copilot的功能之一是将文件制作成ppt。

除了那些无聊透顶的幻灯片,它们还列出了你的谈话要点。

这就是总结的结尾。

人工智能助手的创造性一面可能是疯狂的。

例如,谷歌双子座(Google Gemini)最近几周的情况就很棘手,它告诉人们吃石头来补充营养,把奶酪粘在披萨上,以防止披萨变湿,在美国的一个黑暗而严重的案例中,它还建议治疗抑郁症的一种方法是跳桥。

这些都是极端的少数派。你会期望任何一个理性的成年人在以自己的名义发送东西之前都进行过滤。

人工智能助手可能会找到一种方法来帮助你管理日常工作。这对于那些深嵌在微软系统中的人来说尤其如此,从Excel和Outlook到Teams。

但是你有多想养成在重要的事情上依赖他们的习惯呢?

看看那该死的报告。写那该死的邮件。对自己的工作负责。

如果你不这样做,你就不能指望别人把你当回事。

海招网声明:未经许可,不得转载。