2024-04-10 14:50 来源:得道网
风险与环境有关。事实上,最大的风险之一是没有认识到或理解你的背景:这就是为什么你需要在评估风险时从那里开始。
这在声誉方面尤为重要。例如,考虑一下你的客户和他们的期望。他们对与人工智能聊天机器人互动会有什么感觉?向他们提供虚假或误导性的信息会造成多大的损害?也许客户的小不便是你可以处理的,但如果它对健康或财务有重大影响呢?
即使实施人工智能似乎有意义,也显然需要考虑一些下游声誉风险。多年来,我们一直在谈论用户体验和以客户为中心的重要性:虽然人工智能可能在这方面帮助我们,但它也可能破坏这些东西。
关于你的团队也有类似的问题。人工智能可能有能力提高效率,使人们的工作更容易,但如果使用不当,它可能会严重破坏现有的工作方式。最近业界谈论了很多关于开发者体验的话题——这也是我为本出版物所写的内容——并且组织所做的关于AI的决策需要改善团队的体验,而不是破坏他们。
在Thoughtworks技术雷达的最新版本中——基于我们与世界各地客户合作的经验,一年两次的软件行业快照——我们精确地讨论了这一点。我们认为人工智能团队助理是软件工程中最令人兴奋的新兴领域之一,但我们也注意到,重点必须放在团队上,而不是个人上。我们在最新的报告中说:“你应该寻找方法来创建人工智能团队助理,以帮助创建‘10倍团队’,而不是一群孤立的人工智能辅助10倍工程师。”
不注意团队的工作环境可能会对你的声誉造成重大损害。一些乐观的组织可能认为这是创新的一部分,但事实并非如此。这会让潜在的员工——尤其是那些技术含量高的员工——觉得你并不真正理解或关心他们的工作。
有很多工具可以用来帮助管理风险。Thoughtworks帮助整理了《负责任的技术手册》,这是一个工具和技术的集合,组织可以使用它来做出更负责任的技术决策(不仅仅是人工智能)。
然而,需要注意的是,管理风险——尤其是那些与声誉有关的风险——需要真正关注技术实现的细节。这一点在我们与印度民间社会组织的合作中表现得尤为明显,我们开发了一个社会福利聊天机器人,公民可以用他们的母语与之互动。这里的风险与前面讨论的没有什么不同:使用聊天机器人的环境(作为获取重要服务的支持)意味着不准确或“幻觉”的信息可能会阻止人们获得他们所依赖的资源。