2024-04-15 07:40 来源:本站编辑
在一个人工智能(AI)和分析正在迅速重塑从医疗保健到治理等各个领域的时代,了解它们潜在的社会影响非常重要。
在2023年国家分析与人工智能峰会上,菲律宾数据伦理创始人多米尼克·利戈特(Dominic Ligot)发表了引人注目的开幕主题演讲,阐述了这些复杂的问题。
Ligot还担任菲律宾前沿人工智能初创公司CirroLytix的首席执行官兼首席技术官,他断言,我们与ChatGPT和Midjourney等人工智能技术的“蜜月”阶段已经结束。ChatGPT是OpenAI开发的高级聊天机器人,能够进行广泛的开放式对话,而Midjourney是基于自然语言描述生成图像的生成AI。现在,我们面临着一个十字路口,它可能把我们引向乌托邦的可能性,也可能把我们引向反乌托邦的现实。他的全面演讲揭示了九个关键问题,每个问题都有乌托邦和反乌托邦的潜力。其中两个问题具有反乌托邦的含义,七个问题同时具有乌托邦和反乌托邦的可能性。
首先,他讨论了人工智能创造和消除工作的潜力。虽然技术创新可能会淘汰一些职位,但历史表明,技术创造的就业机会多于它摧毁的就业机会。
其次,他强调了人工智能在教育领域的潜力,尽管存在作弊问题。利戈特支持人工智能在教育领域的积极应用。
第三,他认为有必要平衡人工智能带来的创造力和知识产权。一种平衡的方法在保护现有创造者的同时使新的创造者获得发展。
第四是模型开发,这一过程成本高昂,目前由硅谷垄断。利戈特敦促探索伙伴关系,使这一进程民主化。
五是认识到数字鸿沟,提出包容性人工智能实施方案。虽然人工智能工具使国家首都地区等地区受益,但互联网连接较弱的地区却错失良机。他提出了一个包容性的人工智能实施方案,既需要互联网接入,也需要知识。
隐私是第6个问题。会议强调了人工智能的潜力,即通过匿名化客户和医疗记录来增强隐私,尽管它被视为侵犯隐私。
第七个问题是关于人工智能的安全性和安全人工智能系统的好处。我们对《终结者》(Terminator)之类的反乌托邦场景给予了太多关注,但我们需要关注关于自动化的更成熟的讨论。
人工智能的虚假信息和环境影响主要被认为是反乌托邦的影响。人工智能可以产生假新闻,但在检测此类新闻方面效果较差。人工智能还消耗大量电力,目前还没有替代这些能源密集型过程的方法。
在主题演讲之后,我采访了Ligot,希望他能提供一些防止人工智能滥用的想法,并提高对其风险的理解。引用他的回答,以下是他的四条建议:
1. 教育。与斯巴达计划(https://sparta.dap.edu.ph/)一样,我们应该提出一项针对菲律宾1%的人的关于人工智能基础知识的大众教育运动。像芬兰这样的国家已经这样做了,这(这样的运动)可以在很大程度上推动各级政府负责任地采用人工智能。
2. 问责制。受现有流程的启发,如国家隐私委员会的隐私影响评估,我们可以争取进行人工智能影响评估——这可以作为政府或私营部门任何采购流程的一部分。这促进了在任何项目中采用人工智能的透明度和尽职调查,也有助于分配责任。
3.标准。与ISO类似,应该分享一套适当的做法,作为个人和公司遵循的理想模式。我们不一定会惩罚那些不遵守标准的人,但我们会奖励那些遵守标准的人。与一些ISO标准(例如ISO 9001质量标准)类似,该人工智能标准可能成为人工智能项目的要求。
4. 鼓励研究,但要规范使用。人工智能的研究不应该受到限制,因为这有助于我们与世界保持同步,但研究成果的使用可以受到一定的审查,以避免滥用。
解读利戈特的见解强调了人工智能和分析在塑造我们的未来方面的重要作用。这一责任落在我们所有人的身上,而不仅仅是技术专家。现在,轮到我们集体行动了。我们有能力引导我们的道路走向更乌托邦的未来,远离反乌托邦的未来。