2024-06-05 17:36 来源:本站编辑
去年12月,单亲妈妈考特尼·彼得森(Courtney Peterson)被一家现已关闭的住院过渡生活项目解雇。这份工作的灵活性让她有时可以带七岁的儿子去上班,除此之外,这份工作的收入足以支付他们在洛杉矶范奈斯(Van Nuys)社区一套一室公寓的租金,他们已经在那里住了一年半。
彼得森说,她开始研究寻求帮助的可能途径,立即开始担心1月份的房租。她说,儿子还是个婴儿的时候,他们住在一辆旅行拖车里,她不想再回到那种状态。
“我开始联系当地的教堂或地方,他们说他们提供租金援助,”彼得森告诉CNBC。“但他们中的很多人希望我有主动驱逐通知,以便给我提供帮助。我觉得我已经没有选择了。我几乎联系了所有我能想到的人,但都没有运气。”
彼得森收到的不是驱逐通知,而是洛杉矶县卫生服务部门无家可归预防部门的一封信,提供了一条生命线。该试点项目使用预测性人工智能来识别有无家可归风险的个人和家庭,并提供援助,帮助他们稳定并保持住所。
根据美国住房和城市发展部的数据,2023年,加州有超过18.1万无家可归者,比2007年增加了30%以上。加利福尼亚州审计员的一份报告发现,从2018年到2023年,该州在无家可归者问题上花费了240亿美元。
该技术于2021年启动,帮助该部门为近800名有无家可归风险的个人和家庭提供服务,86%的参与者在离开该项目时保留了永久性住房,该县卫生服务部无家可归预防副主任达纳·范德福德(Dana Vanderford)说。
她说,个人和家庭可以获得4000美元到8000美元不等的资金,该项目的大部分资金来自《美国救援计划法案》(American Rescue Plan Act)。找到需要帮助的人,并说服他们提供的帮助是真实的,而不是骗局,这可能是一个挑战,但一旦建立了联系,援助就会很快付诸实施。
“我们经常在失去住房的几天内,或者在他们遇到紧急医疗情况的几天内会见我们的客户。我们与人们见面的时机非常关键。”“我们有能力突然出现,给一个人打电话,为他们提供资源,防止86%的人即将失去住房,这让我们感到非常了不起。”
彼得森说,她和儿子收到了大约8000美元的房租、水电费和基本生活费用,这让她在找新工作期间可以住在公寓里。该项目与客户合作4个月,然后在6个月和12个月以及出院后18个月对他们进行随访。像帮助过彼得森的Amber Lung这样的社会工作者说,他们可以直接看到预防工作的重要性。
他说:“一旦人们失去了住房,重新找到住房就会有很多障碍。因此,如果我们能够填补一点点缺口,帮助他们保留住房,我认为稳定局势要比让人们住进避难所或流落街头让他们重新回到原来的位置容易得多。”
这个人工智能模型是由加州大学洛杉矶分校的加州政策实验室在几年的时间里开发出来的,使用的是洛杉矶县首席信息办公室提供的数据。加州政策实验室(California Policy Lab)执行主任珍妮•朗特里(Janey Rountree)表示,首席信息官整合了来自7个不同县部门的数据,这些数据出于隐私考虑进行了去标识化处理,包括急诊室就诊情况、行为保健以及食品券、收入支持和无家可归者服务等大型公共福利项目。该项目还从刑事司法系统中提取数据。
这些数据在多年的时间里联系在一起,将被用来预测谁将会无家可归,这些数据是在政策实验室有结果来测试模型准确性的一段时间内开发出来的。
一旦模型确定了无家可归者的模式,实验室就用它来尝试对未来做出预测,创建一个匿名的名单,将风险从最高到最低排序。实验室向县政府提供了这份名单,这样他们就可以在灾难发生之前帮助那些可能面临失去住房风险的人。
然而,过去的研究发现,匿名数据可以根据人口统计信息追溯到个人。一项基于1990年美国人口普查数据的数据隐私研究发现,87%的美国人可以通过邮政编码、出生日期和性别来识别身份。
朗特里说:“加州几十年来一直存在严重的住房短缺问题,住房成本越来越高,这就是我们的人无家可归的原因。”“最大的误解是,无家可归是由个人风险因素造成的,而事实上,很明显,这一问题的根本原因是结构性经济问题。”
朗特里说,政策实验室向该县免费提供了该软件,并且不打算将其货币化。她说,与具有相关主题专业知识的人(从教师到社会工作者)密切合作,使用人工智能有助于促进积极的社会成果。
她说:“我只是想强调,对于每个经历无家可归的社区来说,围绕预防进行测试和创新是多么重要。”在无家可归者服务的生命周期中,这是一个相对较新的策略。我们需要更多的证据。我们需要做更多的实验来发现有风险的人。我认为这只是一种方式。”
全国结束无家可归联盟在2017年发现,长期无家可归者平均每年要花费纳税人35,578美元,而当他们被安置在支持性住房中时,这些费用平均减少了近一半。
范德福德说,洛杉矶县已经就该项目与圣克拉拉县进行了初步对话,圣地亚哥县也在探索类似的方法。
由于潜在的后果,政府机构手中的人工智能面临着审查。警方对人工智能技术的依赖导致了错误的逮捕,在加州,选民否决了一项计划,该计划将在2020年废除该州的保释制度,代之以一种确定个人风险的算法,因为他们担心这会增加司法系统的偏见。
人工智能初创公司hug Face的首席伦理科学家玛格丽特·米切尔(Margaret Mitchell)表示,总的来说,政府使用人工智能的伦理取决于使用背景和可识别信息的安全性,即使是匿名的。米切尔还指出,从寻求政府项目帮助的人那里获得知情同意是多么重要。
“人们是否意识到正在收集的所有信号,以及这些信号与他们相关的风险,以及对他们恶意使用的双重用途担忧?”米切尔说。“还有一个问题是,这些数据会保存多久,最终谁会看到这些数据。”
虽然这项技术的目的是在洛杉矶县有需要的人失去住房之前向他们提供援助,米切尔说,从“美德伦理”的角度来看,这是一件积极的事情,但从功利主义的角度来看,存在更广泛的问题。
“这些担忧包括,‘纳税人的成本是多少?这个体系真正避免无家可归的可能性有多大?’”她说。
至于彼得森,她正在找工作,希望能找到一份远程工作,这样可以让她更灵活。在未来的道路上,她希望获得职业护理执照,并有一天买一套房子,让她的儿子有自己的房间。
“这对我来说意义重大,因为你知道,我儿子并不总是那么稳定。我并不总是那么稳定,”她谈到这个项目的援助时说。“能够把这个地方称为家,知道我明天不用搬出去,我儿子也不用马上去找新朋友……这对我和我儿子来说都意义重大。”