首页 资讯

人工智能赌博必须聪明,而不仅仅是快

分类:资讯
字数: (3349)
阅读: (9)
摘要:伊斯兰堡:听文章当美国意识到9/11事件是情报机构未能根据当时可用的数据采取一致行动,并因此将该事件称为“数据融合”危机时,数据共享的未来发生了巨大变化。美国国...

伊斯兰堡:

听文章

当美国意识到9/11事件是情报机构未能根据当时可用的数据采取一致行动,并因此将该事件称为“数据融合”危机时,数据共享的未来发生了巨大变化。美国国土安全部(Department of Homeland Security)开始建立一个强大的“融合中心”网络——由州和地方管理的组织,允许两个或更多政府部门之间实时共享关键情报和数据集,以识别危险信号。

快进到2025年,现在人工智能(AI)正在接管世界各地的“融合中心”,其可能性是无限的。人工智能正在取代人类,语言模型正在产生以前闻所未闻的见解。然而,就像所有技术的情况一样,人工智能的使用,尤其是在公共部门和法律事务中的使用,仍然是一把双刃剑,必须谨慎对待。

例如,在2023年6月,纽约Levidow, Levidow & Oberman律师事务所的律师施瓦茨使用ChatGPT进行法律案件研究,并因在其简报中引用虚假案例和虚假姓名而被法官罚款。大语言模型(LLM)显然产生了幻觉——这是聊天机器人自己编造虚构数据的问题。

同样,在2024年3月,微软的聊天机器人MyCity提供了错误的法律信息,可能会导致潜在的商人违法。它错误地声称,房东可以公开歧视房客的收入,餐馆老板可以从工人的小费中分成。

因此,在使用人工智能方面,公共机构现在面临着一个艰难的选择:是依赖ChatGPT等第三方托管的公共人工智能模型,还是采用LLaMA等开源模型,还是从长远来看训练自己的专有人工智能模型?在这里,选择正确的AI策略至关重要。

2024年,加拿大航空公司的虚拟助理被发现向一名顾客提供了有关折扣的虚假信息,这名顾客随后将此事告上法庭,并获得了赔偿。

同样,当丹麦在其社会保障体系中推出人工智能算法时,人们发现该体系对老年人、低收入家庭、移民和外国人等边缘化群体存在固有偏见。被人工智能标记为欺诈的案例中,有90%后来被证明是真的,整个事件现在被当作歧视和违反欧盟(EU)人工智能法案(AI Act)对社会评分系统规定的经典案例来教授。

因此,如果任何公共部门组织在其运营中选择使用由OpenAI培训的第三方模型,那么就有对有色人种和弱势群体产生偏见的风险——因为从互联网、社交媒体和论坛上收集的培训数据通常本身就有偏见。

一个好的人工智能策略包括经过深思熟虑和控制的分阶段部署,以及精心规划的用例。例如,国土安全部(DHS)开始使用公开可用的人工智能工具来提高员工的生产力,但也推出了人工智能愿景和发展路线图。与此同时,它专注于开发专门的人工智能应用程序,比如培训处理庇护申请和进行安全调查的官员。

到2024年12月,国土安全部在其内部安全网络上推出了DHSChat——这是一种尖端算法,可以起草报告、简化任务、开发软件,并且与其他大型语言模型不同,它确保员工数据得到保护,而不是用于培训外部模型。事实上,作为一种最佳做法,并根据特朗普政府的行政命令,国土安全部积极维护其人工智能库存,其中包括一份与人工智能相关的用例列表。

对于像巴基斯坦这样的国家,我们的机构可以使用公共、开源和专有模式的混合模式——这取决于手头任务的性质。当使用人工智能作为新的谷歌时,公共模型通常是好的,但对于起草备忘录和总结报告,不建议使用公共模型。为此,信息技术部或其他机构可以在其数据中心托管自己的开源人工智能模型,或对其进行微调以开发专有模型。

对于关键系统,总是建议不要完全用人工智能取代现有的自动化。有必要安装一名监督员,对人工智能模型的输出进行事实核查和验证,以消除幻觉和偏见。不管人工智能驱动的公共部门的想法有多有利可图,在部署这些模型之前,彻底测试和检查它们的行为是很重要的。

目前在联邦税收局(FBR)执行的基于人工智能的转型项目将成为其他有人工智能抱负的公共机构的测试案例。

本文作者毕业于剑桥大学,目前从事战略顾问工作

听文章

当美国意识到9/11事件是情报机构未能根据当时可用的数据采取一致行动,并因此将该事件称为“数据融合”危机时,数据共享的未来发生了巨大变化。美国国土安全部(Department of Homeland Security)开始建立一个强大的“融合中心”网络——由州和地方管理的组织,允许两个或更多政府部门之间实时共享关键情报和数据集,以识别危险信号。

快进到2025年,现在人工智能(AI)正在接管世界各地的“融合中心”,其可能性是无限的。人工智能正在取代人类,语言模型正在产生以前闻所未闻的见解。然而,就像所有技术的情况一样,人工智能的使用,尤其是在公共部门和法律事务中的使用,仍然是一把双刃剑,必须谨慎对待。

例如,在2023年6月,纽约Levidow, Levidow & Oberman律师事务所的律师施瓦茨使用ChatGPT进行法律案件研究,并因在其简报中引用虚假案例和虚假姓名而被法官罚款。大语言模型(LLM)显然产生了幻觉——这是聊天机器人自己编造虚构数据的问题。

同样,在2024年3月,微软的聊天机器人MyCity提供了错误的法律信息,可能会导致潜在的商人违法。它错误地声称,房东可以公开歧视房客的收入,餐馆老板可以从工人的小费中分成。

因此,在使用人工智能方面,公共机构现在面临着一个艰难的选择:是依赖ChatGPT等第三方托管的公共人工智能模型,还是采用LLaMA等开源模型,还是从长远来看训练自己的专有人工智能模型?在这里,选择正确的AI策略至关重要。

2024年,加拿大航空公司的虚拟助理被发现向一名顾客提供了有关折扣的虚假信息,这名顾客随后将此事告上法庭,并获得了赔偿。

同样,当丹麦在其社会保障体系中推出人工智能算法时,人们发现该体系对老年人、低收入家庭、移民和外国人等边缘化群体存在固有偏见。被人工智能标记为欺诈的案例中,有90%后来被证明是真的,整个事件现在被当作歧视和违反欧盟(EU)人工智能法案(AI Act)对社会评分系统规定的经典案例来教授。

因此,如果任何公共部门组织在其运营中选择使用由OpenAI培训的第三方模型,那么就有对有色人种和弱势群体产生偏见的风险——因为从互联网、社交媒体和论坛上收集的培训数据通常本身就有偏见。

一个好的人工智能策略包括经过深思熟虑和控制的分阶段部署,以及精心规划的用例。例如,国土安全部(DHS)开始使用公开可用的人工智能工具来提高员工的生产力,但也推出了人工智能愿景和发展路线图。与此同时,它专注于开发专门的人工智能应用程序,比如培训处理庇护申请和进行安全调查的官员。

到2024年12月,国土安全部在其内部安全网络上推出了DHSChat——这是一种尖端算法,可以起草报告、简化任务、开发软件,并且与其他大型语言模型不同,它确保员工数据得到保护,而不是用于培训外部模型。事实上,作为一种最佳做法,并根据特朗普政府的行政命令,国土安全部积极维护其人工智能库存,其中包括一份与人工智能相关的用例列表。

对于像巴基斯坦这样的国家,我们的机构可以使用公共、开源和专有模式的混合模式——这取决于手头任务的性质。当使用人工智能作为新的谷歌时,公共模型通常是好的,但对于起草备忘录和总结报告,不建议使用公共模型。为此,信息技术部或其他机构可以在其数据中心托管自己的开源人工智能模型,或对其进行微调以开发专有模型。

对于关键系统,总是建议不要完全用人工智能取代现有的自动化。有必要安装一名监督员,对人工智能模型的输出进行事实核查和验证,以消除幻觉和偏见。不管人工智能驱动的公共部门的想法有多有利可图,在部署这些模型之前,彻底测试和检查它们的行为是很重要的。

目前在联邦税收局(FBR)执行的基于人工智能的转型项目将成为其他有人工智能抱负的公共机构的测试案例。

本文作者毕业于剑桥大学,目前从事战略顾问工作

转载请注明出处: 百战复古180

本文的链接地址: http://m.bzfg180.cn/post-4891.html

本文最后发布于2025年06月23日11:20,已经过了0天没有更新,若内容或图片失效,请留言反馈

()
您可能对以下文章感兴趣