读个新闻:OpenAI 暗中撤销了对使用 ChatGPT 于“军事与战争”用途的禁令
来源:https://t.co/ALf46n0LGK
五角大楼正在密切关注这家领先的 AI 公司,该公司本周对其军事用途的禁令进行了放宽。
OpenAI 这周不声不响地移除了其使用政策中,明确禁止将其技术用于军事目的的条款。这项政策旨在规定如 ChatGPT 这类强大而广受欢迎的工具的使用方式。
截至 1 月 10 日,OpenAI 的“使用政策”页面 明文禁止了“可能导致严重身体伤害的活动”,尤其是“武器开发”和“军事与战争”。这一明确的反军事应用禁令看似排除了国防部或其他国家军事机构的任何官方且可能带来巨大利润的使用。而新政策(在新标签页中打开)虽然仍然禁止“利用我们的服务伤害自己或他人”,并以“开发或利用武器”为例,但对“军事和战争”用途的全面禁令已被撤销。
这一未公开的修改是政策页面重大重写的一部分。该公司称,此次修改旨在使文件“更清晰”、“更易读”,并包含了许多其他重大的语言和格式变化。
“我们旨在创造一套既简单易记又易于应用的普适原则,尤其是当我们的工具如今已被全球日常用户广泛使用,他们甚至可以自行构建 GPTs 时,”OpenAI 发言人 Niko Felix 在一封发给 The Intercept 的电子邮件中表示。“‘不伤害他人’这样的原则虽广泛,但易于理解,且在多种情境下均适用。我们还特别提出了‘武器’和‘伤害他人’作为明确的例子。”
Felix 拒绝明确说明,这种含糊的“伤害”禁令是否包括所有军事用途。他写道:“无论是军事还是其他用途,任何利用我们技术进行‘开发或使用武器、伤害他人或破坏财产,或进行违反任何服务或系统安全的未授权活动’均属禁止。”
“OpenAI 非常清楚他们的技术和服务在军事应用上可能带来的风险和危害,”网络安全公司 Trail of Bits 的工程总监 Heidy Khlaaf 表示。Khlaaf 是机器学习和自主系统安全的专家,她引用了与 OpenAI 研究人员合作撰写的一篇2022 年论文,该论文专门指出了军事使用的风险。她补充说,新政策似乎更注重合法性而非安全性。“两项政策有明显区别。前者明确指出禁止武器开发和军事战争活动,而后者更侧重于灵活性和遵守法律。”她说。“武器开发和军事战争活动在一定程度上是合法的,但这对 AI 安全的影响可能非常重大。鉴于大语言模型 (LLMs) 中普遍存在的偏见和幻觉问题,以及它们整体上的准确性不足,将它们应用于军事战争可能导致不准确和有偏见的操作,这很可能加剧伤害和平民伤亡的风险。”
该政策在实际应用中的后果还不明确。去年,《拦截》杂志报道,面对来自五角大楼和美国情报界的日益增加的兴趣,OpenAI 尚未明确表态 是否会坚守其“军事和战争”使用禁令。
“考虑到 AI 系统在加沙针对平民的使用,现在是一个重要时刻,需要重新考虑是否从 OpenAI 的使用政策中剔除‘军事和战争’这些词汇,” AI Now Institute 总监、前联邦贸易委员会 AI 政策分析师 Sarah Myers West 表示。“现有政策中的表述还很模糊,这让人对 OpenAI 如何执行这些政策产生疑问。”
虽然目前 OpenAI 提供的技术不可能直接用于杀伤——例如 ChatGPT 不能操控无人机或发射导弹——但任何军事组织的本质都是杀伤或保持杀伤能力。类似 ChatGPT 这样的大语言模型 (LLM) 可以用于许多与杀伤相关的辅助任务,比如编写代码或处理采购订单。OpenAI 提供的定制 ChatGPT 功能性机器人已经被美国军方人员用于简化文书工作 的实际应用。国家地理空间情报局(NGA),这个直接支持美国作战行动的机构,也已经考虑过使用 ChatGPT 来辅助其分析师。即使 OpenAI 的工具被部署于军事力量的非直接暴力用途,它们依旧是在辅助一个以致命性为主要目的的机构。
根据《拦截》请求的专家审查显示,OpenAI 似乎在悄悄放松其拒绝与军事组织合作的立场。兰卡斯特大学科学技术人类学荣誉退休教授 Lucy Suchman 表示:“从‘军事和战争’转变为‘武器’的策略变化,可能为 OpenAI 提供了一个空间,只要不直接涉及到狭义上的武器开发,就可以支持军事运营基础设施。不过,声称不参与武器的开发或使用,同时为战争平台提供支持,这种做法似乎有些虚伪,因为它忽略了武器在其社会技术系统中的角色,包括指挥和控制基础设施。” Suchman,一位自 1970 年代以来就研究人工智能的学者、国际机器人武器控制委员会成员,还补充说:“新政策文件似乎特别关注武器,从而回避了军事承包和战争行动的问题。”
Suchman 和 Myers West 还指出了 OpenAI 与微软的密切合作。微软是一家主要的国防承包商,迄今为止已向这家大语言模型 (LLM) 制造商投资了 130 亿美元,并转售该公司的软件工具。
随着全球军队热衷于融合机器学习技术以获得优势,美国五角大楼正在谨慎探索如何使用 ChatGPT 或其他大语言模型(LLM)。这类软件工具能迅速且灵活地产生复杂的文本输出。LLM 通过训练大量书籍、文章和网络数据来模拟对用户指令的人类反应。虽然像 ChatGPT 这样的 LLM 产生的输出通常非常逼真,但它们更注重文本的连贯性,而不是对现实的准确把握,因此经常出现所谓的“幻觉”,从而在准确性和事实性方面存在问题。尽管如此,LLM 快速处理文本和迅速输出分析(或至少是分析的假象)的能力,使其非常适合数据量大的国防部门。
尽管美国军方高层中有人对 LLM 容易插入明显的事实错误或其他失真,以及使用 ChatGPT 分析机密或其他敏感数据可能带来的安全风险表示担忧,但五角大楼总体上依然热切地希望采纳人工智能工具。去年 11 月,国防部副部长凯瑟琳·希克斯在一次演讲中提到,AI 是“我和奥斯汀部长从第一天起就推动的全面、以战斗人员为中心的创新策略的核心部分”,但她也警告说,目前大多数 AI 产品“技术上还不够成熟,无法符合我们的伦理 AI 原则”。
去年,五角大楼信任 AI 和自主性的首席主管金伯利·萨布隆在夏威夷的一次会议上表示,“利用像 ChatGPT 这样的大语言模型来改变部门内的关键功能,其中蕴含很多潜力。”