OpenAI悄悄删除了其使用政策中明确禁止其技术用于军事目的的语言。
以前的政策明确禁止了“武器开发”和“军事和战争”的用途,但新政策中这种全面禁令消失了。
新政策侧重于不使用服务来“伤害自己或他人”,并提到“开发或使用武器”作为例子。
原本的“使用政策”页面中包括了对“高风险物理伤害活动”的禁令,明确指出禁止“武器开发”和“军事和战争”用途。
新政策删除了对“军事和战争”用途的全面禁令,但保留了不得“使用我们的服务来伤害自己或他人”的规定,并以“开发或使用武器”为例。
OpenAI发言人Niko Felix表示,新政策旨在创建一套“易于记忆和应用的通用原则,目的是使文件“更清晰”和“更易读”。
尽管OpenAI提供的技术今天无法直接用于杀人——比如ChatGPT不能操纵无人机或发射导弹——但任何军队的主要目的都是杀戮或至少保持杀戮能力。专家表示,OpenAI似乎在悄悄削弱其与军队做生意的立场。例如,Lucy Suchman教授指出,“从‘军事和战争’转向‘武器’可能为OpenAI留下了空间,以支持操作基础设施,只要应用不直接涉及狭义上的武器开发。”
这些政策变化发生之际,全球各国军队都渴望将机器学习技术纳入以获得优势。尽管LLMs(大语言模型)经常产生极具说服力的输出,但这些输出更多的是为了连贯性而不是对现实的牢固把握,常常受到所谓的“幻觉”问题的困扰,使准确性和事实性成问题。然而,LLMs快速摄取文本并迅速输出分析的能力使它们适合于数据密集的国防部门。
https://t.co/XyGvIlcBO9
点击图片查看原图