路透社报道,五角大楼正在向硅谷施压,要求OpenAI、Anthropic、谷歌和马斯克的xAI等顶级人工智能公司将其产品部署到军方机密网络,并且移除大部分标准使用限制。这场关于AI军事化程度的角力,正在华盛顿和硅谷之间制造日益激烈的紧张关系。
在本周二白宫举行的一场会议上,五角大楼首席技术官埃米尔·迈克尔向科技企业高管表示,军方计划在非机密和机密两个域中部署AI模型。一位要求匿名的官员向路透社证实,五角大楼正在"推动在所有保密级别上部署前沿AI能力"。这不仅是技术部署问题,更是一场关于谁来掌控AI使用边界的权力博弈。
从办公室到战场的跨越目前,大多数AI公司为美军定制的工具仅在非机密网络上可用,这些网络通常用于军事行政管理等后勤事务。本周,OpenAI与五角大楼达成协议,允许军方在名为genai.mil的非机密平台上使用包括ChatGPT在内的工具,该平台已向超过300万国防部员工开放。作为协议的一部分,OpenAI同意移除许多典型的用户限制,尽管仍保留了一些防护措施。
谷歌和马斯克的xAI此前也与五角大楼达成了类似协议。事实上,国防部长皮特·赫格塞思在1月中旬已经宣布,马斯克旗下的AI聊天机器人Grok将接入五角大楼网络,包括非机密和机密系统。Grok将与谷歌的生成式AI系统并行运作,五角大楼计划向AI开放军方信息技术系统中所有合适的数据和情报数据库。
但非机密网络与机密网络之间存在巨大鸿沟。机密网络用于处理更敏感的工作,包括任务规划、武器瞄准和战场情报分析。在这些网络中部署AI意味着让算法直接参与可能涉及生死的决策过程。
目前只有Anthropic的产品通过第三方在机密环境中可用,但政府仍然受到该公司使用政策的约束。五角大楼希望改变这种状况,在机密网络中部署AI时不受商业公司政策的制约。军方官员认为,只要符合美国法律,他们就应该能够按自己的方式部署商业AI工具。
幻觉的致命代价这种要求引发了AI研究人员的严重担忧。虽然大型语言模型在信息综合方面能力强大,但它们也会犯错,甚至编造听起来似乎合理的信息,这种现象被称为"幻觉"。在非机密环境中,这些错误可能导致尴尬或低效。但在机密环境中,错误的情报分析或误导性的战术建议可能带来致命后果。
想象一个场景:AI系统在分析卫星图像时将平民车队误判为敌方军事车辆,或者在处理信号情报时生成虚假的威胁评估。如果军事指挥官依赖这些分析做出快速决策,错误可能导致无辜平民伤亡或战术灾难。更糟糕的是,在时间紧迫的战场环境中,决策者可能没有足够时间验证AI提供的信息。
这正是AI公司试图通过安全防护措施和使用政策来最小化的风险。这些限制包括禁止将模型用于自主武器瞄准、限制在没有人类监督的情况下做出关键决策,以及要求在高风险场景中保持人类最终控制权。但五角大楼认为这些限制过于严格,会削弱AI在实战中的效用。
军方的逻辑是,在自主无人机群、机器人和网络攻击已经主导的未来战场上,美国需要充分利用AI的能力来保持优势。他们担心如果AI工具受到过多限制,美国可能在军事AI竞赛中落后于中国或俄罗斯等对手。
Anthropic的抵抗与妥协在这场谈判中,Anthropic的立场最为坚定。据路透社此前报道,该公司与五角大楼的讨论远比其他公司更具争议性。Anthropic高管明确告诉军方官员,他们不希望自己的技术被用于自主武器瞄准和美国国内监控。
Anthropic的聊天机器人Claude被设计为更谨慎和符合伦理的AI系统。该公司在成立之初就强调"宪法AI"的理念,即在模型训练中嵌入明确的价值观和行为准则。这种理念与军方希望最大限度减少使用限制的愿望存在根本冲突。
然而,即使是Anthropic也在寻求平衡点。该公司发言人在声明中表示:"Anthropic致力于保护美国在AI领域的领先地位,并通过让我们的战士获得最先进的AI能力来帮助美国政府应对外国威胁。Claude已经被美国政府广泛用于国家安全任务,我们正在与国防部进行富有成效的讨论,探讨继续这项工作的方式。"
这种表述反映了硅谷公司面临的两难困境。一方面,他们担心自己的技术被用于他们认为不道德或危险的用途。另一方面,他们也不想失去利润丰厚的政府合同,也不希望被贴上"不爱国"的标签。在特朗普政府明确将国防部更名为"战争部"的背景下,拒绝与军方合作可能带来政治和商业风险。
硅谷化的五角大楼国防部长赫格塞思选择在SpaceX的"星际基地"宣布Grok接入五角大楼系统,这一场景本身就象征着军方正在加速拥抱硅谷文化。赫格塞思在讲话中明确表示,五角大楼将把世界领先的AI模型部署到所有非机密和机密网络中,并向AI开放军方20年积累的实战数据。
这种"数据换技术"的策略背后是更深层的战略考量。美军在过去二十年的反恐战争中积累了海量的实战数据,包括无人机视频、信号情报、战场传感器数据和作战报告。这些数据对训练军事AI系统具有无可替代的价值。通过向AI公司开放这些数据,五角大楼希望激励它们开发更适合军事需求的模型。
但这也引发了数据安全和隐私问题。军事数据中可能包含盟国情报、秘密行动细节和敏感的战术信息。如果这些数据用于训练商业AI模型,如何确保它们不会通过模型权重泄露给其他用户?如何防止对抗性攻击从模型中提取敏感信息?这些技术问题尚无完全可靠的解决方案。
没有答案的问题路透社报道指出,目前尚不清楚五角大楼计划如何以及何时在机密网络上部署AI聊天机器人。这种不确定性本身就说明了问题的复杂性。技术部署可能相对简单,但围绕使用规则、责任归属和风险管理的政策框架仍在争论中。
如果AI系统在机密网络中提供了错误建议导致任务失败或人员伤亡,谁应该承担责任?是开发模型的AI公司、部署系统的军方技术人员,还是依据AI建议做出最终决策的指挥官?如果AI公司的标准使用限制被移除,它们还能否对技术误用承担道义责任?
这些问题在传统武器系统中有相对清晰的答案,但在AI系统中变得模糊不清。AI不是简单的工具,而是具有某种程度自主性和不可预测性的复杂系统。将这样的系统引入生死攸关的决策链,需要全新的责任和监管框架。
随着五角大楼继续推动AI在机密网络中的部署,这场关于技术能力与使用限制的争论只会变得更加激烈。在军事效能与伦理约束之间寻找平衡点,可能是定义未来战争性质的关键问题之一。
本站是社保查询公益性网站链接,数据来自各地人力资源和社会保障局,具体内容以官网为准。
定期更新查询链接数据 苏ICP备17010502号-11