微软罕见站队Anthropic,AI军事应用冲突升级;白宫封杀令引争议。

在人工智能迅猛发展的当下,美国政府与AI企业的关系正面临严峻考验。Anthropic公司近日对多个联邦机构提起诉讼,挑战国防部将其列为供应链风险的决定。这一事件不仅涉及技术使用边界,更牵扯言论自由与国家安全的核心碰撞。微软作为政府重要合作伙伴,却罕见提交法庭之友简报,支持Anthropic申请临时禁令,阻止封杀措施立即生效。此举显示出硅谷部分力量对政府强硬态度的不满,也凸显AI在军事领域应用的复杂性。
事件起因可追溯到Anthropic与国防部的长期合作。公司自2024年起,通过Palantir和AWS等伙伴,将Claude模型融入美军情报处理体系。在近期对伊朗的大规模行动中,这一组合发挥关键作用,帮助处理卫星图像、信号情报,实现快速目标识别与战场模拟。美军中央司令部依赖Claude进行情报评估与打击序列规划,显著提升作战响应速度。尽管政府已下达停止使用指令,但过渡期内Claude仍继续支持实际行动,形成鲜明讽刺。
冲突根源在于使用底线。Anthropic坚持Claude不得用于自主致命武器或对美国公民的大规模监控,认为此类应用违背AI安全原则与宪法保护。国防部则强调只要符合法律,即可灵活运用。双方在合同谈判中僵持不下,最终导致政府采取极端措施,将Anthropic列为供应链风险对象。这一标签不仅切断政府直接合作,还波及持有军方合同的企业客户,迫使它们中断与Anthropic的业务往来。公司高管公开表示,此举旨在惩罚其言论立场,而非真正风险考量。
微软的介入加剧事件影响力。作为政府最大承包商之一,微软冒着潜在合同损失风险,呼吁法院干预。简报中指出,立即执行封杀将干扰军方现有AI系统,影响作战连续性。这一表态反映出科技巨头对AI监管不确定性的担忧,也暗示行业内部对政府干预边界的警觉。Anthropic的Claude在AppStore下载量激增,显示公众对事件关注度上升,或许为公司带来意外支持。
