红线之争:特朗普政府与Anthropic决裂,AI军事化应用陷入空前危机

华新社美国华盛顿电讯(记者 邹志华)本周,白宫与硅谷爆发了一场史无前例的对抗。特朗普政府向人工智能领军企业Anthropic发出最后通牒,要求其移除所有用于军事用途的安全限制,否则将面临全面封杀。面对这一威胁,Anthropic坚守其核心安全原则拒绝妥协,导致双方合作关系彻底破裂。这场冲突不仅暴露了美国在AI军事化进程中的伦理困境,更可能重塑五角大楼与科技巨头未来的合作格局。
最后通牒与强硬回击
冲突在周二达到顶点。国防部长皮特·赫格塞思(Pete Hegseth)向Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)下达了严厉的最后通牒:必须在周五下午5点前,完全解除对其AI模型在“大规模监控”及“致命自主武器”应用上的安全限制。赫格塞思警告,若 Anthropic 不从,将立即终止价值2亿美元的现有合同,并禁止其参与任何未来的军方项目。
在截止时间前约一小时,特朗普总统正式宣布,指示所有联邦机构立即停止使用Anthropic的技术。他在声明中措辞激烈,指责该公司被“觉醒文化”裹挟,充斥着“左翼极端分子”,并称其拒绝配合的行为是在“危害国家安全”。
这一决定对Anthropic而言无疑是重磅打击。作为首家获准在美国机密军事网络上运行的大型AI实验室,Anthropic的模型已成为美军情报分析的核心工具。据悉,该技术曾在今年1月协助定位委内瑞拉领导人马杜罗的行动中发挥了关键作用,能够在数秒内处理海量机密数据。然而,该公司始终坚守两条不可逾越的红线:禁止将技术用于对美国公民的大规模监控,以及禁止在无人类监督的情况下部署致命自主武器系统。
法律底线与道德困境
Anthropic的立场并非孤例,而是基于现行法律与伦理共识。联邦法律明确限制军方对本国公民的间谍活动,而国防部指令也对缺乏人类干预的致命自主武器设有严格管控。阿莫迪在周四的声明中坚定地表示:“凭良心,我们无法同意政府的要求。”他强调,这并非永久拒绝军事合作,而是基于当前技术成熟度的审慎判断——AI尚未准备好在无人监管下决定生死。
然而,五角大楼方面对此嗤之以鼻。国防部首席技术官埃米尔·迈克尔(Emil Michael)在社交媒体上连发数帖,嘲讽阿莫迪患有“上帝情结”,并坚称国防部只会将技术用于“合法目的”。“你必须相信军队会做正确的事,”迈克尔对媒体表示,“我们不能在书面承诺中束缚自己自卫的手脚。”
行业震荡与盟友站队
这场对峙在科技界引发了剧烈震荡。尽管多数AI实验室保持沉默,但内部支持Anthropic的声音正在汇聚。本周,约75名OpenAI员工和超过450名谷歌员工签署公开信,支持Anthropic的立场,呼吁行业领导层抵制军方的过度要求。据报道,OpenAI CEO山姆·奥特曼曾试图在局势恶化前介入调停,但未果。
与此同时,埃隆·马斯克的xAI似乎选择了另一条道路。知情人士透露,xAI已原则上同意五角大楼的条件,准备将其模型部署于机密网络。马斯克此前曾在X平台上批评Anthropic“敌视西方文明”,这一表态如今看来意味深长。
长远隐忧:安全真空与合作裂痕
分析人士指出,政府的强硬手段可能适得其反。据估计,将Anthropic的系统从五角大楼内部网络中完全剥离至少需要六个月,期间美军将面临巨大的情报分析能力真空,而目前尚无成熟的替代方案。
更深远的影响在于信任的崩塌。几十年来,五角大楼与硅谷的关系始终在猜疑中摇摆。此次事件不仅可能吓退其他创新初创公司,更可能被解读为政府将政治立场凌驾于国家安全之上。尽管风险投资近年大举进入军事科技领域(去年投入达500亿美元),陆军也新设了由科技高管组成的预备役单位,但特朗普政府将商业交易政治化的做法,无疑给这种脆弱的合作蒙上了阴影。
出路何在?
《纽约时报》在评论中指出,现阶段强行移除AI安全护栏是危险的赌博。解决之道不在于政治胁迫或贴标签,而在于立法层面的清晰界定。国会亟需通过专门立法,为AI军事应用设立明确底线:强制人类监督、禁止针对平民环境、以及设置可靠的紧急终止机制。联合国秘书长及红十字国际委员会也已呼吁在今年内就自主武器系统达成新条约。
在这场关乎未来的博弈中,私营部门与政府急需找到新的共同语言。正如阿莫迪所言,承认技术的局限性并非软弱,而是负责任的表现。在软件定义战争的时代,破坏公私合作的桥梁,最终损害的将是美国自身的长期安全利益。

華文財經新聞社聯合報道。发布者:总编,转载请注明出处:https://huaxinnews.com/6277.html

Like (0)
总编的头像总编管理团队
Previous 16小时前
Next 15小时前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注