AI从业者跨公司联手,声援Anthropic挑战国防部供应链风险认定。

在人工智能快速发展之际,一场罕见的行业团结现象出现。超过30名OpenAI和GoogleDeepMind的员工,以个人名义向法院提交意见书,支持Anthropic对美国国防部供应链风险认定的诉讼。此举不仅体现从业者对技术伦理的坚持,也凸显出AI领域内部对政府权力边界的担忧。

这份法庭文件直指,政府将Anthropic列为供应链风险,属于不当且任意的权力行使,对整个行业带来严重后果。签署名单中不乏重量级人物,如GoogleDeepMind首席科学家JeffDean。他的参与,让这一支持更具分量,也让外界看到即使在竞争激烈的AI赛道,专业共识仍能超越公司界限。

事件起因可追溯到Anthropic与国防部的合同谈判。Anthropic坚持两条核心红线:禁止其AI系统用于大规模监控美国公民,以及拒绝支持完全自主的致命武器决策。这些限制源于对AI潜在灾难性滥用的深切忧虑。在公共法律尚未全面覆盖AI军事应用的情况下,企业自行设定的合同和技术防护,成为重要的安全屏障。

 AI从业者跨公司联手,声援Anthropic挑战国防部供应链风险认定。 IT技术

国防部在上周正式实施这一认定后,迅速转向与OpenAI合作。这一时机上的巧合,引发OpenAI内部部分员工的强烈反弹。他们认为,如果对Anthropic的条款不满,完全可以终止原有合作,转向其他供应商,而非通过供应链风险标签进行惩罚。意见书特别强调,这种做法若获延续,将显著削弱美国在人工智能领域的工业与科研竞争力。

更深层的影响在于,它可能抑制行业内关于AI风险与益处的公开对话。AI专家们担心,类似事件会让开发者在设定安全机制时犹豫不决,从而影响技术创新的健康生态。Anthropic的立场虽导致短期商业压力,却也赢得跨公司支持,显示出从业者对负责任AI开发的共同价值观。

这一争议仍在法院审理中,其结果或将为AI治理提供重要判例。它提醒整个行业,在技术迅猛进步的时代,伦理自律与政策平衡至关重要。唯有通过理性对话与合作,方能确保AI在国防等敏感领域发挥积极作用,而非成为潜在风险源头。 AI从业者跨公司联手,声援Anthropic挑战国防部供应链风险认定。 IT技术