- 谷歌签署机密人工智能协议,允许五角大楼将其用于广泛的行动。
- 合同包含安全调整条款,但限制了谷歌的控制权。
- 员工的强烈反对凸显了科技公司内部日益紧张的局势。
谷歌该公司已强势回归国防领域,而且这次的举动毫不含糊。该公司与五角大楼签署了一项机密协议,允许其人工智能模型用于广泛的政府用途,包括任务规划以及潜在的目标定位系统等领域。
单凭这一转变就足以表明该公司与此前避免卷入军事活动的立场截然不同。
协议实际允许的内容
合同赋予美国政府允许谷歌出于其所谓的“合法政府目的”使用其人工智能工具,这一定义范围很广,足以涵盖诸多领域。此外,该协议还要求谷歌在收到请求时调整其人工智能安全设置,这又为私营科技公司与公共安全行动之间的关系增添了一层复杂性。
协议中规定了一些限制,例如限制国内监控和无人监督的自主武器,但这些保障措施是有附加条件的。
控制权并非完全掌握在谷歌手中
虽然合同中包含安全条款,但也明确规定,只要政府的决定在法律范围内,谷歌就不能凌驾于或阻止政府的决定。这就造成了一种局面:虽然存在一些保障措施,但这些措施的执行很大程度上取决于在实际应用中如何解读它们。
而这正是许多不确定性开始产生的根源,因为政策和实践并不总是完全一致。
内部阻力来得很快
谷歌内部的反应立竿见影。数百名员工签署了一份请愿书,敦促首席执行官……桑达尔·皮查伊重新考虑该协议,理由是参与军事活动人工智能引发严重的伦理问题。
对他们中的许多人来说,问题不仅仅在于……技术但它本身,以及一旦脱离公司的直接控制后,它将如何被使用。
科技领域更广泛的转变
谷歌并非孤例。包括OpenAI和xAI在内的其他主要公司也与五角大楼达成了协议,这表明科技行业正在形成一种更广泛的趋势。
过去许多公司都会避免触碰的底线,现在正被更公开地跨越,讨论的焦点也从“是否”使用这些技术转变为“如何”使用这些技术。
更大的问题仍未得到解答
这项交易反映了政府和科技公司合作方式的更大转变,尤其是在与国家安全相关的领域。
这些协议中规定的保障措施在纸面上看起来很完善,但它们在实际操作压力下能否经受住考验仍然是一个悬而未决的问题,而且这个问题也没有简单的答案。

