Press ESC to close

五角大楼正利用人工智能加速其“杀伤链”流程

随着人工智能技术的迅速发展,像OpenAI和Anthropic这样的领先AI开发者正努力与美国军事部门合作,以提高五角大楼的效率,同时确保他们的AI技术不会用于致命武器。

五角大楼首席数字和AI官德拉达·普兰姆博士在接受TechCrunch采访时指出,目前的AI并未用于武器开发,但它在威胁识别、跟踪和评估方面为国防部提供了显著的优势。

机器人人工智能AI

图片来源说明:图片由AI生成,授权来自Midjourney

普兰姆博士提到,五角大楼正在加速执行“杀伤链”这一过程,该过程涉及识别、跟踪和消除威胁,并利用复杂的传感器、平台和武器系统。生成式AI在杀伤链的规划和策略阶段显示出潜力。她指出,AI可以帮助指挥官快速有效地应对威胁。

近年来,五角大楼与AI开发者的合作关系日益紧密。2024年,像OpenAI、Anthropic和Meta这样的公司放宽了使用政策,允许美国情报和国防机构使用其AI系统,同时仍然禁止这些AI技术用于伤害人类。这一转变促进了AI公司与国防承包商之间的快速合作。

例如,Meta在11月与洛克希德马丁公司和Booz Allen签订了协议,在国防领域应用其Llama AI模型。Anthropic也与Palantir形成了类似的合作伙伴关系。尽管这些合作的具体技术细节尚不清楚,但普兰姆博士表示,在规划阶段应用AI可能会与几家领先开发者的规定产生冲突。

关于是否应该让人工智能武器拥有生死决策能力的问题,在行业内引发了激烈的争论。Anduril公司的CEO帕默·卢克认为,美国军事历史上一直采购自主武器系统。然而,普兰姆博士反驳了这一点,并强调无论在任何情况下,使用武力的决定都必须有人类参与。

她指出,在自动化系统独立做出生死决策的想法过于简单化;实际情况要复杂得多。五角大楼的AI系统代表了人类与机器的合作,高级领导层参与决策过程。

关键点:

🌐 AI为五角大楼在识别和评估威胁方面提供了显著优势,提升了军事决策效率。

🤝 AI开发者与五角大楼的合作关系日益紧密,并且坚持不将AI技术用于伤害人类。

🔍 关于是否应让人工智能武器拥有生死决策能力的讨论仍在进行中,五角大楼强调将始终有人类参与其中。

总结:本文讨论了美国军事部门与领先的人工智能开发者之间的合作情况。尽管存在争议关于是否应让人工智能武器拥有生死决策能力的问题,但双方都强调不会让这些技术用于伤害人类,并且高级领导层会参与最终决策过程。
Douglas Lemke

Hi, I’m Douglas Lemke, Your Blogging Journey Guide 🖋️. Writing, one blog post at a time, to inspire, inform, and ignite your curiosity. Join me as we explore the world through words and embark on a limitless adventure of knowledge and creativity. Let’s bring your thoughts to life on these digital pages. 🌟 #BloggingAdventures

Leave a comment

Your email address will not be published. Required fields are marked *

@Katen on Instagram