发布时间:2026-03-4 阅读量:1418 来源: 发布人: bebop
导读:近日,《华尔街日报》披露美军在对伊朗空袭及委内瑞拉行动中,深度依赖商业AI模型Claude进行情报分析与作战决策,引发全球对AI军事化应用的广泛关注。作为首个接入五角大楼机密系统的商用大模型,Claude的能力令人惊叹,但其被强制用于军事目的也激起了科技伦理、法律边界与企业自主权的激烈争论。
我爱方案网3月4日消息,《华尔街日报》近日发布重磅报道,指出美国军方在近期针对伊朗的空袭行动中,大规模使用由AI公司Anthropic开发的大语言模型Claude,执行包括目标识别、情报整合、作战模拟等关键任务。更令人震惊的是,在此前策划针对委内瑞拉总统马杜罗的高风险行动中,Claude同样扮演了“智能参谋”角色。
军事分析专家指出,AI 正重新定义战场规则。在情报分析层面,AI 系统能整合卫星影像、讯号资料与开源讯息,将传统上需数日完成的分析压缩至分钟级,实现精准目标锁定与行为预测。
在指挥决策环节,AI 可在几秒钟内产生多套作战方案,并进行风险评估,大幅缩短指挥系统的 OODA 循环周期。
有观点认为,这种“演算法制胜”的新型战争模式正快速重建传统军事优势格局。
然而,科技的军事化应用引发了严峻的伦理危机。上周四 (2 月 26 日),Anthropic 执行长达里奥公开表示,公司始终将“大规模自主监控”和“全自动武器”排除在合作范围外。但五角大厦要求取消这些安全限制,并以《国防生产法》为依据,威胁将 Anthropic 列入供应链风险名单,此举导致美国总统特朗普隔天便下令所有联邦机构停用 Anthropic 技术。
颇具戏剧性的是,在 Anthropic 被禁当晚,OpenAI 宣布与五角大厦达成合作。这种更替引发科技界强烈反响,部分员工联署公开信,呼吁企业拒绝将 AI 用于军事目的。
AI无疑将深刻改变战争形态,但技术本身并无善恶,关键在于人类如何使用它。产业界、学界与政策制定者必须协同构建“负责任的AI军事化”路径:
科技企业应坚守伦理底线,设立独立审查委员会;
政府需推动专项立法,而非依赖过时法律强行干预;
国际社会应加快谈判,推动《AI战争公约》落地。
正如一位战略学者所言:“我们正站在一个十字路口——是让AI成为人类理性的延伸,还是放任它成为失控的战争机器?答案,取决于今天的每一个选择。”
4月2日,兆易创新宣布正式发布新一代SPI NAND Flash产品GD5F4GM7/GD5F8GM8。
标普全球Visible Alpha研究主管Melissa Otto指出,当前推动股市创纪录上涨的人工智能巨额投资正面临显著挑战,主要由于中东危机对全球经济增长前景与能源成本带来不确定性影响。
南加州大学团队研发新型存储芯片,可在 700°C 高温下稳定运行,且未出现性能退化迹象。
联发科和高通已开始下修于晶圆代工厂的4nm投片量,显示手机链景气明显降温
EM8695 RedCap模块基于Qualcomm SDX35基频处理器,为无需传统5G全速率或复杂功能的应用提供精简型5G解决方案