OpenAI 和 Google 员工提交非当事人意见陈述,支持 Anthropic 反对美国政府
超过30个 来自 OpenAI 和 Google 的员工,包括 Google DeepMind 首席科学家 Jeff Dean,提交了一份 之友陈述 周一支持 Anthropic 对美国政府进行法律斗争。 这些员工写道:“如果允许继续进行,这种惩罚美国领先人工智能公司之一的努力无疑将对美国在人工智能及其他领域的工业和科学竞争力产生影响。” 该简报是在 Anthropic 就五角大楼决定将该公司指定为“供应链风险”而起诉国防部和其他联邦机构几个小时后提交的。这项制裁在 Anthropic 与五角大楼的谈判破裂后生效,严重限制了 Anthropic 与军事承包商合作的能力。随着诉讼的进展,这家人工智能初创公司正在寻求临时限制令,以便继续与军事合作伙伴合作。本简报特别支持这项动议。 该简报的签名者包括谷歌 DeepMind 研究人员王正东、亚历山大·马特·特纳和诺亚·西格尔,以及 OpenAI 研究人员加布里埃尔·吴、帕梅拉·米什金和罗曼·诺瓦克等。非当事人意见陈述是由不直接参与法庭案件但拥有相关专业知识的当事人提交的法律文件。简报称,这些员工以个人身份签署,并不代表公司的观点。 OpenAI 和谷歌没有立即回应《连线》杂志的置评请求。 法庭之友陈述称,五角大楼将 Anthropic 列入黑名单的决定“带来了不可预测性” [their] 破坏美国创新和竞争力的行业”,并“让关于前沿人工智能系统的好处和风险的专业辩论变得冷淡”。它指出,如果五角大楼不想再受合同条款的约束,它可以简单地放弃 Anthropic 的合同。 简报还表示,Anthropic 声称其要求的红线,包括其人工智能不会用于大规模国内监视和自主致命武器的开发,都是合理的担忧,需要足够的护栏。简报称:“在缺乏公法的情况下,人工智能开发人员对其系统的使用提出的合同和技术要求是防止其灾难性滥用的重要保障。” 其他几位人工智能领导人也公开质疑五角大楼将 Anthropic 标记为供应链风险的决定。 OpenAI 首席执行官 Sam Altman 在一次演讲中表示 邮政 在社交媒体上“执行 SCR [supply-chain risk] 指定为人择将对我们的行业和我们的国家非常不利。”他补充说,“这是卫生部的一个非常糟糕的决定,我希望他们能扭转这一决定。”随着 Anthropic 与五角大楼的关系恶化,OpenAI […]
特朗普政府不排除对人类采取进一步行动
在人类的第一 在法庭听证会上,这家人工智能科技初创公司质疑特朗普政府实施的制裁,要求政府承诺不会对该公司征收额外的处罚。那没有发生。 “我不准备就这个问题做出任何承诺,”司法部律师詹姆斯·哈洛(James Harlow)周二在视频会议上对美国地区法官丽塔·林(Rita Lin)表示。 事实上,政府正准备采取另一项措施,旨在阻止该公司与联邦机构开展业务。据一位知情但未获授权讨论此事的白宫人士透露,特朗普总统目前正在敲定一项行政命令,正式禁止整个政府使用人择工具。阿克西奥斯 首次报道 在计划上。 周二的听证会源自 Anthropic 周一针对特朗普政府提起的两起联邦诉讼之一,指控政府违宪地将其指定为供应链风险,并将其变成了科技行业的贱民。 Anthropic 表示,由于现有客户和潜在客户退出交易并要求新条款,该公司数十亿美元的收入目前面临风险。 Anthropic 正在寻求法院的初步命令,暂停风险指定,并禁止政府对其采取进一步的惩罚措施。 周二出庭的目的是决定初步听证会的时间表,Anthropic 渴望尽快举行听证会,以防止其业务受到进一步损害。 WilmerHale 的 Anthropic 律师迈克尔·蒙根 (Michael Mongan) 告诉林,如果特朗普政府能够承诺不采取额外行动,他不太担心将其推迟到四月。蒙根说:“被告的行为正在造成不可挽回的伤害,而且这些伤害正在与日俱增。” 在哈洛拒绝后,林将听证会日期提前至 3 月 24 日在旧金山举行,尽管这个时间表仍然比 Anthropic 想要的要晚。 “此案对双方来说都非常重要,我想确保我决定的是快速记录,但也是完整记录,”法官说。 位于华盛顿特区的另一起案件的日程安排被搁置,而 Anthropic 正在向国防部提出行政上诉,预计周三会失败。 五角大楼和 Anthropic 之间长达数月的争端始于这家人工智能初创公司拒绝批准军方将其当前技术用于任何合法目的,它担心这可能包括对美国人的广泛监视以及在没有人类监督的情况下发射导弹。国防部声称使用决定是其特权。 几位精通政府合同和美国宪法的律师认为,政府对 Anthropic 的行动继续滥用法律来惩罚政治敌人,包括大学、媒体公司和律师事务所(例如 威尔默·黑尔,代表 Anthropic 的公司)。专家们认为,人择法应该占上风,但面临的挑战是如何克服法院经常对政府的国家安全论点给予的尊重,尤其是在战争时期。 “如果这是一次性的,你可能会给总统一些尊重,”曾在巴拉克·奥巴马总统政府工作过的耶鲁大学法学院教授哈罗德·洪珠·科 (Harold Hongju Koh) 说道。 已写 关于人择案例。 “但现在,毫无疑问,这只是与惩罚性总统相关的一系列事件中的最新一起。” 乔治城大学法律中心研究宪法的教授大卫·苏佩(David Super)表示,国防部用于制裁人类公司的条款旨在保护国家免受敌人的潜在破坏。
Palantir 演示展示了军方如何使用人工智能聊天机器人来制定战争计划
当用户询问“该地区有哪些敌方军事单位?” AIP助手猜测“根据装备的样式,很可能是一个装甲攻击营”。这促使分析师请求使用 MQ-9 Reaper 无人机来勘察现场。然后,他们要求 AIP 助理“制定三个行动方案来瞄准这些敌方装备”,不久之后,助理就会建议用“空中资产”、“远程火炮”或“战术小组”攻击该单位。用户告诉助手将这些选项发送给虚构的指挥官,由他最终选择战术团队。 最后的步骤很快就会完成:分析人员要求 AIP 助手“分析战场”,然后“生成一条路线”让部队到达敌人,最后“分配干扰器”来破坏他们的通信设备。几秒钟之内,分析师就对作战计划进行了最终审查,并命令部队进行动员。 在这种情况下,Claude 将成为 AIP 助手的“声音”,以及它用来生成响应的“推理”。其他 AIP 演示向用户展示了以大致相同的方式与大型语言模型进行交互。在博客中 发表 例如,上周,Palantir 详细介绍了 NATO(Maven 智能系统)如何 顾客,可以在工具中使用 AIP 代理。 在一张图中,Palantir 展示了第三方国防承包商如何从 Palantir 的多个内置 AI 模型中进行选择,包括 OpenAI 的 ChatGPT 和 Meta 的 Llama 的不同版本。用户选择 OpenAI 的 GPT 4.1,但看起来,士兵也可以选择选择 Claude。 然后,分析人员查看显示部队和武器位置的数字地图。在标有“COA”(行动方针)的面板中,他们单击一个按钮,提示由 GPT-4.1 提供支持的工具生成五种可能的军事策略,其中包括一种名为“火力支援-然后-渗透-冲击-毁灭”的策略。 另一个例子展示了系统如何帮助解释卫星图像:分析人员在地图上选择三个油罐车检测结果,将它们加载到 AIP 代理的聊天界面中,并要求其“解释”图像并建议下一步操作的选项。 克劳德还可能被军方用来进行情报评估,为以后的打击计划提供信息。 2025 年 6 月,《连线》杂志观看了 Anthropic […]
“恐怖谷”:Anthropic 的国防部诉讼、战争模因和人工智能将取代风险投资工作
布莱恩·巴雷特: 讽刺是我最喜欢的部分,因为我觉得风险投资家在很大程度上将自己定位为不受人工智能影响的人,因为他们非常特别,而且机器肯定可以—— 佐伊·希弗: 这是艺术,不是科学。 布莱恩·巴雷特: 是的。这是艺术,不是科学。机器可以取代一切工作,但不能取代我们。对他们来说,阶梯以一种有趣的方式停在 VC 下方。所以我想知道现在有多少人实际上在使用这个,特别是因为风险投资家本身对此持怀疑态度,看起来如此。观众是谁?它是否找到了真正的吸引力? 佐伊·希弗: 是的。因此,ADIN 的工作方式是让球探出去寻找潜在的交易,然后这些球探就可以通过这些交易赚钱。所以我认为风险投资不一定会采用这个网络,但人们会绕过它们,它们就不会那么必要、那么有用。我认为还有一个很大的讽刺,Arielle 在她的文章中指出,那就是,如果你可以自己和一群人工智能代理创办一家公司,你就可以通过编码走向成功,你甚至需要所有的风险投资资金吗? 利亚·费格: 我不知道。对我来说有太多的事情,对人工智能抢走工作有太多的恐惧。我觉得每一篇其他文章都在说,“这些人很紧张,这些人很紧张。”布莱恩是对的,有趣的是这些人刚刚全力投入人工智能,但我仍在等待。我仍在等待人工智能取代这些工作。还了吗?还会吗? 佐伊·希弗: 是的。我认为最近有一项研究。昨天我和我们的一位出色的人工智能记者威尔·奈特(Will Knight)谈论了这个问题,他说:“看,很多行业还没有证据。正如经常发生的那样,炒作远远超出了这里的实际数据。我们不知道人工智能正在抢走工作。”但我想说的是,在旧金山,我听到很多人说工程团队现在特别臃肿。代理实际上可以完成很多工作,并且您肯定需要人员来管理这些代理,但是您可能会削减很多团队 80%、50%、60%。因此,我认为我们将首先在工程领域看到更多与人工智能相关的失业,然后在其他领域。 布莱恩·巴雷特: 著名风险投资家、Andreessen Horowitz 联合创始人马克·安德森 (Marc Andreessen) 在最近的播客中说过这样的话。听听他认为自己的职业有多么特别。 马克·安德森,档案音频: 过去 70 年来,每一位伟大的风险投资家都错过了他这一代的大多数伟大公司。如果它是一门科学,那么最终可能会有人只需拨入它并在 10 分中得到 8 分,但在现实世界中,情况并非如此。这只是你从事侥幸生意而已。所以它是无形的。有品味方面、人际关系方面、心理学方面。我不想给出明确的说法,但这可能是真正永恒的。当人工智能正在做其他所有事情时,这可能是人们仍在做的最后剩下的领域之一。
人为声称五角大楼的不和可能造成数十亿美元的损失
人智高管声称 法庭文件显示,自上个月末美国国防部将这家人工智能初创公司标记为供应链风险以来,现有客户和潜在客户一直在要求新条款,甚至退出谈判。法庭文件还披露了该公司的新财务细节。 Anthropic 首席财务官 Krishna Rao 在报告中写道,今年与五角大楼相关的工作带来的数亿美元预期收入已经面临风险。 法庭文件 周一。但他表示,如果政府一意孤行,向广泛的公司施压,要求其与这家人工智能初创公司开展业务,无论与军方有什么关系,Anthropic 最终可能会损失数十亿美元的销售额。 Rao 表示,自 2023 年将其技术商业化以来,其历史销售额超过 50 亿美元。 随着 Anthropic 的 Claude 模型开始超越竞争对手,并在生成软件代码等领域展现出先进的功能,Anthropic 的收入呈爆炸式增长。但该公司在计算基础设施上投入巨资,而且仍然严重亏损。 Rao 指出,Anthropic 已花费超过 100 亿美元来训练和部署其模型。 Anthroic 首席商务官 Paul Smith 提供了几个最近几天私下向这家人工智能初创公司提出担忧的合作伙伴的例子。他表示,一家金融服务客户因供应链标签而暂停了一项 1500 万美元交易的谈判,两家领先的金融服务公司拒绝完成总价值 8000 万美元的交易,除非它们获得以任何理由单方面取消合同的权利。一家杂货店连锁店以供应链风险指定为由取消了销售会议, 史密斯补充道。 史密斯写道:“所有人所采取的措施都反映出了深深的不信任以及对与人类交往日益增长的恐惧。” 这些高管的评论是六位 Anthropic 领导人声明的一部分,他们支持一项初步命令,该命令将允许这家旧金山公司继续与国防部开展业务,直到有关供应链风险问题的诉讼得到解决。 Anthropic 已在两个法院起诉特朗普政府。周一在旧金山联邦法院提起的诉讼指控政府侵犯了该公司的言论自由权。周一向华盛顿特区联邦上诉法院提起的另一起案件指控国防部对 Anthropic 进行不公平的歧视和报复。 该公司正在寻求最早于周五在旧金山举行听证会,以获得暂时缓刑。在这场法律斗争和销售后果之前,Anthropic 和五角大楼就人工智能技术可能用于大规模家庭监控和自主致命武器的问题展开了长达数周的争论。 Anthropic 认为人工智能尚无法安全地执行这些任务,而五角大楼希望有权自行做出判断。 根据法律,供应链指定会阻止少数与五角大楼有业务往来的公司将 Anthropic 纳入其系统。但国防部长皮特·赫格斯已经撒下了更大的网。他 发布 上月底 X […]
人择与五角大楼、SaaS 末日以及为什么竞争实际上是好的
五角大楼已正式将 Anthropic 认定为供应链风险,因为两国未能就军方对其人工智能模型拥有多少控制权(包括其在自主武器和大规模国内监控中的使用)达成一致。随着 Anthropic 价值 2 亿美元的合同破裂,国防部转而求助于 OpenAI,该公司接受了 ChatGPT,然后发现 ChatGPT 的卸载量激增 295%。随着风险不断增加,问题仍然存在:军方应该对人工智能模型有多少不受限制的访问权限? 在 > 股票播客的这一集中,主持人 Kirsten Korosec、Anthony Ha 和 Sean O’Kane 深入探讨了初创公司在追逐联邦合同时应该考虑什么,尤其是在华盛顿似乎没有人知道如何处理人工智能的情况下,以及本周的头条新闻。 收听完整剧集以了解更多信息: 派拉蒙与华纳兄弟的巨额交易,以及 Equity 团队对于新的 HBO Max-Paramount+ 混合影片的名称的想法 公司是否应该为 SaaS 末日做好准备,或者这只是人工智能炒作周期的又一章 订阅股票于 YouTube, 苹果播客, 灰蒙蒙, Spotify 和所有演员。您还可以关注股票 X 和 线程数,@EquityPod。 1772975347 #人择与五角大楼SaaS #末日以及为什么竞争实际上是好的 2026-03-06 18:01:00
Anthropic 与五角大楼的交易对于追逐联邦合同的初创公司来说是一个警示故事
五角大楼已正式将 Anthropic 认定为供应链风险,因为两国未能就军方对其人工智能模型拥有多少控制权(包括其在自主武器和大规模国内监控中的使用)达成一致。随着 Anthropic 价值 2 亿美元的合同破裂,国防部转而求助于 OpenAI,该公司接受了 ChatGPT,然后发现 ChatGPT 的卸载量激增 295%。随着风险不断增加,问题仍然存在:军方应该对人工智能模型有多少不受限制的访问权限? 观看 Equity 主持人 Kirsten Korosec、Anthony Ha 和 Sean O’Kane 详细介绍初创公司在追逐联邦 AI 合同时应该了解的知识,以及本周最大的科技故事,从派拉蒙的华纳兄弟交易和 MyFitnessPal 的 Cal AI 收购到 Pinterest 的 10 亿美元人工智能推动、Anduril 的 600 亿美元估值,以及“SaaSpocalypse”是否真实。 订阅股票于 YouTube, 苹果播客, 灰蒙蒙, Spotify 和所有演员。您还可以关注股票 X 和 线程数,@EquityPod。 1772821488 #Anthropic #与五角大楼的交易对于追逐联邦合同的初创公司来说是一个警示故事 2026-03-06 18:09:00
OpenAI 已禁止军事用途。五角大楼无论如何都通过微软测试了其模型
OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 本周在其公司与美国军方签署协议后仍处于尴尬境地。 Anthropic 与五角大楼签订的价值约 2 亿美元的合同破裂后,OpenAI 员工批评了这一举措,并要求 Altman 公布有关该协议的更多信息。奥特曼承认它在社交媒体上看起来“草率” 邮政。 虽然这一事件已成为重大新闻报道,但这可能只是 OpenAI 围绕美国军方如何访问其人工智能制定模糊政策的最新、最公开的例子。 2023年,OpenAI的使用政策明确禁止军方访问其AI模型。但两位知情人士称,一些 OpenAI 员工发现五角大楼已经开始试验 Azure OpenAI,这是微软提供的 OpenAI 模型的一个版本。当时,微软已经与国防部签订了数十年的合同。它也是 OpenAI 最大的投资者,并拥有将这家初创公司的技术商业化的广泛许可。 消息人士称,同年,OpenAI 员工看到五角大楼官员走过该公司位于旧金山的办公室。他们要求匿名,因为他们无权评论私人公司事务。 一些 OpenAI 员工对与五角大楼建立联系持谨慎态度,而另一些员工则只是对 OpenAI 的使用政策的含义感到困惑。该政策适用于 Microsoft 吗?虽然消息人士告诉《连线》杂志,当时大多数员工并不清楚,但 OpenAI 和微软的发言人表示,Azure OpenAI 产品现在和过去都不受 OpenAI 政策的约束。 发言人 Frank Shaw 在给 WIRED 的一份声明中表示:“微软有一款名为 Azure OpenAI 服务的产品,该产品于 2023 年向美国政府提供,并受微软服务条款的约束。”微软拒绝具体评论何时向五角大楼提供 Azure OpenAI,但指出该服务未获批准用于“绝密” 到 2025 […]
特朗普采取行动禁止美国政府使用人类
美国总统唐纳德 王牌 宣布 周五,他指示每个联邦机构“立即停止”使用 Anthropic 的人工智能工具。在此之前,Anthropic 和高级官员就人工智能的军事应用发生了数周的冲突。 特朗普在一篇关于 真相社会。 特朗普表示,使用 Anthropic 的机构将有一个“六个月的逐步淘汰期”,这可能为政府和人工智能初创公司之间的进一步谈判留出时间。 五角大楼和 Anthropic 没有立即回应置评请求。 总统宣布这一消息后不久,国防部长皮特·赫格斯 (Pete Hegseth) 说 Anthropic 还将被指定为“供应链风险”,这一举措通常是为被认为对美国国家安全构成威胁的外国企业保留的。该指定将禁止美国军方及其承包商和供应商与这家人工智能公司合作。 Hegseth 还猛烈抨击了 Anthropic 及其首席执行官达里奥·阿莫代 (Dario Amodei),因为该公司拒绝同意其要求。 “他们披着‘有效利他主义’道貌岸然的言辞,试图用武力迫使美国军方屈服——这是一种将硅谷意识形态置于美国人生命之上的企业美德信号的懦弱行为,”赫格斯 写道 在 X 上。 美国国防部曾试图修改去年 7 月与 Anthropic 和其他公司达成的协议条款,以消除对人工智能部署方式的限制,并允许“所有合法使用”该技术。 Anthropic 反对这一变化,声称它可能允许人工智能被用来完全控制致命的自主武器或对美国公民进行大规模监视。 五角大楼目前没有以这些方式使用人工智能,并表示没有计划这样做。然而,特朗普政府高级官员表示反对民用科技公司支配如此重要技术的军事用途的想法。 Anthropic 是第一个与美国军方合作的大型人工智能实验室,通过 2亿美元的交易 去年与五角大楼签署了协议。它创建了几个名为 Claude Gov 的定制模型,其限制比常规模型更少。谷歌、OpenAI 和 xAI 大约在同一时间签署了类似的协议,但 Anthropic 是目前唯一一家与机密系统合作的人工智能公司。 Anthropic 的模型可通过 Palantir […]
特朗普告诉美国政府“立即”停止使用人类人工智能技术
在人工智能初创公司 Anthropic 拒绝五角大楼同意无条件军事使用其克劳德模型的要求后,唐纳德·特朗普总统周五告诉美国政府“立即”停止使用 Anthropic 的技术。 Anthropic坚称其技术不应用于对美国公民的大规模监视或部署在完全自主的武器系统中,而五角大楼则表示其在法律范围内运作,合同供应商不能就其产品的使用方式设定条款。 “我指示美国政府的每个联邦机构立即停止使用 Anthropic 的技术。我们不需要它,我们不想要它,也不会再与他们做生意!”特朗普在社交媒体帖子中说道。 “对于像战争部这样在各个级别使用 Anthropic 产品的机构,将有六个月的逐步淘汰期,”美国总统在谈到国防部时说道。 特朗普补充道:“人类最好齐心协力,在这个逐步淘汰的时期提供帮助,否则我将动用总统的全部权力让他们遵守规定,随之而来的是重大民事和刑事后果。” Anthropic 首席执行官 Dario Amodei 参加 2025 年 1 月达沃斯世界经济论坛年会期间的人工智能会议。照片:法新社 Anthropic 没有立即回复置评请求。 1772232901 #特朗普告诉美国政府立即停止使用人类人工智能技术 2026-02-27 22:19:00
