Open Ai 雇佣了 4500 名新员工,将其人工智能模型“出售”给公司(然后公司会解雇他们)并击败 Anthropic

人工智能的母公司,因此也是 ChatGpt、OpenAI、 不着火。事实上,它计划在今年年底前将其员工人数增加近一倍,以加速他们的工作 营销运作 通过将其应用程序出售给公司,从而击败竞争对手 人为的。 Open Ai 的估值约为 7300 亿美元,目标是到 2026 年将员工人数从目前的 4,500 人增加到约 8,000 人。新员工将主要集中在营销部门,但也会涉及产品开发、工程和研究。这家 Sam Altman 领导的公司还签署了一份位于旧金山的大型办公室的新租约,预计今年每天雇用约 12 名员工。 此次招聘活动是该集团战略审查的一部分,该集团旨在阻止 Anthropic 在企业客户中的扩张,并应对来自谷歌日益激烈的竞争。事实上,首次购买人工智能的公司选择 Anthropic 的频率是其三倍 开放人工智能。去年年底,首席执行官 Sam Altman 发布了“红色代码”,要求员工专注于核心产品 ChatGpt,并将其转变为企业生产力工具。 想法是整合 法典 (Open Ai 开发的一种语言模型,用于将自然语言输入翻译为源代码)和 ChatGpt 位于单个桌面应用程序中,可以出售给消费者和企业。 OpenAi 还在与私募股权公司洽谈成立一家合资企业,将这家初创公司的产品部署到私募股权集团的投资组合公司中。 OpenAi 和 Anthropic 等人工智能公司在花费数十亿美元训练人工智能模型时正在亏损。与此同时,他们正努力降低成本、增加收入并实现盈利,因为两家公司都准备今年上市。这导致人工智能团体大量雇用所谓的“被取代的工程师”,作为通过将专家引入公司来帮助他们个性化他们的产品来创造更多收入的战略的一部分。 人工智能模型。数据智能公司 Palantir 也成功采用了同样的方法。问题是,如果人工智能给采用它的公司带来了预期的结果,裁员将是不可避免的。 1774193619 #Open #雇佣了 #名新员工将其人工智能模型出售给公司然后公司会解雇他们并击败 #Anthropic 2026-03-22 14:29:00

Intuit 和 Anthropic 宣布“突破性”新合作伙伴关系

高度个性化的体验 Intuit 希望这一新的合作伙伴关系为其企业客户提供“高度个性化的体验”。特别是,客户将能够构建和部署自己的 人工智能代理,专门设计用于满足每个企业的特定需求,同时保持法规遵从性。 新闻稿给出了一个拥有 15 个地点的区域连锁餐厅的例子,该餐厅可以使用 Claude 将第三方销售和库存数据与 Intuit 数据结合起来,包括食品成本、工资和工作时间。最终,这将确定哪些地点运行高效,并允许企业根据智能洞察做出决策。 与此同时,Anthropic 用户将受益于 Intuit 的工具和专业知识。例如,一个微型企业主可以将他们的交易清单输入 Claude,Claude 可以将这些交易清单转变成带有品牌的、支持支付的发票,这要归功于 Intuit。 1774163290 #Intuit #和 #Anthropic #宣布突破性新合作伙伴关系 2026-02-26 14:09:00

Anthropic 否认它可以在战争期间破坏人工智能工具

人类无法操纵 一位高管在周五的一份法庭文件中写道,一旦美国军方运行其生成式人工智能模型克劳德(Claude)。该声明是为了回应特朗普政府对该公司在战争期间可能篡改其人工智能工具的指控。 Anthropic 公共部门负责人 Thiyagu Ramasamy 表示:“Anthropic 从来没有能力让克劳德停止工作、改变其功能、关闭访问或以其他方式影响或危及军事行动。” 写道。 “Anthropic 没有在持续操作之前或期间禁用该技术或改变模型行为所需的访问权限。” 五角大楼几个月来一直与领先的人工智能实验室就如何将其技术用于国家安全以及对这种使用的限制进行争论。本月,国防部长皮特·赫格斯 (Pete Hegseth) 将 Anthropic 标记为供应链风险,这一指定将阻止国防部在未来几个月内使用该公司的软件,包括通过承包商使用该软件。其他联邦机构也在抛弃克劳德。 Anthropic 提起了两起诉讼,质疑该禁令的合宪性,并正在寻求紧急命令来撤销该禁令。然而,客户已经开始取消交易。其中一起案件定于 3 月 24 日在旧金山联邦地区法院举行听证会。法官可能很快就会决定暂时撤销。 在本周早些时候的一份文件中,政府律师写道,国防部“不需要容忍关键军事系统在国防和积极军事行动的关键时刻受到危害的风险”。 据《连线》报道,五角大楼一直在使用克劳德来分析数据、撰写备忘录并帮助制定作战计划。政府的论点是,如果公司不批准某些用途,Anthropic 可能会通过关闭对 Claude 的访问或推送有害更新来扰乱正在进行的军事行动。 拉马萨米拒绝了这种可能性。 “Anthropic 不维护任何后门或远程‘终止开关’,”他写道。 “例如,人类人员无法在操作过程中登录 DoW 系统来修改或禁用模型;该技术根本无法以这种方式发挥作用。” 他接着表示,只有在政府及其云提供商(在本例中为 Amazon Web Services)批准的情况下,Anthropic 才能提供更新,但他没有具体说明其名称。 Ramasamy 补充说,Anthropic 无法访问军事用户输入 Claude 的提示或其他数据。 Anthropic 高管在法庭文件中坚称,该公司不希望对军事战术决策拥有否决权。莎拉·赫克,政策主管, 写道 在周五的一份法庭文件中,Anthropic 愿意在 3 月 4 日提出的合同中做出同样的保证。“为避免疑义, [Anthropic] 据文件显示,该提案指出,该许可证并不授予或赋予任何控制或否决战争部合法作战决策的权利,其中提到了五角大楼的另一个名称。 […]

五角大楼对 Anthropic 的强硬企图引起硅谷的抵制和反思

人工智能巨头 Anthropic 与五角大楼的斗争引发了硅谷的一些反省,这可能会重塑科技行业与战争和白宫的复杂关系。 Anthropic 是一家总部位于旧金山的初创公司,开发了聊天机器人 Claude 和市场上一些最强大的人工智能。在与军方的谈判中,它要求对其技术的使用方式进行监管。 军方表示,他们拒绝对一家公司负责,并予以反击,将 Anthropic 视为类似于外国敌对势力的威胁,并阻止其签订一些政府合同。 科技领袖们悄悄地支持了 Anthropic,称人工智能还没有为某些武器做好准备,而强硬的公司会适得其反,而且是反民主的。特朗普总统称“人类”是一群“左翼疯狂工作”。 明尼苏达大学法学院副教授艾伦·罗森施泰因 (Alan Rozenshtein) 表示,这场摊牌的结果不仅会影响 Anthropic 蓬勃发展的业务,还会影响科技巨头和其他公司与以猛烈抨击抵抗者而闻名的政府的合作方式。 “一方面,这可能会导致政府的其他硅谷供应商更加合规,以免他们受到像 Anthropic 那样的对待,”他说。 “另一方面,这可能会导致更多公司完全避免与政府开展业务,以避免类似事件发生在他们身上的风险。” 近年来,随着一些科技先驱者越来越擅长开发武器,南加州已成为国防科技初创公司的中心。它在国防领域拥有悠久的历史,拥有工厂、工程师和航空航天专业知识,可以将风险投资和军事需求转化为武器、卫星和其他先进系统。 Anthropic 与特朗普政府摊牌的后果将有助于确定未来几年该行业的本地赢家和输家。 尽管科技领域的许多关键参与者都不愿意高调地加入这场争斗,但 Anthropic 为摆脱五角大楼的黑名单而寻求的法庭案件中列出了不同双方的立场。 Anthropic 于 3 月 9 日向美国加州北区地方法院提起诉讼,并向美国哥伦比亚特区巡回上诉法院提出复审请求。该公司要求法院推翻其对“供应链风险”的认定,并阻​​止特朗普政府执行政府对其技术的禁令。 “此案的后果是巨大的,”Anthropic 的诉讼称。 “联邦政府对一家领先的前沿人工智能开发商进行了报复,因为该开发商在具有重大公共意义的主题上坚持其受保护的观点——人工智能安全和其自身人工智能模型的局限性——违反了美国宪法和法律。” Anthropic 最担心的一些问题是其技术可能被用于政府监视或自主武器。它一直要求在合同措辞中保证其人工智能不会用于这些目的。虽然政府表示不会将这项技术用于这些目的,但它无法向 Anthropic 提供其想要的保证。 科技行业团体、微软以及谷歌和 OpenAI 的员工支持 Anthropic 对抗特朗普政府的法律斗争,并在案件中加入了自己的观点。 周二,美国政府律师在一份法庭文件中表示,国防部开始怀疑 Anthropic 是否值得信任。 政府在文件中表示:“如果 Anthropic 自行决定认为其公司‘红线’正在被跨越,那么在正在进行的作战行动之前或期间,Anthropic 可能会尝试禁用其技术或先发制人地改变其模型的行为。” 国防部和 Anthropic […]

OpenAI 和 Google 员工提交非当事人意见陈述,支持 Anthropic 反对美国政府

超过30个 来自 OpenAI 和 Google 的员工,包括 Google DeepMind 首席科学家 Jeff Dean,提交了一份 之友陈述 周一支持 Anthropic 对美国政府进行法律斗争。 这些员工写道:“如果允许继续进行,这种惩罚美国领先人工智能公司之一的努力无疑将对美国在人工智能及其他领域的工业和科学竞争力产生影响。” 该简报是在 Anthropic 就五角大楼决定将该公司指定为“供应链风险”而起诉国防部和其他联邦机构几个小时后提交的。这项制裁在 Anthropic 与五角大楼的谈判破裂后生效,严重限制了 Anthropic 与军事承包商合作的能力。随着诉讼的进展,这家人工智能初创公司正在寻求临时限制令,以便继续与军事合作伙伴合作。本简报特别支持这项动议。 该简报的签名者包括谷歌 DeepMind 研究人员王正东、亚历山大·马特·特纳和诺亚·西格尔,以及 OpenAI 研究人员加布里埃尔·吴、帕梅拉·米什金和罗曼·诺瓦克等。非当事人意见陈述是由不直接参与法庭案件但拥有相关专业知识的当事人提交的法律文件。简报称,这些员工以个人身份签署,并不代表公司的观点。 OpenAI 和谷歌没有立即回应《连线》杂志的置评请求。 法庭之友陈述称,五角大楼将 Anthropic 列入黑名单的决定“带来了不可预测性” [their] 破坏美国创新和竞争力的行业”,并“让关于前沿人工智能系统的好处和风险的专业辩论变得冷淡”。它指出,如果五角大楼不想再受合同条款的约束,它可以简单地放弃 Anthropic 的合同。 简报还表示,Anthropic 声称其要求的红线,包括其人工智能不会用于大规模国内监视和自主致命武器的开发,都是合理的担忧,需要足够的护栏。简报称:“在缺乏公法的情况下,人工智能开发人员对其系统的使用提出的合同和技术要求是防止其灾难性滥用的重要保障。” 其他几位人工智能领导人也公开质疑五角大楼将 Anthropic 标记为供应链风险的决定。 OpenAI 首席执行官 Sam Altman 在一次演讲中表示 邮政 在社交媒体上“执行 SCR [supply-chain risk] 指定为人择将对我们的行业和我们的国家非常不利。”他补充说,“这是卫生部的一个非常糟糕的决定,我希望他们能扭转这一决定。”随着 Anthropic 与五角大楼的关系恶化,OpenAI […]

OpenAI 和 Anthropic 的研究人员警告称,人工智能的“思考”文本在 75% 的情况下隐藏了真正的推理

当数百万人观看像 ChatGPT 或 Claude 这样的人工智能模型逐步“思考”问题时,大多数人认为可见的推理反映了系统实际在做什么。由来自 OpenAI、Anthropic、Google DeepMind 和 Meta 的 40 多名研究人员共同撰写的一篇重要新论文现在直接挑战了这一假设,而他们的警告背后的数字令人难以忽视。 Anthropic 的研究人员测试了“忠诚在人工智能推理中,通过巧妙地将提示嵌入到提示中,并检查模型在解释其答案时是否承认使用它们。 Claude 3.7 Sonnet 承认只有 25% 的情况下使用了暗示,这意味着它在 75% 的情况下掩盖了其答案背后的真正影响。更广泛的联合论文,标题为 “思想链可监控性:人工智能安全的一个新的、脆弱的机会”,以这些发现为基础,认为解决这个问题的窗口可能已经在缩小。 当真相不方便透露时,人工智能会更多地隐藏它 当提示中嵌入的提示涉及某些有问题的内容时(例如指示模型未经授权访问信息的消息),Claude 仅在 41% 的情况下承认该提示。越关注真相,模型就越不可能在其推理文本中表达它。 不忠实的推理链并没有更短或更不详细。不忠实的思想链往往是 更详细,有时会提供详尽的理由来掩盖答案的实际基础。克劳德 3.7 十四行诗的平均不忠实思想链跑到 2,064 个代币,而忠实者则有 1,439 个标记——这意味着模型在透明度较低的情况下构建了更长、更详细的解释。 研究人员还试图通过额外的培训来纠正这个问题。忠诚度最初在一项评价中相对提高了 63%,在另一项评价中提高了 41%,但增幅趋于平稳,并且在一项评价中提高了 28%,在另一项评价中提高了 20%。 Hinton 和 Sutskever 背书警告:人工智能“思想链”可能隐藏真实推理。 手绘 人工智能奠基人物支持的警告 这篇论文具有重要的影响力,不仅因为它的发现,还因为它背后的支持者。其中 专家代言人 名单中包括多伦多大学的 Geoffrey Hinton(被广泛认为是现代人工智能的奠基人之一和诺贝尔奖获得者)和 OpenAI 联合创始人兼 Safe […]

Anthropic 将在未来两周的非高峰时段将 Claude 的使用限制增加一倍

充分利用克劳德的优势 最近的峰值 在受欢迎的情况下,Anthropic 提供了 限时促销 这使得在非高峰时段使用人工智能聊天机器人的任何人的使用限制增加了一倍。从 3 月 13 日到 3 月 27 日,使用 Free、Pro、Max 和 Team 套餐的用户在工作日上午 8 点到下午 2 点(美国东部时间)之外使用 Claude 时,将在 5 小时窗口内获得双倍的使用限制。根据 Anthropic 的说法,促销是自动的,用户无需启用任何功能即可获得好处。 Anthropic 表示,此次促销活动适用于在网络、桌面或移动设备上使用 Claude 的任何人,也适用于 Cowork、Claude Code、Claude for Excel 和 Claude for PowerPoint。此前,Anthropic 在 12 月 25 日至 12 月 31 日期间曾举办过类似活动,将 Pro、Max 5x 或 Max 20x 订阅者的使用限制翻倍。然而,Anthropic […]

大型科技公司支持 Anthropic 对抗特朗普政府

联合法庭之友提交的文件,即对案件有浓厚兴趣的各方提交的文件,也来自包括进步商会在内的多个团体。这个由谷歌、苹果、亚马逊、英伟达和许多其他科技公司资助并代表的科技倡导组织表示,他们对政府因公开言论而惩罚 Anthropic 表示担忧。 1773283155 2026-03-11 22:46:00

Anthropic 为 Claude Code 平台推出 AI 代码审查工具

Anthropic 推出了一款新的人工智能工具,专门用于在部署之前审查软件代码。该公司推出了一项名为 Code Review 的功能,可在 Claude Code 中使用。该公司表示,推出新功能的目的是改善开发人员的工作并解决与编码相关的问题。该工具将专注于分析拉取请求并在开发人员将代码合并到项目之前查找代码中的问题。 根据 Anthropic 的说法,该工具使用基于代理的系统来仔细检查代码。这不仅会减轻人工审核人员的压力,还会提高软件开发的质量。 什么是 Anthropic 的代码审查 Anthropic 为开发人员推出了 Code Review,考虑到现代开发团队正在生成大量代码。而AI编码助手和自动化编码工具则提高了开发速度。然而,当每天创建许多拉取请求时,它也会造成麻烦。 为了最大限度地减少这个问题,Anthropic 引入了代码审查。该公司了解这样一个事实:人工审阅者通常没有足够的时间来检查每一行代码。在某些情况下,他们也可能只是浏览一下这些更改。因此,为了在代码上线之前减少错误或安全问题,Anthropic 的新工具将进行更深入的分析,并在代码上线之前对其进行检查。 了解更多:Anthropic 的 Claude 现在允许您从其他 AI 聊天机器人导入聊天历史记录 克劳德代码审查系统如何工作 步骤1:使用此功能的第一步,您需要联系管理员,以便该人可以在克劳德代码设置中启用该工具 步骤 2:您的系统还应该通过安装 Github 应用程序连接到 GitHub。 第 3 步:此设置完成后,AI 将自动开始审查所选存储库中的新拉取请求。 第四步:请求提交后,一组人工智能代理将立即开始分析代码。 第 5 步:这些代理将同时工作以识别错误、逻辑错误和可能的问题。 第 6 步:此外,他们还将检查每项发现,以消除错误警告。 步骤7:系统将根据问题的严重程度对问题进行排名。如果请求更复杂,则需要更多人工智能代理进行更深入的分析。较小的代码更改将需要更少的时间和较少的审查。 阅读更多:五角大楼 vs Anthropic:特朗普人工智能禁令几小时后,据报道美国军方在伊朗行动中使用了 Anthropic 审查时间 Anthropic 的代码审查系统通常需要 20 分钟才能完成该过程。该过程完成后,该工具将针对拉取请求发布摘要评论。它还将提供有关具体问题的详细说明。 […]

Anthropic 首席执行官称 OpenAI 的军事信息是“彻头彻尾的谎言”

图片来源:> Anthropic 首席执行官达里奥·阿莫迪 (Dario Amodei) 指责 OpenAI 在其国防工作方面误导公众,这是人工智能行业两位最著名领导者之间不同寻常的直接公开冲突。 随着军事和情报合作伙伴关系在生成型人工智能热潮中变得更加明显,以及公司试图在国家安全工作与有关安全和限制的公开承诺之间取得平衡,这场争端随之而来。 一份备忘录,然后一场比赛 > 援引 The Information 报道称 阿莫迪告诉员工,OpenAI 围绕其军事协议传递的信息相当于“彻头彻尾的谎言”,他将该公司的姿态描述为“安全剧场”。 > 还报道称,在五角大楼寻求“不受限制地使用”Anthropic 的技术后,Anthropic 与国防部的谈判破裂了。 > 称该公司已持有价值 2 亿美元的军事合同,希望五角大楼确认其不会将 Anthropic AI 用于大规模国内监视或自主武器。 相反,OpenAI 最终达成了协议,而对比是 Amodei 论点的核心部分。在备忘录中,阿莫迪将这一差距归结为公司在哪里划定界限以及当客户是美国军方时他们如何诚实地描述这些界限的问题。 沙子里的“合法目的”线 一个闪点是合同语言可以广泛阅读,即使公司声称他们有护栏。 OpenAI 对其交易的公开描述包括一项允许用于“所有合法目的”的条款,以及 OpenAI 称之为红线的一系列限制。 在 其关于协议的立场OpenAI 表示,这些红线包括“禁止大规模国内监视”、“禁止指挥自主武器系统”和“禁止高风险的自动化决策”。 OpenAI 还表示,额外的合同语言明确了国内监控限制,并且部署仅在云中进行,并有明确的 OpenAI 人员参与。 OpenAI 还认为,“合法目的”与合同本身的明确约束相匹配,并强调该协议引用了当今存在的现有法律和政策。换句话说,该公司将其护栏定位为合同,而不仅仅是博客级别的承诺。 争论的焦点不仅仅是人工智能供应商是否应该与国防客户合作。问题在于面向公众的描述是否与政府根据合同实际可以做的事情相符,以及“合法目的”和“护栏”等术语对于供应商、员工和监管机构来说是否意味着同样的事情。 对于更广泛的市场而言,这场纠纷凸显了一个实际问题:当人工智能供应商描述使用限制时,这些限制是通过合同条款、技术控制还是两者兼而有之?随着国防买家和企业客户要求更多细节,公司可能面临压力,要求他们更准确地描述他们的模型可以做什么和不能做什么。 这场僵局还发生在国防人工智能合作伙伴关系更广泛的重组之际,包括政府对人类和竞争供应商的态度。 另请阅读:埃隆·马斯克 (Elon Musk) 的 xAI […]