关于ZAKER 合作
钛媒体 18分钟前

Anthropic 成立 PAC:厨子不看菜谱看上兵法了

文 | 字母 AI

就在昨天,Anthropic 成立了一家新机构。

多家媒体消息披露,Anthropic 已向美国联邦选举委员会提交组织文件,设立名为 AnthroPAC 的企业政治行动委员会。

文件显示,签字人是公司财务主管 Allison Rossi;这个机构准备在 2026 年中期选举中支持两党候选人,资金来自员工自愿捐款,每人每年上限 5000 美元。

企业 PAC 不是研究机构,也不是游说公司,Anthropic 做这件事的目的很简单:给候选人捐款,支持竞选广告和选举动员,直接作用于谁能赢下席位。

首先解释下什么是 PAC(Political Action Committee 政治行动委员会)。

美国法律不允许企业直接给候选人打公司账户里的钱,所以科技公司常见做法是:由员工出资,企业来组织,最终形成企业 PAC。它和普通政策倡议组织、智库或者行业协会最大的区别,就是可以直接给候选人送钱。

Anthropic 这一步也不是凭空冒出来的。早在今年 2 月,公司已经宣布向 Public First Action(公共优先行动组织)捐出 2000 万美元。Anthropic 方面当时表示:这笔钱要用来支持 AI 透明度、安全护栏、更强的联邦治理框架、芯片出口管制,以及对生物风险和网络攻击等高风险场景的更严格管理。

这个 Public First Action 和 AnthroPAC 并不是一回事。前者属于美国法律中的 501 ( c ) ( 4 ) 组织,可以进行政策倡议、公众教育以及选举动员,通过广告和宣传影响候选人;后者则是企业 PAC,可以直接向候选人提供竞选资金,进入选举资金分配环节。

把这两步连起来看,Anthropic 的目的不言而喻,这家公司正在想尽办法介入政策的决策层。

为什么 AI 公司要搞 PAC

事实上,不止 Anthropic 开始下场,美国围绕人工智能的选举资金规模在 2026 年呈现明显放大的态势。

在美国选举体系中,企业 PAC 只是众多资金工具中的一种。根据公开数据,美国联邦选举委员会登记的各类 PAC 数量长期维持在数千个规模,而大型科技公司几乎都设有自己的企业 PAC,用于持续支持与产业相关的候选人。

相比一次性捐款,这类机构的优势在于可以跨多个选举周期运作,并根据国会委员会、法案进展等动态调整支持对象。

而在人工智能成为新一轮核心议题后,相关资金开始快速集中到几个关键方向:一是算力基础设施,包括数据中心、电力和芯片供应;二是监管框架,包括模型责任、数据使用和安全边界;三是政府采购,即 AI 技术是否能进入国防、公共服务等高预算场景。

据外媒披露,超级 PAC"Leading the Future"(引领未来)最初筹集约 5000 万美元,随后进一步扩大至 1.25 亿美元;与此同时,"Innovation Council Action"(创新委员会行动)也在准备超过 1 亿美元的中期选举相关投入。

其中,"Leading the Future" 更像是科技资本主导的资金平台,把钱直接投向支持 AI 发展和算力基础设施的候选人;"Innovation Council Action" 则把重点放在数据中心建设和联邦监管框架上。

在过去一段时间,Anthropic 一直以 AI 行业的中的 " 安全派 "" 中立派 " 形象示人,如今也推进到了介入选举资金的层面。

而在这背后,是 Anthropic 近期经历的一系列现实冲突。上月,美国国防部把 Anthropic 列为 " 供应链风险 ",并限制其参与部分军事合同。此举直接卡住了这家 AI 公司进入政府采购体系的一部分资格。

这场冲突的背景很简单,Anthropic 与五角大楼此前就模型使用条款谈崩了。Anthropic 方面宣称坚持两条红线:不接受大规模监控美国人,也不接受把 Claude 直接用于完全自主武器系统。五角大楼的立场则相反,国防部长 Pete Hegseth 公开主张军方应能把 AI 用于 " 任何合法用途 "。

冲突升级后,Anthropic 在 3 月 9 日提起诉讼。它在加州和华盛顿分别起诉美国政府,指控这一 " 供应链风险 " 认定前所未有且违法,带有针对其 AI 安全立场的报复意味。

前脚和政府撕破脸,后脚 Anthropic 成立 PAC 想要 " 公关 " 自然也有了合理性,尤其是 Anthropic 正处于争夺市场和模型能力进化的关键周期。

几天前, Anthropic 因内容管理系统配置失误,意外泄露了尚未发布的新模型材料。泄露文件显示,公司正在测试名为 Claude Mythos、内部又称 Capybara 的新模型,并承认它是公司迄今最强的系统。

按照泄露材料和 Anthropic 后续回应,这个新模型在推理、编码和网络安全上都明显强于此前的 Claude Opus 4.6,而且已经进入早期客户测试。

更关键的是,泄露文档里写得很清楚:Capybara 在网络安全能力上 " 远超 " 现有系统,可能被黑客用来进行大规模自动化漏洞利用和攻击,因此公司计划先把早期访问开放给网络安全防御机构,而不是全面铺开。

这意味着,如果上述信息属实,Anthropic 对于模型安全侧的顾虑是真实存在的,一旦应用在某些领域,新一代模型能力保不齐就成为 " 潘多拉魔盒 "。

而另一边与五角大楼的现实冲突,让 Anthropic 不得不正视如何介入决策层。

AI 企业的 " 钞能力 ",不止用于模型

目前,Anthropic 的公司业务正在经历一个超级加速期。

最新一轮融资达到 300 亿美元,估值升到 3800 亿美元。Anthropic 明显在把重心放在企业 AI 市场,尤其是编码产品 Claude Code,以及围绕 Cowork 代理工具延展出来的企业插件体系。

从商业逻辑上看,这一点非常关键。Claude Code 和类似 Agent 产品卖得越好,Anthropic 就越依赖大客户、开发者生态和复杂行业场景;而这些场景的落地情况,往往和政策决策层有着紧密联系。

根据外媒披露,Anthropic 最近在强化与政府和安全机构的关系,不只是美国。就在两天前,Anthropic 方面刚刚与澳大利亚政府签署 AI 安全与研究谅解备忘录,承诺共享经济指数数据、模型能力与风险研究结果,并参与联合安全评估。

显然,这家 AI 超级独角兽,想要在政府关系里更多占据主动位置。

把这些线索合起来,Anthropic 这次成立 PAC 的动机其实已经很具体了。首先是,五角大楼的冲突让它看到,行政和采购体系可以直接对公司业务造成巨大冲击;另一方面,新模型能力跃升又让模型能力边界陷入争议。

事实上,这类 " 供应链风险 " 认定在美国政府采购体系中影响范围极大。相关规则允许政府在未公开全部证据的情况下,将企业排除出敏感项目竞标名单,一旦进入该名单,企业不仅会失去当前合同,还可能在未来数年内难以进入相关投标池。

而且,美国国防和公共部门 AI 合同通常金额巨大。公开数据显示,类似 Palantir 等公司在政府合同中的收入占比一度超过 50%,单一项目金额可达数亿美元级别。因此,AI 公司一旦在这一体系中被限制,影响的不是单个订单,而是整块高价值市场。

所以,Anthropic 想要的很简单:在下一轮 AI 规则制定之前,先把自己的人脉和资金通道放到位。AI 公司今天面临的很多关键约束,最后都不是由模型自己决定,而是由握有预算、采购的人决定。

而在具体选举层面,AI 资金已经开始产生直接影响。据外媒统计,AI 相关资金在 2026 年中期选举中已累计投入超过 1.85 亿美元。在德州和北卡罗来纳州的 20 场获得相关资金支持的选举中,仅有 1 名候选人落败,其余均成功晋级或当选。

随着 AI 企业的 PAC 纷纷发力,这场模型之外的资源博弈,已经提前开打。

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容

企业资讯

查看更多内容