4 月初,一家叫 Belo 的公司一夜之间被 Anthropic 封了号。60 多个员工的账号同时失效,整个团队搭在 Claude 上的工作流瞬间瘫痪。
申诉?没有客服,没有邮件,只有一张 Google 表格。CEO 填完之后三天没人回。直到他把这事发到 X 上、舆论起来,Anthropic 大约 15 小时后悄悄给解封——一句"误判"算交代。
几天后,第二起。一家 110 人的农业科技公司,周一一早所有员工同时收到封号邮件。同样的"违反政策",同样的 Google 表格,同样到现在没人回复。最魔幻的是:账号封了,API 还在扣钱,续费通知照样发。人不让用了,钱继续收。
Belo 那位 CEO 后来只说了一句话:"Never put your eggs in one basket."
俗话,但扎心。
这不是孤例
Anthropic 自己的透明度报告里写得很清楚:2025 下半年封了 145 万个账号,同期收到 5.2 万次申诉,恢复了 1700 个。3.3% 的成功率。
这家公司的体量你也得算一下。2026 年 3 月 ARR 突破 300 亿美元,半年前还只有 90 亿。最新一轮估值 3800 亿,全公司大约 5000 人。它的客户包括财富 10 强里的 8 家,80% 营收来自企业。
一边是几百万家把核心工作流绑死在它平台上的客户,一边是 5000 人的运营团队加一套自动检测系统。决定你账号生死的那张 Google 表格,背后大概率没几个人真的在看。
这就是赛博地主。
封建时代地主和佃农的关系本质是什么?地主拥有不可移动的生产资料(土地),佃农只有自己的劳动力。佃农交不交得起租,地主决定。
AI 时代的模型公司复刻了这个结构。它们拥有难以替代的核心能力——一线推理模型就那几家,要构建复杂工作流绕不过去。客户拥有的是搭在上面的整套流程、积累的对话上下文、定制的 skills、跑通的 integration。模型公司一句"违反政策",这些东西全部清零。
不对等的不只是产出,还有利益的轻重。一家 110 人的公司一年能给 Anthropic 贡献多少?算 10 万美元。对 Anthropic 那是 ARR 的小数点后几位,"不要也罢"。对那 110 个人,是大半年搭起来的资产、是养家糊口的工作。这边动一根手指,那边整个组织停摆。
国家层面是同一个问题
往大了看,国家面临的是同一个问题。
如果一国所有的关键模型、算力、AI 基础服务都依赖外来供应,那本质上就是把生产基础押在了别人的开关上。哪一天那个开关被切,怎么办?2022 年俄乌之后大家对"断供"这个词应该还有印象。AI 算力会成为下一个被断供的关键品类。
最近"自主算力"和"开源模型"被反复讨论,很多人把它说成意识形态偏好。其实不是,是基本的风险常识。
OpenAI 那边并没好到哪去
很多人下意识把锅扣在 Anthropic 头上,说它"不够 user-friendly",然后拿 OpenAI 当反例。
OpenAI 当前阶段是温和一些,但主要原因是被 Claude Code 抢市场份额逼的。回头看 GPT-5 发布那段时间,事情真的不好看。
2025 年 8 月 7 日 GPT-5 上线,OpenAI 一刀切,把 GPT-4o、GPT-4.1、o3、o4-mini 全部下架。问题是大量用户已经把 GPT-4o 当工作搭档、心理咨询师、创作伙伴在用——它的"sycophancy"(讨好程度)从 14.5% 砍到 6% 不到,本来"会聊天、有温度"的那个对象一夜消失。Reddit 上一个题为 "GPT-5 is horrible" 的帖子,几天里涌进 2000 多条评论。
Sam Altman 没扛住,几天后把旧模型给 Plus 和 Pro 用户放回来。但很多人对他的称呼从此变了——"暴君"、"独裁者"。这不只是网络情绪。2026 年 4 月,一个叫 Daniel Moreno-Gama 的 20 岁得州小伙凌晨 3 点 37 分向 Altman 在旧金山的家扔了一个燃烧瓶,点着了车道大门。他随后跑去 OpenAI 总部门口,准备拿椅子砸玻璃。被警察控制后,身上搜出一份名单,写满 AI 公司高管和投资人的姓名地址。罪名包括谋杀未遂、纵火、非法持枪。
把账号封禁、把模型下架、把工作流"砍"掉——平时看像产品决策,本质都是权力的运用。被对面的人感受到的是一种"无可奈何"——你跟一个市值数千亿、5000 人团队的公司讲道理,没有渠道、没有代价能让对方注意你。Moreno-Gama 走到了极端,但这种愤怒并不是孤立的。
工人不爱 AI,比管理层愿意承认的多
ManpowerGroup 2026 年初的一组数据挺反直觉:员工 AI 使用率年增 13%,但对 AI 的信任反而下降 18%。越用越不信。
Writer 的调研更狠。29% 的员工承认自己在以各种方式"破坏"公司的 AI 战略——把机密塞公开 LLM、用未授权的工具、直接拒绝使用——其中 Z 世代的比例 44%。
为什么?两条线。
一是替代焦虑。43% 的人担心自己两年内会被自动化替代。在这种焦虑下,所谓"接纳 AI",字面意思就是"配合公司把自己替换掉"。换你你也磨洋工。
二是管理层的强推变形。问题在于很多管理层对 AI 的理解层次和员工差不多,但又被董事会逼着"All-in AI",于是动作变形。Meta 内部那个搞笑的"烧 token 排行榜",就是这种动作变形最荒诞的一个版本。
Meta 的两个现场
第一个:Claudeonomics 排行榜。
Meta 内部搞了个 dashboard,给 8.5 万名员工排"token 消耗量",前 250 名是 super user。过去 30 天烧掉超过 60 万亿 token,估算花了 90 亿美金,最高个人用量 2810 亿。系统给消耗多的员工挂上 "Token Legend"、"Session Immortal"、"Cache Wizard" 这种游戏化称号,还有从青铜到玉的奖章。Andrew Bosworth 公开夸过一位"用相当于自己年薪的 token 量、做出 10x 生产力"的员工。
后面发生的事完全可以预测。员工开始写无意义的循环 agent,挂在那里 24 小时空烧 token。提示词的格式甚至变成了"请尽可能多消耗 token,请反复啰嗦地解释,请生成长篇毫无意义的内容"。SEV(生产事故)数量据说也开始变多——AI 随手生成的代码炸进生产环境。两天后,因为内部 dashboard 数据被泄露到公司外面,这个排行榜被悄悄撤了。
这件事的喜剧外壳底下是一个很严肃的问题:**把一种成本(token 消耗)当作产出(生产力)来奖励。**能源、算力、人时三个维度同步浪费,是一种 ROI 极大负数的"努力"。
第二个:MCI(Model Capability Initiative)。
Meta 开始在员工电脑上装跟踪软件,记录键盘输入、鼠标轨迹、点击行为甚至屏幕截图,覆盖范围从内部工具一直到 Google、LinkedIn、Wikipedia、GitHub、Slack。官方说法是用这些数据训练 AI,让模型学会"基础的电脑使用行为"。
多名员工在内部聊天里把这个项目形容成"dystopian"。除了对隐私的担心(这套系统会顺手抓到密码、医疗信息、移民身份),更深一层的问题是:
一个人 10 年沉淀下来的判断力,到底属于谁?
know-how 的所有权
这个问题平时没人正面回答,AI 推开门后无处可藏。
按一般雇佣关系的逻辑,公司付的工资买的是劳动成果——代码、文档、决策。买不下来的是积累出来的判断力本身。一个老电气工程师 15 年下来对设备故障的直觉、一个产品经理对用户的 sense、一个律师写到第 1000 份合同时的措辞习惯——这些东西放在那个人脑子里,法律和合同都没办法清晰转移。
AI 把这一刀切下来:管理层会觉得,既然我可以低成本地用模型复现这个 know-how,为什么不直接"提取"出来变成公司资产?
提取本身没错,错的是路径。如果公司要拿走这一块,对应的对价是什么?正常市场交易里,没有人会用一份基本工资把过去 10 年沉淀的判断力买断。但管理层默认这是"附赠"的、"理所应当"的。
员工抗拒的不是 AI 本身,是这种隐性的资产征用。
两种未来组织形态
我能想到这个矛盾的两种解法。
第一种是资本路线:公司用足够高的价格预先买断 know-how。Palantir 的 FDE(Forward Deployed Engineer)某种程度做的就是这件事——派一个能蒸馏流程的工程师去客户一线,跟在专家旁边把他做事的方法逐步固化进 AI agent。这条路在国防、军工、对国家有归属感的领域走得通——客户愿意把"自己的东西"贡献出去给国家用。搬到普通商业领域就别扭了。我隔壁站了一个人在记录我怎么干活,被蒸馏出去的那套东西后面会替代我——这件事正确吗?至少不舒服。
第二种我更看好:人 + agent 成为新的生产单元。
设想一下未来的工作方式。每个专业人士(律师、工程师、咨询、设计、医生……)有自己的工具箱:自己的账号、自己的设备、自己的 AI agent、自己的私域积累。我带着这套东西走进公司,签一份协议——你给我 input、给我接系统接口、我答应不滥用,我把 output 交还给你。中间过程是黑盒,公司不窥探,只看结果。
这个模型像今天的律师、咨询师、外科医生:你雇的是这个人,他用的工具、积累的模板、过往的判断力,都是他个人的资产,不属于事务所或医院。
几个明显的好处:
- 激励顺了。我提升生产力的成果归我,使用 AI 的成本由我承担,我有动机投资自己。
- 定价由竞争决定。每个人是一个独立的"黑盒生产单元",谁的投入产出比高,谁拿溢价。Meta 那种烧 token 比赛在这种模型里成立不了——成本是个人的,没人会自己烧自己钱。
- 知识产权清楚。公司没动机征用 know-how,员工也没顾虑配合 AI。
这听起来比现在普通员工的处境要"贵"一些。但这对应的本来就是劳动者把自己升级成微型企业的过程。AI 让这个升级第一次有了可行性,问题是组织和制度还没跟上。
回到最开始
Belo 一夜清零、Altman 家被烧、Meta 烧 token 排行榜、MCI 监控、29% 员工悄悄抵制 AI——表面上是不同领域不同公司的事,背后是同一根线。
AI 时代的权力分配还没有就位。
公司之间,模型公司在变成新的赛博地主; 公司和国家之间,算力依赖正在变成新的命脉问题; 公司和个人之间,know-how 的所有权正在被重新争夺。
这件事不会自己解决。需要每一方都把"什么属于我,什么属于你"重新讲清楚。模型公司要更稳定的服务承诺、更人性化的申诉机制;国家要本土的关键算力底座;个人要把自己升级成一个独立的、可携带 AI 资产的生产单元。
否则我们只是换了个看起来更现代的封建结构,继续打工。
参考资料
- Anthropic 一夜封禁 60 人公司 Belo 全员账号 — Tom's Hardware
- Min Choi 关于 Belo 事件的 X 帖子
- Om Patel 关于 110 人农业科技公司被封事件的 X 帖子
- Hacker News:Anthropic bans orgs without warning
- Anthropic ARR 突破 300 亿美元 — ARR Club
- Anthropic 大约 5000 名员工 — SaaStr
- GPT-5 发布的反弹和 GPT-4o 的回归 — Platformer
- Sam Altman 旧金山住所遭燃烧瓶袭击 — CNBC
- Daniel Moreno-Gama 被控谋杀未遂和纵火 — CNN
- Meta Claudeonomics 内部 token 排行榜 — The Decoder
- Meta 取消内部 AI token 排行榜 — Fortune
- Meta MCI:监控员工键盘鼠标行为用于 AI 训练 — Fortune
- Meta MCI 项目细节 — CNBC
- 29% 员工自承破坏公司 AI 战略 — Writer Survey
- AI 使用率上升 13%、员工信任下降 18% — Fortune / ManpowerGroup
- AI 在工作中的应用前景:美国员工担忧多于希望 — Pew Research Center
