跳转到主内容
博客
GPT-6 今天又'发布'了一次?

GPT-6 今天又'发布'了一次?

朋友圈又在刷 GPT-6 发布了。假信息有观众,真信息是细分市场。AI 让这件事严重了,不是变轻了——这也是为什么我最近把团队又推回了 Claude Code。

关嘉伟关嘉伟5 分钟阅读
分享:

前两天在朋友圈看到一个朋友发"GPT-6 发布了",后面跟着"哈哈哈"。

这人不是乱传消息的风格,行业里的。我第一反应是:"这么大的事我居然错过了?"

顺手 Google 了一下。没找到。又让 Claude Code 帮我查,刷刷刷跑出来一堆"发布会几点开的""参数是多少""对比 GPT-5 提升多少"——细节还高度一致。但 OpenAI 官网什么都没动。

后来反应过来。4 月 14 日是英文圈流传过的发布日之一。OpenAI 3 月 24 日刚在 Stargate 数据中心完成代号 Spud 的预训练,Altman 放话"再过几周发布",然后所有人开始猜哪天是"几周"的终点。4 月 14 日被选中了。几天之内,一圈人写帖子、配图、编参数、互相引用,就能拼出一个看起来自洽的"事实"。中文圈的版本更离谱——"GPT-6 下周发布""下个月发布""明天发布",去年秋天以后就没停过,每一轮都能收一波转发。

真正让我在意的不是假消息本身,是我越想越绕。

假信息其实是有观众的

早些年知乎刚火那阵,再到微信疫情那段时间,出过一堆假信息。当时的思路是辟谣。果壳的谣言粉碎机 2010 年就在做这个,三年 503 篇,"地震生命三角""核污染扩散图"这种靠他们按下去不少。路数是:有谣言 → 专业人士拆 → 大家恍然大悟。

但这条路好像越走越窄。

因为假信息不是"需要被纠正的错误",它是一种情绪消费品。

打个比方。我们聊天的时候,除了正经说事,也会扯淡。明明在聊一个正经话题,我突然想到一个很偏的点,说几句夸张到离谱的话。对方不会跳出来说"这不符合事实",对方会笑。这件事就这样被消费掉了,没谁受损。

网上很多"假信息"扮演的就是这个角色。它根本不以"被相信"为目标,它的目标是让你点一下、转一下、在评论里扯两句。你越较真地去搜去辨别,平台越觉得这条有流量,越把它推给下一个人。

想通这点,一些困惑的事就说得通了。

GPT-6 为什么能"发布"这么多次——每次"发布"都能收割一轮流量。你越想证伪,越给它喂养。

小红书那些没来源的医学帖子为什么这么火——几张图几行字,写一个激进观点,什么什么大学发现、什么什么激素其实怎么怎么,下面的讨论都是默认"这是事实"之后展开的:"诶难怪呢""原来是这样"。我最近看了几十篇,没一篇有靠谱来源,评论区反倒热闹得很。

还有前阵子那匹小马。Artificial Analysis 榜单上一个叫 HappyHorse 的匿名模型把字节的 SEEDANCE 2.0 挤下来,一夜之间 happyhorse.io、happyhorse.com 被抢注,HuggingFace 上冒出一堆空仓库写着"开源""第一名"。我让 Claude Code 去调研它的身世,第一次它真的中招了,把这些蹭热度的内容当权威来源引用。换了另一个 agent 重新跑,才给出靠谱的结论:"来源仍然模糊,建议等官方"。

这事对我有点震动。不是因为 AI 犯错——犯错能接受——是因为我的信息链路根本不安全。

真信息其实是个细分市场

绕一圈回来我才看明白:真信息是贵的。

生产贵这个好理解。分析、调研、实验、反复验证,每一步都在烧时间。

消费也贵。你要花精力理解那些绕口的表达,那些平平无奇、没什么情绪价值的结论。真信息不给你"诶原来是这样"的即时爽感,它常常给你的是"这个好像也没什么意思"或者"这个我还得想想"。

两头都贵,真信息就天然是个细分市场。它不是被压制,是供需曲线就长这样。

这个认识以前我没有。我一直以为问题是"怎么辟谣"。现在我觉得问题是:"在一个假话比真话便宜又好消费的环境里,我怎么保住自己的判断力?"

AI 让这事变严重了,不是变轻了

一开始我也觉得 AI 是解法。让 AI 帮你核实、甄别、分析。

越用越不这么觉得。

AI 像一个特别强的员工。他能干活,干得还挺好。但如果你每次都不看过程只看结论,你就会陷入一种危险状态:你和真相之间多了一层幕布。

之前聊过一个观点:创造本身就是逼近真相的一种方法。实验失败了,你根据失败的样子判断下一步往哪调;方案不行了,你从不行的理由里学到新东西。这些都不是看结论能学到的。

而人天然会偷懒。8 小时工作里如果 7 小时是 AI 干、你只看结论,你会觉得今天很高产——但判断力在悄悄退化。这才是最让我担心的地方。AI 看起来在放大你的产出,同时也在削弱你的判断力。碎片化、短视频已经在做这件事,AI 现在又加了一把火。

这事具体到每天的工作里,就是工具选择的事。

所以我又推回了 Claude Code

过去一两个月我一直在对比 CodexClaude Code

一开始我推荐团队上 Codex。理由很直接,它更强。Claude Code 啃不下来的硬骨头 Codex 能啃下来,GPT-5.4 在复杂架构和长链推理上明显上了一个台阶。benchmark 上它在 SWE-Bench Pro 上比 Opus 4.6 高了十几个点。遇到那种 Opus 磨了半天搞不定的事,Codex 经常一把过,我当时很惊艳。

但最近我改主意了。不是因为 Codex 不好,它能干的活还在干。是因为我发现,对大多数人来说,只用 Codex 会把你困在"AI 干、我不成长"的状态里。

Claude Code 的过程是透明的。它会主动做计划、会问你澄清问题、每一步在干什么都写得清楚,用的是人话。我不是每个领域最懂的人,但能参与讨论、能看懂思路、能补充质疑——有时候它抛出的角度还能让我想到原本没想到的点。一个月下来,我在好几个原本完全不懂的子领域里开始有判断力了。

Codex 不一样。它思考的过程是偏机器语言的,一堆奇奇怪怪的标签拼出来,看不懂它在干嘛。干完丢一大坨总结给你,内容很浓缩。你问它解释,它再糊一坨,还是费劲。我用 Codex 烧的 token 其实比 Claude Code 多——它敢接硬活,自然要多烧——但我的成长更少。只知道"它搞定了"或"没搞定",不知道怎么搞的。

一个月不算长,但放到一年里看,这个差距会很明显。

朋友问我推哪个

推 Claude Code。

不是因为它 benchmark 最强(它不是)。不是因为它最便宜(它也不是)。是因为它把"让你变强"做进了产品里。Codex 像一个闷头加班搞定的同事,Claude Code 像一个愿意带你过一遍代码的同事。前者速度快,后者一年下来你是两个人。


回到开头那条朋友圈。

AI 时代,信息越来越便宜,但人反而变贵了。不是 AI 变强就自动解决问题,是我们这些使用 AI 的人,得自己想办法在这个环境里保住判断力。

所以我的选择标准也变了。不光看 AI 能帮我完成多少事,还看一天协作下来自己有没有多懂一点。这是两件事,但以前我没分开看。


参考资料

推荐阅读

订阅博客更新

新文章发布时第一时间通知你,不会发送垃圾邮件。

仅用于博客更新通知,随时可以取消订阅。

评论

或匿名评论
0/2000