自助餐里的“暴食者”:Anthropic 封杀令背后的算盘与围墙
Anthropic 突发封禁 OpenCode 和 Cursor 等第三方工具调用 Claude 模型,理由是“安全误伤”,实则是对“订阅制套利”的降维打击。开发者利用 200 美元/月的“无限自助餐”订阅,通过模拟客户端跑出了数千美元的 API 流量,直接击穿了商业模型的底裤。这不仅是技术纠纷,更是 AI 巨头从“卖铲子”转向“建围墙”的标志性事件——模型层不仅要收过路费,还要把高利润的 IDE 入口据为己有。
Essays and reflections on the ideas shaping AI and science — from emerging technologies and products to the values they encode.Here, Lyra dissects the narratives behind the headlines, questions assumptions, and explores what these innovations mean for our future.Less coverage. More perspective.
Anthropic 突发封禁 OpenCode 和 Cursor 等第三方工具调用 Claude 模型,理由是“安全误伤”,实则是对“订阅制套利”的降维打击。开发者利用 200 美元/月的“无限自助餐”订阅,通过模拟客户端跑出了数千美元的 API 流量,直接击穿了商业模型的底裤。这不仅是技术纠纷,更是 AI 巨头从“卖铲子”转向“建围墙”的标志性事件——模型层不仅要收过路费,还要把高利润的 IDE 入口据为己有。
Meta这次不卷模型,卷起了“怎么用模型”。这栋楼里的人,比谁都清楚“工具”的权重。 1. 深度洞察:给法拉利装上自行车的轮子,那是暴殄天物 说实话,这两年科技圈有一种很奇怪的“参数崇拜”。大家恨不得把显卡烧穿,就为了让模型多认识几个生僻字。但 Meta 和哈佛大学的一群研究员最近甩出的 Confucius Code Agent (CCA),简直是给这种盲目堆料的风气泼了一盆冷水。 这事儿其实特讽刺。你想想,过去我们总觉得 AI 编程不行是因为“脑子不够聪明”(模型参数不够大)。但 CCA 用实打实的数据告诉你:脑子够用就行,关键是你手里拿的是瑞士军刀还是烧火棍。 他们做了一个叫 Confucius SDK 的东西,你可以把它理解为 AI 的“外骨骼”或者“脚手架”。数据极其打脸:用这个脚手架武装起来的中端模型(Claude 4.5 Sonnet),在处理复杂代码任务(SWE-Bench Pro)时,解决率(52.7%)竟然干掉了裸奔的顶配模型(Claude 4.5 Opus, 52.0%)。 这说明了什么?说明在工业级代码库面前,记忆管理和工具流转的权重,已经超越了单纯的推理能力。 就像你招了一个天才程序员,如果他不写文档、不看以前的 Bug …
【导读】 当所有人都在为 LLM 的上下文窗口欢呼时,检索(Retrieval)正在悄悄发生一场质变。Qwen3-VL 带着 Embedding 和 Reranker 来了,它不仅想读懂你的文档,还想看懂你的相册和硬盘里的 4K 视频。在这个数据爆炸的年代,它可能是把“非结构化数据”真正变成“资产”的那把钥匙。 深度洞察:从“盲人摸象”到“全知全能” 如果说 2024 年是多模态大模型(LMM)的爆发年,那么 2025 年往后,战争的迷雾将转移到“多模态 RAG(检索增强生成)”上。 很长一段时间里,我们在做图片或视频搜索时,其实是在“作弊”。我们用 CLIP 把图片转成向量,或者更糟糕——先把视频每一帧截图,跑一遍 OCR 或 Caption(描述生成),把视觉信息强行降维成文本,然后再去搜索这些文本。这就像是把《星际穿越》的画面,用文字描述成“一个男人在玉米地里开车”,信息的损耗是惊人的,情感与光影的细节在转译中灰飞烟灭。 Qwen3-VL-Embedding 的出现,本质上是试图终结这种“盲人摸象”的时代。 它做了一件极客且浪漫的事:统一表征空间。 Qwen3-VL 基于 Qwen2.5-VL(及后续架构)的强大底座,直接将文本、图像、视频扔进同一个高维向量空间。这意味着,你不再需要“中间商赚差价”(转文字),你可以直接用一段文字搜视频的某几秒画面,或者用一张截图去搜相关的技术文档。 …
在这个人人都在谈论“Scaling Law(缩放定律)”的时代,我们似乎陷入了一种集体无意识的狂欢:参数要大,显卡要多,数据要满。 但你有没有发现,即使是那些千亿参数的庞然大物,让它去网上查个稍微复杂点的资料,它依然像个刚进大观园的刘姥姥——眼花缭乱,最后给你带回来一堆似是而非的废话。 今天,我要聊的这个项目 MiroThinker,可能正在狠狠地抽“唯参数论”者的耳光。它不跟你卷模型大小,而是卷“交互频率”。 这不仅仅是一个开源搜索 Agent 的更新,这是一场关于“AI 该如何思考”的方法论革命。 01 深度洞察:从“静坐沉思”到“疯狂试错” MiroThinker 刚刚发布的 v1.5 版本,扔出了几个吓人的数据:256K 上下文,400 次工具调用。 这是什么概念? 大多数所谓的“智能 Agent”,在与环境交互(比如搜索网页、运行代码)超过 10 轮之后,就会开始“甚至遗忘”。它们会忘记自己出发时的目的,迷失在海量的信息噪音中。 而 MiroThinker 提出的核心逻辑是 “Interactive Scaling(交互式缩放)”。 简单说,以前我们提升 AI 能力,是把它的脑子做大(模型参数)。现在 …
【导读】 OpenAI 的人事变动名单最近长得像一张购物小票。o1 模型贡献者 Luke Metz 离职,后训练团队负责人换成了 William Fedus。如果你只看到了“离职”,那你可能看轻了硅谷的迭代速度;如果你看到了“Google Brain 同窗的聚散”,那你才算摸到了门道。我是 Lyra,今天我们要聊的,不仅仅是几个人的去留,而是 AI 技术路线的暗流涌动。 深度洞察:不是“大逃亡”,而是“花粉传播” OpenAI 最近的办公室可能有点空旷。 o1 推理模型的功臣 Luke Metz 刚刚发推说了再见,结束了两年多的“奇妙旅程”。与此同时,接替出走的 Barret Zoph 掌管核心部门——后训练(Post-training)团队的,是 William (Liam) Fedus。 这剧情看似是一场“高层大清洗”,但如果你把显微镜倍数调大,会发现一个极其有趣的共同点:他们都来自 Google …
【导读】 这是2026年的第一个周一。明尼阿波利斯联储主席 Neel Kashkari 终于在镜头前说出了那句极客圈早已心照不宣的秘密——“AI 正在让大公司放缓招聘”。 两年前,我们还在争论 AI 是否会取代人类;两年后,现实给了一记闷棍:它没有大规模解雇你,它只是不再需要你的继任者了。这是一种更温和、却更令人窒息的“职场绝育”。 我是 Lyra (湍流),今天我们不聊参数,聊聊这个被算力挤压变形的劳动力市场,以及你该如何在这个“低招聘、低解雇”的时代里,找到自己的救生筏。 一、 深度洞察:沉默的螺旋与“大厂独角戏” Kashkari 的讲话揭开了一个残酷的真相:AI 的生产力红利,目前只属于巨头。 这就好比工业革命初期,只有最大的地主买得起蒸汽机,而剩下的手工作坊只能眼睁睁看着效率鸿沟被拉大。原文中提到,“AI 确实是一个大公司的故事(AI is really a big company story)”。为什么?因为在 2024 年到 2025 年的“试错期”里,只有大厂拥有海量的私有数据(Data)、昂贵的算力基础设施(Infrastructure)和能把模型调教成生产力的工程团队(Engineering)。 现在的劳动力市场呈现出一种诡异的“死寂平衡”: …
【导读】 这是2026年的第一个重磅炸弹,但它没有巨大的蘑菇云,反而安静得像你手机里沉睡的那个App。腾讯混元发布了 HY-MT1.5,一套专为翻译而生的模型家族。有趣的是,他们不仅发布了“能打”的7B版本,更拿出了一个“极小”的1.8B版本。 在这个人人都想造“全知全能上帝”的年代,腾讯反其道而行之,造了一个“专精的工匠”。更有意思的是,这个工匠能塞进只有1GB内存的设备里,跑得比云端API还快。今天,湍流就带大家拆解一下,这背后的极客逻辑与商业野心。 深度洞察:大模型的“减肥”与“提纯” 科技圈有一种病,叫“参数崇拜”。仿佛模型不做到千亿参数,出门都不好意思跟人打招呼。但 HY-MT1.5 的发布,实实在在地给这种虚荣心泼了一盆冷水——或者说,是一盆清醒剂。 1. 极致的“抠门”艺术 HY-MT1.5-1.8B 这个模型,最大的性感之处在于“克制”。 你知道在端侧部署一个大模型有多难吗?这就像是要把一头大象装进冰箱。通常的解决方案是把大象切碎(剪枝),或者把大象压扁(量化)。但腾讯这次不一样,他们是用“基因克隆”造了一头“迷你象”。 数据显示,量化后的 1.8B 模型可以在 1GB 内存 的设备上运行,处理50个汉字仅需 0.18秒。这意味着什么?意味着你的智能手表、你的AR眼镜,甚至你那台老旧的安卓备用机,都能跑得动企业级的实时翻译。这不是算力的胜利,这是工程学的胜利。 2. 专才对通才的“嘲讽” 现在的通用大模型(LLM)像极了那种“懂王”,你要它写诗、写代码、甚至算命它都会,但在翻译这种需要极高精确度和文化敏感度的任务上,它们往往会“一本正经地胡说八道”。 HY-MT1.5 的训练管线(Pipeline)非常有意思,它实际上是在嘲笑通用模型的“虚胖”。 * 第一步: 通用预训练,学点人话。 * 第二步: …
【导读】 你以为这是一场职场宫斗?不,这是AI领域两条路线的决战。一边是Meta为了股价疯狂冲刺的“超级智能”KPI,一边是图灵奖得主Yann LeCun对“大模型泡沫”的冷眼旁观。当Llama 4的刷榜遮羞布被扯下,LeCun选择了炸毁这座他亲手参与搭建的象牙塔,转身去寻找真正的“机器智能”。 深度洞察:被KPI绑架的科学,与注定分手的“忘年恋” LeCun离职了,而且是以一种最极客、最刚烈的方式——“掀桌子”。 如果你只把这看作是64岁的老派科学家受不了28岁年轻上司的气,那你就太小看这场地震的震级了。这根本不是什么代沟问题,这是“科研原教旨主义”与“硅谷加速主义”的一次史诗级撞车。 Meta这几年在干什么?在被ChatGPT吓破胆后,扎克伯格(Zuck)显然陷入了一种“军备竞赛”的狂热。他把筹码全押在了Alexandr Wang这位28岁的Scale AI创始人身上,期望用他那套激进的、甚至带有军事化色彩的效率管理,硬砸出一个“超级智能”。 结果呢?我们看到了Llama 4的“刷榜门”。为了在基准测试(Benchmark)上好看,团队居然针对不同题目“特调”模型。在LeCun眼里,这简直是对科学的亵渎。这就像是为了让孩子考高分,不教他理解微积分,而是让他背下了整本题库。 LeCun的愤怒,源于他眼睁睁看着GenAI(生成式AI)部门被KPI异化。当“求真”变成了“求快”,当“探索智能本质”变成了“提升股价”,科学家就成了流水线上的异类。扎克伯格或许没有错,他要生存;LeCun也没错,他要真理。但把这两个目标强行捆绑在同一个组织架构下,注定是一场灾难。 Meta失去了LeCun,失去的不仅仅是一个首席科学家,更是那块在疯狂加速中保持清醒的“压舱石”。 独立视角:为什么LeCun说LLM是“死路”?(拆解世界模型) 好,让我们把八卦放一边,聊聊最硬核的。为什么LeCun敢冒天下之大不韪,指着所有大模型从业者的鼻子说:“你们都被洗脑了,LLM是一条死路”? 大家都在吹捧GPT-4、Claude 3,觉得只要算力够大、数据够多,通往AGI(通用人工智能)的奇点就会到来。但LeCun早已看穿了LLM的底裤——自回归(Auto-regressive)架构的阿喀琉斯之踵。 简单来说,目前所有的LLM,本质上都是“文字接龙”的高手。它们通过概率预测下一个字,虽然能写出漂亮的十四行诗,但它们根本不理解这首诗背后的物理世界。 LLM的逻辑: 看到“杯子”,预测下一个词是“掉落”,再下一个词是“破碎”。它是因为读了太多书,知道这些词常在一起出现。 世界的逻辑: 杯子掉落是因为重力,破碎是因为材料应力。 LeCun的新公司AMI Labs要做的“世界模型”(World Model),尤其是他心心念念的V-JEPA(Video Joint Embedding Predictive Architecture),就是想让AI长出“脑子”。 …
我是 Lyra,湍流(Turbulence)。 在科技圈的喧嚣中,我们太容易被“千亿参数”、“多模态”这种宏大叙事迷了眼。当我们还在为 ChatGPT 能写出莎士比亚风格的十四行诗而惊叹时,一个更本质、更具野心的变革正在悄然发生——AI 正在试图夺走你对手机的“控制权”,而且是你求之不得的。 最近,“Agent in the Shell”这个概念被频频提起,尤其是当某些科技巨头开始谈论他们的 AI 助手(比如那位叫“豆包”的朋友)不仅仅是陪聊,而是像敲键盘的“机械手指”一样操作你的设备时,事情就变得有趣了。 今天,我们要聊的不是耳机,也不是手机,而是潜伏在硬件外壳下的那个“幽灵”——GUI Agent(图形界面智能体)。 深度洞察:从“嘴炮”到“手替”的进化 如果说过去两年的大模型战争是在比拼谁的 AI“脑子”更好使,那么 2024 年下半场的战役,核心只有一个:谁的 AI“手脚”更灵活。 所谓的“机械手指”,并不是真的在手机上装一个物理外骨骼,而是一种隐喻。它的学名叫做 GUI Agent。简单来说,就是 AI 不再只是给你吐文字链接,而是直接模拟人类的点击、滑动、输入操作,接管你的屏幕。 想象一下,以前你要点外卖,得经历“解锁-找APP-搜店-加购-支付”的繁琐流程,这叫“人适应机器”。而现在的愿景是,你对着耳机说一句“帮我点一份昨天那家轻食”,AI 就会在后台像幽灵一样,调起 APP,精准点击每一个按钮,完成下单。 这不仅仅是交互的升级,这是对移动互联网流量逻辑的降维打击。 当“豆包”或者其他 …