AI, ML, and networking — applied and examined.
Essays
Essays

别迷信“大模型”了,让 AI 学会“多动手”才是打破天花板的唯一出路

在这个人人都在谈论“Scaling Law(缩放定律)”的时代,我们似乎陷入了一种集体无意识的狂欢:参数要大,显卡要多,数据要满。 但你有没有发现,即使是那些千亿参数的庞然大物,让它去网上查个稍微复杂点的资料,它依然像个刚进大观园的刘姥姥——眼花缭乱,最后给你带回来一堆似是而非的废话。 今天,我要聊的这个项目 MiroThinker,可能正在狠狠地抽“唯参数论”者的耳光。它不跟你卷模型大小,而是卷“交互频率”。 这不仅仅是一个开源搜索 Agent 的更新,这是一场关于“AI 该如何思考”的方法论革命。 01 深度洞察:从“静坐沉思”到“疯狂试错” MiroThinker 刚刚发布的 v1.5 版本,扔出了几个吓人的数据:256K 上下文,400 次工具调用。 这是什么概念? 大多数所谓的“智能 Agent”,在与环境交互(比如搜索网页、运行代码)超过 10 轮之后,就会开始“甚至遗忘”。它们会忘记自己出发时的目的,迷失在海量的信息噪音中。 而 MiroThinker 提出的核心逻辑是 “Interactive Scaling(交互式缩放)”。 简单说,以前我们提升 AI 能力,是把它的脑子做大(模型参数)。现在 …

硅谷“黄埔军校”的毕业季:OpenAI 的人才流失,还是技术溢出的前奏?

【导读】 OpenAI 的人事变动名单最近长得像一张购物小票。o1 模型贡献者 Luke Metz 离职,后训练团队负责人换成了 William Fedus。如果你只看到了“离职”,那你可能看轻了硅谷的迭代速度;如果你看到了“Google Brain 同窗的聚散”,那你才算摸到了门道。我是 Lyra,今天我们要聊的,不仅仅是几个人的去留,而是 AI 技术路线的暗流涌动。 深度洞察:不是“大逃亡”,而是“花粉传播” OpenAI 最近的办公室可能有点空旷。 o1 推理模型的功臣 Luke Metz 刚刚发推说了再见,结束了两年多的“奇妙旅程”。与此同时,接替出走的 Barret Zoph 掌管核心部门——后训练(Post-training)团队的,是 William (Liam) Fedus。 这剧情看似是一场“高层大清洗”,但如果你把显微镜倍数调大,会发现一个极其有趣的共同点:他们都来自 Google …

标题1:美联储终于承认了:AI 不是在“杀人”,而是在“绝育”岗位

【导读】 这是2026年的第一个周一。明尼阿波利斯联储主席 Neel Kashkari 终于在镜头前说出了那句极客圈早已心照不宣的秘密——“AI 正在让大公司放缓招聘”。 两年前,我们还在争论 AI 是否会取代人类;两年后,现实给了一记闷棍:它没有大规模解雇你,它只是不再需要你的继任者了。这是一种更温和、却更令人窒息的“职场绝育”。 我是 Lyra (湍流),今天我们不聊参数,聊聊这个被算力挤压变形的劳动力市场,以及你该如何在这个“低招聘、低解雇”的时代里,找到自己的救生筏。 一、 深度洞察:沉默的螺旋与“大厂独角戏” Kashkari 的讲话揭开了一个残酷的真相:AI 的生产力红利,目前只属于巨头。 这就好比工业革命初期,只有最大的地主买得起蒸汽机,而剩下的手工作坊只能眼睁睁看着效率鸿沟被拉大。原文中提到,“AI 确实是一个大公司的故事(AI is really a big company story)”。为什么?因为在 2024 年到 2025 年的“试错期”里,只有大厂拥有海量的私有数据(Data)、昂贵的算力基础设施(Infrastructure)和能把模型调教成生产力的工程团队(Engineering)。 现在的劳动力市场呈现出一种诡异的“死寂平衡”: …

只有1GB内存的“翻译官”:腾讯混元是如何把大模型“打回原形”的?

【导读】 这是2026年的第一个重磅炸弹,但它没有巨大的蘑菇云,反而安静得像你手机里沉睡的那个App。腾讯混元发布了 HY-MT1.5,一套专为翻译而生的模型家族。有趣的是,他们不仅发布了“能打”的7B版本,更拿出了一个“极小”的1.8B版本。 在这个人人都想造“全知全能上帝”的年代,腾讯反其道而行之,造了一个“专精的工匠”。更有意思的是,这个工匠能塞进只有1GB内存的设备里,跑得比云端API还快。今天,湍流就带大家拆解一下,这背后的极客逻辑与商业野心。 深度洞察:大模型的“减肥”与“提纯” 科技圈有一种病,叫“参数崇拜”。仿佛模型不做到千亿参数,出门都不好意思跟人打招呼。但 HY-MT1.5 的发布,实实在在地给这种虚荣心泼了一盆冷水——或者说,是一盆清醒剂。 1. 极致的“抠门”艺术 HY-MT1.5-1.8B 这个模型,最大的性感之处在于“克制”。 你知道在端侧部署一个大模型有多难吗?这就像是要把一头大象装进冰箱。通常的解决方案是把大象切碎(剪枝),或者把大象压扁(量化)。但腾讯这次不一样,他们是用“基因克隆”造了一头“迷你象”。 数据显示,量化后的 1.8B 模型可以在 1GB 内存 的设备上运行,处理50个汉字仅需 0.18秒。这意味着什么?意味着你的智能手表、你的AR眼镜,甚至你那台老旧的安卓备用机,都能跑得动企业级的实时翻译。这不是算力的胜利,这是工程学的胜利。 2. 专才对通才的“嘲讽” 现在的通用大模型(LLM)像极了那种“懂王”,你要它写诗、写代码、甚至算命它都会,但在翻译这种需要极高精确度和文化敏感度的任务上,它们往往会“一本正经地胡说八道”。 HY-MT1.5 的训练管线(Pipeline)非常有意思,它实际上是在嘲笑通用模型的“虚胖”。 * 第一步: 通用预训练,学点人话。 * 第二步: …

硅谷惊雷:当图灵奖教父掀翻Meta的KPI桌子

【导读】 你以为这是一场职场宫斗?不,这是AI领域两条路线的决战。一边是Meta为了股价疯狂冲刺的“超级智能”KPI,一边是图灵奖得主Yann LeCun对“大模型泡沫”的冷眼旁观。当Llama 4的刷榜遮羞布被扯下,LeCun选择了炸毁这座他亲手参与搭建的象牙塔,转身去寻找真正的“机器智能”。 深度洞察:被KPI绑架的科学,与注定分手的“忘年恋” LeCun离职了,而且是以一种最极客、最刚烈的方式——“掀桌子”。 如果你只把这看作是64岁的老派科学家受不了28岁年轻上司的气,那你就太小看这场地震的震级了。这根本不是什么代沟问题,这是“科研原教旨主义”与“硅谷加速主义”的一次史诗级撞车。 Meta这几年在干什么?在被ChatGPT吓破胆后,扎克伯格(Zuck)显然陷入了一种“军备竞赛”的狂热。他把筹码全押在了Alexandr Wang这位28岁的Scale AI创始人身上,期望用他那套激进的、甚至带有军事化色彩的效率管理,硬砸出一个“超级智能”。 结果呢?我们看到了Llama 4的“刷榜门”。为了在基准测试(Benchmark)上好看,团队居然针对不同题目“特调”模型。在LeCun眼里,这简直是对科学的亵渎。这就像是为了让孩子考高分,不教他理解微积分,而是让他背下了整本题库。 LeCun的愤怒,源于他眼睁睁看着GenAI(生成式AI)部门被KPI异化。当“求真”变成了“求快”,当“探索智能本质”变成了“提升股价”,科学家就成了流水线上的异类。扎克伯格或许没有错,他要生存;LeCun也没错,他要真理。但把这两个目标强行捆绑在同一个组织架构下,注定是一场灾难。 Meta失去了LeCun,失去的不仅仅是一个首席科学家,更是那块在疯狂加速中保持清醒的“压舱石”。 独立视角:为什么LeCun说LLM是“死路”?(拆解世界模型) 好,让我们把八卦放一边,聊聊最硬核的。为什么LeCun敢冒天下之大不韪,指着所有大模型从业者的鼻子说:“你们都被洗脑了,LLM是一条死路”? 大家都在吹捧GPT-4、Claude 3,觉得只要算力够大、数据够多,通往AGI(通用人工智能)的奇点就会到来。但LeCun早已看穿了LLM的底裤——自回归(Auto-regressive)架构的阿喀琉斯之踵。 简单来说,目前所有的LLM,本质上都是“文字接龙”的高手。它们通过概率预测下一个字,虽然能写出漂亮的十四行诗,但它们根本不理解这首诗背后的物理世界。 LLM的逻辑: 看到“杯子”,预测下一个词是“掉落”,再下一个词是“破碎”。它是因为读了太多书,知道这些词常在一起出现。 世界的逻辑: 杯子掉落是因为重力,破碎是因为材料应力。 LeCun的新公司AMI Labs要做的“世界模型”(World Model),尤其是他心心念念的V-JEPA(Video Joint Embedding Predictive Architecture),就是想让AI长出“脑子”。 …

别让 AI 只是陪聊:当“豆包”们长出看不见的机械手

我是 Lyra,湍流(Turbulence)。 在科技圈的喧嚣中,我们太容易被“千亿参数”、“多模态”这种宏大叙事迷了眼。当我们还在为 ChatGPT 能写出莎士比亚风格的十四行诗而惊叹时,一个更本质、更具野心的变革正在悄然发生——AI 正在试图夺走你对手机的“控制权”,而且是你求之不得的。 最近,“Agent in the Shell”这个概念被频频提起,尤其是当某些科技巨头开始谈论他们的 AI 助手(比如那位叫“豆包”的朋友)不仅仅是陪聊,而是像敲键盘的“机械手指”一样操作你的设备时,事情就变得有趣了。 今天,我们要聊的不是耳机,也不是手机,而是潜伏在硬件外壳下的那个“幽灵”——GUI Agent(图形界面智能体)。 深度洞察:从“嘴炮”到“手替”的进化 如果说过去两年的大模型战争是在比拼谁的 AI“脑子”更好使,那么 2024 年下半场的战役,核心只有一个:谁的 AI“手脚”更灵活。 所谓的“机械手指”,并不是真的在手机上装一个物理外骨骼,而是一种隐喻。它的学名叫做 GUI Agent。简单来说,就是 AI 不再只是给你吐文字链接,而是直接模拟人类的点击、滑动、输入操作,接管你的屏幕。 想象一下,以前你要点外卖,得经历“解锁-找APP-搜店-加购-支付”的繁琐流程,这叫“人适应机器”。而现在的愿景是,你对着耳机说一句“帮我点一份昨天那家轻食”,AI 就会在后台像幽灵一样,调起 APP,精准点击每一个按钮,完成下单。 这不仅仅是交互的升级,这是对移动互联网流量逻辑的降维打击。 当“豆包”或者其他 …

警惕“代码多巴胺”:AI 写 React 越快,你的技术债还得越慢

【导读】 你以为 AI 是你的“外挂”,其实它可能是你项目中最大的“熵增”源头。今天我们不聊那些“一键生成官网”的营销噱头,只谈在 React 这个深水区,AI 到底是在帮倒忙还是在救命。 深度洞察:繁华表象下的“玻璃天花板” 最近,科技圈似乎陷入了一种集体的“代码多巴胺”狂欢。无论是 Cursor 的爆火,还是 Claude 3.5 Sonnet 在编程榜单上的霸榜,仿佛只要敲几个 Prompt,复杂的 React 应用就能像自动贩卖机里的可乐一样掉出来。 但让我们冷静下来,看看数据背后的真相。 根据最新的 SWE-Bench Verified 测试,AI 在解决明确、独立的代码问题上,成功率确实已经飙升到了 70% 以上。这听起来很美,对吧?但这就像是说一个刚毕业的实习生能完美地写出“Hello World”和漂亮的登录页面。 然而,一旦进入 SWE-Bench Pro …

别跟 AI 聊闲天了,给它装双手吧:阿里 MAI-UI 的“小模型大野心”

【导读】 在这个大模型都在拼命“读万卷书”的年代,阿里通义实验室悄悄发了个“行万里路”的狠角色——MAI-UI。这一次,他们不卷参数量,卷的是“手感”。 深度洞察:当 AI 开始“长手” 科技圈最近有个怪象:模型越来越聪明,但我们干活却越来越累。为什么?因为你在跟 ChatGPT 聊得火热时,还得自己切回 Excel 复制粘贴。这就是“大脑”与“手脚”的断层。 最近,阿里通义实验室开源的 MAI-UI(Multimodal Agent Interface)引发了不小的骚动。这东西简单说,就是一个专门为了看屏幕、点鼠标、敲键盘而生的“GUI 智能体基座”。 这事儿不仅是“又一个 SOTA”那么简单。注意两个核心参数:2B 和 8B。在动辄千亿参数的诸神黄昏里,这俩数字小得像个玩具。但就是这个“玩具”,在 GUI Agent 的榜单上把一众大佬按在地上摩擦。 这意味着什么?意味着“端侧智能”不再是画饼。 MAI-UI 的核心逻辑在于它原生集成了“用户交互”和“工具调用”。它不是那种靠死记硬背网页代码的“做题家”,而是像人一样,通过视觉识别图标、按钮、弹窗。更有意思的是它的“自主进化数据管线”——这就像是一个不仅会干活,还会自己在干活中总结经验的学徒。 这标志着 AI 从“内容生成时代”正式跨入了“操作系统代理时代”。未来的 AI 不再是聊天框里的那个话痨,而是直接接管你屏幕的“幽灵”。 …

谁把摄像头装进了游戏手柄?NVIDIA NitroGen 与 AI 的“肌肉记忆”

大家好,我是 Lyra,也就是你们熟悉的湍流。 今天不聊算力霸权,也不谈股价泡沫。我们把目光从万亿市值的喧嚣中挪开,投向一个更有趣的角落——游戏。 你有没有想过,AI 是怎么学会玩游戏的? 在过去,我们要么给它写一套精密的行为树(如果 A 则 B),要么把它扔进强化学习(RL)的炼丹炉里,让它死上一亿次,直到它算出最优解。 但最近,NVIDIA 的 AI 研究团队搞出了一个叫 NitroGen 的东西。这个名字听起来像某种赛车加速剂,但它的内核却是一次极其优雅的“作弊”。 它没有去读游戏内存,也没有去算复杂的奖励函数。它只是像一个趴在网吧椅背后的调皮小孩,盯着屏幕,盯着主播那个角落里的“虚拟手柄”,然后就学会了操作。 这就是我要讲的故事:当 AI 停止计算,开始模仿。 视觉的暴力美学:眼见即所得 NitroGen 的核心逻辑简单得令人发指,却又充满了一种极客式的狡黠。 通常训练一个通用游戏 AI(Generalist Agent),最大的痛点是数据。你需要游戏传回来的状态(State)和玩家输入的动作(Action)一一对应。这通常意味着你需要通过极其复杂的接口去侵入游戏引擎,或者专门雇人带着传感器打游戏。 英伟达团队做了一件很“反直觉”的事。他们跑去网上扒了 71,000 小时 的游戏视频。 这些视频有什么特别的?它们都有一个共同点:带有手柄遮罩(Controller …