停止喂饭:为什么你的大模型需要学会“自己去打猎”?
【导读】 你还在为大模型的“幻觉”和“知识截断”焦虑吗?当你花费百万美金微调模型,试图记住“2025年谁是科技圈顶流”时,亚马逊的一群工程师却在说:别记了,让它自己去搜吧。 今天我们不聊算力霸权,聊聊一种能让大模型从“书呆子”进化为“调查记者”的新逻辑——AgREE。 这里的黎明静悄悄:被遗忘的“新事物” 大模型圈子里有一个心照不宣的秘密:所有的 LLM 都是活在过去的幽灵。 不管你的参数量是 70B 还是 400B,训练结束的那一刻,你的认知就固化了。面对每天涌现的新闻、新瓜、新名词(所谓的 Emerging Entities),大模型通常只有两种反应:要么一本正经地胡说八道(幻觉),要么两手一摊说“我不知道”。 传统的解决办法是什么? 1. RAG(检索增强生成): 像是给考生发了一本开卷考试的书。但如果书里没有(检索失败),或者书太厚找不到(单步检索局限),照样挂科。 2. 微调(Fine-tuning): 把新知识硬塞进脑子里。贵,且慢。等你微调完,新闻都成旧闻了。 亚马逊最近搞出的这个 AgREE (Agentic Reasoning for Emerging Entities),其实就干了一件事:不仅给考生发书,还教会了他怎么查字典,怎么顺藤摸瓜。 拆解 AgREE:从“单步检索”到“逻辑侦探” 这篇论文的核心逻辑非常性感。它不再执着于让模型“记住”知识,而是训练模型“构建”知识。 …
