为什么给 LLM 注入更少的知识,反而可能回答得更准
我最近做了一个小实验,想验证一个很朴素但我觉得很重要的问题:当我们给大模型做外部知识注入时,真的应该默认“能塞多少就塞多少”吗?在很多 RAG 或知识增强系统里,一个很自然的直觉是:为了减少事实...
我最近做了一个小实验,想验证一个很朴素但我觉得很重要的问题:当我们给大模型做外部知识注入时,真的应该默认“能塞多少就塞多少”吗?在很多 RAG 或知识增强系统里,一个很自然的直觉是:为了减少事实...
想象一个有体积的物体在加速。不是一个理想化的质点,而是一个真实的、有前端和后端的东西。它在加速的过程中,会发生什么?大多数人的回答是:它会越来越快。但这个回答忽略了一些极其深刻的东西。如果我们不...
一个词是如何在多次合理使用中被稀释至死的一份合同引发的问题2024 年底,一份涉及 AI 基础设施的商业合同在审查过程中出现了一个微妙的争议。合同中多次出现 token 这个词,但在不同条款里,...
第二次连接预约在周三下午两点。沈明提前二十分钟到,检查连接设备需要时间,准备状态也需要时间。他不喜欢仓促开始——不是因为讲究,是因为他见过一次没准备好就建立连接的代价。那次不是他自己的案件,是他...
沈明在档案馆待了整整一个下午。2046年的案件卷宗,陈默案,人类历史上第一例意识谋杀。他以前读过简介,但没读过完整的档案。现在,在郑朗案件出现"古代代码"的背景下,这些历史文档有了新的意义。档案...