免费 AI 插件推荐:obsidian-smart-composor

Chunk Size = 文档被剁碎时每个切片的大小, 500-2000 token 应该合理, 数值太小时片段语义不完整, 数值太大时向量嵌入也不能很好的抓到句子重点


Threshold tokens = 如同截图里的解释, 该插件首先会试着把全笔记都丢给聊天模型, 如果笔记实在太长就切到 RAG 模式, Threshold tokens 就是切换 RAG 模式的阈值, 65536 token 对应 30000~90000 中文字

个人建议这值设小点, 真有必要把巨大文本扔给模型让它读全文的场景, 其实较少 (出于应答快速, 模型注意力, 生成质量可控, 省成本等许多理由)


Minimum similarity = 当 query_text 和文档片段相似度达到多少时才允许召回, 比如设 0.3 就是说, 如果文档库里的片段相似度全都低于 0.3 它宁可不召回

该设置用于知识库拒答, 防止AI对于库里没有的知识瞎胡说, 对于那种团队或公开访问的, 要应对五花八门奇葩问题的知识库很必要

对于 Ob 个人库, 自己笔记都里有啥, 啥该问啥不该问心理有数, 这个值可以设为零


Limit = RAG 模式下最大召回文档片段数量, 一般是 5-20

设为 200 很有问题, 浪费 token 且使模型抓不住重点 (不可能有必须依赖 200 个语料片段才能回答的问题) 截图里 requested 352979 tokens 很可能跟这个有关

4 个赞