边栏Chat类llm插件非RAG体验很难超过web viewer网页端

1边栏对话是否有必要,我使用localgpt写作根本不用鼠标,在本地化的情景下完全够用(ollama和lmstudio)

2.边栏对话很难体验各客户端的独特体验(gemini事实核查,kimi网页浏览和mermaid渲染,claude svg渲染 以及各种思维链 反正都要动鼠标,为什么不享受更好的服务?

3.大部分rag也不好用除非有杀手级的RAG系统或者一定需要完全本地chat
我认为odin的思路是对的,很可惜不维护了。至于graphrag系统等虽然我堪堪能跑,但是对于(我认为的)大多数obsidian使用者来说,只想要开箱即用的插件(没有任何外挂内容,只有main.js data.js)或者最多接受一行命令行pull下来跑(包括我自己)

为什么边栏chat不如网页浏览

在web viewer之前我使用surfing搭配kimi

我自己写的支持mermaid直出svg对话框,以及各类action受kimi启发(当然还有很多langchain讨厌的调用

我也觉得,就算没有webview我也更喜欢用浏览器去打开而不是用边栏
现在RAG用向量数据库那套的话,查准率和召回率都有点不如人意