Obsidian插件篇-Copilot搭建本地知识库大模型
本篇文章主要介绍如何使用Obsidian+Ollama+Copilot搭建本地知识库大模型,细节部分可以参考提及的链接。
结论
电脑配置不行给出回答会很慢,效果并不理想。即使电脑配置可以,基于知识库的问答效果依然不尽人意。即使现在deepseek风头无二,也不建议普通人折腾,玩一玩还行。
为什么搭建?
想搭建自己的本地大模型知识库,希望AI助手能够成为我的知识助手。
配置需求
配置参数如下的笔记本,运行起来ali 7b模型生成速度太慢。
- 处理器 11th Gen Intel(R) Core™ i5-1135G7
- 机带 RAM 16.0 GB (15.7 GB 可用)
配置参数如下的台式机,运行起来ali 7b模型速度可以。
- CPU:i5 13600KF 4060ti
满血版的deepseek家用的硬件根本支持不起,7b,8b版本使用体验比满血版又差的太多。
大模型搭建步骤
- 下载Ollama
- 下载大模型
- Copilot插件配置一下