问题
人工智能AI插件是否会造成个人笔记数据的泄露,具体担心以下几点
1、AI在读取笔记数据后是否可能会留存到自己的数据库。
2、在使用插件的时候,这些数据是否会被插件记录,造成插件层面的泄露。
3、copilot、text generator、smart connections等人工智能AI插件更注意个人隐私,哪个看来更注意数据保护一些。
目前策略
使用的时候手动选择局部数据,直接通过网页来进行互动,不通过插件。
人工智能AI插件是否会造成个人笔记数据的泄露,具体担心以下几点
1、AI在读取笔记数据后是否可能会留存到自己的数据库。
2、在使用插件的时候,这些数据是否会被插件记录,造成插件层面的泄露。
3、copilot、text generator、smart connections等人工智能AI插件更注意个人隐私,哪个看来更注意数据保护一些。
使用的时候手动选择局部数据,直接通过网页来进行互动,不通过插件。
这个我觉得得看各家大模型对于api数据的处理定义…和插件应该关系不大。
只有本地 AI 才会保证足够的隐私性。
obsidian官方商店里的插件都是开源的,一般不会收集用户库里的数据
那有没有ai模型说他们的api不会收集用户的输入数据呀
这问题可能是未来几年的一个持久不衰的话题
个人理解
1、AI在读取笔记数据后是否可能会留存到自己的数据库。
有没有ai模型说他们的api不会收集用户的输入数据
技术上可以看每家厂商的用户服务协议
但我们做为用户, 其实能做的就是 “相信”, 似乎没办法验证厂商到底拿你数据干了啥
2、在使用插件的时候,这些数据是否会被插件记录,造成插件层面的泄露。
这些都是开源插件, 代码是接受大家审查的, 明显干坏事是要被人揪出来的
可在插件设置里启用 “详尽 log”, 然后我们一边使用, 一边监控 Obsidian console (log / network 那一栏), 看看插件都发送了你哪些文本, 看看有没有偷传自家网站 (基本不可能)
带 RAG 功能的插件, 我知道 Smart2Brain 可设置 LangSmith 记录笔记片段怎么召回的, 怎么删减的, 哪些数据上传给 LLMs 看了, 最终怎么综合输出的
(LangSmith 是结构化的, 专供分析复杂问答效果的在线日志服务)
带 RAG 功能但不支持 LangSmith 的, 基本也都支持把文本片段全给打印到控制台里, 就是看着乱…
3、copilot … 人工智能AI插件更注意个人隐私
同楼上的各位, 这跟插件无关, 理论上用本地模型会更放心些
一下子又很清晰明白了很多,感谢大家的忍心指导和交流