场景:如果你希望大模型能根据企业的规章制度来回答问题,那么你一般需要上传企业规章制度的附件;你可能面临的问题有:
1.数据隐私问题:联网使用大模型数据隐私性无法得到绝对保证;
2.上传文件的限制问题:网页版AI对于文件上传的数量、大小一般有限制并且有付费隐形情况;
3.仅通过附件扩展上下文功能有限:每次在新对话中提问相关问题时,仍需要重新上传附件;修改删除对话中已有的附件困难;
怎么打造呢?使用RAG技术(Retrieval-AugmentedGeneration,检索增强生成)构建个人知识库。为此我们需要:
1.本地部署RAG技术所需要的开源框架RAGFlow;
2.本地部署Embedding大模型(该嵌入模型可以把文本信息转为多维向量,从而快速找到文档的相关性,提升准确率);
那么,打造个人本地化部署知识库很简单,就和把大象装冰箱分三步一样:
1.下载ollama,通过ollama将DeepSeek模型下载到本地运行;
(1)下载ollama,通过ollama将DeepSeek模型下载到本地运行;
网址:https://ollama.com/download/windows
(2)配置环境变量
OLLAMA_HOST-0.0.0.0:11434
作用:让虚拟机里的RAGFlow能够访问到本机上的Ollama;
OLLAMAMODELS-自定义位置
作用:ollama默认会把模型下载到C盘,如果希望下载到其他盘需要进行配置;
(3)通过ollama下载Deepseek
2.下载Anythingllm:https://anythingllm.com/
3.在Anythingllm中构建个人知识库并实现基于个人知识库的对话问答;
b站中,有一个很全面的视频指导,https://www.bilibili.com/video/BV1ioFyekEWj/?spm_id_from=333.1387.favlist.content.click&vd_source=12ba31c4a1366704256b4ed47a13fe53;
视频里面有个很有意思的话题,就是如何消除AI在知识库里的幻觉,即一本正经说胡话,比如虚拟了一个手机型号,直接在Anythingllm中问他这个手机型号,AI给你瞎编了一个:
但实际上是搜不到这个虚拟型号的,那么我们将回答方式由聊天改为查询,我们可以看到它会回复你找不到;同时给知识库将虚拟的手机型号导入后,它会优先调用知识库中的信息,给你做出很好的回答,并标明引用出处,这样可以很好的消除AI幻觉: