当前位置: 首页 > article >正文

deepseek + embeding模型搭建本地知识库

上一篇文章讲了ollama+deepseek模型的本地化部署,具体能部署哪一款取决于你的土豪程度:
在这里插入图片描述
今天的目标是本地安装部署embeding模型,实现LLM+embeding模型的rag知识库的本地化部署,包括:

  1. embeding模型的本地化部署
  2. anyhingLLM安装配置,使用本地LLM和embeding模型实现知识库
  3. api方式调用本地deepseek模型及emeding模型实现本地知识库

emeding模型的本地化部署

ollama官网上embeding排名比较靠前的两个:

  1. ollama pull nomic-embed-text
  2. bge-m3

安装当然非常简单,通过ollama官网copy命令:
在这里插入图片描述

或者直接命令行输入:

ollama pull bge-m3

安装完成之后,验证一下:
在这里插入图片描述
说明bge-m3和nomic-eded-text两个embeding模型已经完成了本地安装。

安装anythingLLM并配置LLM模型

直接到官网下载:
https://anythingllm.com/

anything有两个不同的版本,desktop是创建 all-in-one AI application的桌面版本,顾名思义,是个人桌面型工具,只能给你个人提供AI应用的帮助。另外一个可以docker部署的服务器版本,是可以支持团队应用的,部署后支持用户管理、权限管理,可以作为服务端为多个用户提供服务。
在这里插入图片描述
今天我们下载安装桌面版。

下载完成后,配置也非常简单。

首先点击左下角这个扳手进行配置:
在这里插入图片描述
如果要用本地安装的deepseek模型,在LLM提供商处选择ollama:

在这里插入图片描述
modal选择你安装的模型,我本机只有一个deepseek-r1:1.5b(比较穷),下面127.0.0.1:11434,就是本地ollama的服务端口,其他参数保持默认即可。

LLM模型配置之后就可以开始对话了,当然,anythingLLM在对话之前需要创建workplace,很简单,给个名字就完成了创建。

需要注意,对话之前本地的模型需要先启动起来。如果不启动模型直接对话,我猜测是anythingLLM在胡乱回答问题:
在这里插入图片描述
然后,启动本地模型:
在这里插入图片描述

然后再对话:
在这里插入图片描述

配置embeding模型

接下来我们配置下embeding模型,尝试下用anythingLLM创建本地RAG知识库,embeder首选项配置,选择bge-m3:

在这里插入图片描述
embeding模型就配置好了,可以使用了。

上传文档

点击工作区右侧的上传文档小图标打开文档上传窗口,上传文档完成后,拖入到下方的工作区中,系统需要embeding你上传的文档,根据你个人机器的配置情况以及文档大小,embeding可能需要点时间:
在这里插入图片描述

embeding之后就可以使用知识库了,我上传了两个word文档,测试了一下效果,确实,不得不说,效果很差。

我说效果差的意思是,我提问上传文档中的相关问题,他的回答很难命中文档中的内容。

相同的文档,相同的问题,我在deepseek官网上做了测试,deepseek官网能非常完美的回答问题。

效果差当然有可能得两个主要原因,一个就是embeding模型或向量数据库的问题,召回不准确。另外一个就是LLM的问题,虽然能准确从向量数据库召回,但是送给大模型之后,获取不到正确的回答。

这个问题不难验证:
修改anythingLLM的LLM首选项,改变LLM为deepseek线上模型(不用本地的穷鬼模型了):
在这里插入图片描述
当然,你需要首先从deepseek官网获得APIKey。

同样的问题,本地1.5b模型的回答是:
在这里插入图片描述
这就是在胡扯,因为我上传的的文档中有描述:
在这里插入图片描述
更换为线上模型后:
在这里插入图片描述
回答应该是接近完美了。

通过API方式搭建本地知识库

除了以上anythingLLM等AI工具搭建本地知识库外,程序员最感兴趣的、或者最有可能接入你的应用、为你的用户提供基于LLM的本地知识库解决方案的方式,个人认为还是通过coding、API的方式调用本地LLM以及embeding模型。

上一篇文章已经说过了怎么通过API方式调用ollama接口从而调用本地deepseek模型,今天我们结合bge-m3的api、通过加载pdf文档创建本地知识库,并调用本地deepseek模型进行问答,完成本地rag系统的搭建。

用cursor,不会就问,我本来也不太懂python,但是有了cursor,加上其他编程语言的经验,你就可以秒变python专家(当然是吹牛B了哈哈,这是好多培训机构的话术,是为了掏空你腰包的)。不过在cursor的帮助下,python新手也能完成相对比较复杂的代码。

首先把pdf文件读进来:

from pdfminer.high_level import extract_pages
from pdfminer.layout import LTTextContainer

def extract_text_from_pdf(filename, page_numbers=None, min_line_length=1):
    paragraphs = []
    buffer = ''
    full_text = ''
    for i, page_layout in enumerate(extract_pages(filename)):
        if page_numbers is not None and i not in page_numbers:
            continue
        for element in page_layout:
            if isinstance(element, LTTextContainer):
                full_text += element.get_text() + '\n'
    lines = full_text.split('\n')
    for text in lines:
        if len(text) >= min_line_length:
            buffer += (' '+text) if not text.endswith('-') else text.strip('-')
        elif buffer:
            paragraphs.append(buffer)
            buffer = ''
    if buffer:
        paragraphs.append(buffer)
    return paragraphs

pdf_path = os.path.join(script_dir, "llama2.pdf")

paragraphs = extract_text_from_pdf("llama2.pdf", min_line_length=10)

然后创建LLM模型调用的相关代码:

from openai import OpenAI
import os
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())  

client = OpenAI()

# def get_completion(prompt, model="deepseek-r1:1.5b"):
def get_completion(prompt, model="deepseek-reasoner"):
    messages = [{"role": "user", "content": prompt}]
    response = client.chat.completions.create(
        model=model,
        messages=messages,
        temperature=0,  
    )
    return response.choices[0].message.content

def build_prompt(prompt_template, **kwargs):
    inputs = {}
    for k, v in kwargs.items():
        if isinstance(v, list) and all(isinstance(elem, str) for elem in v):
            val = '\n\n'.join(v)
        else:
            val = v
        inputs[k] = val
    return prompt_template.format(**inputs)

embeding之后计算余弦距离的函数,用来测试embeding模型是否能成功调用:

def cos_sim(a, b):
    return dot(a, b)/(norm(a)*norm(b))


def l2(a, b):
    x = np.asarray(a)-np.asarray(b)
    return norm(x)  

然后是embeding模型调用的代码,通过ollama模块调用本地安装的bge-m3模型:

def get_embeddings(texts, model="bge-m3", dimensions=None):
    data = []
    for ele in texts:
        data.append( ollama.embeddings(model=model,
                         prompt=ele))
    return [x.embedding for x in data]

然后随便写一段话就可以测试了:

query = "程序员往往需要996"

documents = [
    "程序员的工作非常辛苦,常常需要加班",
    "编写脚本拍一段视频其实也很简单的",
    "AI可以代替绝大部分计算机操作人员的工作",
    "圆明园游客非常多",
    "清华大学deepseek从入门到精通",
]

query_vec = get_embeddings([query])[0]
doc_vecs = get_embeddings(documents)

print("Query与自己的余弦距离: {:.2f}".format(cos_sim(query_vec, query_vec)))
print("Query与Documents的余弦距离:")
for vec in doc_vecs:
    print(cos_sim(query_vec, vec))

如果以上代码能运行正常,说明本地embeding模型已经成功调用了。

在这里插入图片描述
接下来,加载pdf文档的内容,embeding之后写入向量数据库:

# 创建一个向量数据库对象
vector_db = MyVectorDBConnector("demo", get_embeddings)
# 向向量数据库中添加文档
vector_db.add_documents(paragraphs)

创建一个对话机器人:

class RAG_Bot:
    def __init__(self, vector_db, llm_api, n_results=2):
        self.vector_db = vector_db
        self.llm_api = llm_api
        self.n_results = n_results

    def chat(self, user_query):
        # 1. 检索
        search_results = self.vector_db.search(user_query, self.n_results)

        # 2. 构建 Prompt
        prompt = build_prompt(
            prompt_template, context=search_results['documents'][0], query=user_query)

        # 3. 调用 LLM
        response = self.llm_api(prompt)
        return response
    # 创建一个RAG机器人
bot = RAG_Bot(
    vector_db,
    llm_api=get_completion
)

user_query = "llama 2有多少参数?"

response = bot.chat(user_query)

print(response)

调用本地deepseek r1:1.5b模型的回答:
在这里插入图片描述
与anythingLLM的方式调用本地模型一样,效果不能令人满意。

同样,我们更换一下线上模型试试看,对pdf的读取方式不变,还是用本地的embeding模型,结果:
在这里插入图片描述
代码中可以打印一下召回文本的内容,发现确实不是召回的问题,而是召回后发送给模型之后,本地的1.5b模型确实能力不足,导致回答不能令人满意。

为什么要本地部署

我在做本地部署的时候其实并没有想过这个问题,作为一名技术人员,尤其是程序员,对技术问题持的好奇心其实是天性使然。所以,为什么要进行本地部署就不会是一个问题:因为它支持本地部署,使用ollama进行本地部署后,ollama本身还提供了类openai的接口api,那我为什么不试一下?

所以为什么不做本地部署才会是一个问题。

但是这几天确实太疯狂了,打开浏览器、微信公众号等等所有的媒体,铺天盖地全是deepseek的信息,也有很多本地部署的信息,确实有很多人把本地部署当做一项特殊技能,跃跃欲试要给客户提供相关服务了。对于传统IT公司来讲,这可能会是一个机会,但个人认为绝不会是一个什么稍纵即逝的机会,也不是什么只要你提前布局就能提前把握住的新机会,如果说LLM或者RAG知识库能给客户提供新的巨大帮助的话,也需要服务商具有深厚的IT服务基本功,需要认真考量其与企业现有数字化能力、数字化水平、数字化基础的对接方式,需要有扎扎实实大量的投入,才有可能找到合适的落地方案。

从这个角度讲,我们做本地部署的目的,最主要的其实还是学习,包括不同体量的模型的能力,模型的API调用,尝试LLM模型、embeding模型与现有系统的对接,测试模型的funcation calling能力等等。做了本地化部署其实是可以方便进行这类对接测试的,除了省钱之外,还能避免“服务器繁忙”的坑。

毕竟,本地部署满血模型是很烧银子的,而除了满血模型,从网上大部分本地部署后的反馈来看,即使是70b的模型效果也就差强人意…所以,本地部署后要应用的,需三思。

以上。


http://www.kler.cn/a/548052.html

相关文章:

  • STM32——HAL库开发笔记20(定时器1—时基单元)(参考来源:b站铁头山羊)
  • --- jvm中一个类的一生 ---
  • 2.10 Playground Chat提示工程实战:从交互调试到企业级应用的全链路指南
  • 如何在Spring Boot中使用Profiles实现环境隔离
  • 51单片机-数码管
  • tomcat 使用域名访问失败
  • 硅基流动+OfficeAI:开启WPS智能办公新时代
  • 在项目中操作 MySQL
  • 基于GFF3文件提取基因的位置信息
  • 人工智能之姿态估计OpenPose算法源码分析(vgg19,backbone,高斯热度图,单位向量叉乘,向量累加和后求平均,感受野,多个stage纠错)
  • 在分布式场景下可以使用synchronized加锁么?
  • tcp/ip协议设置参数,tcp/ip协议6设置
  • Maven 构建优化技巧
  • 计算机Java毕业设计汇总+持续更新~
  • LabVIEW 用户界面设计基础原则
  • 关于Activity的六个常用控件和ListView控件的详情
  • 什么是AI Agent的身份安全问题
  • 137,【4】 buuctf web [SCTF2019]Flag Shop
  • MYSQL下载安装及使用
  • HCIA-Datacom笔记3:网络工程