当前位置: 首页 > wzjs >正文

凌河锦州网站建设网站优化怎么看

凌河锦州网站建设,网站优化怎么看,wordpress 导入 微信,鹤山区网站建设上一篇文章讲了ollamadeepseek模型的本地化部署,具体能部署哪一款取决于你的土豪程度: 今天的目标是本地安装部署embeding模型,实现LLMembeding模型的rag知识库的本地化部署,包括: embeding模型的本地化部署anyhingL…

上一篇文章讲了ollama+deepseek模型的本地化部署,具体能部署哪一款取决于你的土豪程度:
在这里插入图片描述
今天的目标是本地安装部署embeding模型,实现LLM+embeding模型的rag知识库的本地化部署,包括:

  1. embeding模型的本地化部署
  2. anyhingLLM安装配置,使用本地LLM和embeding模型实现知识库
  3. api方式调用本地deepseek模型及emeding模型实现本地知识库

emeding模型的本地化部署

ollama官网上embeding排名比较靠前的两个:

  1. ollama pull nomic-embed-text
  2. bge-m3

安装当然非常简单,通过ollama官网copy命令:
在这里插入图片描述

或者直接命令行输入:

ollama pull bge-m3

安装完成之后,验证一下:
在这里插入图片描述
说明bge-m3和nomic-eded-text两个embeding模型已经完成了本地安装。

安装anythingLLM并配置LLM模型

直接到官网下载:
https://anythingllm.com/

anything有两个不同的版本,desktop是创建 all-in-one AI application的桌面版本,顾名思义,是个人桌面型工具,只能给你个人提供AI应用的帮助。另外一个可以docker部署的服务器版本,是可以支持团队应用的,部署后支持用户管理、权限管理,可以作为服务端为多个用户提供服务。
在这里插入图片描述
今天我们下载安装桌面版。

下载完成后,配置也非常简单。

首先点击左下角这个扳手进行配置:
在这里插入图片描述
如果要用本地安装的deepseek模型,在LLM提供商处选择ollama:

在这里插入图片描述
modal选择你安装的模型,我本机只有一个deepseek-r1:1.5b(比较穷),下面127.0.0.1:11434,就是本地ollama的服务端口,其他参数保持默认即可。

LLM模型配置之后就可以开始对话了,当然,anythingLLM在对话之前需要创建workplace,很简单,给个名字就完成了创建。

需要注意,对话之前本地的模型需要先启动起来。如果不启动模型直接对话,我猜测是anythingLLM在胡乱回答问题:
在这里插入图片描述
然后,启动本地模型:
在这里插入图片描述

然后再对话:
在这里插入图片描述

配置embeding模型

接下来我们配置下embeding模型,尝试下用anythingLLM创建本地RAG知识库,embeder首选项配置,选择bge-m3:

在这里插入图片描述
embeding模型就配置好了,可以使用了。

上传文档

点击工作区右侧的上传文档小图标打开文档上传窗口,上传文档完成后,拖入到下方的工作区中,系统需要embeding你上传的文档,根据你个人机器的配置情况以及文档大小,embeding可能需要点时间:
在这里插入图片描述

embeding之后就可以使用知识库了,我上传了两个word文档,测试了一下效果,确实,不得不说,效果很差。

我说效果差的意思是,我提问上传文档中的相关问题,他的回答很难命中文档中的内容。

相同的文档,相同的问题,我在deepseek官网上做了测试,deepseek官网能非常完美的回答问题。

效果差当然有可能得两个主要原因,一个就是embeding模型或向量数据库的问题,召回不准确。另外一个就是LLM的问题,虽然能准确从向量数据库召回,但是送给大模型之后,获取不到正确的回答。

这个问题不难验证:
修改anythingLLM的LLM首选项,改变LLM为deepseek线上模型(不用本地的穷鬼模型了):
在这里插入图片描述
当然,你需要首先从deepseek官网获得APIKey。

同样的问题,本地1.5b模型的回答是:
在这里插入图片描述
这就是在胡扯,因为我上传的的文档中有描述:
在这里插入图片描述
更换为线上模型后:
在这里插入图片描述
回答应该是接近完美了。

通过API方式搭建本地知识库

除了以上anythingLLM等AI工具搭建本地知识库外,程序员最感兴趣的、或者最有可能接入你的应用、为你的用户提供基于LLM的本地知识库解决方案的方式,个人认为还是通过coding、API的方式调用本地LLM以及embeding模型。

上一篇文章已经说过了怎么通过API方式调用ollama接口从而调用本地deepseek模型,今天我们结合bge-m3的api、通过加载pdf文档创建本地知识库,并调用本地deepseek模型进行问答,完成本地rag系统的搭建。

用cursor,不会就问,我本来也不太懂python,但是有了cursor,加上其他编程语言的经验,你就可以秒变python专家(当然是吹牛B了哈哈,这是好多培训机构的话术,是为了掏空你腰包的)。不过在cursor的帮助下,python新手也能完成相对比较复杂的代码。

首先把pdf文件读进来:

from pdfminer.high_level import extract_pages
from pdfminer.layout import LTTextContainerdef extract_text_from_pdf(filename, page_numbers=None, min_line_length=1):paragraphs = []buffer = ''full_text = ''for i, page_layout in enumerate(extract_pages(filename)):if page_numbers is not None and i not in page_numbers:continuefor element in page_layout:if isinstance(element, LTTextContainer):full_text += element.get_text() + '\n'lines = full_text.split('\n')for text in lines:if len(text) >= min_line_length:buffer += (' '+text) if not text.endswith('-') else text.strip('-')elif buffer:paragraphs.append(buffer)buffer = ''if buffer:paragraphs.append(buffer)return paragraphspdf_path = os.path.join(script_dir, "llama2.pdf")paragraphs = extract_text_from_pdf("llama2.pdf", min_line_length=10)

然后创建LLM模型调用的相关代码:

from openai import OpenAI
import os
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())  client = OpenAI()# def get_completion(prompt, model="deepseek-r1:1.5b"):
def get_completion(prompt, model="deepseek-reasoner"):messages = [{"role": "user", "content": prompt}]response = client.chat.completions.create(model=model,messages=messages,temperature=0,  )return response.choices[0].message.contentdef build_prompt(prompt_template, **kwargs):inputs = {}for k, v in kwargs.items():if isinstance(v, list) and all(isinstance(elem, str) for elem in v):val = '\n\n'.join(v)else:val = vinputs[k] = valreturn prompt_template.format(**inputs)

embeding之后计算余弦距离的函数,用来测试embeding模型是否能成功调用:

def cos_sim(a, b):return dot(a, b)/(norm(a)*norm(b))def l2(a, b):x = np.asarray(a)-np.asarray(b)return norm(x)  

然后是embeding模型调用的代码,通过ollama模块调用本地安装的bge-m3模型:

def get_embeddings(texts, model="bge-m3", dimensions=None):data = []for ele in texts:data.append( ollama.embeddings(model=model,prompt=ele))return [x.embedding for x in data]

然后随便写一段话就可以测试了:

query = "程序员往往需要996"documents = ["程序员的工作非常辛苦,常常需要加班","编写脚本拍一段视频其实也很简单的","AI可以代替绝大部分计算机操作人员的工作","圆明园游客非常多","清华大学deepseek从入门到精通",
]query_vec = get_embeddings([query])[0]
doc_vecs = get_embeddings(documents)print("Query与自己的余弦距离: {:.2f}".format(cos_sim(query_vec, query_vec)))
print("Query与Documents的余弦距离:")
for vec in doc_vecs:print(cos_sim(query_vec, vec))

如果以上代码能运行正常,说明本地embeding模型已经成功调用了。

在这里插入图片描述
接下来,加载pdf文档的内容,embeding之后写入向量数据库:

# 创建一个向量数据库对象
vector_db = MyVectorDBConnector("demo", get_embeddings)
# 向向量数据库中添加文档
vector_db.add_documents(paragraphs)

创建一个对话机器人:

class RAG_Bot:def __init__(self, vector_db, llm_api, n_results=2):self.vector_db = vector_dbself.llm_api = llm_apiself.n_results = n_resultsdef chat(self, user_query):# 1. 检索search_results = self.vector_db.search(user_query, self.n_results)# 2. 构建 Promptprompt = build_prompt(prompt_template, context=search_results['documents'][0], query=user_query)# 3. 调用 LLMresponse = self.llm_api(prompt)return response# 创建一个RAG机器人
bot = RAG_Bot(vector_db,llm_api=get_completion
)user_query = "llama 2有多少参数?"response = bot.chat(user_query)print(response)

调用本地deepseek r1:1.5b模型的回答:
在这里插入图片描述
与anythingLLM的方式调用本地模型一样,效果不能令人满意。

同样,我们更换一下线上模型试试看,对pdf的读取方式不变,还是用本地的embeding模型,结果:
在这里插入图片描述
代码中可以打印一下召回文本的内容,发现确实不是召回的问题,而是召回后发送给模型之后,本地的1.5b模型确实能力不足,导致回答不能令人满意。

为什么要本地部署

我在做本地部署的时候其实并没有想过这个问题,作为一名技术人员,尤其是程序员,对技术问题持的好奇心其实是天性使然。所以,为什么要进行本地部署就不会是一个问题:因为它支持本地部署,使用ollama进行本地部署后,ollama本身还提供了类openai的接口api,那我为什么不试一下?

所以为什么不做本地部署才会是一个问题。

但是这几天确实太疯狂了,打开浏览器、微信公众号等等所有的媒体,铺天盖地全是deepseek的信息,也有很多本地部署的信息,确实有很多人把本地部署当做一项特殊技能,跃跃欲试要给客户提供相关服务了。对于传统IT公司来讲,这可能会是一个机会,但个人认为绝不会是一个什么稍纵即逝的机会,也不是什么只要你提前布局就能提前把握住的新机会,如果说LLM或者RAG知识库能给客户提供新的巨大帮助的话,也需要服务商具有深厚的IT服务基本功,需要认真考量其与企业现有数字化能力、数字化水平、数字化基础的对接方式,需要有扎扎实实大量的投入,才有可能找到合适的落地方案。

从这个角度讲,我们做本地部署的目的,最主要的其实还是学习,包括不同体量的模型的能力,模型的API调用,尝试LLM模型、embeding模型与现有系统的对接,测试模型的funcation calling能力等等。做了本地化部署其实是可以方便进行这类对接测试的,除了省钱之外,还能避免“服务器繁忙”的坑。

毕竟,本地部署满血模型是很烧银子的,而除了满血模型,从网上大部分本地部署后的反馈来看,即使是70b的模型效果也就差强人意…所以,本地部署后要应用的,需三思。

以上。


文章转载自:

http://Q02F0O3x.gqwbL.cn
http://UVgpsriN.gqwbL.cn
http://UBJCbaKG.gqwbL.cn
http://lHQvz17j.gqwbL.cn
http://xmI2hKN4.gqwbL.cn
http://fvysKM6d.gqwbL.cn
http://bfVpGIGb.gqwbL.cn
http://tlyDoOWk.gqwbL.cn
http://JI2IEQBX.gqwbL.cn
http://o2DGBN2M.gqwbL.cn
http://JPPDvwxd.gqwbL.cn
http://WZThYGT5.gqwbL.cn
http://UWpXROo2.gqwbL.cn
http://wzG4zeEC.gqwbL.cn
http://W37D2k1I.gqwbL.cn
http://3XhccJp0.gqwbL.cn
http://XfN4mtsL.gqwbL.cn
http://LILZ5thM.gqwbL.cn
http://W1aEfNDK.gqwbL.cn
http://JPwRXoqn.gqwbL.cn
http://P7CKyYq8.gqwbL.cn
http://SsG3Fayr.gqwbL.cn
http://TYPDOoNu.gqwbL.cn
http://yuMPVJ9z.gqwbL.cn
http://yhP0xIso.gqwbL.cn
http://ZLqvW70J.gqwbL.cn
http://WphW2gHp.gqwbL.cn
http://h7mHeqK1.gqwbL.cn
http://455j5bK2.gqwbL.cn
http://zPWrjU3p.gqwbL.cn
http://www.dtcms.com/wzjs/656744.html

相关文章:

  • 网站建设公司的前端黄山自驾游最佳攻略
  • 博客网站建设的流程logo图标
  • 房产网站建设整体架构设计癖官网
  • 站酷网素材图库免费下载瑞丽网站建设
  • 开发一整个网站要多久湖南工业大学网址
  • h5网站如何做排名wordpress主标题副标题
  • 福建建设信息网站监理企业招聘南宁企业官网seo
  • 网站优化联系wordpress笑话主题
  • vs网站建设弹出窗口代码c深圳宝安区房价多少钱一平方
  • 徐州建设网站织梦商城网站
  • 资源网站模板手机建网站步骤
  • 个人网站多少钱一年趣图在线生成网站源码
  • 做视频网站资源采集推广文案标题
  • 安丘网站建设开发朗润装饰
  • 珠海公司网站设计医保局网站建设中标公告
  • 专题探索网站开发模式特点苏州网站开发建设公司
  • dedese网站外贸企业网站建设哪家好
  • 企业网站维护怎么做澄海手工外发加工网
  • 哪家建设网站成都微信小程序制作
  • 如何做网站卖画宁波网站建设公司推荐哪家
  • 产品设计作品集欣赏深圳优化新材料
  • 建站房的公司搜索引擎优化主要包括
  • 网站建设ftp开发公司证明房产证明
  • 柳州网站建设找哪家苏州微信小程序开发公司
  • 国内 ui网站有哪些南宁哪里有网站建设培训班
  • 浏阳做网站推荐android auto
  • 长春网站建设q479185700惠wordpress商城移动端
  • 单位网站的作用安装手机app
  • 昆明专业网站建设模板拓者设计吧邀请码怎么弄
  • 鹿城区住房和城乡建设局网站查询域名信息