当前位置: 首页 > wzjs >正文

网站推广公司就去柚米网络服务投诉平台

网站推广公司就去柚米,网络服务投诉平台,wordpress cascade,方案图网站文章目录 安装与运行导入LLMHugginface模型-转换为-GGUF模型在指定gpu上运行model存储路径设置 ollama接口 官网 github中文介绍 安装与运行 安装教程 安装 wget https://ollama.com/download/ollama-linux-amd64.tgz tar -xzvf ollama-linux-amd64.tgz添加ollama的环境变量…

文章目录

      • 安装与运行
      • 导入LLM
        • Hugginface模型-转换为-GGUF模型
        • 在指定gpu上运行
        • model存储路径设置
      • ollama接口

官网
github中文介绍

安装与运行

安装教程
安装

wget https://ollama.com/download/ollama-linux-amd64.tgz
tar -xzvf ollama-linux-amd64.tgz

添加ollama的环境变量:export OLLAMA_HOME=/data1/ztshao/programs/ollama-linux-amd64
然后把ollama/bin添加到path里。
运行:ollama serve
检测运行:ollama -v

导入LLM

GGUF是一种存储LLM的格式。ollama选用了这种格式。所以hugginface下下来的llm需要转换为gguf格式。

Hugginface模型-转换为-GGUF模型
  1. 先下载GGUF的转换代码。
git clone https://github.com/ggerganov/llama.cpp.git
  1. 进行转换得到.gguf文件。格式为python convert_hf_to_gguf.py <iput_model_path> --outfile <out_gguf_path> --outtype f16。注意out_gguf_path的后缀为.gguf
python convert_hf_to_gguf.py ../Qwen2.5-7B-Instruct --outfile Qwen2.5-7B-Instruct.gguf --outtype f16

注意.gguf文件存储在model文件夹内部

  1. ollama运行模型
    先构造Modelfile文件:
FROM ./Qwen2.5-7B-Instruct.gguf

无量化版本:ollama create MyQwen2.5-7B-Instruct -f ./Modelfile
带量化版本:ollama create -q Q4_K_M MyQwen2.5-7B-Instruct -f ./Modelfile

  1. 查看ollama内部模型列表:ollama list
  2. 运行模型:ollama run MyQwen2.5-7B-Instruct
  3. 删除模型:ollama rm MyQwen2.5-7B-Instruct
在指定gpu上运行

失败版本:
创建./ollama_gpu_selector.sh,内容为:
参考代码

#!/bin/bash# Validate input
validate_input(){
if [[ ! $1 =~ ^[0-4](,[0-4])*$ ]];thenecho "Error: Invalid input. Please enter numbers between 0 and 4, separated by commas."
exit 1
fi
}# Update the service file with CUDA_VISIBLE_DEVICES values
update_service(){
# Check if CUDA_VISIBLE_DEVICES environment variable exists in the service file
if grep -q '^Environment="CUDA_VISIBLE_DEVICES='/etc/systemd/system/ollama.service;then
# Update the existing CUDA_VISIBLE_DEVICES valuessudo sed -i 's/^Environment="CUDA_VISIBLE_DEVICES=.*/Environment="CUDA_VISIBLE_DEVICES='"$1"'"/'/etc/systemd/system/ollama.service
else
# Add a new CUDA_VISIBLE_DEVICES environment variablesudo sed -i '/\[Service\]/a Environment="CUDA_VISIBLE_DEVICES='"$1"'"'/etc/systemd/system/ollama.service
fi# Reload and restart the systemd servicesudo systemctl daemon-reloadsudo systemctl restart ollama.serviceecho "Service updated and restarted with CUDA_VISIBLE_DEVICES=$1"
}# Check if arguments are passed
if [[ "$#" -eq 0 ]];then
# Prompt user for CUDA_VISIBLE_DEVICES values if no arguments are passedread -p "Enter CUDA_VISIBLE_DEVICES values (0-4, comma-separated): " cuda_valuesvalidate_input "$cuda_values"update_service "$cuda_values"
else
# Use arguments as CUDA_VISIBLE_DEVICES valuescuda_values="$1"validate_input "$cuda_values"update_service "$cuda_values"
fi

成功版:
我没有root权限,所以直接在.bashrc里修改了变量:

export CUDA_DEVICE_ORDER="PCI_BUS_ID"
export CUDA_VISIBLE_DEVICES=4

然后执行bashrc,重启ollama:

source ~/.bashrc
ollama serve
ollama run MyQwen2.5-7B-Instruct

查看ollama的模型运行情况:ollama ps

model存储路径设置

参考

ollama接口

http://www.dtcms.com/wzjs/138966.html

相关文章:

  • 做防腐木花架的网站搜索引擎营销怎么做
  • 邢台地区网站建设独立网络推广网络营销和网站推广的区别
  • 淄博网站建设团队百度seo关键词排名优化
  • 长兴做网站免费收录平台
  • 自己可以做网站吗百度在线识图查图片
  • 安卓盒子+做网站网站运营主要做什么工作
  • 福州营销网站建设技术手机优化大师下载
  • 网站建设制作网络营销公司重庆百度推广的代理商
  • 南昌网站建设在哪里百度热搜榜排名今日第一
  • 公司网站功能性建设有哪些网站优化外包找谁
  • 做贸易要看什么网站营销软文是什么
  • 印尼做网站的教学 中文张家界网站seo
  • 我是怎么做网站架构的线上营销推广方式都有哪些
  • 网站后台 搜索1+x网店运营推广
  • 国外优秀网站设计欣赏创建一个网站需要什么
  • 域名直卖网青岛seo用户体验
  • 网站建制作公司湖北百度seo排名
  • 网站建设及网络推广企业建站公司热线电话
  • 阳江网站建设推广公司电话google推广
  • 苏州网站建设师长沙官网seo收费
  • 什么做直播网站好营销型网站建设的公司
  • 帮一个公司做网站多少钱怎样申请网站注册
  • 做p2p网站 人员配置代理推广
  • 中国农村建设网站首页免费友情链接交换平台
  • 中国建设银行郑州分行网站百度seo排名报价
  • 网页设计师简历抚州seo排名
  • 邯郸学校网站建设费用太原百度seo
  • 建设医院网站多少钱培训课程表
  • 全国法院网站群建设会今天的新闻最新消息
  • 橱柜网站建设公司seo优化有哪些