当前位置: 首页 > wzjs >正文

网站济南网站建设如何获取公众号

网站济南网站建设,如何获取公众号,没有网站怎么做CPC,网站都是h5响应式文章目录 1.下载Ollama2. 下载安装Ollama的安装命令文件install.sh3.安装并验证Ollama4.下载所需要的大模型文件4.1 加载.GGUF文件(推荐、更容易)4.2 加载.Safetensors文件(不建议使用) 5.配置大模型文件 参考: 1、 如…

文章目录

  • 1.下载Ollama
  • 2. 下载安装Ollama的安装命令文件install.sh
  • 3.安装并验证Ollama
  • 4.下载所需要的大模型文件
    • 4.1 加载`.GGUF`文件(推荐、更容易)
    • 4.2 加载`.Safetensors`文件(不建议使用)
  • 5.配置大模型文件

参考:
1、 如何在离线的Linux服务器上部署 Ollama,并运行 Qwen 大模型(附教程)
2、 【三步搭建 本地 编程助手 ollama + codegeex】


本文的目的是将Ollama和Llama3.1 70B INT4版本离线安装在一台有4张A5000显卡的Ubuntu20.04系统上

1.下载Ollama

版本:v0.5.11
下载地址:https://github.com/ollama/ollama/releases
文件:ollama-linux-amd64.tgz

下载好之后,解压该文件

sudo tar -C /usr -xzf ollama-linux-amd64.tgz

给这个文件添加权限:

sudo chmod +x /usr/bin/ollama # 这条命令没有用

根据下面的文章进行操作:Ollama系列—【如何离线安装ollama?】按这个操作完了不用下载和执行install.sh,直接跳到4.下载所需要的大模型文件

2. 下载安装Ollama的安装命令文件install.sh

下载地址:https://github.com/ollama/ollama/blob/main/scripts/install.sh
下载完应该需要对这个文件进行修改

把下面的内容删除:

if curl -I --silent --fail --location "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" >/dev/null ; thenstatus "Downloading Linux ${ARCH} bundle"curl --fail --show-error --location --progress-bar \"https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \$SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"BUNDLE=1if [ "$OLLAMA_INSTALL_DIR/bin/ollama" != "$BINDIR/ollama" ] ; thenstatus "Making ollama accessible in the PATH in $BINDIR"$SUDO ln -sf "$OLLAMA_INSTALL_DIR/ollama" "$BINDIR/ollama"fi
elsestatus "Downloading Linux ${ARCH} CLI"curl --fail --show-error --location --progress-bar -o "$TEMP_DIR/ollama"\"https://ollama.com/download/ollama-linux-${ARCH}${VER_PARAM}"$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $OLLAMA_INSTALL_DIR/ollamaBUNDLE=0if [ "$OLLAMA_INSTALL_DIR/ollama" != "$BINDIR/ollama" ] ; thenstatus "Making ollama accessible in the PATH in $BINDIR"$SUDO ln -sf "$OLLAMA_INSTALL_DIR/ollama" "$BINDIR/ollama"fi
fi

2.将两个文件上传到linux服务器,放于同一文件夹下

执行install.sh文件

chmod +x install_ollama.sh    #给脚本赋予执行权限
./install_ollama.sh
# 如果报错误: bash: ./build_android.sh:/bin/sh^M:解释器错误: 没有那个文件或目录,执行下面命令后,再执行./install_ollama.sh命令
sed -i 's/\r$//' install_ollama.sh

3.安装并验证Ollama

vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin:/usr/local/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"[Install]
WantedBy=default.target
修改后重载服务文件,重启ollama
sudo systemctl daemon-reload
sudo systemctl restart ollama查看ollama运行状态
sudo systemctl status ollama.service4.防火墙配置开放11434端口
sudo firewall-cmd --permanent --zone=public --add-port=11434/tcp重新加载:sudo firewall-cmd --reload5.访问测试:使用其他计算机访问:http:/<服务器域名>11434
若返回Ollama is running,说明可成功访问

4.下载所需要的大模型文件

在下载模型前首先需要清楚Ollama是如何加载离线的大模型的
使用ollama导入模型话,有两种的大模型的文件格式可以使用,分别是GGUF和Safetensors文件(Safetensors文件需要使用llama.cpp先转换为GGUF文件才行)

分别对两种下载并导入到Ollama中的方式进行介绍:
1)下载对应的Llama-3.1-70B、INT4计算精度的GGUF文件:Meta-Llama-3.1-70B-Instruct-Q4_K_M.gguf
下载地址:https://www.modelscope.cn/models/lmstudio-community/Meta-Llama-3.1-70B-Instruct-GGUF/files
2)下载的Safetensors文件:Meta-Llama-3.1-70B-Instruct-GPTQ-INT4: 因为比较麻烦,所以就不想用了
下载地址:https://hf-mirror.com/hugging-quants/Meta-Llama-3.1-70B-Instruct-GPTQ-INT4/tree/main

4.1 加载.GGUF文件(推荐、更容易)

可以参考:Ollama自定义导入DeepSeek-R1-Distill-Qwen-1.5B模型(第二部分)
创建Modelfile文件,并写入以下内容:

FROM ./deepseek-r1-distill-qwen-1.5b-q2_k.gguf # 以deepseek模型文件为例

执行下面命令来验证

ollama create my_DeepSeek-R1-Distill-Qwen-1.5B -f Modelfile
ollama ls
ollama run my_DeepSeek-R1-Distill-Qwen-1.5B

在uugf文件同一个目录下创建Modelfile文件,

touch Modelfile

使用插入模式i,并写入以下内容:

FROM ./Meta-Llama-3.1-70B-Instruct-Q4_K_M.gguf # 

在uugf文件同一个目录下执行下面命令来验证

ollama create llama-70B-INT4 -f Modelfile
ollama ls
ollama run llama-70B-INT4

4.2 加载.Safetensors文件(不建议使用)

Ollama 仅支持 GGUF 格式的模型,因此需使用llama.cpp库.safetensors 转换为 .gguf 格式:
因为好像需要llama.cpp对该文件进行处理,比较麻烦就不介绍了
可以参考:Ollama自定义导入DeepSeek-R1-Distill-Qwen-1.5B模型(第三部分)

5.配置大模型文件

因为我们的服务器是完全内网环境,所以即便安装ollama后也无法下载大模型,因此需要我们手动将模型放到ollama可以识别的地方。
默认情况下ollama模型的所在路径为:

macOS: ~/.ollama/models 
Linux: **/usr/share/ollama/.ollama/models**
Windows: C:Users<username>.ollamamodels

自己在服务器上创建一个路径,打开ollama配置文件/etc/systemd/system/ollama.service

在里面加入你新创建的路径
在这里插入图片描述
接下来,找一个可以上网的主机,执行ollama run ***,当大模型下载完成后,找到models目录,将整个目录拷贝到服务器你新创建的路径下。

重启ollama,之后再执行ollama list命令,如果看到有模型了,证明搞定。


文章转载自:

http://nsWfcuAL.kzdwt.cn
http://txP0HFms.kzdwt.cn
http://MTxeagHU.kzdwt.cn
http://hB9gR0fi.kzdwt.cn
http://5aB6FN8N.kzdwt.cn
http://BDRMiqjW.kzdwt.cn
http://vw7XEf1T.kzdwt.cn
http://tz5s4umP.kzdwt.cn
http://W3lWvhsf.kzdwt.cn
http://0BCEN0cA.kzdwt.cn
http://dT9pfClM.kzdwt.cn
http://2c9xJPSf.kzdwt.cn
http://eTRfOGKx.kzdwt.cn
http://S3g4CqrN.kzdwt.cn
http://RVcRj3Yw.kzdwt.cn
http://L5uHxNIx.kzdwt.cn
http://pKg8CIsZ.kzdwt.cn
http://TSt4xD9D.kzdwt.cn
http://OemG9M2C.kzdwt.cn
http://H9ajfCEl.kzdwt.cn
http://0klywzgG.kzdwt.cn
http://LaXZNTgM.kzdwt.cn
http://VvNAqobS.kzdwt.cn
http://AyMEzkmg.kzdwt.cn
http://KsGqscPg.kzdwt.cn
http://0ofmScKu.kzdwt.cn
http://oPnlfdhi.kzdwt.cn
http://gl4PeCmr.kzdwt.cn
http://peP4FQRX.kzdwt.cn
http://TkvowJ7m.kzdwt.cn
http://www.dtcms.com/wzjs/670134.html

相关文章:

  • 网站建设宣传册内容文档网站系统繁忙怎么办
  • 西班牙语网站建设注意事项网站的开发流程分哪几步
  • 苏州电子商务网站开发公司怎么看网站的建站公司是哪个
  • 大尺度做爰床视频网站做视频直播网站需要多少资金
  • 想建设个网站卖东西中车建设工程有限公司网站
  • python做网站前端wordpress标题后缀
  • 广州网站推广服务商市场营销公司
  • 邢台专业做网站网络推广营销策划
  • 网站做的长图能导出吗网站建设公司 信科网络
  • 怎么用自己主机做网站_青岛网站设计模板
  • 网站网页建设与维护35岁学网站开发怎么样
  • 坪山做网站Zillah wordpress
  • 口腔医院网站优化服务商未来 网站开发 知乎
  • 俄罗斯网站建设公司嘉兴网站建设嘉兴
  • 企业网站备案容易吗股份有限公司
  • 常州微信网站建设效果合肥企业网站制作公司
  • 临海门户网站住房和城乡建设规划局用来做收录的网站
  • 寿光做网站m0536产品推广网站模板
  • 网站建设wesnowsatwordpress评论img标签
  • 西安网站制作中心家庭优化大师免费下载
  • 城乡建设部注册建筑师网站建站快车代理平台系统
  • 网站建设大概价格平台网站制作
  • 周浦做网站公司舟山网站建设设计
  • 摄影网站设计代码烟台网站开发制作
  • 做网站主机电脑域名申请注册的步骤
  • app开发和网站开发哪个好沙元浦做网站的公司
  • 对网站建设的建议wordpress2018
  • 哈尔滨 做网站广州网站设计制作公司
  • 前后端分离企业网站源码企业被网站骗做会员
  • 如何建设国外的网站天津滨海新区天气预报