利用ollama部署本地大模型 离线使用
方法1:下载ollama安装包
第一步:从ollama下载ollama的网址下载到本地,约1.2G;
第二步:通过sftp上载到服务器/user/local 目录,并解压缩:
tar -xzf ollama-linux-amd64.tgz
;
第三步:ollama --version,查看ollama是否安装成功,但是报错如下:
可以看到ollama要求 glibc_2.27库,如果采用这个方法 就需要安装这个库
方法2:利用docker安装ollama
第一步:拉取ollama镜像:docker pull ollama/ollama
第二步:运行:docker run -d -v ollama-data:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
第三步:docker exec -it ollama ollama run deepseek-r1:7b(首次运行会自动拉取模型)
第四步:测试:curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt": "为什么天空是蓝色的?",
"stream": false
}'