当前位置: 首页 > news >正文

Ollama杂记

     Ollama 开启 GPU 加速可显著提升大语言模型运行效率与性能,通过利用 NVIDIA CUDA 等 GPU 并行计算能力优化矩阵运算,推理速度可实现数倍至数十倍的提升,有效降低用户交互延迟。

  1.验证WSL内是否已正确启用CUDA支持,需在两个不同环境(Windows终端和WSL的Linux终端)中运行特定命令。

首先,在Windows终端中检查WSL版本,以管理员身份启动 PowerShell,执行以下命令:

wsl --list --verbose

 运行结果要包括:

然后,在WSL的Linux终端中验证CUDA支持,在WSL中输入以下代码检查NVIDIA驱动是否可见:

nvidia-smi

正常情况下,运行结果如下图:

最后,检查CUDA兼容性库路径,在WSL中执行以下命令:

ls /usr/lib/wsl/lib

确认存在 libcuda.solibcuda.so.1 等关键桥接库文件。

2.处理CUDA库依赖,使用GPU加速(需NVIDIA驱动支持),需要确保Ollama依赖的CUDA库需要与你的系统环境匹配,若无GPU或使用CPU模式,可忽略CUDA库,Ollama会自动使用CPU版本。

前提条件:

(1)确保Windows系统已安装NVIDIA驱动。

(2)WSL内已启用CUDA支持。

部署CUDA库:

# 创建Ollama库目录
sudo mkdir -p /usr/local/lib/ollama
# 复制CUDA v12库(假设你使用CUDA 12)
sudo cp -r ~/lib/ollama/cuda_v12 /usr/local/lib/ollama/

配置动态链接库路径:

# 临时生效(当前终端)
export LD_LIBRARY_PATH=/usr/local/lib/ollama/cuda_v12:$LD_LIBRARY_PATH

# 永久生效(添加到~/.bashrc)
echo 'export LD_LIBRARY_PATH=/usr/local/lib/ollama/cuda_v12:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

 

3.验证Ollama的GPU加速

在WSL中执行以下命令:

OLLAMA_DEBUG=1 ollama serve

根据运行日志,出现以下信息时即为 GPU 加速已生效。

http://www.dtcms.com/a/62538.html

相关文章:

  • bin/python: bad interpreter: No such file or directory
  • Python:正则表达式
  • Java数据结构第二十二期:Map与Set的高效应用之道(一)
  • Nginx正向代理HTTPS配置指南(仅供参考)
  • K8s 1.27.1 实战系列(十)PV PVC
  • 三角形页面
  • DeepSeek API 客户端使用文档
  • 重生之我在学Vue--第7天 Vue 3 数据请求(Axios)
  • Unity辅助工具_头部与svn
  • DeepIn Wps 字体缺失问题
  • 安全焊接,智慧监管
  • EG82088串口边缘计算网关
  • 网络空间安全(24)APT攻击
  • 北京迅为RK3568开发板OpenHarmony系统南向驱动开发内核HDF驱动框架架构
  • 《无线网络架构与人工智能实时性:深度融合与未来展望》
  • 电商数据分析 电商平台销售数据分析 电商平台数据库设计 揭秘电商怎么做数据分析
  • 插入排序算法优化
  • Yolo-Uniow开集目标检测本地复现
  • Kotlin学习笔记之类与对象
  • 【ISP】ISP的pipeline的几种关键算法
  • mysql忘记root密码
  • 企业安全—对数据和资产进行识别和分类
  • 数据结构与算法效率分析:时间复杂度与空间复杂度详解(C语言)
  • 【赵渝强老师】PostgreSQL的模板数据库
  • 【C#学习笔记03】进制转换与反码、补码、原码
  • 数字人源头技术saas厂家开发
  • 木马查杀之AST初识篇
  • UE5.5 Niagara发射器更新属性
  • 迅为RK3568开发板篇Openharmony配置HDF控制UART-实操-HDF驱动配置UART-UART应用开发-UART驱动API接口介绍
  • 四层协议攻防手册:从SYN Flood到UDP反射的深度防御