当前位置: 首页 > news >正文

Shimmy,超越ollama?

以下是 Shimmy 的安装方法及关键注意事项,综合多个来源整理:

一、安装方式

  1. 通过 Cargo 安装(推荐)

    • 适用场景:需要灵活管理依赖、开发环境或希望自动更新。

    • 步骤:

    1. 安装 Rust 和 Cargo(若未安装):
      curl --proto ‘=https’ --tlsv1.2 -sSf https://sh.rustup.rs | sh
      source ~/.cargo/env

    2. 安装 Shimmy:
      cargo install shimmy

    • 优势:自动获取最新版本,支持跨平台(Linux/macOS/Windows)。

  2. 直接下载二进制文件

    • 适用场景:快速部署、无 Rust 环境或需要离线安装。

    • 步骤:

    1. 访问 https://github.com/Michael-A-Kuykendall/shimmy/releases。

    2. 根据操作系统下载对应文件:
      ▪ Windows:shimmy-x86_64-pc-windows-msvc.zip(需解压为 .exe)。

      ▪ macOS:shimmy-x86_64-apple-darwin(Intel 芯片)或 shimmy-aarch64-apple-darwin(Apple Silicon)。

      ▪ Linux:shimmy-x86_64-unknown-linux-gnu。

    3. 将二进制文件放置到系统路径(如 /usr/local/bin 或自定义目录)。
      • 注意:Windows 用户可能需在 Defender 中添加排除项,避免误报。

二、模型配置

Shimmy 不自带模型,需手动下载并放置到指定目录:

  1. 模型格式:仅支持 GGUF 格式(如 Phi-3、Llama 系列等)。

  2. 下载方法:
    • 使用 huggingface-cli 下载模型到本地目录:
    pip install huggingface-hub
    huggingface-cli download microsoft/Phi-3-mini-4k-instruct-gguf --local-dir ./models/

    • 或从其他来源获取模型文件(如 Ollama 模型目录)。

  3. 自动发现路径:
    • Shimmy 默认扫描以下路径:

    ◦ ~/.cache/huggingface/hub/(Hugging Face 缓存)

    ◦ ~/.ollama/models/(Ollama 模型目录)

    ◦ ./models/(当前目录)

    • 也可通过环境变量 SHIMMY_BASE_GGUF 指定自定义路径。

三、启动服务

  1. 基础命令:
    shimmy serve

    • 自动分配端口(默认 http://localhost:11435)。

  2. 高级配置:
    • 指定端口:
    shimmy serve --bind 127.0.0.1:11435

    • 指定模型文件:
    shimmy serve --model /path/to/model.gguf

    • 同时指定模型和端口:
    shimmy serve --model ~/models/phi-3.gguf --port 3000

    • 列出可用模型:
    shimmy list

    • 刷新模型发现:
    shimmy discover

四、常见问题

  1. Windows 兼容性:
    • 若二进制文件无法运行,建议通过 Cargo 安装或检查 Defender 设置。

  2. 模型加载失败:
    • 确认模型文件路径正确,且为 GGUF 格式。

    • 检查是否在 models/ 目录或配置的环境变量路径中。

  3. 端口冲突:
    • 使用 --port 参数手动指定未被占用的端口。

五、Docker 部署(可选)

  1. 创建模型目录并下载模型:
    mkdir models
    curl -L “https://huggingface.co/microsoft/Phi-3-mini-4k-instruct-gguf/resolve/main/Phi-3-mini-4k-instruct-q4.gguf” -o models/phi-3-mini.gguf

  2. 启动容器:
    docker run -v $(pwd)/models:/app/models -p 11435:11435 shimmy

总结

Shimmy 的安装流程极简,核心优势在于 轻量化(5.1MB)和 零配置自动发现模型。推荐优先通过 Cargo 安装以获取最新功能,模型部署时需注意路径配置。如需进一步优化性能,可尝试 LoRA 适配器或 Metal GPU 加速(macOS)。

http://www.dtcms.com/a/392745.html

相关文章:

  • LeetCode:36.二叉树的中序遍历
  • python开发环境VSCode中隐藏“__pycache__”目录实践
  • Chrome View渲染机制学习小记
  • C# Protobuf oneof、包装器类型、枚举命名与服务支持
  • 智慧消防:科技赋能,重塑消防安全新生态
  • AI人工智能训练师五级(初级)实操模拟题
  • [数理逻辑] 决定性公理与勒贝格可测性(I) 基础知识
  • Java面向对象之多态
  • 量子计算学习续(第十五周周报)
  • Docker 入门与实践:从零开始掌握容器化技术
  • 个人用户无公网 IP 访问群晖 NAS:神卓 N600 的安全便捷方案(附踩坑经验)
  • Cpolar内网穿透实战:从零搭建远程访问服务
  • 【Python精讲 03】Python核心容器:一篇通关序列(List, Tuple)、映射(Dict)与集合(Set)
  • map_from_arrays和map_from_entries函数
  • 【EE初阶 - 网络原理】网络基本原理
  • 计算机毕设选题+技术栈选择推荐:基于Python的家教预约管理系统设计
  • 密码实现安全:形式化验证技术解析及主流工具实践
  • 并发编程的“造物主“函数——`pthread_create`
  • Python如何开发游戏
  • 新手向 算法 插入排序-yang
  • 2.0、机器学习-数据聚类与分群分析
  • 无痛c到c++
  • QTableWidget 控件入门
  • 【HarmonyOS】HMRouter配置与基本使用
  • 数据驱动下的实验设计与方差分析:从技术落地到方法论升维
  • 深度学习中的池化、线性层与激活函数
  • 【脑电分析系列】第22篇:EEG情绪识别与脑机接口(BCI)应用案例:机器学习与深度学习的实战
  • 深度学习知识点
  • 【pdf】如何将网页转换为pdf?
  • 家庭劳务智能机器人:从“科幻设想”到“推门而入”还有多远?