当前位置: 首页 > news >正文

M1芯片macOS安装Xinference部署大模型

如果你看的是官方手册:安装 — Xinference

千万不要直接运行:

pip install "xinference[all]"

会遇到几个问题:
1)Python版本如果太新可能安装失败

2)全量安装会失败

3)未科学上网可能会timeout

我目前的做法如下:

1)安装mini-conda

2)创建虚拟环境,Python指定3.11版本,并激活运行

conda create -n xinference python=3.11
conda activate xinference

3)安装官方文档,运行不同的引擎,我推荐使用下面的:

Transformers 引擎

PyTorch(transformers) 引擎支持几乎有所的最新模型,这是 Pytorch 模型默认使用的引擎:

pip install "xinference[transformers]"

如果是M系列芯片的mac,还可以选择:

MLX 引擎

MLX-lm 用来在苹果 silicon 芯片上提供高效的 LLM 推理。

初始步骤:

pip install "xinference[mlx]"

其他引擎大家自行选择。

完成引擎安装后,就可以运行了:

xinference-local --host 0.0.0.0 --port 9997

后续访问 127.0.0.1:9997 即可进行配置;

如果是dify使用,先安装Xorbits Inference插件。

如果是docker部署,则大模型的服务器URL如下:

http://host.docker.internal:9997

相关文章:

  • Android | 签名安全
  • camel-ai Agent模块- CriticAgent
  • OpenCV——直方图与匹配
  • 【Mini-F5265-OB开发板试用测评】2、PWM驱动遥控车RX2接收解码带马达驱动控制IC
  • 啊啊啊啊啊啊啊啊code
  • 《思维力:高效的系统思维》
  • Linux中的阻塞信号与信号原理
  • ULS23 挑战:用于计算机断层扫描中 3D 通用病变分割的基准模型及基准数据集|文献速递-深度学习医疗AI最新文献
  • 【Redis】Sentinel哨兵
  • 【css】设置了margin-top为负数,div被img覆盖的解决方法
  • 基于springboot的宠物服务预约系统
  • craw14ai 框架的入门讲解和实战指南——基于Python的智能爬虫框架,集成AI(如NLP/OCR)实现自动化数据采集与处理
  • 第七届人工智能技术与应用国际学术会议
  • AI时代SEO关键词革新
  • Python Beautiful Soup 4【HTML/XML解析库】 简介
  • MTEB:基于 Embedding 的文本分类评估与实战解析
  • 《HTTP权威指南》 第3章 HTTP报文
  • Codeforces Round 1032 (Div. 3)
  • 【Python】python系列之函数作用域
  • Linux head 命令
  • 百度浏览器网址/搜索关键词优化服务
  • 37游戏平台/seo教程
  • 网站建设公司业务员/百度搜索关键词统计
  • 网站的层级/seo模板建站
  • 网站gif图标素材/百度竞价排名点击软件
  • 什么软件可以发布做网站/怎么做