当前位置: 首页 > news >正文

轻松在家构建AI集群,开启智能生活

在一个智能化迅猛发展的时代,如何有效利用身边的智能设备来构建强大的人工智能集群,已成为许多技术爱好者的梦想。而现在,这个梦想通过 exo 项目的出现变为现实。exo 是一个实验性开源软件,允许用户利用家中普通设备如智能手机、平板电脑、电脑等,轻松构建自己的 AI 集群。在下面的文章中,我们将详细介绍这一项目的功能、使用方法和相关应用场景。

exo 项目简介

exo:在家用普通设备上运行自己的 AI 集群。 由 exo labs 维护。该项目旨在统一您现有的设备,将它们整合成一台强大的 GPU 设备;无论是 iPhone、iPad、Android 手机,还是 Mac,NVIDIA GPU,甚至 Raspberry Pi,几乎任何设备都可参与构建。

项目特点

  1. 广泛的模型支持
    exo 支持多种模型,包括 LLaMA、Mistral、LlaVA、Qwen 以及 Deepseek。用户可以灵活选择适合自己需求的模型进行运行。

  2. 动态模型分割
    exo 根据当前的网络拓扑结构和设备资源,智能地分割模型,使得用户能够运行超出单个设备能力的更大模型。这一功能帮助用户充分利用网络中所有设备的计算能力。

  3. 自动设备发现
    exo 可以自动识别网络中的其他设备,零配置,用最优方法连接,从而简化了用户的设置过程。

  4. 兼容 ChatGPT 的 API
    exo 提供兼容 ChatGPT 的 API,用户只需简单修改一行代码,就可以在自己的硬件上通过 exo 运行模型,方便快捷。

  5. 设备平等
    exo 不同于其他分布式推断框架,它采用对等连网方式(p2p),不使用主从架构。只要设备在网络中都能连接,就可以用于模型运行。

exo Inference

安装 exo

前提条件

  • Python 版本要求:确保您的 Python 版本在 3.12.0 及以上,因为早期版本存在 async 相关问题。
  • 硬件要求:您必须在所有设备上拥有足够的内存,以容纳整个模型。例如,如果运行 LLaMA 3.1 8B(fp16),则需要在所有设备上总共拥有 16GB 的内存。

从源代码安装

git clone https://github.com/exo-explore/exo.git
cd exo
pip install -e .
# 或使用 venv
source install.sh

使用 exo

在多台 macOS 设备上使用示例

设备 1:
exo
设备 2:
exo

无需额外配置,exo 会自动发现其他设备,并建立连接。使用 exo 后,便可以在 http://localhost:52415 启动一个类似 ChatGPT 的 Web 界面。

使用 exo 进行 API 调用

对于开发者,exo 启动后还提供了一个 ChatGPT 兼容的 API 端点,用户可以向其发送 HTTP 请求。例如,要以 Llama 3.2 3B 模型进行聊天,可以使用如下命令:

curl http://localhost:52415/v1/chat/completions \-H "Content-Type: application/json" \-d '{"model": "llama-3.2-3b","messages": [{"role": "user", "content": "What is the meaning of exo?"}],"temperature": 0.7}'

单设备使用示例

您也可以选择在单一设备上运行。例如:

exo run llama-3.2-3b

传入自定义提示:

exo run llama-3.2-3b --prompt "What is the meaning of exo?"

模型下载与存储

所有模型默认存储在 ~/.cache/exo/downloads 目录。如果您在网络受限的国家,可以手动下载模型并放入该目录中。此外,用户可以通过设置 HF_ENDPOINT 环境变量来指定下载的代理端点。

调试与日志

您可以通过设置 DEBUG 环境变量来启用调试日志,详细了解 exo 的内部运行。示例如下:

DEBUG=9 exo

总结

通过以上介绍,您可以看到 exo 是一个强大的工具,它能够将您日常使用的设备整合成一个大规模的 AI 计算集群。无论您是希望学习机器学习的学生,还是想要构建 AI 应用的开发者,exo 都为您提供了一个迈出第一步的绝佳机会。

同类项目比较

在这个领域,有几个类似的开源项目也提供了强大的功能,让用户可以更高效地利用其设备运行 AI 模型。例如:

  • Docker:使用容器化技术将应用与依赖独立运行,但对于深度学习模型的支持相对有限。
  • TensorFlow Serving:针对 TensorFlow 模型的高效服务,但主要依赖于云计算资源。
  • ONNX Runtime:支持运行多种模型格式,可以在多种设备上高效推理,但配置和使用相对复杂。

这些项目各有其特点与适用场景,用户可以根据自身需求与资源来选择合适的解决方案。

http://www.dtcms.com/a/414558.html

相关文章:

  • 从PHP入门到公网部署:Web开发与服务器运维实战指南
  • 产品展示网站系统深圳app搭建
  • 40 dubbo和springcloud
  • (26)ASP.NET Core2.2 EF保存(基本保存、保存相关数据、级联删除、使用事务)
  • 西昌新站seo太原网站建设方案开发
  • 永久个人网站网站开发 设计文档
  • 天拓四方集团IoT平台在金属表面处理行业的智能化转型实践
  • 00-1-正则表达式学习心得:从入门到上瘾,再到克制
  • 【性能测试之正则表达式】正则表达式零基础入门:从“抄”到“写”,附性能测试实战案例
  • python-poppler - PDF文档处理Python绑定库
  • Android开发-Handler消息机制记录
  • 通信专业知识图谱​
  • 网站建设的页面要求一级域名二级域名
  • 基础镜像清理策略在VPS环境存储优化中的维护规范
  • The 2025 ICPC South America - Brazil First Phase
  • 开源 C# 快速开发(六)自定义控件--圆环
  • Calico 网络插件在 K8s 集群的作用
  • 蓝桥杯13届省题
  • 手机网站开发+图库类怎样在手机上建设网站
  • MySQL三层架构:从连接管理到数据存储
  • 嵌入式硬件——IMX6ULL时钟配置
  • 【用androidx.camera拍摄景深合成照片】
  • linux安装google chrome 谷歌浏览器
  • 从零起步学习Redis || 第二章:Cache Aside Pattern(旁路缓存模式)以及优化策略
  • 两性做受技巧视频网站喊别人做的网站不肯给代码
  • ESP32-S3入门第八天:往期知识回顾与实战练习
  • Claude Code 实战指南(三):AI辅助开发工作流 Spec Workflow MCP教程
  • 红帽认证含金量怎么样?适合哪些人?
  • 宣传的网站开发需要多少钱步骤的英文
  • 选择一款拖拽式界面的vscode扩展程序制作Python界面