当前位置: 首页 > news >正文

VLLM专题(十九)—兼容 OpenAI 的服务器

vLLM 提供了一个 HTTP 服务器,能够实现 OpenAI 的 Completions API、Chat API 等功能!

您可以通过 vllm serve 命令启动服务器,或者通过 Docker 启动:

vllm serve NousResearch/Meta-Llama-3-8B-Instruct --dtype auto --api-key token-abc123

要调用服务器,您可以使用官方的 OpenAI Python 客户端,或任何其他 HTTP 客户端。

from openai import OpenAI
client = OpenAI(
    base_url="http://localhost:8000/v1"

相关文章:

  • [极客大挑战 2019]Http_3.19BUUCTF练习day3(1)
  • 聚类算法api初步使用
  • ArcGIS10.X影像智能下载!迁移ArcGIS Pro批量智能高清影像下载工具至ArcGIS!
  • 音频进阶学习二十——DFT离散傅里叶变换
  • html相关常用语法
  • 【docker】--- 详解 WSL2 中的 Ubuntu 和 Docker Desktop 的区别和关系!
  • springboot Actuator 指标分析
  • 在 Kubernetes(k8s)部署过程中常见的问题
  • 数据结构:用C语言实现插入排序
  • WPF 中的 GridSplitter 详解
  • mysql 索引的使用
  • 【数据库备份】docker中数据库备份脚本——MySql备份脚本
  • 【工具分享】vscode+deepseek的接入与使用
  • Spring MVC响应数据
  • Redis Spring Cache
  • 一和零 (leetcode 474
  • wujie vite vue3
  • 尝试将相机采集图像流程封装成相机采图类
  • 数据可信安全流通实战,隐语开源社区Meetup武汉站开放报名
  • 如何制作一个手机用的电动3D扫描转盘
  • 博裕基金拟收购“全球店王”北京SKP最多45%股权
  • 观察|“离境退税”撬动上海“五一”假期入境消费
  • 禅定佛的微笑,从樊锦诗提到过的那尊说起
  • 经常犯困、迷糊……当心是身体发出的“黄牌”警告
  • 大众、学术和政治三重框架下的“汉末之变”
  • 德国巴斯夫:关税政策加剧全球市场不确定性,间接影响已显现