当前位置: 首页 > news >正文

FastAPI + OpenAI 模型 的 GitHub 项目结构模板

FastAPI + OpenAI 模型 的 GitHub 项目结构模板,适合用作大模型(如 GPT-4) API 服务的基础框架。该模板包括了基本的项目结构、配置、文档以及与 OpenAI API 的交互方式。

项目结构

fastapi-openai-api/
├── app/
│   ├── __init__.py                # Python 包初始化文件
│   ├── main.py                    # FastAPI 主应用文件
│   ├── models.py                  # 数据模型(请求和响应)
│   ├── openai_service.py          # OpenAI 接口交互逻辑
│   ├── config.py                  # 配置文件(API 密钥等)
│   ├── schemas.py                 # 请求和响应的 Pydantic 模型
│   ├── utils.py                   # 辅助工具函数(如日志记录等)
│   └── requirements.txt           # Python 依赖列表
├── docker/
│   ├── Dockerfile                 # Docker 构建文件
│   └── docker-compose.yml         # Docker Compose 配置(如果需要)
├── tests/
│   ├── test_main.py               # FastAPI API 测试文件
│   └── test_openai_service.py     # OpenAI 服务单元测试文件
├── .gitignore                     # Git 忽略文件
├── README.md                      # 项目说明文档
└── requirements.txt               # 项目依赖(包含 FastAPI 和 OpenAI 库)

文件说明

1.app/main.py - FastAPI 应用入口
from fastapi import FastAPI, HTTPException
from app.schemas import ChatRequest, ChatResponse
from app.openai_service import ask_openaiapp = FastAPI(title="FastAPI + OpenAI API")@app.post("/chat", response_model=ChatResponse)
async def chat(req: ChatRequest):try:answer = await ask_openai(req.question)return ChatResponse(answer=answer)except Exception as e:raise HTTPException(status_code=500, detail=str(e))
2.app/schemas.py - 请求和响应的 Pydantic 模型
from pydantic import BaseModelclass ChatRequest(BaseModel):question: strclass ChatResponse(BaseModel):answer: str
3.app/openai_service.py - 与 OpenAI API 的交互
import openai
from app.config import OPENAI_API_KEYopenai.api_key = OPENAI_API_KEYasync def ask_openai(question: str) -> str:response = openai.Completion.create(model="gpt-4",  # 这里可以根据需要更换为不同的模型prompt=question,max_tokens=150)return response.choices[0].text.strip()
4.app/config.py - 配置文件
import os# 推荐使用环境变量来管理敏感信息
OPENAI_API_KEY = os.getenv("OPENAI_API_KEY", "sk-xxxxxxxxxxxxxxxxxx")
5.app/requirements.txt - Python 依赖
fastapi
uvicorn
openai
python-dotenv
6.tests/test_main.py - FastAPI API 测试
from fastapi.testclient import TestClient
from app.main import appclient = TestClient(app)def test_chat():response = client.post("/chat", json={"question": "What's the weather like?"})assert response.status_code == 200assert "answer" in response.json()
7.tests/test_openai_service.py - OpenAI 服务单元测试
import pytest
from app.openai_service import ask_openai@pytest.mark.asyncio
async def test_ask_openai():answer = await ask_openai("What is the capital of France?")assert answer == "Paris"  # 你可以根据 OpenAI 的回答调整预期结果

Docker 部署

1.docker/Dockerfile - Dockerfile
# 使用官方 Python 镜像
FROM python:3.9-slim# 设置工作目录
WORKDIR /app# 将本地代码复制到 Docker 容器中
COPY . /app# 安装依赖
RUN pip install --no-cache-dir -r requirements.txt# 启动 FastAPI 服务
CMD ["uvicorn", "app.main:app", "--host", "0.0.0.0", "--port", "8000"]
2.docker/docker-compose.yml - Docker Compose 配置
version: '3.8'services:fastapi-openai:build: .ports:- "8000:8000"environment:- OPENAI_API_KEY=${OPENAI_API_KEY}  # 从环境变量中读取 API 密钥

运行项目

1.本地运行:
uvicorn app.main:app --reload
2.Docker 构建与运行:
docker-compose up --build

访问 http://127.0.0.1:8000/docs,你将看到自动生成的 Swagger UI,支持 API 调试。

相关文章:

  • 未来软件开发趋势与挑战
  • Python+Selenium爬虫:豆瓣登录反反爬策略解析
  • C#调用C++dll 过程记录
  • 【VS】VS2019中使用rdlc报表,生成之前修改XML
  • 【每天一个知识点】模型轻量化(Model Compression and Acceleration)技术
  • 解释 RESTful API
  • 数据结构学习之链表学习:单链表
  • Linux笔记---信号(中)
  • AIGC与数字媒体实验室解决方案分享
  • LabVIEW在电子电工教学中的应用
  • 腾讯云运营开发 golang一面
  • map和unordered_map
  • 树莓派3B+ wiringPi库安装
  • Gin 框架指南(代码+通俗解析版)
  • linux - 权限的概念
  • 嵌入式开发学习日志(数据结构--单链表)Day20
  • docker-compose——安装mysql8
  • 【springcloud学习(dalston.sr1)】Eureka 客户端服务注册(含源代码)(四)
  • GAN简读
  • 我的多条件查询
  • 广东省人大教科文卫委原主任委员梁万里被开除党籍:退休后受贿仍不知止
  • 中方发布会:中美经贸高层会谈取得了实质性进展,达成了重要共识
  • 郑州通报“夜市摊贩收取香烟交给城管”:涉事人员停职调查
  • 习近平将出席中国—拉美和加勒比国家共同体论坛第四届部长级会议开幕式并发表重要讲话
  • 深圳市政协原副主席王幼鹏被“双开”
  • 烈士沈绍藩遗孤、革命家帅孟奇养女舒炜逝世,享年96岁