欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 健康 > 美食 > FastAPI + OpenAI 模型 的 GitHub 项目结构模板

FastAPI + OpenAI 模型 的 GitHub 项目结构模板

2025/5/19 19:22:35 来源:https://blog.csdn.net/xianyinsuifeng/article/details/147959660  浏览:    关键词:FastAPI + OpenAI 模型 的 GitHub 项目结构模板

FastAPI + OpenAI 模型 的 GitHub 项目结构模板,适合用作大模型(如 GPT-4) API 服务的基础框架。该模板包括了基本的项目结构、配置、文档以及与 OpenAI API 的交互方式。

项目结构

fastapi-openai-api/
├── app/
│   ├── __init__.py                # Python 包初始化文件
│   ├── main.py                    # FastAPI 主应用文件
│   ├── models.py                  # 数据模型(请求和响应)
│   ├── openai_service.py          # OpenAI 接口交互逻辑
│   ├── config.py                  # 配置文件(API 密钥等)
│   ├── schemas.py                 # 请求和响应的 Pydantic 模型
│   ├── utils.py                   # 辅助工具函数(如日志记录等)
│   └── requirements.txt           # Python 依赖列表
├── docker/
│   ├── Dockerfile                 # Docker 构建文件
│   └── docker-compose.yml         # Docker Compose 配置(如果需要)
├── tests/
│   ├── test_main.py               # FastAPI API 测试文件
│   └── test_openai_service.py     # OpenAI 服务单元测试文件
├── .gitignore                     # Git 忽略文件
├── README.md                      # 项目说明文档
└── requirements.txt               # 项目依赖(包含 FastAPI 和 OpenAI 库)

文件说明

1.app/main.py - FastAPI 应用入口
from fastapi import FastAPI, HTTPException
from app.schemas import ChatRequest, ChatResponse
from app.openai_service import ask_openaiapp = FastAPI(title="FastAPI + OpenAI API")@app.post("/chat", response_model=ChatResponse)
async def chat(req: ChatRequest):try:answer = await ask_openai(req.question)return ChatResponse(answer=answer)except Exception as e:raise HTTPException(status_code=500, detail=str(e))
2.app/schemas.py - 请求和响应的 Pydantic 模型
from pydantic import BaseModelclass ChatRequest(BaseModel):question: strclass ChatResponse(BaseModel):answer: str
3.app/openai_service.py - 与 OpenAI API 的交互
import openai
from app.config import OPENAI_API_KEYopenai.api_key = OPENAI_API_KEYasync def ask_openai(question: str) -> str:response = openai.Completion.create(model="gpt-4",  # 这里可以根据需要更换为不同的模型prompt=question,max_tokens=150)return response.choices[0].text.strip()
4.app/config.py - 配置文件
import os# 推荐使用环境变量来管理敏感信息
OPENAI_API_KEY = os.getenv("OPENAI_API_KEY", "sk-xxxxxxxxxxxxxxxxxx")
5.app/requirements.txt - Python 依赖
fastapi
uvicorn
openai
python-dotenv
6.tests/test_main.py - FastAPI API 测试
from fastapi.testclient import TestClient
from app.main import appclient = TestClient(app)def test_chat():response = client.post("/chat", json={"question": "What's the weather like?"})assert response.status_code == 200assert "answer" in response.json()
7.tests/test_openai_service.py - OpenAI 服务单元测试
import pytest
from app.openai_service import ask_openai@pytest.mark.asyncio
async def test_ask_openai():answer = await ask_openai("What is the capital of France?")assert answer == "Paris"  # 你可以根据 OpenAI 的回答调整预期结果

Docker 部署

1.docker/Dockerfile - Dockerfile
# 使用官方 Python 镜像
FROM python:3.9-slim# 设置工作目录
WORKDIR /app# 将本地代码复制到 Docker 容器中
COPY . /app# 安装依赖
RUN pip install --no-cache-dir -r requirements.txt# 启动 FastAPI 服务
CMD ["uvicorn", "app.main:app", "--host", "0.0.0.0", "--port", "8000"]
2.docker/docker-compose.yml - Docker Compose 配置
version: '3.8'services:fastapi-openai:build: .ports:- "8000:8000"environment:- OPENAI_API_KEY=${OPENAI_API_KEY}  # 从环境变量中读取 API 密钥

运行项目

1.本地运行:
uvicorn app.main:app --reload
2.Docker 构建与运行:
docker-compose up --build

访问 http://127.0.0.1:8000/docs,你将看到自动生成的 Swagger UI,支持 API 调试。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词