本地部署
一键免费云平台部署
其它反代
CloudFlare AI Gateway
ChatGPT
安装
pip install openai-forward
运行服务
aifd run
或运行webui
aifd run --webui
服务就搭建完成了。
配置见配置
使用方式只需将https://api.openai.com
替换为服务所在端口http://{ip}:{port}
如
# 默认
https://api.openai.com/v1/chat/completions
#替换为
http://{ip}:{port}/v1/chat/completions
首先准备好一个域名, 如本项目中使用的域名为api.openai-forward.com
常用方式是使用nginx(不习惯用命令行配置的话可以考虑用 Nginx Proxy Manager, 它可方便设置Let's Encrypt证书自动申请和自动续期)
或 Caddy 进行代理转发 openai-forward 服务端口(默认8000) 至https端口。
需要注意的是,若要使用流式转发,在nginx配置中需要添加关闭代理缓存的配置, 即在Nginx Proxy Manager页面的 Custom Nginx Configuration中写入:
proxy_buffering off;
docker run -d -p 8000:8000 beidongjiedeguang/openai-forward:latest
如果指定 .env
环境变量则:
docker run --env-file .env -d -p 8000:8000 beidongjiedeguang/openai-forward:latest
将映射宿主机的8000端口,通过http://{ip}:8000
访问服务。
容器内日志路径为/home/openai-forward/Log/
, 可在启动时将其映射出来。
启用SSL同上. 环境变量配置见环境变量配置
git clone https://github.com/KenyonY/openai-forward.git --depth=1
cd openai-forward
pip install -e .
aifd run
启用SSL同上.