部署准备
我用的是这2个项目部署起来的,当然还有其他优秀的azure兼容项目,mjj们可以去挖掘一下
ChatGPT-Next-Web
azure-openai-proxy
一、创建 Azure OpenAI
- 区域:我选美东,关于区域,我看了下文档,西欧不支持gpt4,会影响后续使用,美东和中南部都可以
- 名称:这个比较建议填一个好记的名称,后续调用api是带这个名字的域名的
- 其他步骤直接默认下一步就行
- 最后提交部署需要等待几分钟,我等了10分钟左右才部署成功
二、模型部署
- 进入刚才创建的服务,选择模型部署
- 这里的名称填写也注意一下,后面调用api接口参数也会用到,我填的是
gpt-35-turbo
- 当然,模型选择肯定也是最新的gpt-35-turbo
- 到此已经完成了Azure上的部署
三、服务器部署
使用的是docker-compose部署,下面我写一个通用的docker-compose.yml文件模板给大家
注意模板要改的地方:
- OPENAI_API_KEY(Azure上在“密钥和终结点”里可以找到,密钥1、2都可以用)
- CODE(用来访问页面服务的自定义密码,建议密码8位以上防止被爆破,多个密码以逗号隔开)
- AZURE_OPENAI_ENDPOINT(也是在Azure上在“密钥和终结点”里可以找到)
- AZURE_OPENAI_MODEL_MAPPER(名称映射,就是上一步里模型部署提到的模型名称,如果跟我写的一样可以不用改)
services:
chatgpt-next-web:
image: yidadaa/chatgpt-next-web
container_name: chatgpt
ports:
- 3000:3000
environment:
- BASE_URL=http://azure-openai:8080
- OPENAI_API_KEY=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
- CODE=xxxxxxx,xxxxxxx
depends_on:
- azure-openai
links:
- azure-openai
networks:
- chatgpt-ns
restart: always
azure-openai:
image: ishadows/azure-openai-proxy:latest
container_name: azure-openai-proxy
restart: always
ports:
- 7070:8080
environment:
- AZURE_OPENAI_ENDPOINT=https://xxxxx.openai.azure.com
- AZURE_OPENAI_MODEL_MAPPER={gpt-3.5-turbo=gpt-35-turbo,gpt-3.5-turbo-0301=gpt-35-turbo-0301}
networks:
- chatgpt-ns
networks:
chatgpt-ns:
driver: bridge
至此已经完成服务部署,剩下的那些反向代理(3000端口)、域名绑定,相信作为一位geek都懂