项目简介
本项目是基于GPT - 3.5 - Turbo模型的轻量级前端应用。借助集成OpenAI的对话接口,用户能够便捷地开展自然语言交互,享受智能问答、主题对话等功能。采用Next.js框架构建,具备流畅的用户体验,可适配多种设备。
项目的主要特性和功能
- 以GPT - 3.5 - Turbo模型为基础,运用OpenAI先进对话技术提供智能问答服务。
- 响应快速,通过API KEY在前端请求OpenAI对话接口,支持流式数据实现即时响应。
- 交互功能丰富,涵盖主题对话、历史记录查看、代码高亮、图片和PDF导出等。
- 本地数据保存,对话数据存储于浏览器的IndexedDB中,保障用户隐私。
- 适配多种设备,优化了PC和移动设备的使用体验。
- 支持自定义设置,用户可设置自身头像和AI头像以增添个性化体验。
- 具备根据文本生成图片功能,用户输入文字即可生成对应图片。
安装使用步骤
本地部署
- 复制项目到本地(此处原总结未给出命令,可补充合适的复制命令):
bash git clone [项目仓库地址]
- 进入项目目录并安装依赖:
bash cd light - gpt pnpm install
- 启动项目:
bash pnpm run dev
项目将在http://localhost:3000上运行。在前端页面设置API KEY后即可开始使用。
Vercel线上部署
- 注册Vercel账号并登录平台。
- 点击部署,即可在线上访问该应用。
Docker本地部署(可选)
- 拉取Docker镜像:
bash docker pull whynotisme/light - gpt:latest
- 运行镜像:
bash docker run -p 3000:3000 whynotisme/light - gpt
重要提示
本地部署时,仅需浏览器可科学上网,因为请求在浏览器发起。由于OpenAi风控政策,请务必确保处于科学上网环境,能正常访问open ai官网,若不能则不要设置api key进行调试,否则会有异常风险。
下载地址
点击下载 【提取码: 4003】【解压密码: www.makuang.net】