littlebot
Published on 2025-04-03 / 0 Visits
0

【源码】基于Python的微信智能聊天机器人项目

项目简介

本项目是使用Python编写的微信智能聊天机器人项目,借助ChatGPT等强大对话模型,将微信打造成智能机器人。它能在与好友对话时给出智能回应,支持多轮会话上下文记忆,具备语音识别、图片生成等丰富功能,还支持个性化插件扩展,可实现数字分身、领域知识库、智能客服等多种应用场景。

项目的主要特性和功能

  1. 多端部署:支持个人微信、微信公众号和企业微信应用等多种部署方式。
  2. 基础对话:支持私聊及群聊的消息智能回复,具备多轮会话上下文记忆能力,支持GPT - 3、GPT - 3.5、GPT - 4、文心一言等多种模型。
  3. 语音识别:可识别语音消息,通过文字或语音回复,支持azure、baidu、google、openai等多种语音模型。
  4. 图片生成:支持图片生成和图生图(如照片修复),可选择Dell - E、stable diffusion、replicate、midjourney等模型。
  5. 丰富插件:支持个性化插件扩展,已实现多角色切换、文字冒险、敏感词过滤、聊天记录总结等插件。
  6. 知识库:通过上传知识库文件自定义专属机器人,可作为数字分身、领域知识库、智能客服使用,基于LinkAI实现。

安装使用步骤

假设用户已经下载了本项目的源码文件,以下是安装和使用的步骤:

准备

  1. OpenAI账号注册:前往OpenAI注册页面创建账号,参考教程可通过虚拟手机号接收验证码。创建完账号后前往API管理页面创建一个API Key并保存。
  2. 运行环境:支持Linux、MacOS、Windows系统(可在Linux服务器上长期运行),需安装Python,建议Python版本在3.7.1 - 3.9.X之间,推荐3.8版本,3.10及以上版本在MacOS可用,其他系统上不确定能否正常运行。
    • 复制项目代码bash cd chatgpt - on - wechat/
    • 安装核心依赖 (必选)bash pip3 install -r requirements.txt
    • 拓展依赖 (可选,建议安装)bash pip3 install -r requirements - optional.txt 若某项依赖安装失败请注释掉对应的行再继续。其中tiktoken要求python版本在3.8以上,用于精确计算会话使用的tokens数量,强烈建议安装。使用googlebaidu语音识别需安装ffmpeg,默认的openai语音识别不需要安装ffmpeg。使用azure语音功能需安装依赖,并参考文档的环境要求。

配置

配置文件的模板在根目录的config - template.json中,需复制该模板创建最终生效的config.json文件: bash cp config - template.json config.json 然后在config.json中填入配置,可根据需要进行自定义修改(请去掉注释),具体配置说明可参考项目文档。

运行

  1. 本地运行:在项目根目录下执行: bash python3 app.py 终端输出二维码后,使用微信进行扫码,当输出 "Start auto replying" 时表示自动回复程序已经成功运行(用于登录的微信需要在支付处已完成实名认证)。扫码登录后账号就成为机器人,可在微信手机端通过配置的关键词触发自动回复。
  2. 服务器部署:使用nohup命令在后台运行程序: bash touch nohup.out # 首次运行需要新建日志文件 nohup python3 app.py & tail -f nohup.out # 在后台运行程序并通过日志输出二维码 扫码登录后程序即可运行于服务器后台,此时可通过ctrl + c关闭日志,不会影响后台程序的运行。使用ps -ef | grep app.py | grep -v grep命令可查看运行于后台的进程,若想重新启动程序可先kill掉对应的进程。日志关闭后若想再次打开只需输入tail -f nohup.out。此外,scripts目录下有一键运行、关闭程序的脚本供使用。
  3. Docker部署
    • 下载docker - compose.yml文件bash wget https://open - 1317903499.cos.ap - guangzhou.myqcloud.com/docker - compose.yml 下载完成后打开docker - compose.yml修改所需配置,如OPEN_AI_API_KEYGROUP_NAME_WHITE_LIST等。
    • 启动容器:在docker - compose.yml所在目录下执行: bash sudo docker compose up -d 运行sudo docker ps能查看到NAMES为chatgpt - on - wechat的容器即表示运行成功。若docker - compose是1.X版本则需要执行sudo docker - compose up -d来启动容器。该命令会自动去docker hub拉取latest版本的镜像,latest镜像会在每次项目release新的版本时生成。最后运行以下命令可查看容器运行日志,扫描日志中的二维码即可完成登录: bash sudo docker logs -f chatgpt - on - wechat ``` volumes:
  4. ./config.json:/app/plugins/config.json ```
  5. Railway部署
    1. 进入Railway
    2. 点击Deploy Now按钮。
    3. 设置环境变量来重载程序运行的参数,例如open_ai_api_keycharacter_desc

一键部署Deploy on Railway

下载地址

点击下载 【提取码: 4003】【解压密码: www.makuang.net】