一个基于 Wechaty 的微信 / IM agent 项目。
它可以把微信扫码登录后的 IM 消息交给 ChatGPT、DeepSeek、Ollama、Claude、Pi 等服务处理;也可以通过 OpenCLI 的 wx-cli 访问本机微信聊天、联系人、群成员、收藏、朋友圈缓存,并对群聊或某个好友做统计和分析。飞书 IM 目前提供登录、读消息、搜消息和发消息的 CLI 通道。
如果你希望把 Pi 作为本项目的 agent,用微信作为外部通信渠道,直接看:Pi Agent + IM 使用说明。
| 能力 | 命令入口 | 当前状态 |
|---|---|---|
| 微信扫码 IM | wb agent --im wechat --agent pi / wb start --serve pi |
已接入,可扫码登录并回复白名单消息 |
| Pi 作为项目 agent | wb agent --im wechat --agent pi |
已接入,默认单轮非交互回复 |
| 本地微信聊天 / 联系人 / 群成员 | wb wx sessions、wb wx history、wb wx members |
通过 OpenCLI wx-cli 接入 |
| 本地朋友圈缓存 | wb wx sns-feed、wb wx sns-search |
通过 OpenCLI wx-cli 接入 |
| 群 / 好友分析 | wb analyze --room "群名"、wb analyze --friend "好友备注" |
支持本地统计和 AI 深度分析 |
| 飞书 IM | wb lark login、wb lark messages、wb lark send |
支持登录、读、搜、发;暂未做实时事件自动回复 |
| 多模型回复 | --serve ChatGPT/deepseek/ollama/pi/... |
复用现有 provider 机制 |
npm i
cp .env.example .env
npm link在 .env 中至少配置:
BOT_NAME='@你的微信昵称'
ALIAS_WHITELIST='允许私聊你的好友备注'
ROOM_WHITELIST='允许接入的群名'
PI_BIN='pi'
PI_AGENT_ARGS='--print --no-session'
WECHAT_STORE_MESSAGES='true'启动:
wb agent --im wechat --agent pi终端出现二维码后,用微信扫码。消息链路是:
微信扫码登录 -> Wechaty 收消息 -> 本地 JSONL 捕获 -> Pi agent 回复 -> 微信 IM 发回
触发规则:
- 私聊:好友备注或昵称需要在
ALIAS_WHITELIST。 - 群聊:群名需要在
ROOM_WHITELIST,并且消息里需要@BOT_NAME。 - 非文本消息不会自动进入回复链路。
注意:微信 Web 协议存在风控和封号风险。请只在你明确接受风险的账号和场景中使用,优先控制白名单和使用范围。
欢迎大家提交 PR 接入更多的 ai 服务(比如扣子等...),积极贡献更好的功能实现,让 wechat-bot 变得更强!
如果只使用 wb wx ... 访问本地微信数据,或只使用 wb lark ... 操作飞书 IM,可以不配置大模型。
如果要让微信消息自动回复,或执行 wb analyze 深度分析,需要选择一个 --serve 服务。当前可选:ChatGPT、doubao、deepseek、Kimi、Xunfei、deepseek-free、302AI、dify、ollama、tongyi、claude、pi。
-
pi
Pi 适合作为项目 agent 使用,可通过微信 IM 对外通信:
PI_BIN='pi' PI_NPM_PACKAGE='@earendil-works/pi-coding-agent' PI_AGENT_ARGS='--print --no-session'
如果本机没有全局
pi命令,可以先把PI_BIN留空,项目会通过npx --yes @earendil-works/pi-coding-agent调起 Pi。 -
deepseek
获取自己的
api key,地址戳这里 👉🏻 :deepseek 开放平台
将获取到的api key填入.evn文件中的DEEPSEEK_FREE_TOKEN中。 -
ChatGPT
先获取自己的
api key,地址戳这里 👉🏻 :创建你的 api key注意:这个是需要去付费购买的,很多人过来问为什么请求不通,请确保终端走了代理,并且付费购买了它的服务
# 执行下面命令,拷贝一份 .env.example 文件为 .env cp .env.example .env # 填写完善 .env 文件中的内容 OPENAI_API_KEY='你的key'
-
豆包
豆包最新的Doubao-Seed-1.6模型,支持输入图片和深度思考,而且每个模型都有 50 万的免费tokens。在火山引擎注册登录账号,可以选择最新的Doubao-Seed-1.6-thinking模型,选择“API接入” -> “获取 API Key”。
# 拷贝 .env.example 文件为 .env cp .env.example .env # 修改 .env 文件中的内容 DOUBAO_API_KEY='你的key' # 简单测试API是否可用 node src/doubao/__test__.js
-
通义千问
通义千问是阿里云提供的 AI 服务,获取到你的 api key 之后, 填写到 .env 文件中即可
# 执行下面命令,拷贝一份 .env.example 文件为 .env cp .env.example .env # 填写完善 .env 文件中的内容 # 通义千问, URL 包含 uri 路径 TONGYI_URL = "https://dashscope.aliyuncs.com/compatible-mode/v1" # 通义千问的 API_KEY TONGYI_API_KEY = '' # 通义千问使用的模型 TONGYI_MODEL='qwen-plus'
-
科大讯飞
新增科大讯飞,去这里申请一个 key:科大讯飞,每个模型都有 200 万的免费 token ,感觉很难用完。
注意: 讯飞的配置文件几个 key,别填反了,很多人找到我说为什么不回复,都是填反了。
而且还有一个好处就是,接口不会像 Kimi 一样限制请求频次,相对来说稳定很多。
服务出错可参考: issues/170, issues/180 -
Kimi (请求限制较严重)
可以去 : kimi apikey 获取你的 key
最近比较忙,大家感兴趣可以提交 PR,我会尽快合并。目前 Kimi 刚刚集成,还可以实现上传文件等功能,然后有其它较好的服务也可以提交 PR 。 -
dify
地址:dify, 创建你的应用之后, 获取到你的 api key 之后, 填写到 .env 文件中即可, 也支持私有化部署dify版本
# 执行下面命令,拷贝一份 .env.example 文件为 .env cp .env.example .env # 填写完善 .env 文件中的内容 DIFY_API_KEY='你的key' # 如果需要私有化部署,请修改.env中下面的配置 # DIFY_URL='https://[你的私有化部署地址]'
-
ollama
Ollama 是一个本地化的 AI 服务,它的 API 与 OpenAI 非常接近。配置 Ollama 的过程与各种在线服务略有不同
# 执行下面命令,拷贝一份 .env.example 文件为 .env cp .env.example .env # 填写完善 .env 文件中的内容 OLLAMA_URL='http://127.0.0.1:11434/api/chat' OLLAMA_MODEL='qwen2.5:7b' OLLAMA_SYSTEM_MESSAGE='You are a personal assistant.'
-
302.AI
AI聚合平台,有套壳GPT的API,也有其他模型,点这里可以添加API,添加之后把API KEY配置到.env里,如下,MODEL可以自行选择配置
_302AI_API_KEY = 'xxxx' _302AI_MODEL= 'gpt-4o-mini'由于openai充值需要国外信用卡,流程比较繁琐,大多需要搞国外虚拟卡,手续费也都不少,该平台可以直接支付宝,算是比较省事的,注册填问卷可领1刀额度,后续充值也有手续费,用户可自行酌情选择。
-
claude
前往 官网 注册并获取API KEY后进行配置即可
# 执行下面命令,拷贝一份 .env.example 文件为 .env,如果已存在则忽略此步 cp .env.example .env # 编辑.env文件并添加claude相关配置 CLAUDE_API_VERSION = '2023-06-01' CLAUDE_API_KEY = '你的API KEY' CLAUDE_MODEL = 'claude-3-5-sonnet-latest' # 系统人设 CLAUDE_SYSTEM = ''
-
其他
(待实践)理论上使用 openAI 格式的 api,都可以使用,在 env 文件中修改对应的 api_key、model、proxy_url 即可。
| 主营海外主流大模型中转聚合API平台,高效稳定,高并发,价格超低 产品链接 |
目前该项目流量较大,已经上过 27 次 Github Trending 榜,如果您的公司或者产品需要推广,可以在下方二维码处联系我,我会在项目中加入您的广告,帮助您的产品获得更多的曝光。
检查好自己的开发环境,确保已经安装了 nodejs , 版本需要满足 Node.js >= v18.0 ,版本太低会导致运行报错,最好使用 LTS 版本。
安装依赖时,大陆的朋友推荐切到 taobao 镜像源后再安装,命令:
npm config set registry https://registry.npmmirror.com
想要灵活切换,推荐使用我的工具 👉🏻 prm-cli 快速切换。
npm i
# 可选:把 wb 注册成本机命令
npm link如果不想执行 npm link,下文所有 wb ... 都可以替换为:
npm run start -- ...cp .env.example .env最小可用配置:
BOT_NAME='@你的微信昵称'
ALIAS_WHITELIST='好友备注1,好友昵称2'
ROOM_WHITELIST='群名1,群名2'
AUTO_REPLY_PREFIX=''
WECHAT_DATA_DIR='.data/wechat'
WECHAT_STORE_MESSAGES='true'
PI_BIN='pi'
PI_AGENT_ARGS='--print --no-session'Pi agent 模式:
wb agent --im wechat --agent pi等价写法:
wb start --serve pi
npm run agent
npm run start -- start --serve pi传统模型回复模式:
wb start --serve ollama
wb start --serve ChatGPT
wb start --serve deepseek启动后终端会展示二维码,扫码即可登录微信。登录后,收到的微信消息会追加写入:
.data/wechat/messages.jsonl
OpenCLI 的 wx-cli 会被 wb wx ... 透传调用,用于访问本机微信缓存:
wb wx init
wb wx sessions
wb wx history
wb wx search
wb wx contacts
wb wx members
wb wx stats
wb wx favorites
wb wx sns-feed
wb wx sns-search
wb wx sns-notifications
wb wx help常用场景:
# 初始化本地微信数据访问
wb wx init
# 查看最近会话和聊天记录
wb wx sessions
wb wx history
# 查看群成员和聊天统计
wb wx members
wb wx stats
# 查看朋友圈缓存和朋友圈全文搜索
wb wx sns-feed
wb wx sns-search命令行分析:
# 只做本地统计,不调用 AI
wb analyze --room "群名" --stats-only
wb analyze --friend "好友备注" --stats-only
# 调用指定服务做深度分析
wb analyze --room "群名" --serve pi
wb analyze --friend "好友备注" --serve ollama微信聊天中的内置命令默认只对联系人白名单或群聊白名单生效:
/统计 群 XX群1
/分析 好友 好友备注
/统计 只读本地 JSONL,不调用 AI;/分析 会把最近消息样本交给当前 serve 服务或 agent。处理隐私聊天时,建议优先使用本地模型或本地 Pi 配置。
飞书 IM 通过 lark-cli 接入:
# 生成 device-flow 授权链接/扫码信息
wb lark login --no-wait
# 查看授权状态
wb lark status
# 读取 / 搜索 / 发送消息
wb lark messages --chat-id oc_xxx
wb lark search --query "关键词"
wb lark send --chat-id oc_xxx --text "hello"当前飞书是 CLI 控制通道,支持登录、读消息、搜消息、发消息;还不是实时事件通道,因此飞书消息暂不会自动推给 Pi 回复。
wb pi -- --help
wb pi -- --print "分析当前项目结构"
wb opencli -- --help
wb opencli -- wx-cli helpnpm run test:analysis
node ./cli.js --help
node ./cli.js wx help
node ./cli.js pi -- --help如果使用 OpenAI、Claude、Kimi 等云端服务,请确保对应 API Key、余额和网络代理可用。
很多人说运行后不会自动收发信息,不是的哈,为了防止给每一条收到的消息都自动回复(太恐怖了),所以加了限制条件。
你要把下面提到的地方自定义修改下:
BOT_NAME:改成你启动机器人账号的微信昵称,格式类似@可乐。ALIAS_WHITELIST:允许自动回复的好友备注或昵称。ROOM_WHITELIST:允许自动回复的群聊名称。AUTO_REPLY_PREFIX:可选,只有匹配指定前缀才自动回复。PI_AGENT_ARGS:Pi 作为 IM agent 时的参数,默认是--print --no-session。- 更深入的业务逻辑可以看
src/wechaty/sendMessage.js和src/platforms/wechat/commandRouter.js。
在.env 文件中修改你的配置即可,示例如下
# 白名单配置
#定义机器人的名称,这里是为了防止群聊消息太多,所以只有艾特机器人才会回复,
#这里不要把@去掉,在@后面加上你启动机器人账号的微信名称
BOT_NAME=@可乐
#联系人白名单
ALIAS_WHITELIST=微信名1,备注名2
#群聊白名单
ROOM_WHITELIST=XX群1,群2
#自动回复前缀匹配,文本消息匹配到指定前缀时,才会触发自动回复,不配或配空串情况下该配置不生效(适用于用大号,不期望每次被@或者私聊时都触发自动回复的人群)
#匹配规则:群聊消息去掉${BOT_NAME}并trim后进行前缀匹配,私聊消息trim后直接进行前缀匹配
AUTO_REPLY_PREFIX=''
# Pi agent
PI_BIN='pi'
PI_AGENT_ARGS='--print --no-session'自动回复不再只限于 chatgpt,可以通过 --serve 选择不同服务,例如 pi、ollama、deepseek、claude、ChatGPT。
近期微信审查很严格,大量用户反映弹出外挂警告,由于项目内默认使用的是免费版的 web 协议,所以目前来说很容易会被微信检测到,建议使用 pad 协议,或者自行购买企业版协议,避免被封号。
修改可参考: https://github.com/wangrongding/wechat-bot/pull/263/files
自行购买 pad 协议渠道(wechaty 出的,购买仍需谨慎):http://pad-local.com
由于底层依赖的 wechaty 本身不怎么维护了,听说是被腾讯告了,所以大家购买也要谨慎,群友分享目前 pad 协议可正常使用(但频繁登录登出也会收到警告),最好别一次性买太久的。
以下是我的微信和群二维码,添加的时候记得备注清楚来意。
希望可以一起交流探讨相关问题和解决方案。
![]() |
![]() |
|---|
首先你需要做到以下几点:
-
拉取最新代码,重新安装依赖(删除 lock 文件,删除 node_modules)
-
安装依赖时最好不要设置 npm 镜像
-
遇到 puppeteer 安装失败设置环境变量:
# Mac export PUPPETEER_SKIP_DOWNLOAD='true' # Windows SET PUPPETEER_SKIP_DOWNLOAD='true' -
如果使用云端模型,确保终端网络可以访问对应模型服务(开全局代理,或者手动设置终端代理)
# 设置代理 export https_proxy=http://127.0.0.1:你的代理服务端口号;export http_proxy=http://127.0.0.1:你的代理服务端口号;export all_proxy=socks5://127.0.0.1:你的代理服务端口号 # 然后执行对应服务测试,或先查看 CLI 是否正常 node ./cli.js --help
-
如果使用 OpenAI / Claude / Kimi 等云端模型,确认 API Key、余额、模型名和代理配置正确
-
配置好
.env文件,尤其是BOT_NAME、白名单和当前--serve服务所需参数 -
执行
npm run test:analysis验证本地分析模块,执行node ./cli.js --help验证 CLI -
执行
wb agent --im wechat --agent pi或wb start --serve <服务名>启动微信扫码
也可以参考这条 issue
- 怎么玩? 完成自定义修改后,群聊时,在白名单中的群,有人 @你 时会触发自动回复,私聊中,联系人白名单中的人发消息给你时会触发自动回复。
- 运行报错?检查 node 版本是否符合,如果不符合,升级 node 版本即可,检查依赖是否安装完整,如果不完整,大陆推荐切换下 npm 镜像源,然后重新安装依赖即可。(可以用我的 prm-cli 工具快速切换)
- 调整对话模式?优先通过
--serve切换服务;需要定制业务逻辑时看 sendMessage.js、commandRouter.js 和对应 provider 实现。
$ docker build . -t wechat-bot
$ docker run -d --rm --name wechat-bot -v $(pwd)/.env:/app/.env wechat-bot- 如果docker build过程中node反复下载超时,可先下载nodejs镜像到本地镜像库,并将DockerFile中的'node:19'修改为本地nodejs镜像版本
该项目于 2023/2/13 日成为 Github Trending 榜首。
MIT.



