标签归档:AI

Alma也可以是你的OpenClaw

上周在文章中给大家简单推荐了 Alma(https://alma.now/)这个软件(免费,迭代迅速,能力超强),并且提到了其可以很好地与Telegram、Discord、飞书这样的IM工具协同使用。今天我想拿我这一周的真实而刻意的使用,从几个不同的角度来对比一下OpenClaw(VPS安装)、Alma(本地MacBook Pro安装)、ArkClaw(火山方舟CodingPlan免费体验,云端SaaS安装)的使用体验。

这三个产品和服务的组合一览表如下:

产品名称 安装部署方式 后端模型 参考链接
OpenClaw 新加坡绿云VPS安装
  • openai/gpt-5.4
  • volcengine/ark-code-latest
https://openclaw.ai/
Alma MacBook Pro本地安装
  • openai/gpt-5.4
  • volcengine/ark-code-latest
https://alma.now/
ArkClaw 火山引擎SaaS一键安装部署
  • volcengine/ark-code-latest
https://www.volcengine.com/docs/82379/2229107?lang=zh

👇下面我们从不同的角度来横向给出这三个产品和服务组合的对比。

对比项 OpenClaw Alma ArkClaw
安装和部署难度
  • 完全开源产品,偏Geek向产品,需要有一定的命令行能力
  • 支持macOS、Linux、Windows
  • 难度: ★★★★★
  • 免费软件,图形安装和使用界面,配置简单
  • 支持macOS和Windows
  • 难度: ★★☆☆☆
  • 云端SaaS部署,一键激活安装部署
  • 难度: ★☆☆☆☆
使用成本/资源
  • 电脑主机(macOS/Windows)/VPS
  • 大模型Token/订阅计划
  • 成本:★★☆☆☆
  • 电脑主机(macOS/Windows)
  • 大模型Token/订阅计划
  • 成本:★★☆☆☆
  • 火山引擎账号&CodingPlan
  • 成本:★☆☆☆☆
支持的IM工具
  • BlueBubbles
  • Discord
  • Feishu(飞书)
  • Google Chat
  • iMessage (legacy)
  • IRC
  • LINE
  • Matrix
  • Mattermost
  • Microsoft Teams
  • Nextcloud Talk
  • Nostr
  • Signal
  • Synology Chat
  • Slack
  • Telegram
  • Tlon
  • Twitch
  • WebChat
  • WhatsApp
  • Zalo
  • Zalo Personal
  • Telegram
  • Discord
  • 飞书
  • 飞书
  • 企业微信
  • 钉钉
工作方式
  • VPS安装部署,7×24小时全天候待命
  • 主机安装部署,主机开机时提供服务,关机后停止服务
  • 服务可用性: + VPS: ★★★★☆ + 主机:★★★☆☆
  • 主机安装部署,主机开机时提供服务,关机后停止服务
  • 服务可用性: ★★★☆☆
  • SaaS安装部署,7×24小时全天候待命
  • 服务可用性: ★★★★★
网络要求
  • 海外VPS,基本完全畅通,无需额外配置
  • 国内VPS,需要自行解决服务访问外网资源不畅通问题
  • 本地主机安装,主机需要具备科学上网能力
  • 难度: + 海外VPS: ★☆☆☆☆ + 国内VPS或主机: ★★★★☆
  • 本地主机安装,主机需要具备科学上网能力
  • 难度:★★★★☆
  • 国内云厂商,需要自行解决服务访问外网资源不畅通问题
  • 难度:★★★★☆
AI大模型配置
  • 配置略微复杂,支持命令行或WebUI配置
  • 基本支持所有业界模型和大部分Coding Plan(除部分喜欢封号的服务商)
  • 难度: ★★★☆☆
  • 灵活度: ★★★★★
  • 纯图形化界面配置,操作简单,界面友好
  • 支持绝大部分业界模型和大部分Coding Plan(比OpenClaw整个社区的丰富度稍低,但有自己的特色)
  • 难度: ★☆☆☆☆
  • 灵活度:★★★★★
  • WebUI页面选择,切换方便,支持Coding Plan下所有模型(字节内部模型、GLM、MiniMax、Kimi)
  • 相对封闭,目前仅支持对接火山引擎提供的模型(Coding Plan订阅用户不需要额外消耗Token费用)
  • 难度:★☆☆☆☆
  • 灵活度: ★★☆☆☆

以上👆为这三种产品形式的一些基础安装和使用的维度对比和评估,接下来从几个我们在使用OpenClaw类型产品时会重点关注和使用到的一些场景给出一些对比,供大家参考:

使用场景 OpenClaw Alma ArkClaw
基础能力
  • web search/fetch
  • code agent
  • agent loop
  • multi agent
  • brower use
  • computer use(取决于我们部署的主机或VPS的能力)
  • web search/fetch
  • code agent
  • agent loop
  • multi agent
  • brower use
  • computer use(取决于安装的主机的能力)
  • web search/fetch
  • code agent
  • agent loop
  • multi agent
  • brower use
  • computer use(取决于火山引擎SaaS的容器暴露的能力)
扩展技能
  • 内置Skills Set
  • ClawHub Skills市场丰富和持续扩大的Skills库
  • 主机所有已安装的Skills
  • 理论上可以支持任意Skills,只要Alma知道Skills的路径即可
  • 内置飞书相关的Skills
  • ClawHub国内镜像+飞书增强补全Skills仓库
  • 理论上也可以支持安装任意Skills
编写小工具(写代码)
  • 基于任意模型基本上都能比较不错地完成任务
  • 支持ACP,可以直接在宿主机上调用Claude Code或Codex这样的AI Coding工具来完成复杂的编码任务
  • 基于任意模型基本上都能很好地完成任务
  • 支持ACP,默认优先使用Claude Code或用户配置好指定的Coding Agent来完成编码任务
  • 基于火山引擎提供的模型,能比较不错地完成任务
  • 不确定是否支持ACP,因为没有直接访问部署机器或者容器的方法,无法验证是否可以在宿主机上安装Claude Code或Codex这样的工具
定时任务
  • 基于内部Cron系统实现,OpenClaw进程活跃即可正常持续稳定运行
  • 在OpenClaw因为某些原因出现负载问题或者宕机后,Cron Jobs无法正常执行
  • 基于内部Cron系统实现,Alma启动时拉起所有定时任务,Alma退出后失效
  • 基本上很少会出现异常和崩溃的问题
  • 与OpenClaw的原生实现基本一致,在ArkClaw服务未到期前,理论上可以一直稳定运行;
  • 运行时的环境是国内云厂商的基础网络,很多任务可能会在运行时出现网络异常问题,需要有一定的排查能力
修改配置&持续折腾
  • 不是很友好,尤其是在运行时修改配置,容易出现被覆盖的情况
  • 在云端部署的话,建议通过VS Code远程访问配置文件,依赖VS Code的Copiolet或者其他AI Coding插件来帮忙修改配置
  • 纯GUI操作,界面非常友好,即时生效
  • 灵活性较低,不太适合折腾党

最后,给大家分享一下我在这三个不同的龙虾型产品中的实际应用体验。

产品 Case 1 Case 2 Case 3
OpenClaw
  • ReadHub音频播客每日生成并推送
  • RSS抓取文字稿 => 大模型TTS生成播客音频 => 推送Telegram音频文件
  • 来来回回折腾了两周,刚刚稳定下来可用
  • 虚拟币和股票行情播报小工具
  • 调用公开数据API,获取行情数据 => 定时以文本消息/卡片图片消息进行播报
  • 折腾了小一周后稳定运行
  • 微信公众号文章同步发布到博客小工具Skills
  • 抓取自己的微信公众号文章,自动下载图片,翻译标题,同步到WordPress博客站点
  • 取决于OpenClaw后端对接的模型是否靠谱,偶尔会出现不达预期的情况
Alma
  • 虚拟币和股票行情播报小工具
  • 调用公开数据API,获取行情数据 => 定时以文本消息/卡片图片消息进行播报
  • 不到半个小时搞定,稳定运行(自动依赖本地Codex完成编码任务)
  • 日程小助手
  • 一句话创建提醒和日程,支持文字、语音和图片消息
  • 一句话搞定,只需要在macOS上完成本地日历应用的授权即可(让Alma可以操作macOS上的日历应用即可)
  • 5分钟内完成文本和语音消息创建日程提醒的功能测试和验收,不需要编写代码和调试Skills
ArkClaw
  • 基于飞书的技能,快速查询和操作飞书文档,体验不错

综上,给大家总结一下:

产品名 长处 不足
OpenClaw
  • 当红炸子鸡,非常红
  • 功能全而新,你能想到的基本上都有
  • 社区强大,毕竟国内外头部AI厂商都在热捧
  • 能力迭代快,社区参与者的共享足够把它变成一个优秀的项目
  • 适合折腾,灵活度极高,只要你敢想敢做,也许真的没有天花板
  • Geek首选,相信你可以的
  • 入门较难,学习曲线略陡
  • 需要有一些计算机基础,尤其是命令行使用和运维基础
  • 折腾非常耗时耗力(AI疲劳感就是这么来的,经常忘了吃饭和睡觉是一种常见的症状)
Alma
  • 纯客户端软件,开箱即用
  • 配置简单,学习曲线平缓
  • 产品的开发者能力超强,绝对的百倍工程师,产品和技术审美在线
  • AI社区核心能力跟进及时,且时常会有不错的创新
  • OpenClaw的核心功能基本上已经覆盖了80%
  • 暂时无法部署到云端Linux服务器,无法做到7×24小时托管运行(除非有一台可以7×24小时运行的主机)
  • 人在国内的伙伴们,需要解决Alma安装的主机的网络问题
ArkClaw
  • 云端一键激活安装部署,学习成本为零,傻瓜式安装和使用
  • 飞书集成度高,办公场景覆盖好
  • 无需关注太多设备和模型用量和成本问题,只要按月/季付费即可持续稳定正常使用
  • 灵活度相对较低,只能在云端部署使用,能力相对受限

拉拉杂杂罗列了不少内容,总结下来就三点:

1. 如果有折腾的能力,也喜欢尝试新东西,OpenClaw首选,直接上最强模型(Anthropic和OpenAI家的最新模型)

1. 如果优先考虑安全性,可以选择独立VPS部署,不给OpenClaw敏感账号信息,做好各种API Key的额度和权限控制;

2. 如果优先考虑能力强大,可以选择独立Mac主机部署,解决好网络问题和安全问题,依赖Tailscale基本上可以做到随时随地召唤和调试你的龙虾;

2. 如果你想体验一下龙虾的核心,但是又不太想折腾,那么Alma绝对是首选,灵活可靠而又不那么复杂,只需要解决本地网络和大模型Token的问题就可以让自己拥有一个非常靠谱的智能助手了;

3. 如果你只是想体验一下龙虾类型的产品,看看它到底能干嘛,火山引擎提供的ArkClaw就是一个非常合适的入门型产品,上周五飞书还发布了一个名为Aily的产品,就是在飞书中可以一键创建一个自己的AI助理,在我短暂的1个小时体验中,能充分感觉到Aily这款产品对飞书能力的高度集成,确实好使。这里有个小插曲,就是同一天,我开通了火山引擎Coding Plan Pro用户赠送的免费ArkClaw,飞书妙搭平台推送的免费OpenClaw助手,飞书刚刚发布的Aily产品,产品形态比较相似,尤其前两者,但是后者的完成度最高,产品化也做得最好(中国人做产品还是强👍)。

今天就写这么多吧,电脑也快没电了,在少年宫院里的车后座上把这篇上午开始的分享文写完了,手机和电脑都要没电了,车里被下午的太阳一直晒着也热🥵

天气也热了起来,大家也多出去走走看看吧,AI虽然日新月异,每天都有新东西出来,今天微信的微信ClawBot也发布了[微信支持连接你的龙虾了](https://mp.weixin.qq.com/s?__biz=MjM5NjM4MDAxMg==&mid=2655153223&idx=1&sn=eba06a5c787ff9a7fbda8aaa73abfaae&scene=21#wechat_redirect),晚上回家再找时间试试看。春天来了,人在北方的我们,每天都能从小区里,马路边感受到自然的变化,这些变化就实实在在地在我们身边在我们眼前发生。

走出去,到水边,到山上,到草里,去看,去听,去闻,给自己充充电。


原文链接: 微信公众号
原文发布于:2026年03月22日 15:06

OpenClaw初体验记录

这几日朋友圈和社交媒体上铺天盖地的OpenClaw的信息,有人为了体验OpenClaw连夜下单Mac Mini,也有人找出自己吃灰已久的老MacBook,更有一批人让自己常年闲置的VPS终于派上了用场。

这几日我们也看到,腾讯云、阿里云、火山引擎纷纷推出了各种主动适配OpenClaw的云主机+镜像和相关教程文档,大家也都趁着机会狠狠地推了一把自己的Coding Plan,也同时发布了官方的适配OpenClaw的教程。这应该是时尚头一回,国内BAT御三家如此积极公开主动地适配一个开源项目了,AI大厂的FOMO情绪可见一斑,结合晚点前两天发布的《字节、阿里、腾讯AI大战全记录:一场影响命运的战争》这篇文章来看,现在国内AI厂商的竞争已然进入了白热化阶段。在OpenClaw这么一个如此小众又非常极客的工具上,能如此大动干戈,确实说明大家已经是百分百投入地在打仗了,哪怕只是一场非常小的局部阵地战,各方将领的指令想必都是「给我把那个山头拿下,绝对不能轻易让给敌人」。

话不多说,我也是这周从社交媒体上了解到有这么一个产品,看了一下这个产品的作者,竟然还是此前我分享的CodexBar这个产品的作者。这周五有点时间,我就先在我的一台VPS上装上了OpenClaw,对接上了Telegram和WhatsApp,简单的体验了一下。说起安装这个OpenClaw还有个小插曲,也就是在我安装它的时候,那会儿是它刚刚更名为MoltBot(据说从ClawdBot更名为MoltBot是因为Anthropic以其发音跟ClaudeBot相近而向作者发出了警告)的那会儿,但是我通过项目官方的文档安装好的命令行名称还是clawdbot,而且配置文件和目录也都还是clawdbot命名的。就在我开始要体验的时候,再次查看文档,整个项目就又更名了,这会改名成了OpenClaw了,所以我索性就又先把刚刚装好的ClawdBot卸载了,重新安装了OpenClaw,重新配置了一遍。AI时代,一个开源产品的迭代时间都是按照小时为单位在推进的。(联想到前几天,我身边的小伙伴跟我说,每次早上到公司检测Antigravity Tools更新都能发现有新版本,每次跳转到新版本下载页面就发现,几个小时前更新,感觉这帮人就不睡觉一直在更新)。

周五安装好OpenClaw后,分享给了几位好友也体验了一下,不知道他们体验下来是怎么样。可能因为这是我的服务器,大家一出于安全考虑,二出于怕烧掉我的Token,看上去大家也都只是简单的问了几个像是跟ChatGPT一般的问题吧。(我倒是没有在服务器上查看大家跟OpenClaw的互动记录,只是从OpenClaw的工作空间中没有任何新增的内容,可以得出这个结论,基本上大家的互动都是停留在大模型直接可以回答的层面,而不需要OpenClaw自己做复杂的组合式操作来达成的指令或者需求。)而OpenClaw能出圈恰恰就是因为被众多使用者和媒体吹捧为复杂指令终结者,甚至有人提出了OpenClaw在指挥他干活成为了他的数字上帝的夸张说法。

周末在家两天,除了准备周一要分享的内容外,也同步在尝试让OpenClaw帮我做一个早在一年前想要做的需求。需求是这样的,每天抓取我自己感兴趣的新闻和资讯,在早上八点汇总筛选后,做成一份独属于我自己的每日新闻早报,然后以图文和语音播报的方式推送给我,我可以选择直接听语音版本也可以选择查看图文版本的每日新闻。

我把这个指令给到OpenClaw后,它确实自己帮我写了一个工具,能抓取到一些新闻内容,只是信息源不是我自己想要的。当我需要让它帮我转成音频播客的形式时,它就开始帮我编写在本地调用TTS引擎库来实现文本转语音的操作了,最终一直失败,来回折腾了差不多半个小时。也不知道是不是因为我的VPS配置太低(4C 16G)还是因为我刚开始用的是火山的Coding Plan提供的模型(可能从新加坡访问国内的API接口速度不够快),反正每次做个事情也是贼贼慢,幸好我也同时在做着别的事情,同时好几个AI窗口在干着不同的活,我就不时地这个窗口看一眼,确认一下进度提供一些反馈,那边继续提个问题啥的。

最终折腾了整整一个大白天,快到晚饭的时候,终于我想要的抓取ReadHub Daily、联合早报新闻内容转录为播客音频再拼接上声动早咖啡的节目的每日新闻播客才算是生成成功,也能通过Telegram发送到我的手机上进行查看和收听了。

到了周日(今天),想着继续完善一下这个小功能,在完成明天(周一)的分享稿内容之余,抽空继续跟OpenClaw来回互动了好几次,终于让它能支持通过Telegram消息触发每日新闻的生成、查询和获取功能了。整个过程跟我这大半年来在Cursor、Claude和Antigravity中的整体交互体验基本上差不多,提出需求,等待执行结果,验收,然后再次提出问题,持续迭代,直到需求完成。唯一的区别,可能是OpenClaw安装软件和依赖的自主性,在迭代这个每日新闻播客生成工具的过程中,它自己安装了Docker并且部署了RSSHub服务,帮我解决了小宇宙播客内容源的获取问题。

而它对操作系统的全面接管也带来了负面作用,今天下午它在调用Google Antigravity提供的API接口时出现了下面的错误。

“`

This version of Antigravity is no longer supported. Please update to receive the latest features!

“`

我在写这篇文章的时候,试着把这个错误丢给了它,让它自己想办法修复这个问题。然后它把自己升级挂了,我在VPS服务器的终端里头都无法直接调用OpenClaw命令了,执行 openclaw tui 这个命令,系统直接提示我没有这个命令。😂

所幸它倒是不会删除 .openclaw 目录,只要这个目录在,重新安装一下命令就好了,此前的所有配置也都还在,再次执行 openclaw tui 就可以了。你说这玩意儿适合一般人玩儿吗?我倒是觉得完全不适合,这玩意儿确实太耗时间和精力了,不过极客不就是应该生命不止,折腾不休吗?

我这两天的体验下来,目前对于它对于Agent Skills的灵活应用还没有实际体验到,可能因为我自己是个程序员,我给它提的需求反而过于明确,甚至有我自己的思路在,把它给限制住了?截止到现在,我还是没有太发现它的特别之处,不过确实比我自己做的Telgram机器人强太多了,此前我还想给我自己的Telegram机器人加上同步微信公众号文章的指令,这下我完全可以把我本地的Skills给它用就好了,然后我只需要一个消息,它就能帮我搞定,下周找个时间来实现它。

最后给大家分享两个截图和一段它生成的每日新闻播客内容(播客音频使用了豆包大模型,用的是杨大壹老师的音色)。这个小工具也还需要继续打磨,持续迭代成为最终能为我自己所用的每日工具。


原文链接: 微信公众号
原文发布于:2026年02月01日 22:38

免费的Claude Code高级套餐真香

此前记录和分享的文章中,我提到过我已经不再续费Claude Code了,因为他们家的基础Pro套餐,我还没怎么开始用就开始出现限额了,必须升级到Max才行,在使用了一个月后,鉴于它实在是有点贵,最终我还是切换到了Cursor和Antigravity上。不过Claude Code毕竟代表着先进的生产力,先不论其背后模型在Coding领域的优秀表现,即便Claude Code这个前端产品依然还是很能打,尤其Claude Code支持了Agent Skills后,更是可以让LLM开盲盒的流程有了更好的确定性。

为了能继续使用Claude Code这个产品,实际上我还付费买过智谱的GLM Coding Plan Pro继续使用了一段时间,但是鉴于模型能力确实还存在一定的差距,所以在使用了一段时间后,还是切到了Cursor和Antigravity。OpenAI的ChatGPT毕竟还是C端产品的心智首选,同时自带Codex的Plus用量,所以一直也都有持续在付费,这个月把大量的工作切换到Antigravity后发现它也很能打,而且提供了目前Coding能力Top的模型:Gemini 3 Pro和Claude Opus 4.5,高强度使用下也未出现限量或者降速的体验问题,所以趁势先把Cursor Pro停了(能省一点是一点吧)。

所以现在我手上付费订阅的AI产品除了JetBrains AI Pro外,就只剩下ChatGPT Plus和Google AI Pro了,而JetBrains AI Pro相对比较封闭,是一个非常垂直的Coding Agent产品且跟JetBrains全家桶绑定较深,这里先按下不表。而OpenAI和Google家的这两个订阅实则不只是订阅了一个AI Coding Agent的使用权限,那都是一个家族谱系的产品。

OpenAI ChatGPT Plus和Google AI Pro这两个订阅开通后,我们不只是可以直接使用ChatGPT和Gemini中内置的付费功能和权益,实际上还拥有了Codex和Antigravity的付费功能,而这些权益中最核心的就是AI服务Token的用量,且得益于AI行业发展超级快,还没轮到各家分裂自立门户或者通过标准组织建立标准,已经有两家公司率先成为了事实上的行业标准,那就是OpenAI家的Chat Completions API和Anthropic家的Claude Code Messages API,已经成为了行业内其他各家推出产品时直接参考和兼容的标准。这也是为什么我们可以购买国内的智谱、Kimi、MiniMax家的Coding Plan产品便可以直接对接到Claude Code上进行使用,只是Claude Code最终调用的模型能力由我们配置的这些国内厂商提供。

在这么个事实上开放的背景下,实际上我们要使用Claude Code这样优秀的产品,实际上并不一定要局限在使用Anthropic家的订阅或者官方直通API,Claude Code从发布之初就默认支持调用API的方式来访问,也是考虑到B端用户的真实场景,存在着大量的企业用户可能需要从微软、AWS等等其他模型服务提供商处采买AI API服务的情况。这也给我们国内广大的程序员们提供了一个低价且稳定又快速使用Claude Code的优秀产品能力,提升自己编码和工作幸福度的机会。

这不,昨天晚上写完告别2025的公众号文章后,想着前不久给自己2026年写字加了个小附加条件,除了一年写够52篇文章外,还需要把在微信公众号发布的文章,同步记录和发布到我自己的博客站点上去。

这不赶上了嘛,前不久我自己琢磨了一个周末,给自己做了一个每周处理工作上业务周报的Skill,每周一写周报的时候不再那么着急忙慌了,属实是真香系列,但是在我停用了Claude Pro的订阅后,GLM 4.6模型又总是不太给力,时不时给出的结果不尽如人意,在我切换到Antigravity后,我也试图让Antigravity去执行这个Skill,但是最终结果也不太如意,每次执行都要不断跟它来回地沟通和确认,并且Antigravity总是在试图修改Skill目录下的脚本,看上去很不够稳定。上周智谱上市前,他们家发布了GLM 4.7模型,我简单体验了一下,发现还是不错的。所以这周一的周报大纲,就是Claude Code通过周报Skill调用智谱的GLM 4.7模型进行数据分析后输出,然后我再二次加工的。

想起以后每次写完微信公众号文章后,我还得自己手动把文章内容再发布到自己的博客站点上,我就头大。首先,复制粘贴就很无聊,其次,如果文章中有图片,还得再次手动上传到博客站点,最后,博客站点的内容发布在手机上是很不友好的,而我绝大部分的写作都是在手机上完成的。那我以后是不是每次发完微信公众号后,还得打开电脑再手动发布一下博客文章,想想都难受。那么这种重复且繁琐的事情显然可以借助Claude Code搭配Agent Skills来完成,说干就干。

把需求给Claude Code描述好,需求如下:

实现一个可以一键把微信公众号同步发布到WordPress站点的Skill,需要支持设置博客文章的固定链接、文章分类、文章标签。

没一会儿,补充了一些相关的信息以及和WordPress发布文章鉴权相关的参数,Claude Code便帮我把这个Skill写好了,内容结构如下:

找了几篇此前已经发布的微信公众号文章的链接,丢给了Claude Code,让它帮忙同步,验收结果。

来回验收多次,补充了几个特性:

1. 自动读取微信公众号文章标题,调用大模型翻译成简短的因为slug作为固定链接后缀部分,避免出现链接地址中是中文标题的URL Encode字符,表意清楚对于搜索引擎也更友好(虽然小站完全没流量);

2. 自动下载微信公众号文章中的图片原图,上传到博客站点的媒体库,并替换文中的图片链接(微信公众号图片是防外链的);

3. 自动读取微信公众号文章发布的时间,在博客文章内容的底部新增本文的首发链接(微信公众号文章链接)和发布时间信息(咱们这也是在向其他作者们学习,每每写文都要写下类似于 “2026.01.01 于北京顺义” 这样的脚注);

4. 自动读取微信公众号文章的封面(实际上打开文章是看不到的哦),把这个封面图片作为WordPress博客文章的特色图片。

最终在凌晨2点45前后,终于完工了,在打磨这个Skill的过程中,我发现GLM 4.7还是不太能很好的理解我的意图并且比较好的还原我的指令,虽然这个Skill当前已经完全能满足我的需求了,但是为了打磨它,我花了足足3个小时才把它完成。我觉得模型的能力,与我最近几天使用Cursor和Antigravity编码过程中解决复杂问题的体验相差还是不小。

今天一早起来,便想起此前在X上看到了几位推友分享的关于Coding Agent订阅API Token余量实时查询和展示的工具中,有两款产品除了能实现多厂商多账号余量的实时显示,还能在本机建立一个代理服务,对外提供服务,很像是此前我在学习Claude Code的时候了解到的一个名为LiteLLM(https://www.litellm.ai/)的AI服务网关产品提供的能力。而且从推友分享的图片中能看到,推友们把自己申请的免费账号和付费账号的Claude家的Opus 和 Sonnet API Token直接给到Claude Code去用了,这简直就是一鱼两吃嘛。想起我自己手上的Google AI Pro订阅账号里头,Claude家的API Token基本上就没有用过,我还为了能继续使用Claude Code又额外订阅了GLM Coding Plan,如果能直接把Google AI Pro账户中的Claude家的模型直接分享给到Claude Code用的话,那这20美金可就真的花得千值万值了。想到这里便记下了,今天得试试看到底能不能跑通。

上午带着娃儿们去了一趟公园,大娃上周去公园时看公园里湖上搞起了冰雪嘉年华活动,可以在冰面上玩各种雪具,很是心动,上周他的左脚因为此前在公园里玩滑雪受伤了还没有完全好,这周已经好多了,就很是心痒,进了公园门就往场地跑。我们到的那会儿,人还不多,买票后,兄弟俩就自己下冰面上去玩耍去了,我就在公园里围着冰面散步蹓跶。等哥俩儿玩累了,上来找我的时候已经是快11点半了,回家后吃过午饭,带着哥俩睡了会儿午觉(哥俩儿闭着眼睛在床上硬躺了一个小时,愣是没睡着)。午觉后,哥俩写作业的去写作业了,看书的就看书,我换上衣服出去跑了一圈,2026年新年第一跑,简单跑了个5公里。

跑步回来洗个澡,娃儿们还在学习和看书中,我便开始逐一了解,此前X上推友们分享的项目。

Quotio

Quotio:The ultimate command center for your AI coding assistants(https://github.com/nguyenphutrong/quotio)

Quotio支持的产商真不少:

AI Providers

ProviderAuth Method
Google GeminiOAuth
Anthropic ClaudeOAuth
OpenAI CodexOAuth
Qwen CodeOAuth
Vertex AIService Account JSON
iFlowOAuth
AntigravityOAuth
KiroOAuth
GitHub CopilotOAuth

还支持实时监听IDE的用量和余量:

IDE Quota Tracking (Monitor Only)

IDEDescription
CursorAuto-detected when installed and logged in
TraeAuto-detected when installed and logged in

除了能实时监听显示以上厂商的账号和工具的用量和余量之外,更美丽的是,它能直接提供本地可供以下AI Coding Agent访问的中心化服务接口

Quotio can automatically configure these tools to use your centralized proxy:

  • Claude Code (这正是我想要的)
  • Codex CLI
  • Gemini CLI
  • Amp CLI
  • OpenCode
  • Factory Droid

下面给大家看一下 Quotio 在系统状态栏中的显示效果

以及打开Quotio的主面板后的截图,一图胜千言,大家一眼就能看出来这个工具的功能了。

不过我想重点分享的是👇下面这个页面的内容:

从这个页面中我们可以看到,Quotio支持Proxy+Quota模式,也就是在帮我们实时查询所有账号的用量余量的同时,还可以在本地建立一个代理服务,提供给它目前支持单独Agent使用,其中就有Claude Code、Codex CLI、Gemini CLI、AMP CLI、OpenCode、Factory Droid,还支持一键设置生效,对于很多对命令行以及系统变量设置不太熟的同学们来说,简直就是福音,配置好,一键启用。

👆上面这个截图就是我使用Claude Code通过Quotio在本地创建的API反向代理服务,最终访问Google AI Pro订阅账号中提供的Claude Sonnet API的请求日志。

因为我自己有切换不同服务厂商的命令行方法,我只需要增加一个Quotio在本地创建的本地代理服务作为Claude的BaseURL,把模型名称跟Quotio中展示的模型名称对齐上就好了,参考GLM Coding Plan的Claude Code配置文档(https://docs.bigmodel.cn/cn/coding-plan/tool/Claude)修改对应参数即可。如果有多个账号,不同厂商的模型可供调用的话,Quotio还支持不同的负载均衡模式的设置,默认是Round Robin(轮询),可以修改为First Fill(依次分流,直到前序账号用量已满,切换到下一个)。最后给大家看一个跑起来后的请求日志单独截图,从此Claude Code不再依赖国产丐版模型了,Google家批发转赠送打包在Google AI Pro里头单独流量可不老少,且用呢,感觉比Anthropic家的Pro套餐也差不到哪儿去,这个我再验证验证☺️。

Antigravity Tools

Antigravity Tools – Professional AI Account Management & Proxy System (https://github.com/lbjlaq/Antigravity-Manager)

这个名字朴素(甚至有些混乱,产品名称Antigravity Tools,项目名为Antigravity Manager)的小工具,典型的人狠话不多类型,其目前支持的工具和厂商不多,但是重在正经实用,最近网上折腾和买卖免费的美区Google账号,薅Antigravity免费用量的人一把一把的,我看这个项目的GitHub页面上提供的截图中,竟然显示着惊人的55个账号😱

API Proxy - Service Control

如果想要在Claude Code中使用Antigravity Tools提供的本地代理服务,那么需要从该软件的「API反代」页面中找到其在本地创建的反向代理服务监听的端口,以及它生成的API Key,把这些参数作为Claude Code的配置即可。这里同样可以参考GLM Coding Plan的Claude Code配置文档(https://docs.bigmodel.cn/cn/coding-plan/tool/Claude)修改对应参数。

最终的 ~/.claude/settings.json 文件配置看起来会是这样的:

{
    "env":
    {
        "ANTHROPIC_AUTH_TOKEN": "sk-84b8bb2ecd0xxxxxxxfe13dae2c6f3",
        "ANTHROPIC_BASE_URL": "http://127.0.0.1:8045",
        "ANTHROPIC_DEFAULT_HAIKU_MODEL": "gemini-3-flash",
        "ANTHROPIC_DEFAULT_OPUS_MODEL": "claude-opus-4-5-thinking",
        "ANTHROPIC_DEFAULT_SONNET_MODEL": "claude-sonnet-4-5",
        "API_TIMEOUT_MS": "3000000",
        "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
    }
}

配置生效后,就可以使用Claude Code通过Antigravity Tools提供的本地代理服务,访问Google AI Pro提供的Claude系列模型,以及Gemini 3 Flash模型了。通过Antigravity Tools的「API反代」页面中的「打开监控」入口,进入「API监控看板」,点击「开始录制」后,在Claude Code中发起任意对话,就能看到请求都到Antigravity Tools的代理服务中来了。

如此一来,Antigravity Tools这款专为Antigravity适配优化的本地多账号API用量管理和代理工具,就很好地帮我们解决了把Antigravity账号中的Claude API分享给Claude Code用的需求了。下面👇补充了一个Antigravity Tools在macOS系统状态栏中的功能界面的截图,供大家参考。

以上是两款功能基本相似,都能解决我们如何在不订阅Claude Pro/Max套餐的情况下免费继续高质量使用Claude Code的开源工具。其中Quotio应该是一名越南开发者的作品,而Antigravity Tools应该是我们中国开发者的作品。从Antigravity Tools的GitHub页面也能看到项目的赞助方是PackyCode(一家可靠高效的 API 中转服务商,这是页面上的原文)。

关于这种本地代理工具我想多说几嘴,虽然我的目的是把Google AI Pro账户中的Claude的API分享给到Claude Code使用,但是实际上这两个工具完全可以把它们支持的产商的API,最终通过这个反向代理的服务(类似于LiteLLM)提供给任意需要AI API的需求方,完全不需要局限在写代码的Agent的应用上,完全可以用来写小说、编剧本,如果模型支持文生图,那就可以用来做文生图,甚至文生视频,都是一样的。正是这些工具的蓬勃发展,包括上文提到的LiteLLM(https://www.litellm.ai/),让国内众多的API中转商们生意做得风生水起,解决了很多国内开发者和创作者的无法正常付款开通账号,很难保持网络稳定访问这些海外服务厂商提供的服务的问题。这种业务的工程创新,在某个阶段上来说,很有必要,也很有市场。

CodexBar

CodexBar 🎚️ – May your tokens never run out.(https://github.com/steipete/CodexBar)z

CodexBar就是一个纯粹用于实时查询各个AI账户用量和余量的状态栏工具,看一眼产品的截图就能明白了。如果你不需要一个本地的AI API反向代理工具的话,这个工具也是一个不错的选择。

以上就是我今天折腾半天,最终免费用上顶配的Claude Code套餐的学习和实践记录和分享,希望能给到大家一些启发。

🎉元旦快乐🎉


原文链接: 微信公众号
原文发布于:2026年01月01日 23:33