一、模型 & 开发工具:GPT-5.1-Codex 上线后的第一波实战反馈
1)Codex 升级到 GPT-5.1-Codex
群里提醒:使用 Codex 的同学记得更新到最新版本,核心变化有两个:
-
对话更像真人,更好懂——表达更自然、解释更清晰。
-
Thinking 时长动态决策——能根据问题自动决定"想多久",主观体感是:变快了。
大家的实际体验:
-
用来 debug 非常爽,短回复速度不输 Minimax M2,很适合需要快速响应、注意力容易被打断的人。
-
有人感觉:
-
Codex 改代码时,会把一部分逻辑从原方法里"搬出去"处理;
-
Claude Code 会更倾向于把逻辑收拢在一个方法里,结构更紧凑。 说明不同模型在"代码风格"和"抽象方式"上确实有差异。
-
刘小排的评价:
GPT-5.1 的编码能力和 5.0 差别不大,但都是世界第一梯队。 普通难度任务,头部几家模型差异不明显。
2)Cursor vs VS Code + Codex / Claude Code
学习路径上的建议:
-
刚入门时:
- 先用 Cursor 把课程教程全跑完,工具简单、门槛低,不用着急换。
-
当你有一天觉得:
-
Cursor 有点"卡手""不够灵活",
-
再切到 VS Code + Codex / VS Code + Claude Code 更合适。
-
被问"什么时候 Cursor 满足不了?" 老师的回答:你会自己发现的 —— 即,当你开始觉得代码补全、工程组织、插件能力不够用的时候。
3)Claude Code 的小问题
-
有人问怎么删 Claude Code 历史对话:
-
/clear只是重置当前上下文,不等于真正删本地记录。 -
但它占的是硬盘,不是内存,而且体量很小,一般不用纠结。
-
二、薅羊毛 & 接入路径:印度 API、转发服务和国产大模型组合拳
1)印度 API 站点 megallm.io
群里志愿者分享:
-
印度的 API 平台,注册送 125 美金额度,号称有 39 个模型:
- 包括 GPT-5.1、Claude Sonnet 4.5、还支持 Claude Code。
-
建议:可以多准备几个 Gmail 注册。
-
早上服务器还因为涌入太多用户挂了一阵,现在已恢复。
(隐含前提:羊毛总有时效,能不能长期稳定用要自己衡量风险。)
2)"不想折腾"的方案:中转服务
-
对"懒得折腾 / 用量不大"的同学,有人推荐:
-
春秋哥的中转服务,可以用 Claude Code 和 Codex,
-
价格大概 400/月,对轻度开发者来说够用。
-
适合人群:不想自己搞 IP、代理、支付,只想"先用起来"的同学。
3)国产模型:GLM 4.6、Kimi K2 Thinking、Minimax M2
总体共识:
-
在国内环境下,GLM 4.6、K2 Thinking、Minimax M2 都是不错的选择。
-
有案例:做项目时以为在用官方 Claude,结果最后发现是 GM4.6,说明实战能力已经挺能打。
-
组合玩法:
- K2 Thinking + Claude Skills:被点名效果很好,适合国内场景。
但刘小排也强调:
国产模型只是个别能力超过,综合实力还赶不上 GPT / Claude。 有条件的话,依然建议优先用海外的 GPT-Codex 或 Claude Sonnet。
4)GLM4.6 驱动的 Claude Code = 官方 Claude Code 吗?
答案是否定的:
-
"GLM4.6 驱动的 Claude Code 4.5"本质上是:
-
用 Claude Code 的 客户端/壳,
-
里面具体用的模型还是 GLM、Kimi 等。
-
-
所以"体验像 Claude"不代表"模型=Claude"。
5)Kimi for Coding vs K2 Thinking
大家反馈比较一致:
-
Kimi for Coding(KFC):
-
有人觉得解决问题"就差一点点",一些原来 K2 能搞定的场景它会拉胯;
-
有人吐槽:多语言翻译都翻不太明白;
-
考虑到价格极低,大家怀疑有"掺水"/降配。
-
-
K2 Thinking:
-
更适合做中高复杂度项目,
-
但资源稀缺、成本更高。
-
比较形象的一句总结:
可以理解成"低级工程师"和"高级工程师"的区别。
三、部署 & 数据库实战:Supabase、Postgres、Vercel 坑点大集合
这一段信息量非常大,适合正在做 SaaS / API / Web 应用的同学收藏。
1)Supabase / 自建 Postgres / Neon 怎么选?
对一个刚起步的新项目:
-
用户量小的时候:
-
Supabase SaaS 更省心稳定,能帮你省掉很多数据库运维的坑;
-
自建 Postgres 麻烦,而且一开始性能差异并不明显。
-
-
等用户量大起来:
-
Supabase 会变贵,自建反而更划算;
-
但迁移时要考虑:数据迁移脚本、停机窗口、索引重建等。
-
有同学问到迁移经历,群友表示:
自建太麻烦,现在阶段不划算,先用云端版,只用了一些库,后面迁移也还算方便。
2)Vercel 上连数据库的"隐性杀手锏"
袁气森林分享了一堆踩坑经验(很干):
-
Vercel 是 serverless 架构:
-
会启很多实例并发连数据库,
-
如果不控制连接池,每个实例各自开连接,很快就把连接数打爆。
-
-
建议:
-
配置连接池,让每个线上服务"最多几条连接",
-
缩短 idle 超时时间,避免连接挂着不释放。
-
-
驱动选择:
-
强烈建议用
pg驱动,不要用postgres驱动:-
postgres在 Vercel / Cloudflare 上有奇怪 bug: 连接挂起、不返回、不释放。 -
他就是在 mksaas 项目里踩了这个坑,查了很久。
-
-
一句话:在 Vercel 上用 Postgres,一开始就配好连接池 + 正确驱动,不然后面很痛苦。
3)ID 类型、better-auth 默认 text vs uuid
围绕 better-auth + Postgres,也有一堆细节:
-
better-auth 为了兼容多种数据库,默认用 text 作为 id;
-
Postgres 的"最佳实践"一般是用
uuid类型。
讨论结论:
-
功能上:
-
只要能保证唯一性,
text/uuid性能差异对大部分项目不明显。 -
几十万行以内完全不用焦虑。
-
-
真正要注意的是:
-
在项目早期就尽量统一 ID 类型,
-
不要等线上跑了一阵才想改 schema,那会非常折磨。
-
订单表的建议:
-
有人建议订单 ID 不要用纯 uuid,
-
可以用更可读的结构比如:
orders-userid-date-序列号,- 便于人工排查和后续扩展(尽管不是硬性要求)。
4)数据量上来之后:分表、索引、删除
几位有大规模项目经验的同学给了不少"未来才会掉进的坑":
-
用户行为日志增长最快,一般只保留 7–14 天;
-
上千万行后,大表的删除、索引重建非常慢,都是单核 CPU 行为;
-
有人遇到 70GB 的数据库:
-
在线上服务器直接重建索引可能要停机两天;
-
最后是把数据拉到本地的高性能 PC(如 9900X)做分表和重建索引,9 小时搞定。
-
关键心法:
刚起步不用过度设计。 真正量起来了,再按业务场景做分表、归档、删除, 有钱后请个数据库高手也不难。
5)国内"类 Vercel"平台 & API 商业化
-
老师说:
- 国内没有完全类似 Vercel 的平台,核心问题是备案。
-
有同学补充:
- 腾讯 EdgeOne Pages 可以关注一下(但仍绕不开备案问题)。
-
对想做 API 平台商业化的同学:
-
有人提到 Vercel 有并发限制;
-
Claude 推荐过 Zeabur,定位"全家桶";
-
志愿者提醒:Vercel 更偏前端托管,Zeabur 可以研究,但还没深入实测。
-
四、埋点 & 分析工具:Clarity / Plausible 的"小疑难杂症"
有同学遇到:
- 配置好 Cursor/clarity/plausible 后,Clarity 一直显示"即将完成",统计不到数据:
大家的排查建议:
-
Clarity / GA4 通常会延迟几分钟,但 延迟到 2 小时就不正常了。
-
检查接入方式:
-
你是用 script 代码直接插入页面,
-
还是用 npm 包?
-
npm 模式可能卡在某些构建/挂载逻辑上。
-
-
对比官方说明逐项核对,看脚本是否插在了正确位置。
-
如果 Plausible 也没数据,那更可能是代码没有真正被加载。
新页补充:
-
Plausible 一般生效很快;
-
Clarity 会比它更慢一点。
五、调研 & 冷启动:Fiverr、Reddit 与"找对人"这件事
1)Fiverr 调研 & 海外社区数据获取
关于课程里提到的 Fiverr 平台,提了两个实操问题:
-
老师自己会不会直接让 Claude Code 自动化生成一份调研报告?
- 回答:不会。
-
对 Reddit 这类海外社区数据:
-
有必要用第三方或平台 API 去调评论数据吗?
-
回答:有必要,不通过 API Claude Code 是没法自己"爬评论"的。
-
潜台词:
高质量调研,模型更多是分析和加工数据, 原始数据最好还是通过正规 API / 工具来拿。
2)冷启动失败,问题出在哪?
有同学问:冷启动效果不佳,是不是多做几次冷启动就能好?
刘小排给了很直接的回答:
-
如果冷启动效果不佳,说明你没找到真正的目标用户;
-
重复同样的行为,只会得到同样的结果。
群友的点睛之笔:
找到需求,需求就是一切。
这条非常适合抄在小本本上。
六、课程 & 学习节奏:DevTools、ShipAny 与"六六"的案例
1)课程节奏与工具
-
有人问课程是不是二期内容?答:是的。
-
还有同学反馈:
-
内功篇从 IDE + 浏览器环境开始,
-
但课程里没有专门讲 浏览器 DevTools,
-
看 Next.js 官方教程时会默认你懂 DevTools。
-
老师的回应:
-
这是自己的疏忽,也默认大家懂 DevTools;
-
建议先用 ChatGPT 学一下 DevTools;
-
会把这个需求记录下来,未来考虑单独讲一讲。
2)ShipAny 视频 & 架构理解
-
有同学分享:看了 ShipAny 的"1 小时上线 AI 壁纸生成器"视频,再结合内功篇,对整体架构理解更深。
-
志愿者提醒:ShipAny 最新版部署有依赖 bug,记得更新依赖再部署,避免踩坑。
3)学员"六六"的产品案例
老师转发一期学员、二期助教「六六」的作品(视频号),强调:
-
她从 5 月份的完全小白开始,
-
一路做到了能做出用户真心喜欢、感觉"被理解和治愈"的产品,
-
靠的是发挥自己的优势,持续打磨。
群友反馈:
-
有人用了几次产品,被治愈到哭;
-
还有同学"0 推广就能起量"的观察;
-
朋友圈自来水转发,氛围很正向。
这个案例对大家的启示是:
工具和模型只是手段, 真正打动人的是你和用户之间的那条情感和需求链路。
七、零散但有用的小贴士
-
有人问:有没有"国内版 vercel"——有人提到腾讯 EdgeOne Pages 可以研究。
-
阿里云 wan2.2 换脸接口:
-
有人说只在 FAL / replicate 之类的平台上见过,价格很贵;
-
官方价大约 0.9 元/秒,也不便宜。
-
-
有同学双 11 入手高性能 PC,用于本地重建大库索引,节省了大量迁移时间——再次证明:有一台强劲的本地机,在数据迁移/处理上非常值。
今日要点速记
-
Codex 升级 GPT-5.1-Codex:更像真人、更快,debug 体验极佳,但和 Claude Code 在代码结构上风格不同。
-
模型选型:国内 GLM4.6、K2 Thinking、Minimax M2 性价比高,但综合能力仍略逊 GPT / Claude;能用海外的,优先海外。
-
接入路径:印度 API 平台 + 中转服务是当前热门"薅羊毛"方案,但有时效和稳定性风险,要自己评估。
-
后端与数据库:小体量先用 Supabase SaaS,Vercel 记得配置连接池并用
pg驱动,早点统一 ID 类型,量大后再考虑分表和归档。 -
增长与调研:冷启动不行通常是目标用户没找对,别盲目"多试几次";Fiverr/Reddit 这种调研要用正规 API 抓数据,再让模型分析。
-
学习路径:先用 Cursor 把课程打牢,再上 VS Code + Codex/Claude Code;DevTools 很重要,可以先让 ChatGPT 当你的 DevTools 教程。
-
案例激励:一期学员六六从小白到上线治愈系产品,说明"持续打磨 + 找对需求",比你用了哪一个模型更关键。