我花了一整天研究技术选型和模板。
想把多个项目的脉络梳理清楚就足够烧脑,更别说这些年层出不穷的新工具和 AI 应用。
信息太多,脑子装不下,人越来越焦虑。
所以我试图借 ChatGPT 来协助流程设计和文档编写,一开始还挺顺,但很快我踩到了坑。
大部分坑都是「上下文错乱」造成的。
特别是有多个项目背景同时存在的时候,ChatGPT 给出的建议,听起来有模有样,实际上却错得离谱。
我今天就被一个“性价比极高”的 VPS 推荐给坑了。
ChatGPT 推荐的是一家德国的服务器供应商。
我照着它说的注册、提交资料,好不容易完成流程。
接着悲剧发生了:账号直接被封。
官方邮件回得很客气,但其实是因为国内用户的限制根本无法使用该服务。
这就是问题。
从操作本身来说,我走的是它建议的每一步,可根本就没法落地。
你以为我只是运气不好?NONONO。
ChatGPT 所提供的「建议」,常常是在忽略背景信息的前提下给出的。
而这种背景,不是它自动能理解的。
即便你在对话中大量提供资料,它也会「选择性遗忘」,或只取一部分信息来回答。
尤其你问的是一个和流程、代码、接口、权限、用户地理等有关的系统问题,它的回答经常答非所问。
误导并不是AI造谣了,而是它缺乏你“当下情境的连续理解”能力。
试问我们有多少人,给AI问问题,是临时扔个问题过去?
可我们的问题,是依赖过去结构的,是高信息密度、强依赖历史上下文的内容。
这在内容模板设计文档、流程自动化图、产品架构图上尤其明显。
我最近筛选几个 Webflow 和 Wized 的模板就发现,它们文档里写得都很好。
可当我真正套入我们项目时,才发现逻辑和本地实际需求并不匹配。
再比如 Notion 模板,很多看上去很有逻辑,但你导进自己的项目实际测试,就很容易「不如新建一个干净的」。
你真正要警惕的,不是 AI 说错了什么,而是你以为它理解了你的一切。
这太危险了。
因为你一旦放松警惕,很容易掉进「它说的应该没错」的陷阱。
我个人感觉,现在的 AI 能力非常有限,但因为回答的语气太自然,很容易让人误以为它已经懂了。
但我们要清醒:AI 的流程记忆仍然靠不住,特别是当你从一个话题切换到另一个项目时。
它没有对话中的“跳转状态感知”。
除非你每一次都讲清楚上下文,但这样你也就失去了效率。
今天类似的事情不只 VPS,一个自动化系统的接入方案,我套用模板时也出了问题。
ChatGPT 说可以通过某个 webhook 实现自动触发,但我们项目里用的是私有端口,根本不支持外部订阅。
看出问题了吗?它忽略了我们的具体部署架构。
越复杂的场景,越不能依赖 ChatGPT 一锤定音。
你还是得自己理解、校对、整合,然后再交给它补强。
其实这跟我们前面学效率工具时的一个洞察类似:
工具不是用来变懒的,是用来放大的。
如果你基础理解不到位,它只能放大你的盲点。
别指望 ChatGPT 协助你做战略决策,它远远做不到。
但你让它切图、码字、排列格式,它仍然无可替代。
理解工具边界,才能保护资源集中。
很多人说 AI 会彻底改变工作方式,我同意,但前提是你自己有一套判断系统。
这也是我做 Deku 和我们自动化系统的初心,不是做一个万能系统,而是做一个分类放大器。
你只有看懂文档,才能甄别建议;你只有梳理上下文,AI 才能有用地回答。
我们不是要AI取代人,而是取代反复无效劳动。
而不会判断的决策,是更浪费时间的。
问题不在于工具越来越多,而在于你是否有选择什么该学,什么该抛弃的能力。
真正吃亏的,是那些没搞清楚自己做什么,还拼命“学习AI技能”的人。
信息过载里最稀缺的,是判断力。
别在不值得的地方高强度投入。
别以为 AI 已经懂你,它还在长大,你要自己走路。
相关文章





获取快董认知圈前沿技术资讯和实用教程