ChatGPT不是魔法棒,别低估「上下文」的力量

ChatGPT不是魔法棒,别低估「上下文」的力量

·6 分钟阅读

我花了一整天研究技术选型和模板。

想把多个项目的脉络梳理清楚就足够烧脑,更别说这些年层出不穷的新工具和 AI 应用。

信息太多,脑子装不下,人越来越焦虑。

所以我试图借 ChatGPT 来协助流程设计和文档编写,一开始还挺顺,但很快我踩到了坑。

大部分坑都是「上下文错乱」造成的。

特别是有多个项目背景同时存在的时候,ChatGPT 给出的建议,听起来有模有样,实际上却错得离谱。

我今天就被一个“性价比极高”的 VPS 推荐给坑了。

ChatGPT 推荐的是一家德国的服务器供应商。

我照着它说的注册、提交资料,好不容易完成流程。

接着悲剧发生了:账号直接被封。

官方邮件回得很客气,但其实是因为国内用户的限制根本无法使用该服务。

这就是问题。

从操作本身来说,我走的是它建议的每一步,可根本就没法落地。

你以为我只是运气不好?NONONO。

ChatGPT 所提供的「建议」,常常是在忽略背景信息的前提下给出的。

而这种背景,不是它自动能理解的。

即便你在对话中大量提供资料,它也会「选择性遗忘」,或只取一部分信息来回答。

尤其你问的是一个和流程、代码、接口、权限、用户地理等有关的系统问题,它的回答经常答非所问。

误导并不是AI造谣了,而是它缺乏你“当下情境的连续理解”能力

试问我们有多少人,给AI问问题,是临时扔个问题过去?

可我们的问题,是依赖过去结构的,是高信息密度、强依赖历史上下文的内容。

这在内容模板设计文档、流程自动化图、产品架构图上尤其明显。

我最近筛选几个 Webflow 和 Wized 的模板就发现,它们文档里写得都很好。

可当我真正套入我们项目时,才发现逻辑和本地实际需求并不匹配。

再比如 Notion 模板,很多看上去很有逻辑,但你导进自己的项目实际测试,就很容易「不如新建一个干净的」。

你真正要警惕的,不是 AI 说错了什么,而是你以为它理解了你的一切。

这太危险了。

因为你一旦放松警惕,很容易掉进「它说的应该没错」的陷阱。

我个人感觉,现在的 AI 能力非常有限,但因为回答的语气太自然,很容易让人误以为它已经懂了。

但我们要清醒:AI 的流程记忆仍然靠不住,特别是当你从一个话题切换到另一个项目时。

它没有对话中的“跳转状态感知”。

除非你每一次都讲清楚上下文,但这样你也就失去了效率。

今天类似的事情不只 VPS,一个自动化系统的接入方案,我套用模板时也出了问题。

ChatGPT 说可以通过某个 webhook 实现自动触发,但我们项目里用的是私有端口,根本不支持外部订阅。

看出问题了吗?它忽略了我们的具体部署架构。

越复杂的场景,越不能依赖 ChatGPT 一锤定音。

你还是得自己理解、校对、整合,然后再交给它补强。

其实这跟我们前面学效率工具时的一个洞察类似:

工具不是用来变懒的,是用来放大的。

如果你基础理解不到位,它只能放大你的盲点。

别指望 ChatGPT 协助你做战略决策,它远远做不到。

但你让它切图、码字、排列格式,它仍然无可替代。

理解工具边界,才能保护资源集中。

很多人说 AI 会彻底改变工作方式,我同意,但前提是你自己有一套判断系统。

这也是我做 Deku 和我们自动化系统的初心,不是做一个万能系统,而是做一个分类放大器。

你只有看懂文档,才能甄别建议;你只有梳理上下文,AI 才能有用地回答。

我们不是要AI取代人,而是取代反复无效劳动。

而不会判断的决策,是更浪费时间的。

问题不在于工具越来越多,而在于你是否有选择什么该学,什么该抛弃的能力。

真正吃亏的,是那些没搞清楚自己做什么,还拼命“学习AI技能”的人。

信息过载里最稀缺的,是判断力。

别在不值得的地方高强度投入。

别以为 AI 已经懂你,它还在长大,你要自己走路。

喜欢这篇文章?