现在是2025年5月2日,距离ChatGPT 3.5横空出世已经两年半了。
目前最常用的模型是4o,还有Claude 3.7,Gemini 2.5的使用率也很高。
尽管市面上涌现了各种大模型,但论使用率和性价比,这几款依然是首选。
平均成本大约是每百万token,输入2.5美元,输出10美元,这个定价对大多数人来说是可以接受的。
现在最火的应用是AI编程,Cursor就是其中的佼佼者。
类似的AI编程工具还有v0、Lovable、Bolt.new、Replit等,它们都具备AI代理编程的能力。
我体验过这些工具,也做了大量的测试,并用它们跑了一些项目。
通过Replit,我成功构建了Capture-agent.com的APP原型,能通过Webhook发送语音,实现基本的云搜集流程。
对于Capture-agent.com这样简单的应用,AI编程完全可以胜任。
但对于复杂的大型项目,你可能会感到失望,因为AI编程经常会改动不该改的东西,或者反复出现编程错误。
要解决这个问题,我认为最大的瓶颈在于上下文。
上下文的成本限制了大模型的输入和输出。
编程效果不理想,很可能是因为多次沟通后,大模型因上下文长度而遗忘。
如果提供完整的上下文,成本又会非常高,单次对话可能花费几美元甚至几十美元。
尽管最新的4o已经具备记忆功能,能记住所有聊天记录,但实际使用中仍存在限制。
它的主动记忆功能大概只能记住几十条到一百条左右的信息,而对上下文的记忆,虽然看上去能回答,但精确度不高。
我感觉它更像是用RAG的方式来实现的,所以我们需要巧妙地应用和判断它提供的能力。
如果使用者无法理解内容,判断答案优劣,很容易被大模型带进坑里。
另外,虽然大模型看似能提供无所不知的答案,但你能应用和实践的时间和空间是有限的。
大模型会告诉你什么都能做,这是一种常见的讨好型方式。
所以,你必须要有自己的判断,基于你广泛的实际上下文记忆,这些记忆可能包含上千万甚至上亿的token,但我们目前无法完全让它记住这些信息,甚至我们自己都没有这样的数据。
所以,大模型可能会给出不错的答案,但这些答案仍然可能存在幻觉、讨好或不靠谱的引导。
你不能依赖人工智能给你做决定,只能通过自己的判断去要求人工智能做什么,越具体越好,而不是依赖它给你的建议。
因为你会发现,同样的问题,重复问几遍,它的答案都可能完全不一样。
现在,我们应用大模型最重要的特性是让它们作为助手和执行者。
比如,我们很清楚哪部分代码需要做什么,但可以不动手,而是让AI来完成。
所以,你需要对问题有清晰而广泛的理解和见解,才能要求大模型扩展你的能力。
在未来十年,随着大模型成本降低、能力增强,即使它们的能力再高,也无法取代你的要求。
你始终需要一套自己的上下文、背景信息、实际情况和理解,才能用好大模型,让它实现你想要的东西。
我们需要构建一个庞大的理解系统。
我的方法是在Tana中构建一套结构化的笔记系统,让自己更高效地理解各种复杂的主题和事情,对它们进行结构化的拆解,然后将这些内容作为结构化的卡片笔记,方便未来调用。
这些都是非常有价值的东西。
我们要提高自己的见解,才能更好地发挥人工智能的作用,最终扩大自己的价值。
最终,还是回到人类认知的话题上来。
人工智能最大的冲击可能是它可以理论上无止境地增加我们的理解,但我们的判断力并没有显著提升。
所以,另一套系统是关于决策的系统,这也是我正在构建的东西。
这两套系统是相辅相成的,我相信在未来,它们能给大家带来有价值的信息,启发更多人在未来十年里驾驭人工智能,极大地提升生产力,获得自在的生活。
相关文章





获取快董认知圈前沿技术资讯和实用教程