一、“思维链”让大模型更聪明(不是唯一方式)
以前在使用某些AI大模型时,为了获得相对更好的输出,一种方式是在提示词上下功夫——除了交代任务背景,甚至建议对复杂任务预设处理步骤、提供模板案例等。
夸张点说就是,做个功能页面,将所需方法及其主体逻辑都描述出来(近乎去写出伪代码)。这显然还是比较费事(但也有研究说,部分模型仅通过添加"请逐步思考"等引导语也可显著提升输出质量)。
而在使用 Deepseek-R1 或 ChatGPT-o 时,似乎并不推荐这样用了。因为模型会有自己的“思考”过程,能够根据目标进行逻辑推理,而它推理结果的全面性和严谨性可能比我们更好。这点,值得进一步观察验证。
二、大模型“思维链”对工作思维的启发
在前一篇文字记录中,提到过从“简单做事”转变为“带着思考做事”。而这个“思维链”,某种程度上可以作为结构化思考的参考范本,启发我们可以怎么去深度思考。
其原理或许可以提炼为:问题拆解→多维度验证→动态修正。这样能帮助更准确地理解问题、找准原始问题,能将复杂问题拆解为可以去逐个解决的子问题,并且在思考过程中不断推理、审视和修正,最终得到比较好的结果。
这个机制,原本就是模拟人去解决复杂问题的思考方式,对我们肯定也是有启发知道意义的。
最后摘录与 Deepseek-R1 对话中,它给出的一段建议:
最终目标不是让工程师变成AI,而是通过结构化思考机制,让人机智能形成「1+1>2」的协同效应——人类专注价值判断与创新突破,机器负责模式验证与知识管理。这或许才是AI时代技术团队的核心竞争力所在。