共计 621 个字符,预计需要花费 2 分钟才能阅读完成。
大语言模型(LLM)能做不少事,比如写文章、编码、陪伴等。但在资深用户 Max Woolf 看来,我们或许不用那么频繁地用它。
在他眼中,agent 和 MCP 本质上就是 2022 年 ReAct 论文提出的“工具范式”的新包装。至于用 Claude Code 或 Cursor 等编码 agent 进行氛围编码,他连尝试的想法都没有。
他觉得,人们得在合适时候用正确工具,LLM 只是工具箱中的一种。LLM 使用效果得看时间和地点,可能有效,也可能有反效果。
Max Woolf 讲述了自己与 LLM 的互动方式。多年来,他试过各种从 LLM 获得最佳效果的方法,像“提示工程”,通过特定方式写提示词引导模型输出。他不喜欢网页版 ChatGPT 等前端界面,更倾向用后端界面,能设系统提示,还能控制“temperature”参数来决定模型生成的“创造性”。
他分享了在工作中用 LLM 解决专业问题的案例,比如给文章打标签、检查语法、写代码等。不过,他也指出 LLM 存在幻觉问题,输出结果需人工反复确认。
他不会用 LLM 写文章,因为觉得违背道德规范,且训练数据中相关事件代表性不强,易产生幻觉。但他发现一种技巧,能让 LLM 在不参与写作的情况下改进文章。
他也不把 LLM 当聊天机器人,因为其会习惯性撒谎。
他会用 LLM 写代码,但只在确定能提升效率时才用。他认为 agent 和 MCP 没解锁新功能,氛围编码在严肃项目中不专业。他觉得 LLM 是工具箱里的工具,要适时用,其可能提高生产力,也可能适得其反,但绝不是“没用”的。