LLM 发展与 Claude Skills 的诞生
LLM 发展的四个阶段
从 2022 年底 ChatGPT 爆火至今,大语言模型(LLM)的发展经历了四个重要阶段,每一个阶段都为最终 Claude Skills 的诞生奠定了基础。
1. 刀耕火种阶段(2022 年底)
ChatGPT 的出现掀起了 AI 对话的热潮,当时与 AI 交流的核心是"如何说才能让它听话"。这个阶段的特点是:
- 高度依赖 Prompt 工程
- 知识高度碎片化,难以复用
- 程序逻辑从"代码逻辑"转变为"自然语言"
- 诞生了"Prompt 工程师"这一新兴角色
虽然这个阶段的技术还比较原始,但它彻底改变了人们与 AI 交互的方式,为后续的发展埋下了伏笔。
2. 开始规模化阶段(2023 年初)
随着 Anthropic 发布 Constitutional AI 和 OpenAI 推出 Prompt Engineering 官方指南,LLM 开始进入规模化阶段:
- Prompt 开始沉淀成模板库和系统提示规范
- 诞生了 Prompt-Engineering、awesome-chatgpt-prompts-zh 等知名仓库
- Prompt 开始函数化,但管理仍然困难
- 模型更新后需要大量重新调试
这个阶段解决了部分可维护性问题,但跨任务迁移和版本管理仍然是挑战。
3. 标准化阶段(2023 年 6 月)
OpenAI 正式推出 Function Calling,标志着 LLM 进入标准化阶段:
- 模型首次具备结构化调用外部系统的标准接口
- 2024 年,Anthropic 提出 MCP(Model Context Protocol),试图统一工具调用的协议层
- "让模型做什么"和"模型怎么做"开始分离
- Prompt 不再需要硬编码所有逻辑,而是描述意图,执行交给工具
标准化为更复杂的 AI 应用奠定了基础,也为 Skills 的出现创造了条件。
4. Skills 时代(2025 年 10 月)
Anthropic 正式发布 Claude Skills,标志着 LLM 进入了一个新的阶段:
- Skills 本质上是可复用的、有文档的能力单元
- 把"如何完成某类任务的最佳实践"封装起来
- 模型在需要时查阅并遵循,而不是靠 prompt 里的临时指令
- 实现了知识可维护、按需加载、人机协作和可复用
Claude Skills 的诞生背景
Skills 的出现解决了之前阶段的诸多问题:
- 知识维护困难:最佳实践集中在 SKILL.md 和相关文件夹中,更新方便
- 上下文污染:模型判断需要时才读取,不占用额外上下文
- 协作效率低:人只负责打磨 skill 文档,模型负责执行
- 复用性差:别人只需要获取编写好的 skills,得到结果基本无差
Skills 的核心价值
我们可以把 Skills 理解成「公司规章制度」+「工具箱」的组合:
- 公司规章制度:告诉 AI 当遇到某类任务时应该怎么做,分几步,每一步用什么工具
- 工具箱:装着 AI 需要用的脚本和参考资料
打个比方,函数调用像是给你一把锅铲、一个锅、再加一些调料,你得自己知道什么时候倒油,什么时候放菜。而 Skills 像是给 AI 一本《中国八大菜系菜谱》+ 十八般工具,菜谱里不仅告诉 AI 炒菜步骤,还告诉他各个阶段所需要的工具。
总结
Claude Skills 的诞生是 LLM 发展的必然结果,它代表了从"语言生成"到"决策+调度"的转变。通过封装最佳实践,Skills 使得 AI 能够更智能、更高效地完成复杂任务,为未来的 AI 应用开辟了新的可能性。
在下一篇文章中,我们将深入探讨 Claude Skills 的核心概念与组成,了解它的内部结构和工作原理。

