LLM 发展的四个阶段

从 2022 年底 ChatGPT 爆火至今,大语言模型(LLM)的发展经历了四个重要阶段,每一个阶段都为最终 Claude Skills 的诞生奠定了基础。

1. 刀耕火种阶段(2022 年底)

ChatGPT 的出现掀起了 AI 对话的热潮,当时与 AI 交流的核心是"如何说才能让它听话"。这个阶段的特点是:

  • 高度依赖 Prompt 工程
  • 知识高度碎片化,难以复用
  • 程序逻辑从"代码逻辑"转变为"自然语言"
  • 诞生了"Prompt 工程师"这一新兴角色

虽然这个阶段的技术还比较原始,但它彻底改变了人们与 AI 交互的方式,为后续的发展埋下了伏笔。

2. 开始规模化阶段(2023 年初)

随着 Anthropic 发布 Constitutional AI 和 OpenAI 推出 Prompt Engineering 官方指南,LLM 开始进入规模化阶段:

  • Prompt 开始沉淀成模板库和系统提示规范
  • 诞生了 Prompt-Engineering、awesome-chatgpt-prompts-zh 等知名仓库
  • Prompt 开始函数化,但管理仍然困难
  • 模型更新后需要大量重新调试

这个阶段解决了部分可维护性问题,但跨任务迁移和版本管理仍然是挑战。

3. 标准化阶段(2023 年 6 月)

OpenAI 正式推出 Function Calling,标志着 LLM 进入标准化阶段:

  • 模型首次具备结构化调用外部系统的标准接口
  • 2024 年,Anthropic 提出 MCP(Model Context Protocol),试图统一工具调用的协议层
  • "让模型做什么"和"模型怎么做"开始分离
  • Prompt 不再需要硬编码所有逻辑,而是描述意图,执行交给工具

标准化为更复杂的 AI 应用奠定了基础,也为 Skills 的出现创造了条件。

4. Skills 时代(2025 年 10 月)

Anthropic 正式发布 Claude Skills,标志着 LLM 进入了一个新的阶段:

  • Skills 本质上是可复用的、有文档的能力单元
  • 把"如何完成某类任务的最佳实践"封装起来
  • 模型在需要时查阅并遵循,而不是靠 prompt 里的临时指令
  • 实现了知识可维护、按需加载、人机协作和可复用

Claude Skills 的诞生背景

Skills 的出现解决了之前阶段的诸多问题:

  • 知识维护困难:最佳实践集中在 SKILL.md 和相关文件夹中,更新方便
  • 上下文污染:模型判断需要时才读取,不占用额外上下文
  • 协作效率低:人只负责打磨 skill 文档,模型负责执行
  • 复用性差:别人只需要获取编写好的 skills,得到结果基本无差

Skills 的核心价值

我们可以把 Skills 理解成「公司规章制度」+「工具箱」的组合:

  • 公司规章制度:告诉 AI 当遇到某类任务时应该怎么做,分几步,每一步用什么工具
  • 工具箱:装着 AI 需要用的脚本和参考资料

打个比方,函数调用像是给你一把锅铲、一个锅、再加一些调料,你得自己知道什么时候倒油,什么时候放菜。而 Skills 像是给 AI 一本《中国八大菜系菜谱》+ 十八般工具,菜谱里不仅告诉 AI 炒菜步骤,还告诉他各个阶段所需要的工具。

总结

Claude Skills 的诞生是 LLM 发展的必然结果,它代表了从"语言生成"到"决策+调度"的转变。通过封装最佳实践,Skills 使得 AI 能够更智能、更高效地完成复杂任务,为未来的 AI 应用开辟了新的可能性。

在下一篇文章中,我们将深入探讨 Claude Skills 的核心概念与组成,了解它的内部结构和工作原理。