让 AI 开始“动手做事”:OpenAI Skills

智能体技能(Agent Skills) 是可复用的指令、脚本与资源包,Codex 这类 AI 智能体可自动加载,高效、稳定地完成特定任务。
无需反复输入相同指引,一次编写技能即可全局复用,既节省时间又减少错误。你可以自动安装预制技能,或根据组织需求定制专属技能,并在团队间共享。
这种模块化方式,能将通用 AI 助手转变为领域专家,让它们可靠处理复杂专业的工作流,而不必在每次对话中重复下发指令。

很多人第一次看到这个项目(openai/skills)时,会以为它只是一个“工具调用示例库”。但如果你认真看一遍,会发现它其实在做一件更底层的事情:它在重新定义,大模型到底算不算一个“系统”。

过去我们用 AI,大多数时候是在“对话”。你问,它答。最多写写代码、翻译文本、解释概念。这种模式本质上还是停留在“语言层”。

但 Skills 这个东西,开始把 AI 推到另一个层级——执行层。

你可以把它理解成这样:

大模型本身只是一个“会思考、会说话的大脑”,但它没有手脚。而 Skills,就是给它接上的“外部器官”。

比如一个 Skill,可以是:

  • 调用 GitHub API 去读代码
  • 查数据库
  • 发一封邮件
  • 执行一段 Python
  • 调你自己的服务器接口

当这些能力被标准化之后,AI 就不再只是“建议你做什么”,而是可以真的去“做”。

这里面最关键的变化,不是功能,而是结构。

以前我们做自动化,逻辑是这样的:
人写流程 → 调 API → 拼结果

现在开始变成:

AI 自己决定流程 → 自动选择工具 → 执行 → 再继续决策

这就是 Skills 的意义。

它不是一个工具库,而是一层“能力协议”。

你会发现,它的设计很像你熟悉的东西:有点像 OpenAPI,有点像函数调用,但又更进一步。因为它不是让人去调用,而是让模型去“理解并选择”。

换句话说:

你不是在写代码调用工具
而是在“教 AI 这个工具能干嘛”

然后它自己用。

这件事一旦成立,整个开发范式就变了。

你不再需要写死流程,而是构建一个“能力空间”,让 AI 在里面自由组合。

比如一个简单请求:

“帮我分析这个 GitHub 项目,并写一个总结”

在传统程序里,你要写:

  • GitHub API 拉代码
  • 文本解析
  • 调模型总结
  • 输出格式化

但在 Skills + Agent 的模式里:

AI 会自动做这件事:

  1. 发现需要 GitHub 数据 → 调 GitHub skill
  2. 拿到代码 → 调分析 skill
  3. 生成总结 → 输出

整个过程,你不再写“流程”,而是提供“能力”。

这就是为什么现在你看到:

  • OpenClaw
  • LangGraph
  • 各种 Agent 框架

都在做类似的事情。

它们本质上都在解决同一个问题:

如何让 AI 从“聊天工具”,变成“任务执行系统”

而 Skills,就是这条链路里非常核心的一环。

如果再说得直白一点:

以前的软件,是人写逻辑,机器执行
现在的软件,是机器自己生成逻辑,再调用能力执行

这是一个非常大的转变。

也正因为如此,这个项目虽然看起来简单,但其实指向的是一个更大的趋势:

AI 正在变成一种“操作系统”。

而 Skills,就是这个操作系统里的“应用接口”。

就像你手机里的 App,不需要你关心底层怎么实现,你只需要点开它就能完成一件事。未来的 AI 也是一样——它会根据你的需求,自动调用一组 Skills,帮你完成任务。

你甚至不需要知道它做了什么。

这时候,“会不会写 prompt”,已经不重要了。
更重要的是:

你能不能设计出一组好的能力,让 AI 有东西可用。

如果你现在在做:

  • 自动化流程
  • Telegram Bot
  • 多 Agent 系统
  • AI + 电商 / 内容

那这个思路,其实已经和你非常接近了。

你做的每一个接口、每一个功能,本质上都可以被抽象成一个 Skill。

当你把这些能力整理出来,并让 AI 去调用它们的时候,你其实就在做一件事:

搭一个属于你自己的 AI 操作系统

这才是 openai/skills 这个项目,真正有意思的地方。

Github:https://github.com/openai/skills
油管:https://youtu.be/QJT-Sz292Ek

Scroll to Top