AI之_8_Skill
前言
Github:https://github.com/HealerJean
一、AI Skill 开发基础认知
1、什么是 AI Skill
1)定义与核心价值
AI Skill本质上是一个结构化的“提示词工程包”。它将零散的指令、参考文档和可执行脚本封装在一起,使AI能够稳定、重复地执行特定任务。- 核心价值在于“确定性”:通过规范化的文件结构,让
AI在面对复杂需求时,能够像调用函数一样精准地调用预设的技能,而非每次都重新“即兴创作”。 - 类比:想象你刚买了一台新手机,出厂时只能打电话发短信(这是 AI 的基础能力)。但当你安装了微信、抖音、王者荣耀(这些就是 Skill)之后,它就能聊天、刷视频、打游戏了。
AI Skill就是给 AI 装的“App”或者“插件”。没装Skill的AI是个通用的聊天机器人,装了Skill的AI就变成了专业的“打工人”,比如“专业写代码的程序员”或者“专门做 PPT 的设计师”。
3)适用场景
- 标准化文档生成(如:周报生成器、技术文档模板)。
- 复杂数据处理(如:Excel 格式清洗、JSON 转 CSV)。
- 特定角色模拟(如:资深代码审查员、小红书文案写手)。
2、Skill 的核心文件结构
一个
Skill本质上就是一个文件夹,里面装着让 AI 干活所需的所有东西。
1)必需文件:SKILL.md
- 这是技能的“大脑”,包含元数据(
YAML Frontmatter)和核心指令(Markdown正文)。- 元数据(身份证):在文件最顶部,用
---包裹的部分。包含名字和描述,AI靠这个判断“这事儿归不归我管”。 - 指令正文(操作手册):告诉
AI具体怎么一步步执行任务,包括输入要求、处理步骤、输出格式。
- 元数据(身份证):在文件最顶部,用
AI在触发技能时,会第一时间读取此文件以明确任务目标。
2)可选辅助文件
scripts/:存放Python或Shell脚本,用于执行确定性高的代码逻辑(如文件读写、API 调用)。references/:存放大型参考文档(如品牌规范手册、API文档),供AI按需读取(RAG模式)。assets/:存放静态资源,如图片模板或固定格式的文本块。
二、核心配置文件 SKILL.md 详解
1、YAML 元数据编写
1)基础字段说明
name:技能的名字,用英文小写,中间用横杠连接(如excel-cleaner)。description:这是重中之重!决定了AI何时会自动调用该技能。描述需包含关键词和触发场景,甚至可以写得具有“侵略性”(例如:“当用户提到清洗数据时,务必使用本技能”)
2)编写示例
场景:我们要开发一个名为 smart-shopper 的 Skill。它的功能是:当用户发送一个商品链接(淘宝或京东)时,AI 能自动提取商品信息,去全网寻找同款低价,并生成比价报告,甚至辅助下单。
---
name: smart-shopper
description: |
当用户提供电商商品链接(淘宝/京东/拼多多)或商品名称时触发。
核心能力:全网比价、历史价格查询、优惠券自动检索、生成购买建议。
适用于想要“薅羊毛”或进行理性消费的用户。
compatibility: Python 3.9+, requests, beautifulsoup4
---
2、Markdown 指令正文编写
1)指令编写的“三段论”
- 输入要求:明确告诉
AI,用户需要提供什么(比如文件名、具体需求)。 - 执行步骤:把任务拆解成 1、2、3 步。
- 输出规范:规定结果长什么样,文件名叫什么。
2)编写示例
# 全网比价与购物决策助手
## 目标
帮助用户以最低成本获取心仪商品,杜绝买贵,提供理性的购买决策支持。
## 工作流程
1. **信息提取**:
- 分析用户输入。如果是链接,调用 `scripts/parse_url.py` 提取商品标题、当前价格、店铺名称。
- 如果是商品名,直接进行下一步。
2. **全网搜索**:
- 使用 `web-search` 技能或调用 `scripts/search_engine.py`,在淘宝、京东、拼多多三个平台搜索同款。
- 筛选条件:销量>100,好评率>95%。
3. **价格比对与决策**:
- 将各平台价格统一换算为“最终到手价”(扣除优惠券、满减)。
- 计算差价百分比。
4. **输出报告**:
- 以 Markdown 表格形式展示比价结果。
- 给出明确的购买建议(例如:“建议去拼多多购买,比当前链接便宜 35 元”)。
## 输出规范
- 必须包含商品缩略图(如有)。
- 价格必须精确到小数点后两位。
- 如果检测到历史低价低于当前所有平台价格,必须发出“建议等待”的预警。
3、编写配套脚本(Scripts)
目标:为了让 AI 能真正“看懂”网页,我们需要写一个简单的 Python 脚本。
文件名:scripts/parse_url.py
import sys
import requests
from bs4 import BeautifulSoup
def get_product_info(url):
# 模拟浏览器请求头,防止被反爬虫拦截
headers = {'User-Agent': 'Mozilla/5.0...'}
try:
response = requests.get(url, headers=headers, timeout=5)
soup = BeautifulSoup(response.text, 'html.parser')
# 提取标题和价格(这里仅为示例逻辑,实际需针对具体平台解析)
title = soup.find('h1').text.strip()
price = soup.find('span', class_='price').text.strip()
return {"title": title, "price": price, "status": "success"}
except Exception as e:
return {"status": "error", "message": str(e)}
if __name__ == "__main__":
url = sys.argv
print(get_product_info(url))


