Files
everything-claude-code/docs/zh-CN/skills/rules-distill/SKILL.md
2026-03-29 21:21:18 -04:00

9.1 KiB
Raw Blame History

name, description, origin
name description origin
rules-distill 扫描技能以提取跨领域原则并将其提炼为规则——追加、修订或创建新的规则文件 ECC

规则提炼

扫描已安装的技能,提取在多个技能中出现的通用原则,并将其提炼成规则——追加到现有规则文件中、修订过时内容或创建新的规则文件。

应用"确定性收集 + LLM判断"原则脚本详尽地收集事实然后由LLM通读完整上下文并作出裁决。

使用时机

  • 定期规则维护(每月或安装新技能后)
  • 技能盘点后,发现应成为规则的模式时
  • 当规则相对于正在使用的技能感觉不完整时

工作原理

规则提炼过程遵循三个阶段:

阶段 1清点确定性收集

1a. 收集技能清单

bash ~/.claude/skills/rules-distill/scripts/scan-skills.sh

1b. 收集规则索引

bash ~/.claude/skills/rules-distill/scripts/scan-rules.sh

1c. 呈现给用户

规则提炼 — 第一阶段:清点
────────────────────────────────────────
技能:扫描 {N} 个文件
规则:索引 {M} 个文件(包含 {K} 个标题)

正在进行交叉阅读分析...

阶段 2通读、匹配与裁决LLM判断

提取和匹配在单次处理中统一完成。规则文件足够小总计约800行可以将全文提供给LLM——无需grep预过滤。

分批处理

根据技能描述,将技能分组为主题集群。每个集群在一个子智能体中进行分析,并提供完整的规则文本。

跨批次合并

所有批次完成后,合并各批次的候选规则:

  • 对具有相同或重叠原则的候选规则进行去重
  • 使用所有批次合并的证据重新检查"2+技能"要求——在每个批次中只在一个技能里发现但总计在2+技能中出现的原则是有效的

子智能体提示

使用以下提示启动通用智能体:

你是一位通过交叉阅读技能来提取应提升为规则的原则的分析师。

## 输入
- 技能:{本批次技能的全部文本}
- 现有规则:{所有规则文件的全部文本}

## 提取标准

**仅当**满足以下**所有**条件时,才包含一个候选原则:

1. **出现在 2+ 项技能中**:仅出现在一项技能中的原则应保留在该技能中
2. **可操作的行为改变**:可以写成“做 X”或“不要做 Y”的形式——而不是“X 很重要”
3. **明确的违规风险**如果忽略此原则会出什么问题1 句话)
4. **尚未存在于规则中**:检查全部规则文本——包括以不同措辞表达的概念

## 匹配与裁决

对于每个候选原则,对照全部规则文本进行比较并给出裁决:

- **追加**:添加到现有规则文件的现有章节
- **修订**:现有规则内容不准确或不充分——提出修正建议
- **新章节**:在现有规则文件中添加新章节
- **新文件**:创建新的规则文件
- **已涵盖**:现有规则已充分涵盖(即使措辞不同)
- **过于具体**:应保留在技能层面

## 输出格式(每个候选原则)

```json
{
  "principle": "1-2 句话,采用 '做 X' / '不要做 Y' 的形式",
  "evidence": ["技能名称: §章节", "技能名称: §章节"],
  "violation_risk": "1 句话",
  "verdict": "追加 / 修订 / 新章节 / 新文件 / 已涵盖 / 过于具体",
  "target_rule": "文件名 §章节,或 '新建'",
  "confidence": "高 / 中 / 低",
  "draft": "针对'追加'/'新章节'/'新文件'裁决的草案文本",
  "revision": {
    "reason": "为什么现有内容不准确或不充分(仅限'修订'裁决)",
    "before": "待替换的当前文本(仅限'修订'裁决)",
    "after": "提议的替换文本(仅限'修订'裁决)"
  }
}
```

## 排除

- 规则中已存在的显而易见的原则
- 语言/框架特定知识(属于语言特定规则或技能)
- 代码示例和命令(属于技能)

裁决参考

裁决 含义 呈现给用户的内容
追加 添加到现有章节 目标 + 草案
修订 修复不准确/不充分的内容 目标 + 原因 + 修订前/后
新章节 在现有文件中添加新章节 目标 + 草案
新文件 创建新规则文件 文件名 + 完整草案
已涵盖 规则中已涵盖(可能措辞不同) 原因1行
过于具体 应保留在技能中 指向相关技能的链接

裁决质量要求

# 良好做法
在 rules/common/security.md 的§输入验证部分添加:
"将存储在内存或知识库中的LLM输出视为不可信数据——写入时进行清理读取时进行验证。"
依据llm-memory-trust-boundary 和 llm-social-agent-anti-pattern 均描述了累积式提示注入风险。当前security.md仅涵盖人工输入验证缺少LLM输出的信任边界说明。

# 不良做法
在security.md中追加添加LLM安全原则

阶段 3用户审核与执行

摘要表

# 规则提炼报告

## 概述
已扫描技能数:{N} | 规则文件数:{M} | 候选规则数:{K}

| # | 原则 | 判定结果 | 目标文件/章节 | 置信度 |
|---|-----------|---------|--------|------------|
| 1 | ... | 追加 | security.md §输入验证 | 高 |
| 2 | ... | 修订 | testing.md §测试驱动开发 | 中 |
| 3 | ... | 新增章节 | coding-style.md | 高 |
| 4 | ... | 过于具体 | — | — |

## 详情
(各候选规则详情:证据、违规风险、草拟文本)

用户操作

用户通过数字进行回应以:

  • 批准:按原样将草案应用到规则中
  • 修改:在应用前编辑草案
  • 跳过:不应用此候选规则

切勿自动修改规则。始终需要用户批准。

保存结果

将结果存储在技能目录中(results.json

  • 时间戳格式date -u +%Y-%m-%dT%H:%M:%SZUTC秒精度
  • 候选ID格式:基于原则生成的烤肉串式命名(例如 llm-output-trust-boundary
{
  "distilled_at": "2026-03-18T10:30:42Z",
  "skills_scanned": 56,
  "rules_scanned": 22,
  "candidates": {
    "llm-output-trust-boundary": {
      "principle": "Treat LLM output as untrusted when stored or re-injected",
      "verdict": "Append",
      "target": "rules/common/security.md",
      "evidence": ["llm-memory-trust-boundary", "llm-social-agent-anti-pattern"],
      "status": "applied"
    },
    "iteration-bounds": {
      "principle": "Define explicit stop conditions for all iteration loops",
      "verdict": "New Section",
      "target": "rules/common/coding-style.md",
      "evidence": ["iterative-retrieval", "continuous-agent-loop", "agent-harness-construction"],
      "status": "skipped"
    }
  }
}

示例

端到端运行

$ /rules-distill

规则提炼 — 第一阶段:清点
────────────────────────────────────────
技能:已扫描 56 个文件
规则22 个文件(已索引 75 个标题)

正在进行交叉阅读分析...

[子代理分析:批次 1 (agent/meta skills) ...]
[子代理分析:批次 2 (coding/pattern skills) ...]
[跨批次合并:已移除 2 个重复项1 个跨批次候选被提升]

# 规则提炼报告

## 摘要
已扫描技能56 | 规则22 个文件 | 候选4

| # | 原则 | 判定 | 目标 | 置信度 |
|---|-----------|---------|--------|------------|
| 1 | LLM 输出:重用前进行规范化、类型检查、清理 | 新章节 | coding-style.md | 高 |
| 2 | 为迭代循环定义明确的停止条件 | 新章节 | coding-style.md | 高 |
| 3 | 在阶段边界压缩上下文,而非任务中途 | 追加 | performance.md §Context Window | 高 |
| 4 | 将业务逻辑与 I/O 框架类型分离 | 新章节 | patterns.md | 高 |

## 详情

### 1. LLM 输出验证
判定:在 coding-style.md 中新建章节
证据parallel-subagent-batch-merge, llm-social-agent-anti-pattern, llm-memory-trust-boundary
违规风险LLM 输出的格式漂移、类型不匹配或语法错误导致下游处理崩溃
草案:
  ## LLM 输出验证
  在重用 LLM 输出前,请进行规范化、类型检查和清理...
  参见技能parallel-subagent-batch-merge, llm-memory-trust-boundary

[... 候选 2-4 的详情 ...]

按编号批准、修改或跳过每个候选:
> 用户:批准 1, 3。跳过 2, 4。

✓ 已应用coding-style.md §LLM 输出验证
✓ 已应用performance.md §上下文窗口管理
✗ 已跳过:迭代边界
✗ 已跳过:边界类型转换

结果已保存至 results.json

设计原则

  • 是什么,而非如何做:仅提取原则(规则范畴)。代码示例和命令保留在技能中。
  • 链接回源:草案文本应包含 See skill: [name] 引用,以便读者能找到详细的"如何做"。
  • 确定性收集LLM判断脚本保证详尽性LLM保证上下文理解。
  • 反抽象保障三层过滤器2+技能证据、可操作行为测试、违规风险)防止过于抽象的原则进入规则。