4006-998-758
3000+课程任你选择
凌云光_AI_Coding工程化落地工作坊
研发学院 凌云光 AI_Coding
李明宇

中科院计算所副教授(高级工程师)

历任国家重点实验室课题组负责人

创业公司CTO、上市公司事业群技术总监和首席技术专家

荣获中国软件协会“优秀CTO”等多项荣誉

中国新一代IT产业联盟分委会秘书长

全国高校人工智能与大数据创新联盟专家委员

北京开源创新委员会委员

中国开源软件创新大赛总决赛评委

十余年来致力于IT新技术在企业的落地,作为项目技术负责人为多家知名企业和单位开发和交付过产品及服务,包括:国家信息中心、国防科技大学、中石化、银联、交通银行、首都在线、中国电信天翼爱音乐、中国移动研究院等。

在AI大模型领域,李老师在B端和C端均有AI应用从技术研发到落地变现的闭环实践经验,自研技术 CodeGraphRAG 性能达到国际领先水平。企业客户包括电信运营商、大型上市企业、国内知名芯片公司等,受到一致好评。

查看老师详情
课程内容


课程目标


1. 技术目标

• 掌握 Claude Code 等AI Coding 工具在复杂项目中的应用;

• 掌握 OpenSpec 的规格驱动开发流程:propose → apply → verify → archive;

• 掌握 Superpowers / Skills 类方法对 AI 开发流程的约束作用;

• 建立从需求、规格、任务拆解、代码生成、测试、Review 到归档的完整闭环;

• 掌握 C++ / C# / Python 等复杂工程项目中的 AI Coding 使用策略。

 

2. 工程目标

• 建立凌云光项目级 AI Coding 规约模板;

• 形成多人 AI Coding 协作边界、分支/Worktree/PR 管理建议;

• 形成老项目理解、增量开发、重构判断、测试补强的工作方法;

• 建立 AI Coding 质量保障机制:自动化测试、静态检查、人工 Review、AI Review、里程碑验收;

• 形成 AI Coding 导入效果评估框架,能向管理层解释“效果如何衡量”。

 

3. 组织目标

• 帮助研发骨干从“个人使用 AI 工具”升级为“团队级 AI Coding 工程化落地”;

• 识别适合凌云光先行试点的项目类型与团队;

• 沉淀一套可复制的 AI Coding 工作指南 v0.1;

• 为后续研发流程优化、IPD 裁剪、端到端研发提效打下基础。


适合对象


• 研发 Team Leader / Tech Lead / 架构师;

• C++ / C# / Python 核心开发人员;

• 研发中台、效能平台、DevOps、质量保障相关人员;

• 参与 IPD / 需求评审 / 架构评审 / 技术管理的研发骨干;

• 建议人数:20–30 人,以分组实战形式进行。


课程大纲


第一阶段:3天集中训练 —— 从个人工具使用到团队工程化方法

Day 1|AI Coding 新范式与工具体系:从“辅助写代码”到“自主编程”

核心目标:对齐 AI Coding 的最新进展,明确凌云光这类复杂研发组织不能停留在工具使用层。

上午:AI Coding 发展趋势与研发范式变化

1. AI Coding 的三阶段演进

• Copilot 式代码补全;

• Chat 式辅助开发 / Vibe Coding;

• Agentic Coding / 自主编程;

• 从“人写代码、AI 辅助”到“AI 写代码、人做 Harness”。

2. 企业级 AI Coding 的真实挑战

• AI 写得快,但改动范围容易失控;

• AI 能读代码,但不一定理解项目规约;

• AI 能生成测试,但测试不一定覆盖真实风险;

• AI 能重构,但不能替代架构判断。

3. 凌云光场景下的特殊复杂性

• C/C++ / C# / Python 多技术栈;

• 视觉算法、设备控制、软件平台、客户交付系统并存;

• 老项目、软硬结合、IPD 流程、交付质量要求高。


下午:主流 AI Coding 工具与适用场景

1. Claude Code / Codex / Copilot / Trae 等工具对比

2. Claude Code 的项目级工作方式

• CLAUDE.md / 项目规约;

• Worktree / 分支 / 会话隔离;

• Agentic 模式与人工介入点。

3. Harness Engineering:让 AI Coding 可控的工程底盘

• Agent = Model + Harness;

• Guides:规约、模板、架构约束、项目说明;

• Sensors:测试、Linter、Review、Evals、质量门禁;

• 人类从“写代码的人”转向“设计约束、审查结果、校准方向的人”。


Day 2|规格先行与团队规约:OpenSpec / Superpowers / CLAUDE.md 深度实战

核心目标:把OpenSpec、Superpowers 等工具放入完整工程流程,而不是作为孤立工具讲解。

上午:OpenSpec —— 从需求到可执行规格

1. 为什么 AI Coding 更需要规格先行

• 模糊需求直接喂给 AI 的风险;

• spec 评审不是负担,而是防止后期失控;

• 对 IPD 流程中需求评审、架构评审的重新解释。

2. OpenSpec 核心流程

• propose:需求与变更提案;

• apply:任务落地与代码变更;

• verify:测试、审查与验收;

• archive:归档沉淀与知识回流。

3. 在凌云光项目中的使用方式

• 新项目如何用 OpenSpec 从 0-1 定义规格;

• 老项目如何用 OpenSpec 管理增量需求;

• 软硬结合项目中如何表达软件边界、硬件依赖、接口假设。


下午:Superpowers / CLAUDE.md / Guide —— 给 AI 建立开发纪律

1. Superpowers 的核心价值

• 澄清 → 设计 → 计划 → 编码 → 验证;

• 任务拆小,避免 AI 一口吃成胖子;

• 用流程约束模型,而不是只靠 Prompt。

2. CLAUDE.md / Guide 的三层结构

• 全局层:通用开发习惯;

• 团队层:凌云光研发规范;

• 项目层:具体项目架构、编译、测试、禁区。

3. 知识沉淀机制

• 项目个性化知识如何沉淀;

• 共性经验如何回流到团队模板;

• “知识库”与“可执行规约”的区别。


Day 3|多人协作、质量保障与 IPD 嵌入:AI Coding 如何进研发流程

核心目标:解决客户关心的多人协作、评审保留、效果评估与管理层汇报问题。

上午:多人 AI Coding 协作与冲突控制

1. AI Coding 为什么会放大协作冲突

• AI 修改范围天然发散;

• 多人并行时冲突密度上升;

• Worktree / 分支只能隔离冲突,不能消除冲突。

2. 从源头控制 AI 修改范围

• 任务粒度;

• 模块边界;

• 公共代码保护区;

• spec 中声明可改 / 不可改范围。

3. 团队协作策略

• 高频小 PR;

• 基座先行;

• 合并顺序调度;

• AI 生成代码的双层 Review。


下午:质量保障、IPD 嵌入与效果评估

1. AI Coding 质量保障体系

• AI 自测、自审的边界;

• 单元测试、集成测试、回归测试;

• Linter / 静态检查 / 编译检查;

• Commit 级 Review 与里程碑级 Review。

2. AI Coding 与 IPD 流程

• 需求评审、spec 评审、架构评审不能简单取消;

• AI 可以生成评审输入,但不能替代评审责任;

• 如何在 IPD 中嵌入 AI Coding 任务、检查点和质量门禁。

3. 效果评估框架

• 不迷信“AI 生成代码占比”;

• 从交付周期、返工率、缺陷率、Review 负担、知识沉淀等维度评估;

• 对软硬结合项目,可观察端到端周期、现场变更成本、跨部门返工减少。


第二阶段:2天真实项目深水区实战 —— 从0-1、老项目改造、增量迭代与知识沉淀

Day 4|从 0-1 新项目实战:从需求到可运行版本

核心目标:完整跑通一个 AI 原生开发闭环,让学员看到从需求到代码、测试、Review、归档的全过程。

上午:从模糊需求到可执行规格

1. 需求澄清与边界定义

• 如何让 AI 帮助提出澄清问题;

• 如何识别隐含约束、非功能需求、接口边界;

• 澄清需求 vs 快速试错 如何权衡

2. OpenSpec 编写与评审

• 将需求转为 spec;

• 识别影响范围;

• 拆分 milestone;

• 定义验收标准。

3. 技术方案与任务计划

• Superpowers / planning 流程;

• 架构初稿;

• 测试策略;

• 风险清单。


下午:AI Coding 执行与质量闭环

1. Claude Code 执行任务

• 小任务驱动;

• 逐步提交;

• 人工介入点;

• AI 自测与修复。

2. 测试与 Review

• AI 生成测试用例;

• 人工审查关键逻辑;

• 处理失败测试;

• 更新 spec / guide。

3. 归档与复盘

• 变更归档;

• 项目经验回流;

• 形成可复用模板。


Day 5|客户指定深水区:老项目改造、增量迭代、C++高效开发与知识沉淀

核心目标:老项目改造、项目增量迭代中如何实现各种知识复用与沉淀、有效开发

上午:老项目理解与改造策略

1. 老项目不是简单“屎山”

• 已有规范、文档、设计图如何被 AI 消化;

• 文档、代码、EA 图、架构图之间可能不一致;

• 不为了 AI Coding 而重构。

2. AI “考古”方法

• 代码结构扫描;

• 模块职责识别;

• 调用链 / 依赖关系梳理;

• EA 图、类图、时序图转结构化文档;

• 截图 / 文档 / 代码的相互校准。

3. 老项目改造三步法

• 先理解:让 AI 生成项目地图与风险点;

• 再加固:补测试、补文档、补 guide;

• 后改造:小步增量修改,而不是大爆炸式重构。


下午:增量迭代、C++开发与知识沉淀

1. 项目增量迭代的 AI Coding 流程

• 变更提案;

• 影响面分析;

• 任务拆解;

• 最小可验证修改;

• 回归测试与 Review。

2. C++ 如何更有效地使用 AI Coding

• 头文件 / 源文件 / 模板 / 宏 / 编译依赖对 AI 的挑战;

• CMake / 编译错误 / 链接错误 / DLL / SDK 依赖处理;

• 性能、内存、并发、安全边界;

• TensorRT / CUDA / OpenCV / 工业视觉相关依赖场景下的注意事项;

• AI 生成 C++ 代码的 Review Checklist。

3. 知识沉淀与团队模板

• 将项目经验沉淀到 CLAUDE.md / Guide;

• 从项目个性化规则抽取团队共性规则;

• 构建凌云光 AI Coding 模板库;

• “每犯一次错,就工程化一个永久修复”。

4. OpenSpec + Superpowers 综合实战

• 针对一个真实老项目增量需求,完成 spec → plan → coding → test → review → archive。


第三阶段:路演、点评与落地路线图

Day 6|成果路演、专家点评与后续落地计划

核心目标:把 5 天学习和实战沉淀为可向管理层展示、可继续推进的成果,而不是课后散掉。

上午:成果整理与路演准备

1. 各组整理工作坊成果

• 项目选择与问题背景;

• AI Coding 介入方式;

• OpenSpec / Superpowers 使用情况;

• 代码修改 / demo / 测试结果;

• 遇到的问题与规约更新;

• 后续落地建议。

2. 讲师辅导路演材料

• 技术成果如何讲清楚;

• 管理层关心的收益如何表达;

• 风险、边界、投入如何表达;

• 如何避免夸大 AI Coding 效果。

3. 形成团队级材料

• AI Coding 工作指南 v0.1;

• 项目模板与规约模板;

• 效果评估表;

• 下一阶段试点项目建议。


下午:成果路演与专家点评

1. 分组路演

• 每组 10–15 分钟展示;

• 展示真实项目实践过程、产出物和下一步计划。

2. 专家点评

• 从技术可行性、工程质量、流程嵌入、组织落地四个角度点评;

• 指出每组后续最值得推进的方向;

• 识别适合扩大试点的项目和团队。

3. 总结与后续建议

• 凌云光 AI Coding 落地路线图;

• 1个月内可做的动作;

• 2–3个月可复制的团队机制;


课程特色

1. 不做工具扫盲,直接进入工程化落地

凌云光团队已经不是 AI Coding 零起点,本课程跳过泛泛工具介绍,聚焦生产级研发场景。

2. 不把 AI Coding 与现有 IPD 流程对立

本课程强调:AI Coding 不意味着取消需求评审、架构评审和质量门禁,而是重塑这些环节的输入、节奏和工作方式。

3. 不鼓励盲目重构

是否重构取决于软件本身质量、业务风险和演进成本,不是因为引入 AI Coding 就必须重构。

4. 强调 Harness Engineering

真正决定 AI Coding 能否落地的,不只是模型和工具,而是模型之外的工程体系:规约、上下文、权限、测试、Review、监控与知识沉淀。

5. 以真实项目产出为中心

6 天结束时,应当留下项目规约、工作指南、实战成果、评估框架和路线图,而不是只留下课件。


返回上一级