4006-998-758
3000+课程任你选择
AI赋能研发效能与测试
研发学院 AI赋能研发效能与测试
路宁


讲师介绍

路老师

是研发效能及质量领域的知名专家,互联网大厂资深技术总监和一级部门管理者、架构师。他拥有15+年的从业经历,具有丰富的技术实践、产品设计及项目管理经验。

他曾在快手任资深技术总监、技术委员会通道主席/委员,先后负责质量与研发效能部,以及基础技术的产品团队。在负责质量与研发效能部期间,他成功组建了一支700+人的团队,并搭建了完善的质量体系,建设了移动端和服务端效能平台,建立了度量洞察体系。他所负责的基础技术工具链产品包括研发交付领域一站式平台(需求及项目管理、CI/CD、测试等),技术运营领域平台(服务、部署、监控、故障预案等)以及资源管理领域平台(预算、账单等)。

他曾在滴滴任高级技术总监,是CTO班委成员和技术委员会委员,负责质量技术部,在公司高速发展的几年持续升级团队、完善体系与实践、打造相关平台,支撑业务快速发展。

在百度工程效率部任资深架构师期间,他指导了公司级的敏捷改进和持续集成工作,包括需求管理、项目管理和持续集成技术实践。他是百度大规模持续集成实践的引入和推动者,曾获得“最佳百度人”及“最有价值员工”称号。

同时,他也曾在ThoughtWorks任资深咨询师、架构师、工程师,为知名投行、物流及保险公司开发企业应用,指导客户团队实施敏捷转型。

作为数字化转型/敏捷/精益/DevOps咨询师,他先后为平安科技、工商银行、招商银行、华为、华三科技、顺丰科技等企业提供数字化转型、项目管理、Scrum/Kanban、DevOps、架构及开发实践等方面的咨询服务。他帮助客户解决了数字化建设成熟度不足、创新项目启动慢、团队间协作不畅、项目流程耗时长、需求交付效率低质量差、大规模集成消耗大等实际问题。

他有丰富的培训经验,其教学方式生动活泼、干货满满,深受学员们的欢迎和好评。他提供的培训课程涵盖企业数字化转型、业务敏捷、需求探索、业务建模及项目快速启动、Scrum和敏捷、精益和看板方法、DevOps、持续集成与持续交付、质量体系建设、敏捷测试、自动化测试、软件设计与架构、重构技术和TDD实战等方面。他还是Lean Kanban的认证讲师。

在QECon、QCon、DevOps峰会、Top100、EE、MTSC、AgileChina,ScrumGathering等行业会议上,作为热心的社区贡献者和领域专家受邀出品或演讲。

他在北美“Lean Kanban North America” 大会中获得Brickell Key奖最终提名,以认可在Kanban方法方面的突出贡献。

在行业大会中,他曾分享过很多话题,包括《研发效能落地深水区的思考》、《DevOps度量与改进》、《互联网下半场背景下质效建设新思考》、《超越迭代-聊聊若干最佳实践》、《构建简单健壮的自动化测试的模式》、《快速可持续的高质量发布-持续交付案例分享》、《精益开发之最佳实践》、《十招提升团队交付能力》、《Time to Develop a Lean Mindset - Delivery Oriented ManagementThinking》、《可视化管理》、《克服增量交付的5大障碍》、《百度实施持续集成之工具战争》和《精益思想与软件开发》等。


查看老师详情
课程内容

课程大纲

一、大模型与 Agent 认知基础:从“会用大模型”升级为“理解Agent 系统”

1. 从软件工程视角理解大模型能力边界

包括大模型基本原理、能力演进,以及在真实研发场景中的优势与局限。

2. 生成式任务的复杂度认知与预期管理

理解哪些问题适合交给 Agent,哪些仍需人工;建立对结果稳定性与不确定性的正确预期。

3. 提示词工程到“任务表达”的升级

从简单 Prompt 技巧,升级为结构化任务描述(目标、约束、上下文),提升模型执行质量。

4. Agent 系统基本架构(以 OpenClaw 为例)

理解核心组件:Agent Runner、Skill 系统、Tool 调用、Event 驱动、记忆机制如何协同工作。

5. Agent 执行闭环机制

掌握 Agent 的核心运行模式:任务规划 → 工具调用 → 执行 → 反馈 → 自动修复。

6. Agent 上下文与记忆体系设计

区分并理解:短期上下文、项目上下文、长期记忆,以及会话记忆、经验记忆的作用。

7. Agent 工程基础设施全景

包括 Agent 平台、知识库、工具系统等,理解构建可落地 Agent 系统所需的关键支撑。

二、Agent协同开发模式:利用 AI 开发复杂软件的实用模式

1. AI驱动的软件研发范式变迁及未来组织形式

案例分析。

2. 工程师角色重构 - 从写代码到设计 Harness

核心工作转为设计 Agent 的运行系统,包括任务拆解方式、模块边界,以及多 Agent 按模块分工的协作机制。

3. Repo 即 Agent 的“操作系统”

所有架构、规范、文档沉淀在代码仓库中,作为统一上下文来源,并为任务拆分后的各个 Agent 提供清晰的边界与依赖关系。

4. 构建“知识地图索引”(Context / Index Layer)

通过结构化文档、目录规范、索引机制(类似“地图”),让 Agent 能按模块快速定位所需信息,以便于将复杂系统拆解为局部上下文,支撑多 Agent 各自聚焦子模块开发,显著降低单个 Agent 的推理负担与出错率。

5. PR 驱动的 Agent 闭环执行系统

各模块 Agent 独立完成:设计 → 编码 → 提交 PR → 自检 → 迭代,

在关键节点引入人工 Review(Human-in-the-loop),保证整体方向与质量。

6. 可观测性驱动能力扩展(Observability for Agents)

通过日志、指标、执行轨迹等,使 Agent能基于运行反馈定位问题并自我修复,支持模块级问题排查(对应不同 Agent 负责域),将能力扩展到“运行 + 调试 + 修复”。

7. 用系统约束替代人工逐行审查(Architecture as Code)

将架构规则与质量标准嵌入 CI / lint / 测试中自动执行,人工只在关键决策点把关,而非参与所有细节。

三、AI驱动的自动化测试改造

1. 现有自动化框架的AI化改造

从“脚本框架”升级为“Agent执行引擎”,引入任务驱动、状态识别、自适应执行等能力。

2. 测试执行引擎的智能化升级

从自动化测试到自主测试(Autonomous Testing),构造生成 → 执行 → 分析 → 修复的闭环。自动重试与路径调整,降低脚本脆弱性,提升跨环境稳定性。

3. AI测试生成能力(用例 / 数据 / 场景)

基于需求与代码自动生成测试用例、测试数据与覆盖路径,并进行风险补全。

4. 数据与环境的自动化管理

利用 AI 自动构造测试数据、模拟复杂场景,减少人工准备成本。数据和环境脚本化,可被Agent操作。

5. 基于可观测性的测试分析与定位

能让Agent利用日志、指标、trace自动分析失败原因,定位缺陷根因,支撑 Agent自主修复。

6. 测试资产的知识化与索引化

将用例、缺陷、经验沉淀为结构化知识,支撑测试生成,提升复杂系统覆盖能力。

7. AI增强专项测试能力

包括性能测试优化、安全风险分析、回归测试集智能选择等。

四、测试角色的转型与技能迁移

1. 测试工程师角色的根本性转变

从"用例设计和执行者"转为"质量系统设计者",负责定义内嵌在Agent中的质量保障策略SOP、规则与约束,而非手写大量用例。

2. 核心技能从测试技能到 AI 协作能力

需要掌握 Prompt 工程、Agent 编排与大规模Agent的协调、理解 Agent 的能力边界与失效模式、有效的"人工 Review"习惯、测试数据建模、可测试性改进等新技能,同时保留系统性测试思维作为核心竞争力。

3. 基于风险建模的测试设计能力

人工重点转向识别高风险场景、定义测试优先级与覆盖策略,AI 负责执行与补全,人负责判断与决策。

4. 测试知识的结构化沉淀能力

工程师需要主动构建和维护测试知识库,将领域经验转化为 AI 可消费的结构化资产,持续提升 AI生成质量。

5. 跨职能协作能力的强化

测试工程师需更深度参与需求、架构、DevOps 流程设计,参与将它们固化在Agent SOP中的过程。

 


返回上一级