课程背景
1. 建立体系认知:理解大模型的技术脉络与产业生态,掌握以 “DeepSeek” 为代表的主流模型的核心特点。
2. 深化核心技术:精通大规模全参数微调、参数高效微调(PEFT)及知识蒸馏的原理、关键流程与工程实践要点。
3. 掌握评估能力:构建一套科学、有效的模型效果评估体系,并掌握从数据到训练的闭环迭代优化方法。
4. 具备落地思维:了解模型部署、运维(LLMOps)及安全合规的核心要素,为企业项目成功落地提供全链路技术视野。
课程收益
1. 技术深度:不再停留在概念层面,而是深入分布式训练、PEFT、知识蒸馏和模型评估的“技术腹地”。
2. 实践导向:每个模块都结合以 DeepSeek 为例的工程实践要点、常见陷阱和解决方案,具备高度的可操作性。
3. 评估为王:强化了企业落地中最关键但最易被忽视的“效果评估”环节,确保模型优化有的放矢,能够真正解决业务问题。
4. 全链路视野:打通了从“选型-微调-蒸馏-评估-部署”的全链路,帮助学员建立起
1. 技术深度:不再停留在概念层面,而是深入分布式训练、PEFT、知识蒸馏和模型评估的“技术腹地”。
2. 实践导向:每个模块都结合以 DeepSeek 为例的工程实践要点、常见陷阱和解决方案,具备高度的可操作性。
3. 评估为王:强化了企业落地中最关键但最易被忽视的“效果评估”环节,确保模型优化有的放矢,能够真正解决业务问题。
4. 全链路视野:打通了从“选型-微调-蒸馏-评估-部署”的全链路,帮助学员建立起负责一个大模型项目所需的完整知识体系。
负责一个大模型项目所需的完整知识体系。
课程大纲
第一天:大模型基础与微调技术深度剖析
上午 (Day 1, AM)
模块一:大模型核心技术与产业全局观 ( foundational Knowledge )
大模型技术脉络与演进
基石:Transformer 架构、自注意力机制与 Scaling Law
核心流程:预训练 (Pre-training)、微调 (Fine-Tuning)、推理 (Inference) 的闭环
主流模型生态对比:GPT 系列、Llama 家族、Qwen、Falcon 及 DeepSeek
DeepSeek 深度解析:其在模型架构、训练数据、上下文窗口及代码/数学能力上的特色与优势
企业级应用场景与选型策略
应用版图:从内容生成、智能客服到代码辅助、数据分析
技术选型考量:开源 vs. 闭源、模型能力 vs. 成本、公有云 vs. 私有化部署
核心议题:数据隐私、安全合规与可控性对模型选型与部署方案的决定性影响
学习目标:快速构建大模型的宏观认知,理解 DeepSeek 的技术定位,为后续深度定制化打下坚实基础。
下午 (Day 1, PM)
模块二:大规模微调(Industrial-Scale Fine-Tuning)实战
微调的动机与决策
为什么需要微调?(Why)—— 领域知识注入、风格/行为对齐
何时选择微调?(When)—— 微调、RAG、Prompt Engineering 的选择矩阵
ROI 评估:硬件资源投入、时间成本与预期业务收益的量化分析
全参数微调 (Full-Parameter Fine-Tuning) 与分布式训练
分布式训练核心三驾马车:数据并行、模型并行(张量/序列)、流水线并行
主流训练框架剖析:DeepSpeed (ZeRO)、Megatron-LM 的原理与实践
案例分享:以 DeepSeek 为例,探讨在多机多卡环境下进行全参数微调的工程最佳实践与注意事项
参数高效微调 (PEFT, Parameter-Efficient Fine-Tuning)
主流 PEFT 方法原理:LoRA / QLoRA、Adapter Tuning、Prefix-Tuning 等
技术选型决策树:如何根据场景、硬件和效果要求选择最合适的 PEFT 方法
PEFT 的进阶技巧:LoRA 合并、多任务微调与性能优化
微调成功的关键:高质量数据工程
数据准备与构建:指令数据、偏好数据(DPO)的来源与清洗流程
数据格式化与对齐:遵循特定模型的对话模板(如 DeepSeek Coder/Chat 模板)
训练监控与调试:损失曲线分析、梯度检查、过拟合/欠拟合的识别与解决策略
学习目标:精通全参数微调与 PEFT 的核心技术,掌握在分布式环境下(以 DeepSeek 为例)实施大规模微调的工程能力。
第二天:模型轻量化、评估优化与部署运维
上午 (Day 2, AM)
模块三:大模型知识蒸馏(Model Distillation)与轻量化
知识蒸馏核心原理
教师-学生模型范式 (Teacher-Student Paradigm)
核心概念:软标签 (Soft Label)、硬标签 (Hard Label) 与温度 (Temperature)
蒸馏的价值:在保证核心能力的前提下,实现模型压缩、推理加速,满足边缘端、移动端或低延迟场景需求
知识蒸馏的工程化流程
教师模型的选择与构建(例如,使用微调后的高性能 DeepSeek 模型作为教师)
学生模型的设计:架构选择、参数量规划
损失函数设计:KL 散度、任务损失的结合与权重平衡
训练数据策略:使用无标签数据、经过教师模型标注的数据进行蒸馏
高级蒸馏策略与实战陷阱
进阶技术:多教师蒸馏、分阶段蒸馏、在线蒸馏
常见陷阱规避:学生模型能力不足、数据分布不匹配、灾难性遗忘等问题的识别与对策
学习目标:掌握知识蒸馏的核心思想与工程全流程,能够设计并实施模型蒸馏方案,以获得满足特定性能要求的小型化模型。
下午 (Day 2, PM)
模块四:模型效果有效性评估与迭代优化 ( Crucial & Deepened )
构建科学的评估体系
自动化评估:标准基准 (C-Eval, MMLU) 的局限性与参考价值
领域专属评估集:如何针对企业特定业务(如金融风控、法律合同审核)构建高质量、高覆盖度的“考题”
人工评估与对战平台:Side-by-Side 对比、Elo 评分机制,建立模型能力评估的“金标准”
多维度评估指标:准确性、流畅性、相关性、安全性、无害性的量化评估方法
迭代优化的闭环
错误分析 (Error Analysis):系统性地对模型 bad case 进行归类与根因分析
从评估到优化:如何利用评估结果指导下一轮数据清洗、数据增强或微调策略调整
强化学习与人类反馈 (RLHF / DPO):通过人类偏好数据持续对齐模型价值观与行为
安全与可信赖 AI
幻觉与偏见:识别、度量与缓解策略(如事实性校准微调)
安全防护:提示注入 (Prompt Injection)、越狱攻击的识别与防御机制
学习目标:掌握一套从自动化到人工的立体化大模型评估方法论,并能驱动模型进行持续、闭环的迭代优化。
模块五:总结:从训练到部署的全链路思考
技术路径整合
DeepSeek + 微调 + 蒸馏 整体应用架构串讲
PoC (概念验证) 快速实施路径图:数据 -> 训练 -> 评估 -> 部署
模型部署与推理优化
推理服务框架选型:vLLM, TensorRT-LLM 等
优化技术概览:量化 (Quantization)、剪枝 (Pruning)、模型编译
LLMOps: 大模型的持续运维
模型版本管理、训练流水线、监控与告警
最终答疑与交流
聚焦学员企业痛点,提供针对性建议
前沿展望:多模态、Agent 与未来技术演进
学习目标:形成从模型训练、评估优化到最终部署运维的完整项目观,为企业大模型项目的成功落地提供战略和战术指导。