4006-998-758
3000+课程任你选择
大模型预训练和微调实践
研发学院 大模型预训练和微调实践 开课时间:2024-10-31
Richard

  曾任百度资深算法专家,先后负责百度商业知识图谱、凤巢广告转化率算法等工作,多年搜索、大数据工作经验,专注自然语言处理与人工智能方向;

 现任腾讯系某子公司AIGC负责人,负责大模型、多模态、产研落地与知识管理与评估等多个团队工作,带领团队发布并落地内容行业垂类模型,并通过网信办备案;

  在多模态内容理解、角色对话、视频生成等多个方向有实际场景落地,有大量一线实操经验,搭建千卡规模集群,AIGC业务单日服务用户超百万,并走通商业化模式;

  曾获CCKS中文知识图谱大赛第一名,就职期间申请并有权的国家发明专利15+;中国计算机学会(CCF)上海自然语言处理专委(TF)委员; CCF-BDCI-2023第十一届大数据与计算智能大赛特等奖;


查看老师详情
课程内容

课程大纲:

1大模型基础技术理解

1.1 常见大模型介绍与网络结构的统一性

1.2 大模型的缩放法则与涌现能力

1.3 大模型的基础训练过程(预训练、指令微调、强化学习对齐)

1.4 大模型主流预训练框架介绍(Megatron,Deepspeed。。。)

1.5 大模型评价体系(数据集与榜单介绍)

 

2预训练技术

2.1  “从零开始预训练”,常见数据集&如何组织训练数据(参考DoReMi进行数据配比)

2.2  “增量/继续预训练”,数据预处理&如何确定训练数据的格式(FurtherTrain考虑词表优化)

2.3  数据处理流水线与数据质量保障

2.4  如何在固定算例预算下,选择大模型的参数,和对应的数据规模

 

3指令微调技术

3.1 指令数据的结构与构造方法(指令丰富性与多样性)

3.2 实践中大模型所需的指令数据规模

3.3 指令强化-各类模型能力激发的关键

 

4大模型对齐技术

4.1 大模型价值对齐的实际价值(格式服从、安全保障、垂类强化)

4.2 基于PPO算法的RLHF技术

4.3 基于DPO算法的RLHF技术

4.4 其他偏好对齐技术介绍(KTO等)

 

5 大模型训练实践( 以LLAMA3为例)

5.1基础权重准备与推理部署

5.2 微调数据集准备

5.3 全参数微调与Lora微调

5.5 分布式训练框架及对应资源准备

5.6 大模型训练过程中的LOSS稳定性(数据构造与超参数设定)

5.7 内容垂类模型微调实践(格式服从案例)

5.8 大模型微调工厂的搭建

 

6大模型落地实践项目

6.1 大规模推理成本优化(量化、vLLM并行推理)

6.2 检索强化型大模型应用(RAG)

6.3 如何针对线上Case修复模型问题

6.4 如何利用CoT与Agent机制提升模型效果

6.5 大模型安全与大模型备案



返回上一级