课程时长
4天(6小时/天)
课程要求
1、需要带电脑
2、学员需要有python编程基础
3、需要有网络
课程大纲
模块一:生成式AI大模型基础(第一天)
理论(上午):
1. 热身暖场:自我介绍与学员互动
迁移学习与预训练大模型技术:详细介绍Transformer模型架构、预训练方法及应用案例
生成式AI与大模型技术:探讨生成模型类型、工作原理及应用场景,如文本、图像、视频生成等。
表示学习技术:多模态嵌入与表示学习embedding 技术
互动:自由问答
实践(下午):
将文字和图像表示成 Embedding。
将任意结构化数据表示成 Embedding以及将图结构表示成 Embedding。
实现一个简单的图转文系统。
快速部署并在本地使用一个开源大模型,并让它跨模态理解指定图片的内容。
模块二:提示语工程技术与检索增强技术(第二天)
理论(上午):
场景互动:如何让大模型进行思考?(小测试+脑筋急转弯)
知识库和检索增强技术:讲解知识库构建、向量检索技术原理以及检索增强技术模块化组成。
检索增强技术的最新进展:多路召回和重排技术
学习Faiss、Langchain和Llama-Index API
LangServe模型部署组件:学习LangServe部署架构、模型发布和管理
高级思维链技术:详细介绍语义分析、推理、问答等高级思维链技术的实现和应用。
互动:自由问答
实践(下午):
使用Langchain实现高级提示语方法,优化大模型系统生成效果,并进行实际测试。
使用RAG知识库提高问答系统准确性,构建知识对话机器人,并进行性能评估。
使用多步推理提示方法的实现一个一致性推理系统。
使用提示词模板优化方法的实现一个提示词优化系统。
模块三:大模型训练微调(第三天)
理论(上午):
模型训练的基本原理:为学员提供基础的机器学习模型训练知识兼容。
指令对齐技术:学习预训练/微调/RLHF的原理,辨析区别。
价值对齐技术:包括与模型对齐、与人类对齐以及与目标场景对齐。
大模型安全与价值对齐:分析大模型潜在的安全风险,探讨价值对齐方法 。
互动:自由问答
实践(下午):
使用LoRA高效微调开源大模型Llama-2 7B模型,并针对特定任务进行性能优化和验证。
通过Self-Instruct模型数据对齐技术,实践模型训练的自监督学习方法,以提高模型性能。
引领学员结合业务场景,收集并清洗目标场景数据,训练一个垂直大模型。
(可选)全量微调 Llama-2 7B 模型以及全量微调Llama-2 70B 模型。
模块四:LangFlow与多智能体系统开发(第四天)
理论(上午):
模型计划:讲解如何设计、规划和评估多智能体系统。
2. 模型记忆:介绍多智能体系统中的记忆机制和应用,学习模型使用工具的原理,以及它与RAG的关系。
智能体框架:学习LangFlow等多智能体开发工具和框架。
4. 剖析OpenAI 的长远发展路线图,以及跟进大模型最近技术的主要途径和学习方法。
互动:自由问答
实践(下午):
1. 分组练习:结合自己工作的业务特点进行智能体建模。
2. 基于LangFlow进行ReAct等多种范式的虚拟助手应用开发,实现与其他智能体的协作和交互。
3. 动手实现一个带function_call功能的agent案例。
4. 结合企业实际需求,如nl2sql、内部知识问答助手等案例进行讲解和实践演练。