课程时长
2天(6小时/天)
课程大纲
模块一:生成式AI大模型基础(第一天)
理论(上午):
1. 热身暖场:自我介绍与学员互动
迁移学习与预训练大模型技术:详细介绍Transformer模型架构、预训练方法及应用案例
生成式AI与大模型技术:探讨生成模型类型、工作原理及应用场景,如文本、图像、视频生成等。
表示学习技术:多模态嵌入与表示学习embedding 技术
互动:自由问答
现场演示:
1. 将文字和图像表示成Embedding的过程和方法演示
2. 将任意结构化数据表示成Embedding以及将图结构表示成Embedding的现场演示
3. 实现一个简单的图转文系统的演示
4. 快速部署并在本地使用一个开源大模型,并让它跨模态理解指定图片内容的演示
模块二:提示语工程技术与检索增强技术(第一天)
理论(下午):
场景互动:如何让大模型进行思考?(小测试+脑筋急转弯)
知识库和检索增强技术:讲解知识库构建、向量检索技术原理以及检索增强技术模块化组成。
检索增强技术的最新进展:多路召回和重排技术
学习Faiss、Langchain和Llama-Index API
LangServe模型部署组件:学习LangServe部署架构、模型发布和管理
高级思维链技术:详细介绍语义分析、推理、问答等高级思维链技术的实现和应用。
互动:自由问答
现场演示:
使用Langchain实现高级提示语方法,优化大模型系统生成效果,并进行实际测试的演示
使用RAG知识库提高问答系统准确性,构建知识对话机器人的现场演示及性能评估
使用多步推理提示方法实现一致性推理系统的演示
使用提示词模板优化方法实现提示词优化系统的演示
模块三:大模型训练微调(第二天)
理论(上午):
模型训练的基本原理:为学员提供基础的机器学习模型训练知识兼容。
指令对齐技术:学习预训练/微调/RLHF的原理,辨析区别。
价值对齐技术:包括与模型对齐、与人类对齐以及与目标场景对齐。
大模型安全与价值对齐:分析大模型潜在的安全风险,探讨价值对齐方法 。
互动:自由问答
现场演示:
使用LoRA高效微调开源大模型Llama-2 7B模型,并针对特定任务进行性能优化和验证的演示
通过Self-Instruct模型数据对齐技术,展示模型训练的自监督学习方法,以提高模型性能的演示
模块四:LangFlow与多智能体系统开发(第二天)
理论(下午):
模型计划:讲解如何设计、规划和评估多智能体系统。
2. 模型记忆:介绍多智能体系统中的记忆机制和应用,学习模型使用工具的原理,以及它与RAG的关系。
智能体框架:学习LangFlow等多智能体开发工具和框架。
4. 剖析OpenAI 的长远发展路线图,以及跟进大模型最近技术的主要途径和学习方法。
互动:自由问答
现场演示:
1. 智能体建模的演示
2. 基于LangFlow进行ReAct等多种范式的虚拟助手应用开发,实现与其他智能体的协作和交互的演示
3. 动手实现一个带function_call功能的agent案例的现场演示
4. 结合企业实际需求,如nl2sql、内部知识问答助手等案例进行讲解和实践演练的演示