课程大纲:
基础篇
⼤模型基础:理论与技术的演进
◆ 初探⼤模型:起源与发展
预热篇:解码注意⼒机制(Attention)
变⾰⾥程碑:Transformer 的崛起
⾛向不同:GPT 与 Bert 的选择
◆ GPT 模型家族:从始⾄今
从 GPT-1 到 GPT-3.5:⼀路的⻛云变幻
ChatGPT:赢在哪⾥
GPT-4:⼀个新的开始
◆提示学习(Prompt Learning)
思维链(Chain-of-Thought, CoT):开⼭之作
⾃洽性(Self-Consistency):多路径推理
思维树(Tree-of-Thoughts, ToT):续写佳话
⼤模型开发基础:OpenAI Embedding
◆ 通⽤⼈⼯智能的前夜
“三个世界”与“图灵测试”
计算机的数据表示
表示学习与嵌⼊
◆ Embeddings Dev 101
课程项⽬:GitHub openai-quickstart
快速上⼿ OpenAI Embeddings
OpenAI ⼤模型开发与应⽤实践
◆ OpenAI ⼤模型开发指南
OpenAI 语⾔模型总览
OpenAI GPT-4, GPT-3.5, GPT-3, Moderation
OpenAI Token 计费与计算
◆ OpenAI API ⼊⻔与实战
OpenAI Models API
OpenAI Completions API
OpenAI Chat Completions API
Completions vs Chat Completions
◆ OpenAI ⼤模型应⽤实践
⽂本内容补全初探(Text Completion)
聊天机器⼈初探(Chat Completion)
AI⼤模型应⽤最佳实践
◆ 如何提升GPT 模型使⽤效率与质量
◆ AI ⼤模型应⽤最佳实践
⽂本创作与⽣成
⽂章摘要和总结
⼩说⽣成与内容监管
分步骤执⾏复杂任务
评估模型输出质量
构造训练标注数据
代码调试助⼿
◆ 新特性:Function Calling 介绍与实战
如何使⽤ functions 参数
如何使⽤ function_call 参数
使⽤ GPT 模型⽣成函数和参数
实际执⾏ GPT 模型⽣成的函数(以 SQL 查询为例)
实战1:基于 ChatGPT 开发智能翻译助⼿
◆ OpenAI-Translator 市场需求分析
◆ OpenAI-Translator 产品定义与功能规划
◆ OpenAI-Translator 技术⽅案与架构设计
◆ OpenAI-Translator 模块设计
PDF ⽂档解析(PDFParser)模块
⽂档导出(Writter)模块
⼤模型(LLMs)接⼊模块
参数解析器(ArgParser)模块
⽇志(Logger)模块
提示词(Prompt)模块
◆ OpenAI-Translator 实战
实战2:动⼿开发第⼀个 ChatGPT Plugin
◆ ChatGPT Plugin 开发指南
ChatGPT Plugin 介绍
样例项⽬:待办(Todo)管理插件
实战样例部署与测试
ChatGPT 开发者模式
◆ 实战:天⽓预报(Weather Forecast)插件开发
Weather Forecast Plugin 设计与定义
天⽓预报函数服务化
第三⽅天⽓查询平台对接
实战 Weather Forecast Plugin
◆ Function Calling vs ChatGPT plugin
进阶篇
⼤模型应⽤开发框架 LangChain(上)
◆ LangChain 101
LangChain 是什么
为什么需要 LangChain
LangChain 典型使⽤场景
LangChain 基础概念与模块化设计
◆ LangChain 核⼼模块⼊⻔与实战
标准化的⼤模型抽象:Mode I/O
模板化输⼊:Prompts
语⾔模型:Models
规范化输出:Output Parsers
⼤模型应⽤开发框架 LangChain(中)
◆ ⼤模型应⽤的最佳实践 Chains
上⼿你的第⼀个链:LLM Chain
串联式编排调⽤链:Sequential Chain
处理超⻓⽂本的转换链:Transform Chain
实现条件判断的路由链:Router Chain
◆ 赋予应⽤记忆的能⼒: Memory
◆ Momory System 与 Chain 的关系
◆ 记忆基类 BaseMemory 与 BaseChatMessageMemory
◆ 服务聊天对话的记忆系统
ConversationBufferMemory
ConversationBufferWindowMemory
ConversationSummaryBufferMemory
⼤模型应⽤开发框架 LangChain(下)
◆ 框架原⽣的数据处理流 Data Connection
⽂档加载器(Document Loaders)
⽂档转换器(Document Transformers)
⽂本向量模型(Text Embedding Models)
向量数据库(Vector Stores)
检索器(Retrievers)
◆ 构建复杂应⽤的代理系统 Agents
◆ Agent 理论基础:ReAct
LLM 推理能⼒:CoT, ToT
LLM 操作能⼒:WebGPT, SayCan
◆ LangChain Agents 模块设计与原理剖析
Module: Agent, Tools, Toolkits,
Runtime: AgentExecutor, PlanAndExecute , AutoGPT
◆ 上⼿第⼀个Agent:Google Search + LLM
◆ 实战 ReAct:SerpAPI + LLM-MATH
实战3: 使⽤ Langchain 重新实现智能翻译助⼿
◆ 深⼊理解 Chat Model 和 Chat Prompt Template
温故:LangChain Chat Model 使⽤⽅法和流程
使⽤ Chat Prompt Template 设计翻译提示模板
使⽤ Chat Model 实现双语翻译
使⽤ LLMChain 简化构造 Chat Prompt
◆ 基于 LangChain 优化 OpenAI-Translator 架构设计
由 LangChain 框架接⼿⼤模型管理
聚焦应⽤⾃身的 Prompt 设计
使⽤ TranslationChain 实现翻译接⼝
更简洁统⼀的配置管理
◆ OpenAI-Translator v2.0 功能特性研发
◆ 基于 Gradio 的图形化界⾯设计与实现
◆ 基于 Flask 的 Web Server 设计与实现
实战4: ⼿把⼿带你实现⽹红项⽬ AutoGPT
◆ AutoGPT 原始版本定位与功能解读
◆ LangChain 版 AutoGPT 技术⽅案与架构设计
⽹络搜索(SerpAPIWrapper)模块
⽂件读写(FileTool)模块
持久化存储(Vectorstores)模块
向量模型(Embeddings)模块
聊天模型(Chat Models)模块
◆ 实战 LangChain 版 AutoGPT
实战5: 基于知识库的销售顾问 Sales-Consultant
◆ Sales-Consultant 市场需求分析
◆ Sales-Consultant 产品定义与功能规划
◆ Sales-Consultant 技术⽅案与架构设计
解析与索引管理(Indexes)模块
知识库问答(QA Chain)模块
⽤户引导(Example Selectors)模块
◆ 实战 LangChain 版 Sales-Consultant
⼤模型应⽤落地与数据隐私
◆ ⼤模型时代的开源与数据协议
◆ 数据安全性和保护措施
数据加密与脱敏技术
安全传输与存储机制
◆ 模型的可解释性和可审计性
提⾼模型决策过程的透明度
⼤模型的审计机制与规则
◆ 伦理和道德考虑
⼤模型带来的伦理挑战
设计与使⽤⼤模型时的道德原则
◆ 法规合规性
数据保护法规对⼤模型的影响
⼤模型的合规性保证策略
◆ 数据隐私的量化评估
数据隐私影响的评价指标
数据隐私量化评估的⽅法与技术
⽣态篇
⼤模型开源⽣态
◆ ⼤模型排⾏榜与基准测试
◆ ⼤模型横向对⽐
OpenAI GPT-4
Facebook LLaMA
Stanford Alpaca
Tsinghua ChatGLM
◆ ⼤模型时代的Github:Hugging Face
◆ 使⽤ HuggingFace 托管你的 LLMs 应⽤
⼤模型核⼼硬件选型指南
◆ NVIDIA 概念解惑
GPU vs 显卡
架构(安培 Amper)vs 产品(数据中⼼)
专业级(A100)vs 消费级(4090)
CUDA Core vs Tensor Core
◆ 显卡选型推荐指南
显卡性能天梯榜
专业级显卡怎么选
消费级显卡怎么选
AMD 是⼀个选择么?
基于 ChatGLM2 ⼤模型应⽤开发
◆ 清华 GLM ⼤模型家族
最强系列 GLM-130B
增强对话能⼒ ChatGLM
图形化服务化 WebGLM
结合视觉 VisualGLM
◆ ChatGLM2-6B ⼤模型应⽤开发
ChatGLM2-6B 介绍与快速⼊⻔
ChatGLM2-6B 私有化部署
ChatGLM2-6B fine-tuning
基于 ChatGLM2-6B 打造你的私有化 "ChatGPT"