4006-998-758
3000+课程任你选择
AI大模型
研发学院 ⼤模型基础:理论与技术的演进 AI⼤模型应⽤最佳实践 ⼤模型应⽤开发框架 LangChain 开课时间:2023-08-31
彭靖田

品览联合创始人兼CTO

谷歌开发者专家

谷歌出海创业加速器导师

加州大学访问学者,毕业于浙江大学竺可桢学院。

开源项目 Kubeflow 维护者,TensorFlow 贡献者。国内第一本深度剖析 Google AI 框架的畅销书《深入理解 TensorFlow》作者。极客时间《TensorFlow 2 项目进阶实战》和《TensorFlow快速入门与实战》作者。


查看老师详情
课程内容

课程大纲:

基础篇

⼤模型基础:理论与技术的演进

◆ 初探⼤模型:起源与发展

预热篇:解码注意⼒机制(Attention)

变⾰⾥程碑:Transformer 的崛起

⾛向不同:GPT 与 Bert 的选择

◆ GPT 模型家族:从始⾄今

从 GPT-1 到 GPT-3.5:⼀路的⻛云变幻

ChatGPT:赢在哪⾥

GPT-4:⼀个新的开始

◆提示学习(Prompt Learning)

思维链(Chain-of-Thought, CoT):开⼭之作

⾃洽性(Self-Consistency):多路径推理

思维树(Tree-of-Thoughts, ToT):续写佳话

⼤模型开发基础:OpenAI Embedding

◆ 通⽤⼈⼯智能的前夜

“三个世界”与“图灵测试”

计算机的数据表示

表示学习与嵌⼊

◆ Embeddings Dev 101

课程项⽬:GitHub openai-quickstart

快速上⼿ OpenAI Embeddings

OpenAI ⼤模型开发与应⽤实践

◆ OpenAI ⼤模型开发指南

OpenAI 语⾔模型总览

OpenAI GPT-4, GPT-3.5, GPT-3, Moderation

OpenAI Token 计费与计算

◆ OpenAI API ⼊⻔与实战

OpenAI Models API

OpenAI Completions API

OpenAI Chat Completions API

Completions vs Chat Completions

◆ OpenAI ⼤模型应⽤实践

⽂本内容补全初探(Text Completion)

聊天机器⼈初探(Chat Completion)


AI⼤模型应⽤最佳实践

◆ 如何提升GPT 模型使⽤效率与质量

◆ AI ⼤模型应⽤最佳实践

⽂本创作与⽣成

⽂章摘要和总结

⼩说⽣成与内容监管

分步骤执⾏复杂任务

评估模型输出质量

构造训练标注数据

代码调试助⼿

◆ 新特性:Function Calling 介绍与实战

如何使⽤ functions 参数

如何使⽤ function_call 参数

使⽤ GPT 模型⽣成函数和参数

实际执⾏ GPT 模型⽣成的函数(以 SQL 查询为例)


实战1:基于 ChatGPT 开发智能翻译助⼿

◆ OpenAI-Translator 市场需求分析

◆ OpenAI-Translator 产品定义与功能规划

◆ OpenAI-Translator 技术⽅案与架构设计

◆ OpenAI-Translator 模块设计

PDF ⽂档解析(PDFParser)模块

⽂档导出(Writter)模块

⼤模型(LLMs)接⼊模块

参数解析器(ArgParser)模块

⽇志(Logger)模块

提示词(Prompt)模块

◆ OpenAI-Translator 实战


实战2:动⼿开发第⼀个 ChatGPT Plugin

◆ ChatGPT Plugin 开发指南

ChatGPT Plugin 介绍

样例项⽬:待办(Todo)管理插件

实战样例部署与测试

ChatGPT 开发者模式

◆ 实战:天⽓预报(Weather Forecast)插件开发

Weather Forecast Plugin 设计与定义

天⽓预报函数服务化

第三⽅天⽓查询平台对接

实战 Weather Forecast Plugin

◆ Function Calling vs ChatGPT plugin


进阶篇

⼤模型应⽤开发框架 LangChain(上)

◆ LangChain 101

LangChain 是什么

为什么需要 LangChain

LangChain 典型使⽤场景

LangChain 基础概念与模块化设计

◆ LangChain 核⼼模块⼊⻔与实战

标准化的⼤模型抽象:Mode I/O

模板化输⼊:Prompts

语⾔模型:Models

规范化输出:Output Parsers


⼤模型应⽤开发框架 LangChain(中)

◆ ⼤模型应⽤的最佳实践 Chains

上⼿你的第⼀个链:LLM Chain

串联式编排调⽤链:Sequential Chain

处理超⻓⽂本的转换链:Transform Chain

实现条件判断的路由链:Router Chain

◆ 赋予应⽤记忆的能⼒: Memory

◆ Momory System 与 Chain 的关系

◆ 记忆基类 BaseMemory 与 BaseChatMessageMemory

◆ 服务聊天对话的记忆系统

ConversationBufferMemory

ConversationBufferWindowMemory

ConversationSummaryBufferMemory

⼤模型应⽤开发框架 LangChain(下)

◆ 框架原⽣的数据处理流 Data Connection

⽂档加载器(Document Loaders)

⽂档转换器(Document Transformers)

⽂本向量模型(Text Embedding Models)

向量数据库(Vector Stores)

检索器(Retrievers)

◆ 构建复杂应⽤的代理系统 Agents

◆ Agent 理论基础:ReAct

LLM 推理能⼒:CoT, ToT

LLM 操作能⼒:WebGPT, SayCan

◆ LangChain Agents 模块设计与原理剖析

Module: Agent, Tools, Toolkits,

Runtime: AgentExecutor, PlanAndExecute , AutoGPT

◆ 上⼿第⼀个Agent:Google Search + LLM

◆ 实战 ReAct:SerpAPI + LLM-MATH


实战3: 使⽤ Langchain 重新实现智能翻译助⼿

◆ 深⼊理解 Chat Model 和 Chat Prompt Template

温故:LangChain Chat Model 使⽤⽅法和流程

使⽤ Chat Prompt Template 设计翻译提示模板

使⽤ Chat Model 实现双语翻译

使⽤ LLMChain 简化构造 Chat Prompt

◆ 基于 LangChain 优化 OpenAI-Translator 架构设计

由 LangChain 框架接⼿⼤模型管理

聚焦应⽤⾃身的 Prompt 设计

使⽤ TranslationChain 实现翻译接⼝

更简洁统⼀的配置管理

◆ OpenAI-Translator v2.0 功能特性研发

◆ 基于 Gradio 的图形化界⾯设计与实现

◆ 基于 Flask 的 Web Server 设计与实现


实战4: ⼿把⼿带你实现⽹红项⽬ AutoGPT

◆ AutoGPT 原始版本定位与功能解读

◆ LangChain 版 AutoGPT 技术⽅案与架构设计

⽹络搜索(SerpAPIWrapper)模块

⽂件读写(FileTool)模块

持久化存储(Vectorstores)模块

向量模型(Embeddings)模块

聊天模型(Chat Models)模块

◆ 实战 LangChain 版 AutoGPT


实战5: 基于知识库的销售顾问 Sales-Consultant

◆ Sales-Consultant 市场需求分析

◆ Sales-Consultant 产品定义与功能规划

◆ Sales-Consultant 技术⽅案与架构设计

解析与索引管理(Indexes)模块

知识库问答(QA Chain)模块

⽤户引导(Example Selectors)模块

◆ 实战 LangChain 版 Sales-Consultant


⼤模型应⽤落地与数据隐私

◆ ⼤模型时代的开源与数据协议

◆ 数据安全性和保护措施

数据加密与脱敏技术

安全传输与存储机制

◆ 模型的可解释性和可审计性

提⾼模型决策过程的透明度

⼤模型的审计机制与规则

◆ 伦理和道德考虑

⼤模型带来的伦理挑战

设计与使⽤⼤模型时的道德原则

◆ 法规合规性

数据保护法规对⼤模型的影响

⼤模型的合规性保证策略

◆ 数据隐私的量化评估

数据隐私影响的评价指标

数据隐私量化评估的⽅法与技术


⽣态篇

⼤模型开源⽣态

◆ ⼤模型排⾏榜与基准测试

◆ ⼤模型横向对⽐

OpenAI GPT-4

Facebook LLaMA

Stanford Alpaca

Tsinghua ChatGLM

◆ ⼤模型时代的Github:Hugging Face

◆ 使⽤ HuggingFace 托管你的 LLMs 应⽤


⼤模型核⼼硬件选型指南

◆ NVIDIA 概念解惑

GPU vs 显卡

架构(安培 Amper)vs 产品(数据中⼼)

专业级(A100)vs 消费级(4090)

CUDA Core vs Tensor Core

◆ 显卡选型推荐指南

显卡性能天梯榜

专业级显卡怎么选

消费级显卡怎么选

AMD 是⼀个选择么?


基于 ChatGLM2 ⼤模型应⽤开发

◆ 清华 GLM ⼤模型家族

最强系列 GLM-130B

增强对话能⼒ ChatGLM

图形化服务化 WebGLM

结合视觉 VisualGLM

◆ ChatGLM2-6B ⼤模型应⽤开发

ChatGLM2-6B 介绍与快速⼊⻔

ChatGLM2-6B 私有化部署

ChatGLM2-6B fine-tuning

基于 ChatGLM2-6B 打造你的私有化 "ChatGPT"


返回上一级