4006-998-758
3000+课程任你选择
AI大模型应用开发最佳实践和案例分析
研发学院 AI大模型应用 案例分析 开课时间:2024-12-23
刘捷

曾就职于 IBM 中国研发中心,任 WebSphere 软件架构师。

后加入 BEA 中国区专业服务部,任高级技术顾问、首席顾问、项目经理

主要负责 BEA 客户项目的架构设计和项目开发、技术支持,保证项目的成功实施、运行及维护。参加过全省、全国多个大型的计算机应用项目,涉及的行业领域包括电信、银行、 税务、社保等。 


查看老师详情
课程内容

为什么需要该课程


随着人工智能(AI)技术的飞速发展,AI模型全栈工程师这一职业逐渐崭露头角。作为具备全栈能力的工程师,AI模型全栈工程师能够从全局和整体的角度思考问题,具备从算法到应用的全方位能力,是AI领域中不可或缺的重要角色。

一、什么是AI模型全栈工程师
AI模型全栈工程师是指具备人工智能领域全方位能力的工程师,包括但不限于机器学习、深度学习、自然语言处理、计算机视觉等技术。他们能够熟练掌握各种编程语言和工具,从数据收集、预处理、模型训练到部署应用,全流程参与AI项目的开发。同时,AI模型全栈工程师还应具备良好的沟通能力和团队合作精神,能够与其他领域的专家协同工作,共同推进AI应用的落地。

二、AI模型全栈工程师的能力要求
    1.大模型开发技术能力:AI模型全栈工程师应具备扎实的人工智能基础知识,包括大模型原理,算法原理、数据结构、机器学习、深度学习等领域的知识。

2.数据处理能力:AI模型全栈工程师应具备强大的数据处理能力,包括数据清洗、特征提取、数据标注等。
   3.大模型训练与优化能力:AI模型全栈工程师应具备模型训练和优化的能力,包括选择合适的模型、调整超参数、进行模型评估等。
    4.大模型部署与运维能力:AI模型全栈工程师应具备将模型部署到生产环境中的能力,包括服务器的搭建、部署方案的制定、安全防护等。
    5.团队协作能力:AI模型全栈工程师应具备良好的团队协作能力,能够与其他领域的专家协同工作,共同推进AI应用的落地。

本课程为大模型应用开发人员提供了一份清晰、全面的“可用知识”,带领大家快速了解GPT和OpenAI API,国内多个大模型(文心,智谱,千问等)的工作原理及优势,并在此基础上使用流行的编程语言构建大模型应用。通过课程,你不仅可以学会如何构建文本生成、问答和内容摘要等初阶大模型应用,还能了解到提示工程、模型微调、插件、LangChain,RAG,Agent等高阶实践技术。课程提供了简单易学的示例,帮你理解并应用在自己的项目中。


培训环境说明


A:可以使用国外大模型和商业工具

ChatGPT 和 Claude Gemini      Mistral等

如果公司可以直接使用ChatGPT等外部系统情况,建议使用这个方案

 

B:可以使用国内大模型和相关工具

文心一言,通义千问,智谱,kimi,讯飞星火,字节大模型等。

如果公司可以不方便使用ChatGPT等外部系统情况,建议使用国内大模型, 目前国内大模型也可以应用在实际工作之中

 

C:使用企业私有部署大模型 或者开源Llama大模型(待评估效果)

部分企业准备自建大模型, 课堂上可以分析问题和挑战


你可以参加吗


各类软件企业和研发中心的程序员、软件设计师、架构师, 项目经理,架构师。

本课程面向零基础LLM应用开发者,不需要了解复杂数学算法,机器学习原理,不需要之前学习过大模型知识。有Java,C#,C++等编程基础,最好有Python基础知识,但即使你对 Python 不太熟悉,也完全没有关系。课程主要阅读和讲解案例代码。


课程大纲


第1章  LLM大模型基本原理

第一部分: LLM大模型核心原理

1.  大模型基础:理论与技术的演进

2.  LLMs大语言模型的概念定义

3.  LLMs大语言模型的发展演进

4.  LLMs大语言模型的生态体系

5.  大语言模型技术发展与演进

6.  基于统计机器学习的语言模型

7.  基于深度神经网络的语言模型

8.  基于 Transformer 的大语言模型

9.  LLMs大语言模型的关键技术

10.  LLMs大语言模型的核心框架:商业&开源

11.  LLMs大语言模型的行业应用

 

第二部分: LLM大模型微调

1.  大模型高效微调技术

2.  Parameter-Efficient

3.  Fine-Tuning (PEFT) 初探

4.  大模型轻量级高效微调方法 LoRA

5.  少样本 PEFT 新方法 IA3

6.  统一微调框架 UniPELT

7.  其他微调技术

8.  基于OpenAI平台的微调实践

9.  基于百度平台的微调实践

10.  基于智谱平台的微调实践

 

第三部分: 国内外大模型研究进展和评测

1.  国内外大模型研究进展(OpenAI,Claude Gemini Mistral等)

2.  百度文心、

3.  阿里通义

4.  科大讯飞星火大模型

5.  0pen API GPT

6.  腾讯混元

7.  华为大模型

8.  大模型评测背景与方法论

9.  评测背景

10.  通用基础与专业应用能力

11.  数理科学,语言能力,道德责任,综合能力,行业能力

12.  大模型综合评测结果

13.  通用基础能力

14.  专业应用能力

15.  大模型独立表现解读(Frost & Sullivan)《2024年中国大模型能力评测报告》

16.  解读清华发布2024年3月版《SuperBench大模型综合能力评测报告》

 

第四部分: 全面理解AI+信创与前沿动态-国产大模型私有化部署策略

1.  信创建设背景、目标及战略意义

2.  信创产业发展概况及相关政策解读

3.  国产CPU、操作系统、数据库、中间件等介绍

4.  安全保密技术、新一代信息技术概览

5.  GPU vs 显卡

6.  GPU Core vs AMD CU

7.  CUDA Core vs Tensor Core

8.  探索AI+信创的未来趋势

9.  信创环境下的AI技术部署

10.  在信创平台上部署AI模型的挑战与解决方案

11.  信创环境下AI项目的实施与管理经验分享

 

第2章  开发工程师的AI思维

第五部分: 开发工程师的AI思维

1.  深入理解AI和AI产品

2.  开发工程师的AI思维

3.  AI产品产业化和标准化

4.  AI产品落地的价值与难题

5.  AI产品经理

6.  AI产品的知识体系

7.  所有应用都值得被大模型重构一遍!-百度李彦宏

8.  AI 2.0彻底改变社会:所有应用都可以被重写一次--李开复

9.  微软发布全新AI PC,有哪些启发

10.  苹果(AAPL.US)WWDC发布Apple Intelligence 有什么启发

11.  苹果 pad math notes的AI应用分析

 

第六部分: AI重构应用案例分析

1.  分析部分现有系统如何引入AI功能

2.  分享业内一些经典案例

3.  产品AI化的一些心得

4.  某电子家电集团AI落地实践

5.  某金融企业AI落地实践

6.  某电信企业AI落地实践

 

第3章  基于LLM大模型API开发应用

第七部分: 大语言模型微调与Prompt提示工程

1.  大语言模型微调与Prompt

2.  大语言模型微调对象和层次

3.  语言模型微调的主流方法

4.  Prompt如何使用和进阶

5.  什么是提示与提示工程

6.  提示工程的巨大威力:从Let’s think step by step说起

7.  拆解、标准化、流程化:如何用AI改造工作

8.  使用BROKE框架设计ChatGPT提示

9.  通过案例分析,展示如何使用大模型prompt技术辅助开发

 

第八部分: 大模型OpenAI GPT  API 应用开发

1.  OpenAI 大模型开发指南

2.  OpenAI 语言模型总览

3.  语言模型:GPT-4 and GPT-3.5 Turbo

4.  OpenAI GPT API 开发入门

5.  OpenAI Models API

6.  OpenAI Chat Completions API

7.  OpenAI Chat Completions API参数和返回JSON数据

8.  OpenAI 大模型应用实践

9.  文本内容补全初探(Text Completion)

10.  聊天机器人初探(Chat Completion)

11.  基于 OpenAI开发智能翻译助手

12. 案例分析

 

第九部分: 基于国内大模型API 开发应用(可选智谱,百度,通义千问等)

1.  GLM 大模型家族介绍

2.  智谱第四代 API 介绍

3.  AP| 基础教学和实战

4.  使用 GLM-4 AP| 构建模型和应用

5.  使用 GLM-4从0到1搭建并优化 RAG 程序

6.  Diffusion 原理介绍

7.  模型训练的数据优化(DALLE3)

8.  CogView3 及 API 调用演示

9.  基于百度大模型的应用与开发

10.  基于通义千问大模型的应用与开发

11.  基于百川智能大模型应用开发

12.  基于讯飞大模型应用开发

13.  基于字节,腾讯,华为大模型应用开发

 

第十部分: 基于大模型API构建应用程序

1.  应用程序开发概述

2.  数据安全和数据隐私

3.  基于API 软件架构设计原则

4.  LLM驱动型应用程序的漏洞

5.  分析输入和输出

6.  无法避免提示词注入

7.  开始大模型应用微调

8.  使用零代码和低代码进行微调

9.  微调的应用

10.  生成和微调电子邮件营销活动的合成数据

11.   微调的成本

12.  案例项目分析

13.  项目1:构建新闻稿生成器

14.  项目2:语音控制

15.  项目3:企业管理系统MIS应用案例分析

16.  项目4:某企业智能管理系统

 

第4章  基于LangChain 框架开发大模型应用

第十一部分: ⼤模型应⽤开发框架 LangChain

1.  大模型应⽤开发框架 LangChain

2.  LangChain 是什么

3.  为什么需要 LangChain

4.  LangChain 典型使⽤场景

5.  LangChain 基础概念与模块化设计

6.  LangChain 核⼼模块⼊⻔与实战

7.  LangChain 的3 个场景

8.  LangChain 的6 大模块

9.  LangChain 的开发流程

10.  创建基于LangChain聊天机器人

 

第十二部分: 基于LangChain构建文档问答系统

1.  构建复杂LangChain应⽤

2.  LangChain模型(Models):从不同的 LLM 和嵌入模型中进行选择

3.  LangChain提示(Prompts):管理 LLM 输入

4.  LangChain链(Chains):将 LLM 与其他组件相结合

5.  LangChain索引(Indexs):访问外部数据

6.  LangChain记忆(Memory):记住以前的对话

7.  LangChain代理(Agents):访问其他工具

8.  使⽤大模型构建文档问答系统

 

第十三部分: 基于LangChain 生态体系构建企业应用

1.  构建复杂LangChain应⽤

2.  langchain的生态环境

3.  LangChain-Core:抽象LangChain的内核 和 LangChain 表达式语言。

4.  LangChain-Community:集成的各种第三方部件。

5.  LangChain:构成LLM应用程序需要的 链、代理和检索等。

6.  LangSmith:开发者平台,可让 调试、测试、评估和监控。

7.  LangServe:用于将 LangChain 的应用 部署为 REST API。

8.  LangChain Hub应用

9.  基于LangChain生态系统构建复杂企业大模型应用

 

第5章  开发企业级RAG知识系统

第十四部分: RAG技术概述

1.  RAG技术概述

2.  加载器和分割器

3.  文本嵌入和 向量存储

4.  检索器和多文档联合检索

5.  RAG技术的关键挑战

6.  检索增强生成实践

7.  RAG技术文档预处理过程

8.  RAG技术文档检索过程

 

第十五部分: 构建RAG Agent:实现检索增强生成

1.  何谓检索增强生成

2.  提示工程、RAG与微调

3.  从技术角度看检索部分的Pipeline

4.  从用户角度看RAG流程

5.  RAG和Agent

6.  通过Llamalndex的ReAct RAG Agent实现检索

7.  获取井加载电商的财报文件

8.  将财报文件的数据转换为向量数据

9.  构建查询引擎和工具

10.  配置文本生成引擎大模型

11.  创建Agent以查询信息

 

第十六部分: 基于LlamaIndex构建RAG应用

1.  何谓LlamaIndex

2.  LlamaIndex架构

3.  LlamaIndex 原理和核心概念

4.  LlamaIndex组件

5.  LlamaIndex和基于RAG的AI开发

6.  LlamaIndex开发示例

 

第十七部分: 基于其他框架构建RAG应用

1.  其他RAG框架

2.  QAnything‌:一个灵活的RAG框架,支持多种数据源和语言模型。

3.  RAGFlow‌:专注于流程控制的RAG框架,适合需要精细控制检索和生成过程的场景。

4.  FastGPT‌:结合了GPT模型和RAG技术的框架,适用于快速生成任务。

5.  Haystack‌:一个开源的RAG框架,支持多种语言和模型,易于部署和维护。

6.  Dify:专注于向量检索的RAG框架,适合需要高效检索的场景

 

第6章  构建Agent智能体开发

第十八部分:大模型驱动的Agent智能体开发概述

1.  智能体的定义与特点

2.  智能体与传统软件的关系

3.  智能体与LLM的关系

4.  从ChatGPT到智能体

5.  智能体的五种能力

6.  记忆,规划,工具,自主决策,推理

7.  多智能体协作

8.  企业级智能体应用与任务规划

9.  智能体开发

 

第十九部分:分析国内外智能体典型案例和商业应用

1.  国内智能体开发平台(字节Coze,智谱,百度,通义千问等)

2.  解读斯坦福小镇项目:生成式智能体典型案例

3.  AutoGPT:通过自然语言的需求描述执行自动化任务

4.  BabyAGI:根据任务结果自动创建,排序和执行新任务

5.  MetaGPT:重塑生成式AI与软件开发界面

6.  AutoGen:下一代LLM应用的启动器

7.  ChatDev:重塑软件开发的AI群体智能协作框架

8.  Camel AI:引领自主与交流智能体的未来

 

第二十部分: 基于LangChain构建Agent

1.  通过LangChain中的ReAct框架实现自动定价

2.  LangChain ReAct框架

3.  LangChain中ReAct Agent 的实现

4.  LangChain中的工具和工具包

5.  通过create_react_agent创建Agent

6.  深挖AgentExecutor的运行机制

7.  Plan-and-Solve策略的提出

8.  LangChain中的Plan-and-Execute Agent

9.  通过Plan-and-Execute Agent实现物流管理

10.  为Agent定义一系列进行自动库存调度的工具

 

第二十一部分: 基于百度AgentBuilder构建智能体

1.  百度文心一言大模型

2.  百度千帆大模型

3.  百度开发Agent智能体

4.  AgentBuilder

5.  AppBuilder

6.  ModelBuilder

7.  开发AI原生应用

8.  基于百度软件开发智能体

9.  构建研发工程师agent案例

 

第二十二部分: 基于其他平台构建Agent智能体

1.  基于智谱平台构建智能体

2.  基于通义千问构建智能体

3.  基于Coze构建智能体

4.  基于AutoGen 智能体实战

5.  基于FastGPT 知识库以及智能体

6.  基于DB-GPT构建数据分析智能体实战

 

第7章  基于AI的应用案例分析

第二十三部分: 大模型技术在金融业应用的思考与建议

1.  大模型技术在金融业应用的思考与建议

2.  大模型技术的特点及局限性分析

3.  大模型技术在金融领域的适用场景

4.  大模型技术与金融智能营销

5.  大模型技术与金融智能风控

6.  大模型技术与金融智能客服

7.  大模型技术与金融虚拟营业厅和数字人

8.  大模型技术与金融其他通用场景

 

第二十四部分: 大模型技术在电信行业应用

1.  大模型技术在电信行业应用的思考与建议

2.  大模型技术在电信领域的适用场景

3.  大模型技术在电信行业智能客服

4.  大模型技术在电信应用-智能运维

5.  大模型技术在电信行业网络运维智能化

 

第二十五部分: 大模型技术在其他行业应用

1.  大模型技术在教育科技应用-可汗学院(Khan Academy)

2.  大模型技术在大型企业数字化转型应用-法务智能辅助审核

3.  大模型技术在企业应用-安防企业智能文本审阅系统

4.  大模型技术在互联网和传媒应用-智能搜索与推荐系统

5.  大模型技术在建筑行业应用-智能工程图纸管理


返回上一级