基于大型语言模型、提示、检索增强生成和向量数据库的生成式AI架构
Generative AI Architectures with LLM, Prompt, RAG, Vector DB
使用 Prompt Engineering、RAG、Fine-Tuning 和 Vector DB 设计 AI 驱动的 S/LLMs 并将其集成到企业应用程序中
您将会学到
-
生成式 AI 模型架构(生成式 AI 模型的类型)
-
Transformer 架构:注意力就是您所需要的
-
大型语言模型 ()LLMs 体系结构
-
文本生成、摘要、Q&A、分类、情感分析、嵌入语义搜索
-
使用 ChatGPT 生成文本:了解(动手实践)的功能LLMs和限制
-
大型语言模型中的函数调用和结构化输出 (LLMs)
-
LLM提供商: OpenAI、Meta AI、Anthropic、Hugging Face、Microsoft、Google 和 Mistral AI
-
LLM模型:OpenAI ChatGPT、Meta Llama、Anthropic Claude、Google Gemini、Mistral Mixral、xAI Grok
-
SLM 模型:OpenAI ChatGPT 4o mini、Meta Llama 3.2 mini、Google Gemma、Microsoft Phi 3.5
-
如何选择LLM模型:质量、速度、价格、延迟和上下文窗口
-
与聊天 UI 交互不同 LLMs:ChatGPT、LLama、Mixtral、Phi3
-
使用 Ollama 安装和运行 Llama 和 Gemma 模型
-
利用 AI 驱动的LLM功能实现企业应用程序的现代化
-
设计具有 AI 驱动LLM功能的“EShop Support App”
-
高级提示技术:Zero-shot、One-shot、Few-shot、COT
-
在 EShop 支持应用程序中为工单详细信息页面设计高级提示,带问答聊天和 RAG
-
RAG 架构:使用嵌入和向量搜索进行摄取
-
检索增强一代 (RAG) 的 E2E 工作流程 – RAG 工作流程
-
使用 OpenAI Playground 的 EShop 客户支持的端到端 RAG 示例
-
微调方法:完全、参数高效的微调 (PEFT)、LoRA、传输
-
使用 OpenAI Playground LLM 为 EShop 客户支持进行端到端微调
-
选择正确的优化 – Prompt Engineering、RAG 和 Fine-Tuning
-
使用 RAG 进行向量数据库和语义搜索
-
探索向量嵌入模型:OpenAI – text-embedding-3-small、Ollama – all-minilm
-
探索载体数据库:Pinecone、Chroma、Weaviate、Qdrant、Milvus、PgVector、Redis
-
在LLMs微服务架构中使用 VectorDB 作为云原生支持服务
-
使用 LLMs、矢量数据库和语义搜索设计 EShop 支持
-
使用 Azure 云 AI 服务设计镜像支持:Azure OpenAI、Azure AI 搜索
要求
-
软件架构基础知识
描述
在本课程中,您将学习如何设计生成式 AI 架构 ,并使用 Prompt Engineering、RAG、Fine-tuning 和 Vector DB 将 AI 驱动的 S/LLMs 集成到 EShop Support 企业应用程序中 。
我们将使用以下组件设计生成式 AI 架构;
-
小型和大型语言模型 (S/LLMs)
-
快速工程
-
检索增强生成 (RAG)
-
微调
-
矢量数据库
我们从基础知识开始 , 然后逐步深入研究每个主题。我们还将遵循 LLM Augmentation Flow,它是一个强大的框架,可以在 Prompt Engineering、RAG 和 Fine-tuning 之后增强LLM结果。
大型语言模型 ()LLMs 模块;
-
大型语言模型 ()LLMs 如何工作?
-
功能 LLMs: 文本生成、摘要、问答、分类、情感分析、嵌入语义搜索、代码生成
-
使用 ChatGPT 生成文本:了解(动手实践)的功能LLMs和限制
-
大型语言模型中的函数调用和结构化输出 (LLMs)
-
LLM模型:OpenAI ChatGPT、Meta Llama、Anthropic Claude、Google Gemini、Mistral Mixral、xAI Grok
-
SLM 模型:OpenAI ChatGPT 4o mini、Meta Llama 3.2 mini、Google Gemma、Microsoft Phi 3.5
-
与聊天 UI 交互不同 LLMs:ChatGPT、LLama、Mixtral、Phi3
-
将 OpenAI 聊天完成端点与编码交互
-
使用 Ollama 安装和运行 Llama 和 Gemma 模型以在本地运行LLMs
-
现代化和设计具有 AI 支持LLM的企业应用程序
提示工程模块;
-
设计有效提示的步骤:迭代、评估和模板化
-
高级提示技术:零镜头、一次性、少数镜头、思维链、指导和基于角色
-
为搜索页面支持设计高级提示 – 分类、情感分析、摘要、问答聊天和响应文本生成
-
在 EShop 支持应用程序中为工单详细信息页面设计高级提示,带问答聊天和 RAG
检索增强生成 (RAG) 模块;
-
RAG 架构第 1 部分:使用嵌入和向量搜索进行摄取
-
RAG 架构第 2 部分:使用重新排名和上下文查询提示进行检索
-
RAG 架构第 3 部分:使用发生器和输出生成
-
检索增强一代 (RAG) 的 E2E 工作流程 – RAG 工作流程
-
使用 RAG 设计 EShop 客户支持
-
使用 OpenAI Playground 的 EShop 客户支持的端到端 RAG 示例
微调模块;
-
微调工作流程
-
微调方法:完全、参数高效的微调 (PEFT)、LoRA、传输
-
使用 Fine-Tuning 设计 EShop 客户支持
-
使用 OpenAI Playground LLM 为 EShop 客户支持进行端到端微调
此外,我们将讨论
-
选择正确的优化 – Prompt Engineering、RAG 和 Fine-Tuning
使用 RAG 模块的向量数据库和语义搜索
-
什么是 Vectors、Vector Embeddings 和 Vector Database?
-
探索向量嵌入模型:OpenAI – text-embedding-3-small、Ollama – all-minilm
-
语义意义和相似性搜索:余弦相似性、欧几里得距离
-
向量数据库的工作原理:向量创建、索引、搜索
-
向量搜索算法:kNN、ANN 和 Disk-ANN
-
探索载体数据库:Pinecone、Chroma、Weaviate、Qdrant、Milvus、PgVector、Redis
最后,我们将使用 LLMs 和 Vector 数据库设计 EShopSupport 架构
-
在LLMs微服务架构中使用 VectorDB 作为云原生支持服务
-
使用 LLMs、矢量数据库和语义搜索设计 EShop 支持
-
Azure 云 AI 服务:Azure OpenAI、Azure AI 搜索
-
使用 Azure 云 AI 服务设计镜像支持:Azure OpenAI、Azure AI 搜索
本课程不仅仅是学习生成式 AI,它还深入探讨了如何通过将架构集成到LLM企业应用程序中来设计高级 AI 解决方案。
您将获得设计完整 EShop 客户支持应用程序的实践经验 ,包括LLM摘要、问答、分类、情感分析、嵌入语义搜索、代码生成等功能。
此课程面向哪些人:
- 将 AI Powered LLMs 集成到企业应用程序中的初学者
评论(0)