基于大型语言模型、提示、检索增强生成和向量数据库的生成式AI架构

Generative AI Architectures with LLM, Prompt, RAG, Vector DB

使用 Prompt Engineering、RAG、Fine-Tuning 和 Vector DB 设计 AI 驱动的 S/LLMs 并将其集成到企业应用程序中

您将会学到

  • 生成式 AI 模型架构(生成式 AI 模型的类型)
  • Transformer 架构:注意力就是您所需要的
  • 大型语言模型 ()LLMs 体系结构
  • 文本生成、摘要、Q&A、分类、情感分析、嵌入语义搜索
  • 使用 ChatGPT 生成文本:了解(动手实践)的功能LLMs和限制
  • 大型语言模型中的函数调用和结构化输出 (LLMs)
  • LLM提供商: OpenAI、Meta AI、Anthropic、Hugging Face、Microsoft、Google 和 Mistral AI
  • LLM模型:OpenAI ChatGPT、Meta Llama、Anthropic Claude、Google Gemini、Mistral Mixral、xAI Grok
  • SLM 模型:OpenAI ChatGPT 4o mini、Meta Llama 3.2 mini、Google Gemma、Microsoft Phi 3.5
  • 如何选择LLM模型:质量、速度、价格、延迟和上下文窗口
  • 与聊天 UI 交互不同 LLMs:ChatGPT、LLama、Mixtral、Phi3
  • 使用 Ollama 安装和运行 Llama 和 Gemma 模型
  • 利用 AI 驱动的LLM功能实现企业应用程序的现代化
  • 设计具有 AI 驱动LLM功能的“EShop Support App”
  • 高级提示技术:Zero-shot、One-shot、Few-shot、COT
  • 在 EShop 支持应用程序中为工单详细信息页面设计高级提示,带问答聊天和 RAG
  • RAG 架构:使用嵌入和向量搜索进行摄取
  • 检索增强一代 (RAG) 的 E2E 工作流程 – RAG 工作流程
  • 使用 OpenAI Playground 的 EShop 客户支持的端到端 RAG 示例
  • 微调方法:完全、参数高效的微调 (PEFT)、LoRA、传输
  • 使用 OpenAI Playground LLM 为 EShop 客户支持进行端到端微调
  • 选择正确的优化 – Prompt Engineering、RAG 和 Fine-Tuning
  • 使用 RAG 进行向量数据库和语义搜索
  • 探索向量嵌入模型:OpenAI – text-embedding-3-small、Ollama – all-minilm
  • 探索载体数据库:Pinecone、Chroma、Weaviate、Qdrant、Milvus、PgVector、Redis
  • 在LLMs微服务架构中使用 VectorDB 作为云原生支持服务
  • 使用 LLMs、矢量数据库和语义搜索设计 EShop 支持
  • 使用 Azure 云 AI 服务设计镜像支持:Azure OpenAI、Azure AI 搜索

要求

  • 软件架构基础知识

描述

在本课程中,您将学习如何设计生成式 AI 架构 ,并使用 Prompt Engineering、RAG、Fine-tuning 和 Vector DB 将 AI 驱动的 S/LLMs 集成到 EShop Support 企业应用程序中 

我们将使用以下组件设计生成式 AI 架构;

  1. 小型和大型语言模型 (S/LLMs)

  2. 快速工程

  3. 检索增强生成 (RAG)

  4. 微调

  5. 矢量数据库

我们从基础知识开始  然后逐步深入研究每个主题。我们还将遵循 LLM Augmentation Flow,它是一个强大的框架,可以在 Prompt Engineering、RAG 和 Fine-tuning 之后增强LLM结果。

大型语言模型 ()LLMs 模块;

  • 大型语言模型 ()LLMs 如何工作?

  • 功能 LLMs: 文本生成、摘要、问答、分类、情感分析、嵌入语义搜索、代码生成

  • 使用 ChatGPT 生成文本:了解(动手实践)的功能LLMs和限制

  • 大型语言模型中的函数调用和结构化输出 (LLMs)

  • LLM模型:OpenAI ChatGPT、Meta Llama、Anthropic Claude、Google Gemini、Mistral Mixral、xAI Grok

  • SLM 模型:OpenAI ChatGPT 4o mini、Meta Llama 3.2 mini、Google Gemma、Microsoft Phi 3.5

  • 与聊天 UI 交互不同 LLMs:ChatGPT、LLama、Mixtral、Phi3

  • 将 OpenAI 聊天完成端点与编码交互

  • 使用 Ollama 安装和运行 Llama 和 Gemma 模型以在本地运行LLMs

  • 现代化和设计具有 AI 支持LLM的企业应用程序

提示工程模块;

  • 设计有效提示的步骤:迭代、评估和模板化

  • 高级提示技术:零镜头、一次性、少数镜头、思维链、指导和基于角色

  • 为搜索页面支持设计高级提示 – 分类、情感分析、摘要、问答聊天和响应文本生成

  • 在 EShop 支持应用程序中为工单详细信息页面设计高级提示,带问答聊天和 RAG

检索增强生成 (RAG) 模块;

  • RAG 架构第 1 部分:使用嵌入和向量搜索进行摄取

  • RAG 架构第 2 部分:使用重新排名和上下文查询提示进行检索

  • RAG 架构第 3 部分:使用发生器和输出生成

  • 检索增强一代 (RAG) 的 E2E 工作流程 – RAG 工作流程

  • 使用 RAG 设计 EShop 客户支持

  • 使用 OpenAI Playground 的 EShop 客户支持的端到端 RAG 示例

微调模块;

  • 微调工作流程

  • 微调方法:完全、参数高效的微调 (PEFT)、LoRA、传输

  • 使用 Fine-Tuning 设计 EShop 客户支持

  • 使用 OpenAI Playground LLM 为 EShop 客户支持进行端到端微调

此外,我们将讨论

  • 选择正确的优化 – Prompt Engineering、RAG 和 Fine-Tuning

使用 RAG 模块的向量数据库和语义搜索

  • 什么是 Vectors、Vector Embeddings 和 Vector Database?

  • 探索向量嵌入模型:OpenAI – text-embedding-3-small、Ollama – all-minilm

  • 语义意义和相似性搜索:余弦相似性、欧几里得距离

  • 向量数据库的工作原理:向量创建、索引、搜索

  • 向量搜索算法:kNN、ANN 和 Disk-ANN

  • 探索载体数据库:Pinecone、Chroma、Weaviate、Qdrant、Milvus、PgVector、Redis

最后,我们将使用 LLMs 和 Vector 数据库设计 EShopSupport 架构

  • 在LLMs微服务架构中使用 VectorDB 作为云原生支持服务

  • 使用 LLMs、矢量数据库和语义搜索设计 EShop 支持

  • Azure 云 AI 服务:Azure OpenAI、Azure AI 搜索

  • 使用 Azure 云 AI 服务设计镜像支持:Azure OpenAI、Azure AI 搜索

本课程不仅仅是学习生成式 AI,它还深入探讨了如何通过将架构集成到LLM企业应用程序中设计高级 AI 解决方案。

您将获得设计完整 EShop 客户支持应用程序的实践经验 ,包括LLM摘要、问答、分类、情感分析、嵌入语义搜索、代码生成等功能。

此课程面向哪些人:

  • 将 AI Powered LLMs 集成到企业应用程序中的初学者
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。