构建、部署和扩展 LLM 支持的应用程序

Building Deploying and Scaling LLM Powered Applications

课程 1 – 使用 Langchain、OpenAI 和 Amazon Web Services 构建和扩展文本摘要服务

你将学到什么

  • 您将学习构建由大型语言模型支持的完整可扩展软件应用程序,并将其大规模部署在 Amazon Web Services 上
  • 您将学习如何将应用程序的 LLM 支持的后端与 Streamlit UI 前端集成
  • 您将首先学习在本地测试您的应用程序,然后使用 Docker 将其打包,最后学习在 Docker 内部使用 Streamlit 的最佳实践
  • 您将学习在运行时将 OpenAI 的 API 密钥注入到容器化应用程序中的模板和最佳实践
  • 您将学习解决容器化应用程序中的漏洞以及解决这些漏洞的最佳实践
  • 您将学习根据应用程序中的组件和设计选择来设计系统架构
  • 您将了解水平缩放和垂直缩放之间的差异
  • 您将深入学习如何应用无服务器部署,并学习如何将负载均衡器和自动扩展应用到您的应用程序
  • 您将能够应用您所学到的知识来构建、部署和扩展其他 LLM 支持的 Langchain 应用程序

要求

  • 本课程的使用者必须了解如何用Python编写代码、Langchain的基础知识(尽管会在课程视频中讨论)、AWS的基础知识。此外,优先考虑 Docker 的基本知识,但不是必需的,因为课程中将教授打包应用程序以进行部署所需的信息

描述

您准备好深入机器学习工程世界并构建强大的软件应用程序了吗?我们的机器学习工程课程旨在帮助您掌握充分发挥 Langchain 潜力、集成 OpenAI API、在 AWS Elastic Container Service 上部署应用程序以及使用负载均衡器和 Auto Scaling 组高效管理扩展的技能和知识。

在本实践课程中,您将学习如何从头开始创建强大的机器学习应用程序。我们将从掌握 Langchain(一种尖端语言模型)开始,并演示如何在运行时将 OpenAI API 密钥无缝注入到预测管道中。您将熟练地设计和开发能够理解、处理和生成类人文本的 ML 应用程序。

随着您的进步,我们将探索水平扩展和垂直扩展的基本概念,让您清楚地了解何时以及如何实施每个策略。然后,您将了解如何通过在 AWS 上部署 Application Load Balancer 和 Auto Scaling 组来轻松扩展 ML 应用程序,从而确保高可用性和容错能力。

在本课程结束时,您将精通构建 ML 驱动的软件应用程序、在 AWS 上部署它们以及扩展它们以满足用户的需求。加入我们进入机器学习工程世界的激动人心的旅程,并成为这个快速发展的领域的熟练实践者。

本课程适合谁:

  • 本课程的重点是向您介绍机器学习工程。本课程将使学习者能够构建、部署和扩展端到端软件应用程序,该应用程序在后端由大型语言模型提供支持,以根据用户给定的输入生成结果。本课程的主要目标是教授一个框架,用户可以重复并应用该框架来构建其他使用 OpenAI 的 LLM 的软件应用程序,在运行时注入 API 密钥以避免密钥泄漏,并在 Amazon Web Services 上大规模部署各自的应用程序。
  • 这是一门中级课程,面向对开发、部署和扩展 LLM 支持的应用程序感兴趣的开发人员。本课程的目标受众是:软件工程师、数据科学家、机器学习工程师和人工智能工程师。然而,这些绝对不是硬性要求,同样欢迎那些想要学习大规模构建、测试和部署软件应用程序的人。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。