LLMOps 与 AIOps 启蒙营,包含 9+ 个端到端项目

LLMOps And AIOps Bootcamp With 9+ End To End Projects

Jenkins CI/CD、Docker、K8s、AWS/GCP、Prometheus 监控及向量数据库用于生产 LLM 部署,含真实项目

你将学到

  • 使用 Langchain、FAISS、ChromaDB 等尖端工具构建和部署实际 AI 应用。
  • 使用 Jenkins、GitHub Actions、CircleCI、GitLab 和 ArgoCD 设置 CI/CD 管道。
  • 使用 Docker、Kubernetes、AWS 和 GCP 部署和扩展 AI 应用。
  • 使用 Trivy、Prometheus、Grafana 和 ELK 堆栈监控和安全保护 AI 系统。

要求

  • 模块化 Python 编程知识
  • 基础生成式 AI 如 Langchain、向量数据库等

课程介绍

准备好将您的生成式 AI 和 LLM(大型语言模型)技能提升到生产就绪水平了吗?这门 全面的 LLMOps 实践课程 专为开发者、数据科学家、MLOps 工程师和 AI 爱好者设计,他们希望使用尖端工具和现代云原生技术 构建、管理和部署可扩展的 LLM 应用 

在本课程中,您将学习如何使用 GitHub、Jenkins、Docker、Kubernetes、FastAPI、云服务(AWS & GCP)和 CI/CD 管道 桥接构建强大 LLM 应用和在真实世界生产环境中部署它们之间的差距。

我们将通过多个端到端项目 ,展示如何使用 Prometheus、Grafana 和 SonarQube 对 HuggingFace Transformers、微调模型和 Groq API 部署进行性能监控。你还将学习如何使用 Kubernetes(Minikube、GKE)、AWS Fargate 和 Google Artifact Registry(GAR) 管理基础设施和编排。

您将学到:

LLMOps 与生产挑战简介
了解部署 LLMs 所面临的挑战,以及 MLOps 原则如何扩展到 LLMOps。学习如何高效地扩展和维护这些模型的最佳实践。

版本控制与源代码管理
使用 Git & GitHub 设置和管理代码仓库,集成拉取请求、分支策略和项目工作流。

使用 Jenkins & GitHub Actions 的 CI/CD 管道
使用 JenkinsGitHub Actions 和自定义 AWS runners 自动化训练、测试和部署管道,以简化模型交付。

使用 FastAPI 进行 LLM 部署
使用 FastAPI 打包和暴露 LLM 服务,并部署具有适当错误处理、安全性和日志记录的推理端点。

Groq & HuggingFace 集成
集成 Groq API 以实现闪电般的 LLM 推理。使用 HuggingFace 模型 、微调和托管选项来部署自定义语言模型。

容器化 & 质量检查
学习如何使用 Docker 容器化您的 LLM 应用程序。使用 SonarQube 和其他静态分析工具确保代码质量和可维护性。

云原生部署(AWS & GCP)
使用 AWS FargateGCP GKE 部署应用程序,并与 GAR (Google Artifact Registry) 集成。学习如何管理密钥、存储和可扩展性。

向量数据库与语义搜索
使用 向量数据库 如 FAISS、Weaviate 或 Pinecone 实现语义搜索和检索增强生成(RAG)管道。

监控与可观测性
使用 Prometheus 和 Grafana 监控您的 LLM 系统,并通过日志记录、告警和仪表板确保系统健康。

Kubernetes & Minikube
使用 Kubernetes 对容器进行编排并扩展 LLM 工作负载,既可以在本地使用 Minikube,也可以在云端使用 GKE (Google Kubernetes Engine)

谁应该报名?

  • 希望进入 LLM 部署领域的 MLOps 和 DevOps 工程师
  • 希望将 LLM 解决方案产品化的数据科学家和 ML 工程师
  • 想要掌握可扩展 AI 部署的后端开发者
  • 对 LLMs、MLOps、DevOps 和云交叉领域感兴趣的人

涵盖的技术:

Git、GitHub、Jenkins、Docker、FastAPI、Groq、HuggingFace、SonarQube、AWS Fargate、AWS Runner、GCP、Google Kubernetes Engine (GKE)、Google Artifact Registry (GAR)、Minikube、向量数据库、Prometheus、Grafana、Kubernetes 等。

到本课程结束时,你将拥有在生产级基础设施上部署、监控和扩展 LLM 应用的实践经验 ,这将让你在构建实际 AI 系统方面获得竞争优势。

准备好提升你的 LLMOps 之旅!立即报名,构建生成式 AI 的未来。

这门课程适合谁:

  • 旨在进入 AI + DevOps 就业市场的学生或专业人士
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。