LLMOps 与 AIOps 启蒙营,包含 9+ 个端到端项目
LLMOps And AIOps Bootcamp With 9+ End To End Projects
Jenkins CI/CD、Docker、K8s、AWS/GCP、Prometheus 监控及向量数据库用于生产 LLM 部署,含真实项目
你将学到
-
使用 Langchain、FAISS、ChromaDB 等尖端工具构建和部署实际 AI 应用。
-
使用 Jenkins、GitHub Actions、CircleCI、GitLab 和 ArgoCD 设置 CI/CD 管道。
-
使用 Docker、Kubernetes、AWS 和 GCP 部署和扩展 AI 应用。
-
使用 Trivy、Prometheus、Grafana 和 ELK 堆栈监控和安全保护 AI 系统。
要求
-
模块化 Python 编程知识
-
基础生成式 AI 如 Langchain、向量数据库等
课程介绍
准备好将您的生成式 AI 和 LLM(大型语言模型)技能提升到生产就绪水平了吗?这门 全面的 LLMOps 实践课程 专为开发者、数据科学家、MLOps 工程师和 AI 爱好者设计,他们希望使用尖端工具和现代云原生技术 构建、管理和部署可扩展的 LLM 应用 。
在本课程中,您将学习如何使用 GitHub、Jenkins、Docker、Kubernetes、FastAPI、云服务(AWS & GCP)和 CI/CD 管道 桥接构建强大 LLM 应用和在真实世界生产环境中部署它们之间的差距。
我们将通过多个端到端项目 ,展示如何使用 Prometheus、Grafana 和 SonarQube 对 HuggingFace Transformers、微调模型和 Groq API 部署进行性能监控。你还将学习如何使用 Kubernetes(Minikube、GKE)、AWS Fargate 和 Google Artifact Registry(GAR) 管理基础设施和编排。
您将学到:
LLMOps 与生产挑战简介
了解部署 LLMs 所面临的挑战,以及 MLOps 原则如何扩展到 LLMOps。学习如何高效地扩展和维护这些模型的最佳实践。
版本控制与源代码管理
使用 Git & GitHub 设置和管理代码仓库,集成拉取请求、分支策略和项目工作流。
使用 Jenkins & GitHub Actions 的 CI/CD 管道
使用 Jenkins、GitHub Actions 和自定义 AWS runners 自动化训练、测试和部署管道,以简化模型交付。
使用 FastAPI 进行 LLM 部署
使用 FastAPI 打包和暴露 LLM 服务,并部署具有适当错误处理、安全性和日志记录的推理端点。
Groq & HuggingFace 集成
集成 Groq API 以实现闪电般的 LLM 推理。使用 HuggingFace 模型 、微调和托管选项来部署自定义语言模型。
容器化 & 质量检查
学习如何使用 Docker 容器化您的 LLM 应用程序。使用 SonarQube 和其他静态分析工具确保代码质量和可维护性。
云原生部署(AWS & GCP)
使用 AWS Fargate、GCP GKE 部署应用程序,并与 GAR (Google Artifact Registry) 集成。学习如何管理密钥、存储和可扩展性。
向量数据库与语义搜索
使用 向量数据库 如 FAISS、Weaviate 或 Pinecone 实现语义搜索和检索增强生成(RAG)管道。
监控与可观测性
使用 Prometheus 和 Grafana 监控您的 LLM 系统,并通过日志记录、告警和仪表板确保系统健康。
Kubernetes & Minikube
使用 Kubernetes 对容器进行编排并扩展 LLM 工作负载,既可以在本地使用 Minikube,也可以在云端使用 GKE (Google Kubernetes Engine)。
谁应该报名?
- 希望进入 LLM 部署领域的 MLOps 和 DevOps 工程师
- 希望将 LLM 解决方案产品化的数据科学家和 ML 工程师
- 想要掌握可扩展 AI 部署的后端开发者
- 对 LLMs、MLOps、DevOps 和云交叉领域感兴趣的人
涵盖的技术:
Git、GitHub、Jenkins、Docker、FastAPI、Groq、HuggingFace、SonarQube、AWS Fargate、AWS Runner、GCP、Google Kubernetes Engine (GKE)、Google Artifact Registry (GAR)、Minikube、向量数据库、Prometheus、Grafana、Kubernetes 等。
到本课程结束时,你将拥有在生产级基础设施上部署、监控和扩展 LLM 应用的实践经验 ,这将让你在构建实际 AI 系统方面获得竞争优势。
准备好提升你的 LLMOps 之旅!立即报名,构建生成式 AI 的未来。
这门课程适合谁:
- 旨在进入 AI + DevOps 就业市场的学生或专业人士


评论(0)