保护生成式 AI

Securing Generative AI

视频描述

获取 AI 安全的策略、方法、工具和最佳实践。

概述

3.5 小时的视频培训

  • 探索部署和开发 AI 应用程序、RAG、代理和其他 AI 实施的安全性
  • 通过实际 AI 和机器学习案例的实践技能进行实践学习
  • 在 AI 开发、部署和运营的每个阶段整合安全性

本课程全面探讨了部署和开发各种 AI 实现所需的关键安全措施,包括大型语言模型 ()LLMs 和检索增强生成 (RAG)。它解决了关键注意事项和缓解措施,以降低组织 AI 系统开发过程中的整体风险。经验丰富的作家和培训师 Omar Santos 强调“安全设计”原则,专注于安全结果、彻底的透明度以及构建优先考虑安全性的组织结构。您将了解 AI 威胁、LLM安全性、提示注入、不安全的输出处理和 Red Team AI 模型。本课程最后教您如何保护 RAG 实施。您将了解 LangChain、LlamaIndex 等编排库,以及保护矢量数据库、选择嵌入模型等。

相关学习

  • 报名参加 Omar Santos 的 Securing AI Implementations 培训
  • 报名参加 Omar Santos 的现场培训课程

关于讲师

Omar Santos 是 Cisco 的杰出工程师,专注于人工智能 (AI) 安全、研究、事件响应和漏洞披露。他是安全 AI 联盟 (CoSAI) 的联合主席、OASIS 开放标准组织的董事会成员以及 OpenEoX 的创始人。Omar 的协作工作延伸到众多组织,包括事件响应和安全团队论坛 (FIRST),他在那里担任 PSIRT 特别兴趣小组 (SIG) 的联合主席。Omar 是 DEF CON 红队村的负责人,也是通用安全咨询框架 (CSAF) 技术委员会主席。他著有 20 多本书、众多视频课程和 50 多篇学术研究论文。Omar 是道德黑客、漏洞研究、事件响应和 AI 安全方面的知名专家。他对网络安全的奉献对技术标准、企业、学术机构、政府机构和其他努力改进其网络安全计划的实体产生了重大影响。

技能水平

中间

课程要求

安装了 Python 3.x 的 Linux 系统。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。