AI 安全和负责任的 AI 实践

AI Security and Responsible AI Practices

 视频说明

人工智能和机器学习系统的道德发展和负责任的部署。

  • 了解 AI 和 ML 安全方面的最新技术,以防范 AI 攻击者并确保数据完整性和用户隐私。
  • 了解隐私和道德考量,深入了解负责任的 AI 实践并解决道德考量问题。
  • 探索 AI、ML、安全、道德和隐私领域的新兴趋势和未来方向,重点关注威胁、漏洞和攻击媒介等关键概念。
  • 认识并理解 AI 和 ML 的隐私方面,包括数据保护、匿名化和法规遵从性

获得保护您的 AI 系统免受网络攻击的基本技能。探索如何利用生成式 AI LLMs 来保护您的项目和组织免受 AI 网络威胁。开发安全和合乎道德的系统,同时注意隐私问题,使用我们每天使用的 ChatGPT、GitHub Co-pilot、DALL-E、Midjourney、DreamStudio(Stable Diffusion)等现实生活中的例子。在 AI 和 ML 原则方面打下坚实的基础,并为开发安全和合乎道德的系统做好更好的准备,同时注意隐私问题。作者 Omar Santos 和 Petar Radanliev 博士是行业专家,可指导和提升您的 AI 安全知识。

 相关学习:

  • 报名参加 Omar Santos 的现场培训课程。
  • 阅读 超越算法:人工智能、安全、隐私和道德 作者:Omar Santos 和 Petar Radanliev。

 关于讲师:

Omar Santos 是思科的杰出工程师,专注于人工智能 (AI) 安全、网络安全研究、事件响应和漏洞披露。他是OASIS开放标准组织的董事会成员,也是OpenEoX的创始人。Omar 的协作工作扩展到众多组织,包括事件响应和安全团队论坛 (FIRST) 和互联网安全促进行业联盟 (ICASI)。Omar 是 FIRST PSIRT 特别兴趣小组 (SIG) 的联合主席。Omar 是 DEF CON Red Team Village 的负责人,也是共同安全咨询框架 (CSAF) 技术委员会的主席。Omar 是超过 25 本书、21 门视频课程和 50 多篇学术研究论文的作者。Omar 是道德黑客、漏洞研究、事件响应和 AI 安全方面的知名专家。他对网络安全的奉献对技术标准、企业、学术机构、政府机构和其他努力改进其网络安全计划的实体产生了重大影响。在加入思科之前,Omar 曾在美国海军陆战队服役,专注于指挥、控制、通信以及计算机和智能 (C4I) 系统的部署、测试和维护。

Petar Radanliev博士,牛津大学工程科学系。Radanliev 博士是一位成就卓著且经验丰富的网络安全专业人士,在学术和行业环境中拥有 10+ 年的经验。他在网络安全研究、风险管理和网络防御方面拥有专业知识,并在教学、指导和领导研究团队方面有着卓越的记录。技术技能包括新兴的网络/加密技术和算法、DeFi、区块链、元宇宙和量子密码学。彼达于2014年在威尔士大学获得博士学位,并在伦敦帝国理工学院、剑桥大学、麻省理工学院和牛津大学从事博士后研究。他获得的奖项包括美国的富布赖特奖学金和英国的威尔士亲王创新奖学金。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。