用于生成式 AI 的 BootCAMP,LLM,全栈 20 个项目
BootCAMP for Generative AI, LLM with Full Stack 20 Projects
核心实践:生成式 AI、LLM(大型语言模型)、JavaScript 应用,20 倍速度的推理原型。获得工作机会:生成式 AI
学习内容
-
什么是 Docker 以及如何使用 Docker
-
高级 Docker 使用
-
什么是 OpenCL 和 OpenGL,何时使用?
-
(实验室)Tensorflow 和 Pytorch 安装,使用 Docker 进行配置
-
(实验室)DockerFile、Docker Compile 和 Docker Compose Debug 文件配置
-
(实验室)不同的 YOLO 版本、比较以及根据您的问题何时使用哪个版本的 YOLO
-
(实验室)Jupyter Notebook 编辑器以及 Visual Studio 编码技能
-
(实验室)学习并为全栈和 c++ 编码练习做好准备
-
(实验室)TENSORRT 精确浮点 32/16 模型定量
-
主要区别:显式 Batch 大小与隐式 Batch Size
-
(实验室)TENSORRT PRECISION INT8 模型定量
-
(实验室)Visual Studio Code 设置和带有 VS 和 GDB 调试器的 Docker 调试器
-
(LAB) 什么是 ONNX 框架 C Plus 以及如何将 onnx 应用于您的自定义 C++ 问题
-
(实验室)什么是 TensorRT 框架以及如何使用应用于您的自定义问题
-
(实验室)图像和视频的自定义检测、分类、分割问题和推理
-
(实验室)基本 C++ 面向对象编程
-
(实验室)高级 C++ 面向对象编程
-
(实验室)边缘设备上的深度学习问题解决技能,以及使用 C++ 编程语言进行云计算
-
(实验室)如何在嵌入式设备上生成高性能推理模型,以获得高精度、FPS 检测以及更少的 GPU 内存消耗
-
(实验室)使用 Docker 的 Visual Studio Code
-
(实验室)带有 SonarLite 和 SonarCube 调试器的 GDB 调试器
-
(LAB) 使用 opencv c++ dnn 库的 yolov4 onnx 推理
-
(LAB) 使用 opencv c++ dnn 库的 yolov5 onnx 推理
-
(LAB) 使用动态 C++ TensorRT 库的 yolov5 onnx 推理
-
(实验室)C++(11/14/17) 编译器编程练习
-
主要区别:OpenCV 和 CUDA/ OpenCV 和 TENSORRT
-
(实验室)深入了解使用 Axios 前端 Rest API 进行 React 开发
-
(实验室)深入探讨 Flask Rest API 与 MySql 的 REACT
-
(实验室)深入探讨 Web 应用程序上的文本摘要推理
-
(实验室)深入探讨 BERT (LLM) Web App 上的微调和情感分析
-
(实验室)深入探讨使用自然语言处理进行分布式 GPU 编程(大型语言模型))
-
(实验室)深入探讨 BERT (LLM) Web App 上的微调和情感分析
-
(实验室)深入了解生成式 AI 用例、项目生命周期和模型预训练
-
(实验室)微调和评估大型语言模型
-
(实验室)强化学习和 LLM 驱动的应用程序,ALIGN 根据用户反馈进行微调
-
(实验室)使用现代 Nvidia GPU 对大型语言模型进行量化
-
(实验室)C++ OOP TensorRT 量化和快速推理
-
(实验室)深入了解 Hugging FACE 库
-
(实验室)翻译 ● 文本摘要 ● 问答
-
(实验室)序列到序列模型,仅基于编码器的模型,仅基于解码器的模型
-
(实验室)定义术语 生成式 AI、大型语言模型、提示,并描述为 LLMs
-
(实验室)讨论模型预训练期间的计算挑战,并确定如何有效地减少内存占用
-
(实验室)描述使用提示数据集通过说明进行微调如何提高一个或多个任务的性能
-
(实验室)说明 PEFT 如何降低计算成本并克服灾难性遗忘
-
(实验室)描述 RLHF 如何利用人工反馈来提高大型语言模型的性能和对齐方式
-
(实验室)讨论 LLMs 在知识中断方面面临的挑战,并解释信息检索和增强技术如何克服这些挑战。
-
识别并理解为专业应用程序微调语言模型时使用的各种策略和技术。
-
掌握有效预处理数据集所需的技能,确保它们采用 AI 训练的理想格式。
-
研究微调的 AI 模型在多个行业的实际场景中的巨大潜力。
-
获得有关如何估算和管理与 AI 模型训练相关的成本的知识,使流程高效且经济
-
使用 Pytorch 和 Retrieval Augme 跨多个 GPU/CPU 进行分布式计算 (DDP) 分布式数据并行化和完全共享数据并行
-
RoBERTa 模型是在 RoBERTa:一种稳健优化的 BERT 预训练方法中提出的
要求
-
为了理解本课程,考生需要遵循以下基本过程:Tensorflow-Pytorch-TensorRT-ONNX-从零到英雄(YOLOVX.
-
基本的 C++ 编程知识
-
基本的 C 语言编程知识
-
本地 Nvidia GPU 设备
-
基本的自然语言处理知识
-
基本的 Python 知识
-
基本的 HTML、CSS、BootStrap 知识
描述
本课程深入探讨生成式 AI 最先进的科学挑战。它有助于发现持续存在的问题并开发或自定义您自己的大型模型应用程序。课程主要适合任何对当今持续挑战的大型语言模型有很大动力的考生(学生、工程师、专家),以及他们对基于 Python 和 Javascript Web 应用程序以及 C/C++ 编程语言的深入了解。考生将对 TensorFlow、Pytorch、Keras 模型、HuggingFace 和 Docker 服务有深入的了解。
此外,人们将能够优化和量化 TensorRT 框架,以便在各个领域进行部署。此外,他们将学习将 LLM 量化模型部署到使用 React、Javascript 和 FLASK 开发的网页上
在这里,您还将学习如何将强化学习 (PPO) 集成到大型语言模型中,以便使用基于人工反馈的模型对其进行改进。
考生将至少在中级水平上学习如何使用 C/C++ 编程语言进行编码和调试。
LLM 使用的型号:
-
猎鹰,
-
美洲驼2,
-
绽放
-
邮电部
-
小羊驼
-
FLAN-T5,
-
GPT2/GPT3、GPT NEOX
-
BERT 101,蒸馏 BERT
-
微调 小模型 在 BIG 模型的监督下
-
等等……
-
从头开始学习和安装 Docker
-
了解 Javscript、HTML、CSS、Bootstrap
-
React Hook、DOM 和 Javacscript Web 开发
-
深入了解基于 Deep Learning Transformer 的自然语言处理
-
Python FLASK Rest API 和 MySql
-
准备 DockerFiles、Docker Compose 以及 Docker Compose 调试文件
-
在 Visual Studio Code 中配置和安装插件包
-
从头开始学习、安装和配置框架,例如 Tensorflow、Pytorch、Kears 和 docker 镜像
-
用于训练和测试的深度学习数据集的预处理和准备
-
使用 C++ 推理的 OpenCV DNN
-
深度学习框架的训练、测试和验证
-
使用 C++ 编程将预构建模型转换为 Onnx 和 Onnx 图像推理
-
使用 C++ 运行时和编译时 API 将 onnx 模型转换为 TensorRT 引擎
-
TensorRT 引擎图像和视频推理
-
TensorRT 和 Onnx 推理之间实现的指标和结果的比较
-
为 C++ 面向对象的编程推理做好准备!
-
准备好使用 C/C++ 解决任何编程挑战
-
阅读以解决边缘设备和云区域中的部署问题
-
大型语言模型精细调优
-
大型语言模型动手实践:BLOOM、GPT3-GPT3.5、FLAN-T5 系列
-
大型语言模型训练、评估和用户定义的提示上下文学习/在线学习
-
LLM与强化学习 (PPO) 和大型语言模型:BERT 和 FLAN-T5
-
如何在大型多任务 LLM。
-
如何为多任务问题准备 LLM,例如代码生成、摘要、内容分析器、图像生成。
-
使用各种现有最先进的技术对大型语言模型进行量化
-
重要提示:
在这个课程中,没有任何东西可以复制和粘贴,你将投入到项目的每一行中,以成功成为LLM和Web应用程序开发人员!
您不需要任何特殊硬件组件。您将在 CLOUD 或本地计算机上交付项目。
本课程适合谁:
- 大学生
- 应届毕业生
- 工人
- 那些希望在边缘设备上部署深度学习模型的公司。
- AI 专家
- 嵌入式软件工程师
- 自然语言开发人员
- 机器学习与深度学习工程
- 全栈开发人员、Javascript、Python
评论(0)