开源LLMs :使用 RAG 本地未经审查且安全的 AI
Open-source LLMs: Uncensored & secure AI locally with RAG
私人 ChatGPT 替代方案:Llama3、Mistral a。更多功能调用、RAG、矢量数据库、LangChain、AI-Agents
你将学到什么
-
为什么选择开源LLMs ?开源和闭源LLMs的差异、优点和缺点
-
ChatGPT、Llama、Mistral、Phi3、Qwen2-72B-Instruct、Grok、Gemma 等LLMs是什么?
-
有哪些LLMs可供选择以及我应该使用什么?寻找“最好的LLMs ”
-
在本地使用开源LLMs的要求
-
LM Studio、Anything LLM 、Ollama 以及操作LLMs的替代方法的安装和使用
-
经过审查与未经审查的LLMs
-
使用 Huggingface 或 Google Colab 微调开源模型
-
视觉(图像识别)与开源LLMs :Llama3、Llava 和 Phi3 Vision
-
硬件详细信息:GPU 卸载、CPU、RAM 和 VRAM
-
关于 HuggingChat:使用开源LLMs的界面
-
提示工程中的系统提示+函数调用
-
提示工程基础知识:语义关联、结构化和角色提示
-
Groq:使用带有快速 LPU 芯片而不是 GPU 的开源LLMs
-
矢量数据库、嵌入模型和检索增强生成 (RAG)
-
使用 Anything LLM和 LM Studio 创建本地 RAG 聊天机器人
-
链接 Ollama 和 Llama 3,以及使用 Llama 3 和 Anything LLM进行函数调用
-
使用 Python 调用函数来汇总数据、存储和创建图表
-
使用 Anything LLM和外部 API 的其他功能
-
使用 Firecrawl 获取网站数据的更好 RAG 应用程序、使用 LlamaIndex 和 LlamaParse 获取 PDF 和 CSV 的更高效 RAG 的技巧
-
AI代理的定义和可用工具,通过Node在本地安装和使用Flowise(比Langchain和LangGraph更容易)
-
创建生成Python代码和文档的AI代理,并使用具有函数调用、互联网访问和三个专家的AI代理
-
托管和使用:您应该构建哪种 AI 代理以及使用 Google Colab 进行外部托管、文本转语音 (TTS)
-
使用 Google Colab 微调开源LLMs (Alpaca + Llama-3 8b、Unsloth)
-
通过 Runpod 或 Massed Compute 租用 GPU
-
安全方面:越狱和对LLMs的越狱、即时注入和数据中毒攻击带来的安全风险
-
数据隐私和数据安全,以及商业使用和销售生成内容的政策
要求
-
无需先验知识;一切都会一步步显示出来。
-
拥有一台配备良好显卡、16 GB RAM 和 6 GB VRAM(Apple M 系列、Nvidia 和 AMD 是理想的)的 PC 是有利的,但这不是强制性的。
描述
ChatGPT 很有用,但您是否注意到有许多受审查的主题,您被推向某些政治方向,一些无害的问题得不到解答,而且我们的数据在 OpenAI 下可能不安全?这就是 Llama3、Mistral、Grok、Falkon、Phi3 和 Command R+ 等开源LLMs可以提供帮助的地方!
您准备好掌握开源LLMs的细微差别并充分利用其在从数据分析到创建聊天机器人和人工智能代理的各种应用程序中的潜力了吗?那么这门课程适合您!
开源LLMs简介
本课程全面介绍开源LLMs的世界。您将了解开源和闭源模型之间的差异,并了解为什么开源LLMs是一个有吸引力的选择。将详细介绍 ChatGPT、Llama 和 Mistral 等主题。此外,您还将了解可用的LLMs以及如何选择最适合您需求的模式。该课程特别强调闭源LLMs的缺点以及 Llama3 和 Mistral 等开源LLMs的优缺点。
开源LLMs的实际应用
本课程将指导您以最简单的方式在本地运行开源LLMs ,以及此设置所需的内容。您将了解先决条件、LM Studio 的安装以及操作LLMs替代方法。此外,您将学习如何在 LM Studio 中使用开源模型,了解审查和未经审查的LLMs之间的区别,并探索各种用例。该课程还涵盖使用 Huggingface 或 Google Colab 微调开源模型以及使用视觉模型进行图像识别。
快速工程和云部署
本课程的一个重要部分是开源LLMs的即时工程。您将学习如何使用 HuggingChat 作为界面,在提示工程中利用系统提示,以及应用基本和高级提示工程技术。本课程还提供了有关在 HuggingChat 中创建自己的助手以及使用具有快速 LPU 芯片而不是 GPU 的开源LLMs见解。
函数调用、RAG 和向量数据库
了解LLMs中的函数调用是什么以及如何实现向量数据库、嵌入模型和检索增强生成 (RAG)。本课程向您展示如何安装 Anything LLM 、设置本地服务器以及使用 Anything LLM和 LM Studio 创建 RAG 聊天机器人。您还将学习使用 Llama 3 和 Anything LLM执行函数调用、汇总数据、存储数据并使用 Python 将其可视化。
优化和人工智能代理
为了优化您的 RAG 应用程序,您将收到有关数据准备和有效使用 LlamaIndex 和 LlamaParse 等工具的提示。此外,您还将了解人工智能代理的世界。您将了解什么是 AI 代理、可用的工具以及如何通过 Node.js 在本地安装和使用 Flowise。该课程还提供了创建生成 Python 代码和文档的 AI 代理以及使用函数调用和互联网访问的实用见解。
其他应用和提示
最后,本课程介绍了使用 Google Colab 进行文本转语音 (TTS) 以及使用 Google Colab 微调开源LLMs 。如果您的本地 PC 不够用,您将学习如何从 Runpod 或 Massed Compute 等提供商那里租用 GPU。此外,您还将探索 Microsoft Autogen 和 CrewAI 等创新工具,以及如何使用 LangChain 开发人工智能代理。
利用开源LLM技术的变革力量来开发创新解决方案并扩展您对其多样化应用的理解。立即注册,开始您成为大型语言模型领域专家的旅程!
本课程适合谁:
- 致所有想要学习新知识并深入了解 RAG、函数调用和 AI 代理的开源LLMs
- 对于想要提高效率并节省资金的企业家
- 致开发人员、程序员和技术爱好者
- 对于任何不希望受到大型科技公司的限制并希望使用未经审查的人工智能的人
评论(0)