Ollama 初学者教程 | 轻松在本地运行 LLMs

Ollama Tutorial for Beginners | Run LLMs locally with ease

学习如何使用 Ollama 来处理 LLMs。此外,使用 Ollama 在本地创建类似 ChatGPT 的模型。已更新包含 DEEPSEEK

课程亮点

这门课程非常适合机器学习初学者以及任何对在本地创建和运行大型语言模型(LLMs)感兴趣的人。您将获得有效使用 Ollama 平台管理和定制 LLMs 的技能,从而改变您对语言模型及其应用的认知。释放 LLMs 在您项目中的潜力,并带着自信和创造力将您的编程技能提升到新的水平!

您将获得的技能: 本地安装和管理 LLMs、使用 Ollama 定制模型、创建类似 ChatGPT 的应用、有效利用 Ollama 命令

你将学到什么

  • 学习什么是 Ollama
  • 使用 Ollama 在本地工作不同的 LLMs
  • 使用 Ollama 创建一个类似 ChatGPT 的自定义模型
  • 学习所有 Ollama 命令
  • 本地自定义模型

 

需求

  • 了解互联网和网页浏览器

描述

欢迎来到由 Studyopedia 提供的 Ollama 课程 !!!

Ollama 是一个用于下载、安装、管理、运行和部署大型语言模型(LLMs)的开源平台。它可以在本地进行。LLM 代表大型语言模型 。这些模型被设计用来在高级别上理解、生成和解释人类语言。

功能

  • 模型库: 提供各种预构建的模型,如 Llama 3.2、Mistral 等。

  • 自定义: 允许您自定义并创建自己的模型

  • 简单: 提供简单的 API 用于创建、运行和管理模型

  • 跨平台: 适用于 macOS、Linux 和 Windows

  • Modelfile:将运行 LLM 所需的一切打包到一个 Modelfile 中,使其易于管理和运行模型

流行的 LLMs,如 Meta 的 Llama、Mistral、Google DeepMind 的 Gemma、Microsoft 的 Phi、阿里巴巴的 Qwen 等,都可以使用 Ollama 在本地运行。

为什么要在本地运行 LLMs

您可能需要在本地运行 LLMs 以增强安全性、完全控制您的数据、减少与外部服务器上数据传输和存储相关的风险、在不依赖云的情况下自定义应用程序等。

在本课程中,您将学习 Ollama 以及它如何简化程序员运行 LLMs 的工作。我们已经讨论了如何开始使用 Ollama,安装和调整 Llama 3.2、Mistral 7b 等模型。我们还涵盖了如何自定义模型,并通过创建模式文件在本地创建教学助理,如 ChatBot。

**涵盖的课程**

  1. Ollama – 简介和特性

  2. 在 Windows 11 上本地安装 Ollama

  3. 在 Windows 11 上本地安装 Llama 3.2

  4. 在 Windows 11 上本地安装 Mistral 7b

  5. 使用 Ollama 创建自定义 GPT 或定制模型

  6. 列出本地正在运行的 Ollama 模型

  7. 使用 Ollama 列出系统上安装的模型

  8. 使用本地 Ollama 显示模型信息

  9. 如何在 Ollama 上停止正在运行的模型

  10. 如何在本地 Ollama 上运行已安装的模型

  11. 如何从本地 Ollama 中删除任何模型

注意: 我们只涵盖了开源技术

注意: 已更新至 DeepSeek

让我们开始这段旅程!

本课程适合人群:

  • 初学者机器学习开发者
  • 想要创建模型的人
  • 想要在本地运行 LLMs 的人
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。