用于自然语言处理和计算机视觉的转换器,第三版

Transformers for Natural Language Processing and Computer Vision, 3rd Edition

 主要优势

  • 比较和对比 20+ 个模型(包括 GPT-4、BERT 和 Llama 2)以及多个平台和库,为您的项目找到合适的解决方案
  • LLMs使用自定义文本和嵌入来应用 RAG
  • 使用审核模型和知识库降低LLM风险,例如幻觉
  • 购买印刷版或 Kindle 电子书包括一本 PDF 格式的免费电子书

 描述

Transformers for Natural Language Processing and Computer Vision(第三版)探讨了用于自然语言处理 (NLP) 和计算机视觉 (CV) 的大型语言模型 (LLMHugging Face)、OpenAI 和 Google Vertex AI)架构、应用程序和各种平台(Hugging Face、OpenAI 和 Google Vertex AI)。本书将引导您了解不同的 transformer 架构,以及最新的基础模型和生成式 AI。您将预训练、微调LLMs和处理不同的用例,从摘要到使用基于嵌入的搜索技术实现问答系统。您还将学习从幻觉和记忆到隐私的风险LLMs,以及如何使用具有规则和知识库的审核模型来减轻此类风险。您将实施检索增强生成 (RAG),LLMs以提高模型的准确性并更好地控制LLM输出。深入了解生成式视觉转换器和多模态模型架构,并构建应用程序,例如图像和视频转文本分类器。通过结合不同的模型和平台并了解 AI 代理复制,更进一步。本书让您了解 transformer 架构、预训练、微调、LLM用例和最佳实践。

您将学到什么

分解并了解原始 Transformer、BERT、GPT 模型、T5、PaLM、ViT、CLIP 和 DALL-E 的架构 微调 BERT、GPT 和 PaLM 2 模型 了解不同的分词器以及预处理语言数据的最佳实践 从头开始预训练 RoBERTa 模型 实施检索增强生成和规则库以减轻幻觉 使用 BertViz 可视化 transformer 模型活动以获得更深入的见解 LIME 和 SHAP 使用 CLIP、DALL-E 2、DALL-E 3 和 GPT-4V 深入了解视觉转换器
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。