Puntuación:
Actualmente no hay opiniones de lectores. La calificación se basa en 51 votos.
Transformers for Natural Language Processing and Computer Vision - Third Edition: Explore Generative AI and Large Language Models with Hugging Face, C
La guía definitiva de los LLM, desde las arquitecturas, el preentrenamiento y el ajuste fino hasta la Generación Aumentada por Recuperación (RAG), la IA Generativa multimodal, los riesgos y las implementaciones con ChatGPT Plus con GPT-4, Hugging Face y Vertex AI.
Características principales:
- Compare y contraste más de 20 modelos (incluidos GPT-4, BERT y Llama 2) y múltiples plataformas y bibliotecas para encontrar la solución adecuada para su proyecto.
- Aplique RAG con LLM utilizando textos e incrustaciones personalizados
- Mitigar los riesgos de los LLM, como las alucinaciones, utilizando modelos de moderación y bases de conocimientos
- La compra del libro impreso o Kindle incluye un libro electrónico gratuito en formato PDF
Descripción del libro:
Transformers for Natural Language Processing and Computer Vision, tercera edición, explora las arquitecturas de modelos de lenguaje amplio (LLM), aplicaciones y diversas plataformas (Hugging Face, OpenAI y Google Vertex AI) utilizadas para el procesamiento del lenguaje natural y la visión por ordenador. El libro le guiará a través de diferentes arquitecturas de transformadores hasta los últimos modelos de fundamentos y la IA generativa. Preentrenará y afinará los LLM y trabajará con diferentes casos de uso, desde el resumen hasta la implementación de sistemas de respuesta a preguntas con técnicas de búsqueda basadas en la incrustación. También aprenderá los riesgos de los LLM, desde las alucinaciones y la memorización hasta la privacidad, y cómo mitigar dichos riesgos utilizando modelos de moderación con bases de reglas y conocimiento. Pondrá en práctica la generación aumentada de recuperación con LLM para mejorar la precisión de sus modelos y obtener un mayor control sobre los resultados de los LLM. Sumérjase en transformadores de visión generativa y arquitecturas de modelos multimodales y construya aplicaciones, como clasificadores de imagen y vídeo a texto. Vaya más allá combinando diferentes modelos, plataformas y aprendiendo sobre la replicación de agentes de IA. Este libro le permite comprender las arquitecturas de los transformadores, el preentrenamiento, el ajuste fino, los casos de uso de LLM y las mejores prácticas.
Lo que aprenderá:
- Desglosar y comprender las arquitecturas de los modelos Original Transformer, BERT, GPT, T5, PaLM, ViT, CLIP y DALL-E.
- Puesta a punto de los modelos BERT, GPT y PaLM 2
- Conozca los distintos tokenizadores y las mejores prácticas de preprocesamiento de datos lingüísticos.
- Preentrenamiento de un modelo RoBERTa desde cero
- Implementar la generación aumentada de recuperación y las bases de reglas para mitigar las alucinaciones
- Visualizar la actividad del modelo transformador para obtener una visión más profunda utilizando BertViz, LIME y SHAP.
- Profundizar en los transformadores de visión con CLIP, DALL-E 2, DALL-E 3 y GPT-4V
A quién va dirigido este libro:
Este libro es ideal para ingenieros de PNL y CV, desarrolladores de software, científicos de datos, ingenieros de aprendizaje automático y líderes técnicos que buscan avanzar en sus LLM y habilidades de IA generativa o explorar las últimas tendencias en el campo. Se requieren conocimientos de Python y de conceptos de aprendizaje automático para comprender plenamente los casos de uso y los ejemplos de código. Sin embargo, con ejemplos que utilizan interfaces de usuario LLM, ingeniería rápida y construcción de modelos sin código, este libro es ideal para cualquier persona que sienta curiosidad por la revolución de la IA.
© Book1 Group - todos los derechos reservados.
El contenido de este sitio no se puede copiar o usar, ni en parte ni en su totalidad, sin el permiso escrito del propietario.
Última modificación: 2024.11.14 07:32 (GMT)