Introducción a LLMs en Python
"Aprende los fundamentos de los LLMs y la revolucionaria arquitectura de transformadores en la que se basan."
Comienza El Curso Gratis4 horas17 vídeos57 ejercicios9951 aprendicesDeclaración de cumplimiento
Crea Tu Cuenta Gratuita
o
Al continuar, acepta nuestros Términos de uso, nuestra Política de privacidad y que sus datos se almacenan en los EE. UU.¿Entrenar a 2 o más personas?
Probar DataCamp for BusinessPreferido por estudiantes en miles de empresas
Descripción del curso
Descubre qué se esconde tras el bombo de los grandes modelos lingüísticos
Los Grandes Modelos Lingüísticos (LLM) se han convertido en herramientas fundamentales que impulsan algunos de los avances y aplicaciones más asombrosos en el panorama actual de la IA. Este curso práctico te dotará de los conocimientos prácticos y las habilidades necesarias para comprender, construir y aprovechar la potencia de los LLM para resolver tareas lingüísticas complejas como la traducción, la generación de idiomas, la respuesta a preguntas, etc.Diseña tu propia arquitectura LLM y aprovecha los modelos preentrenados
Mediante ejercicios de codificación iteractivos, desmitificaremos los transformadores, la arquitectura de aprendizaje profundo más popular para construir LLM y sistemas de PNL. También exploraremos modelos lingüísticos preentrenados y conjuntos de datos de Hugging Face: una amplia colección de recursos para integrar perfectamente los LLM en tus proyectos. Al final de este curso, serás capaz de construir LLM utilizando diversas arquitecturas de transformadores y de configurar, afinar y evaluar LLM preentrenados utilizando métricas especializadas. También te adentrarás en conceptos avanzados como el Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (RLHF) y comprenderás los retos clave y las consideraciones éticas de posibilitar aplicaciones LLM en el mundo real.¿Entrenar a 2 o más personas?
Obtén a tu equipo acceso a la plataforma DataCamp completa, incluidas todas las funciones.En las siguientes pistas
Ingeniero Asociado de IA para Científicos de Datos
Ir a la pistaDesarrollar grandes modelos lingüísticos
Ir a la pista- 1
El panorama de los grandes modelos lingüísticos (LLMs)
GratuitoLos Grandes Modelos Lingüísticos (LLMs) representan la cúspide actual de la tecnología de la IA, impulsando notables avances en el Procesamiento y la Comprensión del Lenguaje Natural. Este capítulo te servirá de puerta de entrada a la comprensión de LLMs: qué son, sus extraordinarias capacidades y la amplia gama de tareas lingüísticas en las que destacan. Adquirirás experiencia práctica en la carga y aprovechamiento de varios LLMs tanto para tareas de comprensión como de generación del lenguaje. Por el camino, conocerás el catalizador del éxito en el corazón de la mayoría de LLMs: la arquitectura del transformador. ¿Listo para iniciar este viaje al mundo de LLMs?
Introducir grandes modelos lingüísticos50 xpClasificar las opiniones de los clientes de un restaurante100 xpPuzzle de reordenación de tuberías100 xpTareas que puede realizar LLMs50 xpUtilizar un pipeline para resumir100 xp¡Es hora de responder a algunas preguntas!100 xpLa arquitectura del transformador50 xpHola Transformador PyTorch100 xpCanal de traducción práctico100 xpGenerar respuestas a las opiniones de los clientes100 xp - 2
Construir la arquitectura de un transformador
En este capítulo, descubrirás los secretos y entresijos prácticos de los transformadores, la arquitectura de aprendizaje profundo más popular utilizada para crear los Modelos del Lenguaje de más éxito en la actualidad. Paso a paso, y ayudado por la biblioteca PyTorch, aprenderás a diseñar y configurar manualmente distintos tipos de arquitecturas de transformadores. Desarrollarás una sólida comprensión de sus elementos básicos, incluidos los mecanismos de autoatención, las capas de codificación y descodificación, y los cabezales de modelos especializados diseñados para tareas lingüísticas y casos de uso específicos.
Mecanismos de atención y codificación posicional50 xpCodificación posicional práctica100 xp¿Por qué necesitamos la codificación posicional?50 xpAutoatención multicabeza50 xpEstablecer una clase de atención múltiple100 xpPoner en práctica la autoatención multicabezal100 xpConstruir un transformador codificador50 xpCapa de retroalimentación posterior a la atención100 xpEs hora de una capa codificadora100 xpCuerpo y cabezal del transformador codificador100 xpPrueba del transformador codificador100 xpConstruir un transformador decodificador50 xpConstruir el cuerpo y la cabeza de un descodificador100 xpPrueba del transformador del descodificador100 xpConstruir un transformador codificador-decodificador50 xpIncorporar la atención cruzada en un descodificador100 xpProbar un transformador codificador-decodificador100 xpMontaje del transformador de abajo arriba100 xp - 3
Aprovechar el preentrenamiento LLMs
Este capítulo desvela el potencial transformador de aprovechar los Grandes Modelos Lingüísticos preentrenados (LLMs). A lo largo del capítulo, descubrirás consejos y trucos eficaces para dominar casos de uso lingüístico intrincados y obtendrás conocimientos prácticos para aprovechar LLMs y conjuntos de datos preentrenados de Hugging Face. Por el camino, aprenderás los entresijos de varios problemas lingüísticos comunes, desde la clasificación de sentimientos a la síntesis o la respuesta a preguntas, y explorarás cómo se entrenan de forma adaptativa los LLMpara resolverlos.
LLMs para la clasificación y generación de textos50 xpPipelines vs autoclases50 xpClasificar dos opiniones de películas100 xpOrdenar un caso de uso de generación de texto100 xpLLMs para resumir y traducir textos50 xpResumir una opinión sobre un producto100 xpLa misión del phrasebook español100 xpLLMs para responder preguntas50 xpCarga e inspecciona un conjunto de datos QA100 xpExtraer y descodificar la respuesta100 xpLLM ajuste fino y aprendizaje por transferencia50 xpPreparativos de puesta a punto100 xpDe dentro a fuera LLM100 xpAdecuación de los casos de uso y las arquitecturas de LLM100 xp - 4
Evaluar y aprovechar LLMs en el mundo real
¡Nuestro apasionante viaje de aprendizaje de LLMse acerca a su fin! Profundizarás en diferentes métricas y métodos para evaluar el rendimiento de tu modelo, ya sea uno preentrenado, una versión ajustada o algo que hayas construido desde cero. Conocerás los aspectos cruciales y los retos de la aplicación de los Modelos Lingüísticos en escenarios del mundo real, incluida la optimización de un modelo con la opinión de los humanos (RLHF), el tratamiento de los resultados lingüísticos sesgados y mucho más.
Directrices y métricas estándar para evaluar LLMs50 xpCálculo de la precisión100 xpMás allá de la precisión: describir las métricas100 xpMás allá de la precisión: utilizar métricas100 xpMétricas especializadas para tareas lingüísticas50 xpPerplejos ante el 2030100 xpUna fiesta de métricas LLM100 xpBLEU-traducciones a prueba100 xpAjuste fino del modelo mediante retroalimentación humana50 xpEl papel de un modelo de recompensa50 xpConfigurar un bucle RLHF100 xpRetos y consideraciones éticas50 xp¿Exámenes tóxicos de los empleados?100 xp¡La mejor "mirada"!100 xpLa meta50 xp
¿Entrenar a 2 o más personas?
Obtén a tu equipo acceso a la plataforma DataCamp completa, incluidas todas las funciones.En las siguientes pistas
Ingeniero Asociado de IA para Científicos de Datos
Ir a la pistaDesarrollar grandes modelos lingüísticos
Ir a la pistacolaboradores
Audio grabado por
requisitos previos
Intermediate Deep Learning with PyTorch¿Qué tienen que decir otros alumnos?
¡Únete a 15 millones de estudiantes y empieza Introducción a LLMs en Python hoy mismo!
Crea Tu Cuenta Gratuita
o
Al continuar, acepta nuestros Términos de uso, nuestra Política de privacidad y que sus datos se almacenan en los EE. UU.