Saltar al contenido principal
InicioPython

Desarrollar aplicaciones LLM con LangChain

Descubre cómo crear aplicaciones con IA usando LLMs, prompts, cadenas y agentes en LangChain.

Comienza El Curso Gratis
3 horas10 vídeos33 ejercicios10.846 aprendicesTrophyDeclaración de cumplimiento

Crea Tu Cuenta Gratuita

GoogleLinkedInFacebook

o

Al continuar, acepta nuestros Términos de uso, nuestra Política de privacidad y que sus datos se almacenan en los EE. UU.
Group

¿Entrenar a 2 o más personas?

Probar DataCamp for Business

Preferido por estudiantes en miles de empresas


Descripción del curso

Bases para desarrollarse en el ecosistema LangChain

Aumenta tu conjunto de herramientas LLM con el ecosistema de LangChain, permitiendo una integración perfecta con los modelos OpenAI y Hugging Face. Descubre un marco de trabajo de código abierto que optimiza las aplicaciones del mundo real y te permite crear sofisticados sistemas de recuperación de información exclusivos para tu caso de uso.

Metodologías de Creación de Chatbot utilizando LangChain

Utiliza las herramientas LangChain para desarrollar chatbots, comparando los matices entre los modelos de código abierto de HuggingFace y los modelos de código cerrado de OpenAI. Utiliza plantillas de avisos para conversaciones intrincadas, sentando las bases para el desarrollo avanzado de chatbot.

Manejo de Datos y Generación de Aumento de la Recuperación (RAG) mediante LangChain

Domina la tokenización y las bases de datos vectoriales para una recuperación de datos optimizada, enriqueciendo las interacciones del chatbot con una gran cantidad de información externa. Utiliza las funciones de memoria RAG para optimizar diversos casos de uso.

Integraciones avanzadas de cadenas, herramientas y agentes

Utiliza la potencia de las cadenas, las herramientas, los agentes, las API y la toma de decisiones inteligente para manejar casos de uso completos de extremo a extremo y la gestión avanzada de la salida LLM.

Depuración y métricas de rendimiento

Por último, hazte experto en depuración, optimización y evaluación del rendimiento, asegurándote de que tus chatbots están desarrollados para la gestión de errores. Añade capas de transparencia para solucionar problemas.
Empresas

¿Entrenar a 2 o más personas?

Obtén a tu equipo acceso a la plataforma DataCamp completa, incluidas todas las funciones.
DataCamp Para EmpresasPara obtener una solución a medida, reserve una demostración.

En las siguientes pistas

Ingeniero asociado de IA para desarrolladores

Ir a la pista

Desarrollo de aplicaciones de IA

Ir a la pista
  1. 1

    Introducción a la mecánica de LangChain y Chatbot

    Gratuito

    ¡Bienvenido al marco LangChain para crear aplicaciones en LLMs! Conocerás los principales componentes de LangChain, como los modelos, las cadenas, los agentes, los avisos y los analizadores sintácticos. Crearás chatbots utilizando modelos de código abierto de Hugging Face y modelos propios de OpenAI, crearás plantillas de avisos e integrarás distintas estrategias de memoria de chatbot para gestionar el contexto y los recursos durante las conversaciones.

    Reproducir Capítulo Ahora
    El ecosistema LangChain
    50 xp
    ¡Modelos de Cara de Abrazo en LangChain!
    100 xp
    ¡Modelos OpenAI en LangChain!
    100 xp
    Estrategias de incitación para chatbots
    50 xp
    Plantillas y encadenamiento de preguntas
    100 xp
    Plantillas de mensajes de chat
    100 xp
    Gestionar la memoria del modelo de chat
    50 xp
    Integrar un historial de mensajes de chatbot
    100 xp
    Crear una memoria intermedia
    100 xp
    Implantar una memoria recapitulativa
    100 xp
  2. 2

    Cadenas y agentes

    ¡Es hora de subir de nivel tus cadenas LangChain! Aprenderás a utilizar el Lenguaje de Expresión LangChain (LCEL) para definir cadenas con mayor flexibilidad. Crearás cadenas secuenciales, en las que las entradas se pasan entre componentes para crear aplicaciones más avanzadas. También empezarás a integrar agentes, que utilizan LLMs para tomar decisiones.

    Reproducir Capítulo Ahora
  3. 3

    Generación Aumentada de Recuperación (RAG)

    Una limitación de LLMs es que tienen un corte de conocimiento debido a que se entrenan con datos hasta cierto punto. En este capítulo, aprenderás a crear aplicaciones que utilicen la Generación Aumentada de Recuperación (RAG) para integrar datos externos con LLMs. El flujo de trabajo de RAG contiene algunos procesos diferentes, como dividir los datos, crear y almacenar las incrustaciones utilizando una base de datos vectorial, y recuperar la información más relevante para utilizarla en la aplicación. ¡Aprenderás a dominar todo el flujo de trabajo!

    Reproducir Capítulo Ahora
Empresas

¿Entrenar a 2 o más personas?

Obtén a tu equipo acceso a la plataforma DataCamp completa, incluidas todas las funciones.

En las siguientes pistas

Ingeniero asociado de IA para desarrolladores

Ir a la pista

Desarrollo de aplicaciones de IA

Ir a la pista

colaboradores

Collaborator's avatar
James Chapman

Audio grabado por

Jonathan Bennion's avatar
Jonathan Bennion

requisitos previos

Introduction to Embeddings with the OpenAI APIChatGPT Prompt Engineering for Developers
Jonathan Bennion HeadshotJonathan Bennion

AI Engineer & LangChain Contributor

Ver Más

¿Qué tienen que decir otros alumnos?

¡Únete a 15 millones de estudiantes y empieza Desarrollar aplicaciones LLM con LangChain hoy mismo!

Crea Tu Cuenta Gratuita

GoogleLinkedInFacebook

o

Al continuar, acepta nuestros Términos de uso, nuestra Política de privacidad y que sus datos se almacenan en los EE. UU.