Introdução a LLMs em Python
Aprenda os detalhes dos LLMs e a revolucionária arquitetura de transformadores em que eles se baseiam!
Comece O Curso Gratuitamente4 horas17 vídeos57 exercícios9.954 aprendizesDeclaração de Realização
Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados são armazenados nos EUA.Treinar 2 ou mais pessoas?
Tentar DataCamp for BusinessAmado por alunos de milhares de empresas
Descrição do Curso
Descubra o que está por trás da moda dos grandes modelos de linguagem
Os modelos de linguagem ampla (LLMs) tornaram-se ferramentas essenciais que impulsionam alguns dos avanços e aplicativos mais impressionantes no cenário atual de IA. Este curso prático fornecerá a você o conhecimento prático e as habilidades necessárias para entender, criar e aproveitar o poder dos LLMs para resolver tarefas complexas de linguagem, como tradução, geração de linguagem, resposta a perguntas e muito mais.Crie sua própria arquitetura LLM e aproveite os modelos pré-treinados
Por meio de exercícios de codificação iterativos, desmistificaremos os transformadores, a arquitetura de aprendizagem profunda mais popular para a criação de LLMs e sistemas de PNL. Também exploraremos os modelos de linguagem pré-treinados e os conjuntos de dados do Hugging Face: uma vasta coleção de recursos para integrar perfeitamente os LLMs aos seus projetos. Ao final deste curso, você será capaz de criar LLMs usando várias arquiteturas de transformadores e configurar, ajustar e avaliar LLMs pré-treinados usando métricas especializadas. Você também obterá insights sobre conceitos avançados, como o Aprendizado por Reforço a partir de Feedback Humano (RLHF), e compreenderá os principais desafios e considerações éticas para viabilizar aplicativos LLM do mundo real.Treinar 2 ou mais pessoas?
Obtenha acesso à sua equipe à plataforma DataCamp completa, incluindo todos os recursos.Nas seguintes faixas
Engenheiro associado de IA para cientistas de dados
Ir para a trilhaDesenvolvimento de modelos de idiomas grandes
Ir para a trilha- 1
O cenário dos modelos de idiomas grandes (LLMs)
GratuitoOs modelos de idiomas grandes (LLMs) representam o auge atual da tecnologia de IA, impulsionando avanços notáveis no processamento e na compreensão de idiomas naturais. Este capítulo é a porta de entrada para você compreender LLMs: o que são, seus recursos extraordinários e a ampla gama de tarefas de linguagem em que são excelentes. Você ganhará experiência prática no carregamento e aproveitamento de vários LLMs para tarefas de compreensão e geração de linguagem. Ao longo do caminho, você será apresentado ao catalisador bem-sucedido que está no centro da maioria dos LLMs: a arquitetura do transformador. Você está pronto para iniciar essa jornada no mundo do LLMs?
Introdução de modelos de linguagem grandes50 xpClassificação das avaliações dos clientes de um restaurante100 xpQuebra-cabeça de reorganização de pipeline100 xpTarefas que o LLMs pode realizar50 xpUso de um pipeline para compactação100 xpÉ hora de responder a algumas perguntas!100 xpA arquitetura do transformador50 xpOlá, transformador PyTorch100 xpPipeline de tradução prático100 xpGeração de respostas a avaliações de clientes100 xp - 2
Construindo uma arquitetura de transformador
Neste capítulo, você descobrirá os segredos e as complexidades práticas dos transformadores, a arquitetura de aprendizagem profunda mais popular usada para criar os modelos de linguagem mais bem-sucedidos da atualidade. Passo a passo, e com a ajuda da biblioteca PyTorch, você aprenderá a projetar e configurar manualmente diferentes tipos de arquiteturas de transformadores. Você desenvolverá uma sólida compreensão de seus elementos principais, incluindo mecanismos de auto-atenção, camadas de codificador e decodificador e cabeças de modelo especializadas projetadas para tarefas de linguagem e casos de uso específicos.
Mecanismos de atenção e codificação posicional50 xpCodificação posicional prática100 xpPor que precisamos de codificação posicional?50 xpAutoatenção com várias cabeças50 xpConfiguração de uma classe de atenção com várias cabeças100 xpImplementação da autoatenção com várias cabeças100 xpConstrução de um transformador de codificador50 xpCamada de feed-forward pós-atenção100 xpÉ hora de uma camada de codificador100 xpCorpo e cabeçote do transformador do codificador100 xpTeste do transformador do codificador100 xpConstrução de um transformador de decodificador50 xpConstrução de um corpo e cabeça de decodificador100 xpTeste do transformador do decodificador100 xpConstrução de um transformador codificador-decodificador50 xpIncorporação da atenção cruzada em um decodificador100 xpExperimentando um transformador codificador-decodificador100 xpMontagem do transformador de baixo para cima100 xp - 3
Aproveitamento de LLMs pré-treinados
Este capítulo revela o potencial transformador do aproveitamento de grandes modelos linguísticos pré-treinados (LLMs). Ao longo do capítulo, você descobrirá dicas e truques eficazes para dominar casos de uso de linguagem complexa e obterá insights práticos sobre o aproveitamento de LLMs pré-treinados e conjuntos de dados da Hugging Face. Ao longo do caminho, você aprenderá os prós e contras de vários problemas comuns de linguagem, incluindo a classificação de sentimentos, a sumarização e a resposta a perguntas, e explorará como o LLMs é treinado de forma adaptativa para resolvê-los.
LLMs para classificação e geração de texto50 xpPipelines versus classes automáticas50 xpClassificação de duas opiniões sobre filmes100 xpArrumando um caso de uso de geração de texto100 xpLLMs para resumo e tradução de textos50 xpResumir a opinião de um produto100 xpA missão do livro de frases em espanhol100 xpLLMs para responder a perguntas50 xpCarregar e inspecionar um conjunto de dados QA100 xpExtraia e decodifique a resposta100 xpLLM ajuste fino e aprendizagem por transferência50 xpPreparações de ajuste fino100 xpDe dentro para fora LLM100 xpCorrespondência de casos de uso e arquiteturas do LLM100 xp - 4
Avaliação e aproveitamento de LLMs no mundo real
Nossa empolgante jornada de aprendizado LLMs está chegando ao fim! Você se aprofundará em diferentes métricas e métodos para avaliar o desempenho do seu modelo, seja ele pré-treinado, uma versão ajustada ou algo que você criou do zero! Você aprenderá sobre os aspectos cruciais e os desafios da aplicação de modelos de linguagem em cenários do mundo real, incluindo a otimização de um modelo com feedback de humanos (RLHF), o enfrentamento de resultados de linguagem tendenciosos e muito mais.
Diretrizes e métricas padrão para avaliar LLMs50 xpCálculo da precisão100 xpAlém da precisão: descrevendo métricas100 xpAlém da precisão: usando métricas100 xpMétricas especializadas para tarefas de linguagem50 xpPerplexo com relação a 2030100 xpUm banquete de LLM métricas100 xpBLEU-traduções à prova100 xpAjuste fino do modelo usando feedback humano50 xpA função de um modelo de recompensa50 xpConfigurando um loop RLHF100 xpDesafios e considerações éticas50 xpAvaliações tóxicas de funcionários?100 xpMelhor "consideração"!100 xpA linha de chegada50 xp
Treinar 2 ou mais pessoas?
Obtenha acesso à sua equipe à plataforma DataCamp completa, incluindo todos os recursos.Nas seguintes faixas
Engenheiro associado de IA para cientistas de dados
Ir para a trilhaDesenvolvimento de modelos de idiomas grandes
Ir para a trilhacolaboradores
Áudio Gravado por
pré-requisitos
Intermediate Deep Learning with PyTorchO que os outros alunos têm a dizer?
Junte-se a mais de 15 milhões de alunos e comece Introdução a LLMs em Python hoje mesmo!
Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados são armazenados nos EUA.