Direkt zum Inhalt
StartseitePython

Reinforcement Learning from Human Feedback (RLHF)

Learn how to make GenAI models truly reflect human values while gaining hands-on experience with advanced LLMs.

Kurs Kostenlos Starten
4 Stunden13 Videos38 Übungen

Kostenloses Konto erstellen

GoogleLinkedInFacebook

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.
Group

Trainierst du 2 oder mehr?

Versuchen DataCamp for Business

Beliebt bei Lernenden in Tausenden Unternehmen


Kursbeschreibung

Combine the efficiency of Generative AI with the understanding of human expertise in this course on Reinforcement Learning from Human Feedback. You’ll learn how to make GenAI models truly reflect human values and preferences while getting hands-on experience with LLMs. You’ll also navigate the complexities of reward models and learn how to build upon LLMs to produce AI that not only learns but also adapts to real-world scenarios.
Für Unternehmen

Trainierst du 2 oder mehr?

Verschaffen Sie Ihrem Team Zugriff auf die vollständige DataCamp-Plattform, einschließlich aller Funktionen.
DataCamp Für UnternehmenFür eine maßgeschneiderte Lösung buchen Sie eine Demo.
  1. 1

    Foundational Concepts

    Kostenlos

    This chapter introduces the basics of Reinforcement Learning with Human Feedback (RLHF), a technique that uses human input to help AI models learn more effectively. Get started with RLHF by understanding how it differs from traditional reinforcement learning and why human feedback can enhance AI performance in various domains.

    Kapitel Jetzt Abspielen
    Introduction to RLHF
    50 xp
    Text generation with RLHF
    100 xp
    Classifying generated text for RLHF
    100 xp
    RL vs. RLHF
    50 xp
    Exploring pre-trained LLMs
    50 xp
    Tokenize a text dataset
    100 xp
    Fine-tuning for review classification
    100 xp
    Preparing data for RLHF
    50 xp
    Preparing the preference dataset
    100 xp
    Extracting prompts
    50 xp
  2. 2

    Gathering Human Feedback

    Discover how to set up systems for gathering human feedback in this Chapter. Learn best practices for collecting high-quality data, from pairwise comparisons to uncertainty sampling, and explore strategies for enhancing your data collection.

    Kapitel Jetzt Abspielen
  3. 3

    Tuning Models with Human Feedback

    In this Chapter, you'll get into the core of Reinforcement Learning from Human Feedback training. This includes exploring fine-tuning with PPO, techniques to train efficiently, and handling potential divergences from your metrics' objectives.

    Kapitel Jetzt Abspielen
  4. 4

    Model Evaluation

    Explore key techniques for assessing and improving model performance in this last Chapter of Reinforcement Learning from Human Feedback (RLHF): from fine-tuning metrics to incorporating diverse feedback sources, you'll be provided with a comprehensive toolkit to refine your models effectively.

    Kapitel Jetzt Abspielen
Für Unternehmen

Trainierst du 2 oder mehr?

Verschaffen Sie Ihrem Team Zugriff auf die vollständige DataCamp-Plattform, einschließlich aller Funktionen.

Mitwirkende

Collaborator's avatar
Francesca Donadoni

Voraussetzungen

Deep Reinforcement Learning in Python
Mina Parham HeadshotMina Parham

AI Engineer, Chubb

Mehr Anzeigen

Was sagen andere Lernende?

Melden Sie sich an 15 Millionen Lernende und starten Sie Reinforcement Learning from Human Feedback (RLHF) Heute!

Kostenloses Konto erstellen

GoogleLinkedInFacebook

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.