Direkt zum Inhalt
StartseitePython

Maschinelles Lernen mit baumbasierten Modellen in Python

In diesem Kurs lernen Sie, wie Sie baumbasierte Modelle und Ensembles für Regression und Klassifikation mit scikit-learn verwenden.

Kurs Kostenlos Starten
5 Stunden15 Videos57 Übungen95.211 LernendeTrophyLeistungsnachweis

Kostenloses Konto erstellen

GoogleLinkedInFacebook

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.
Group

Trainierst du 2 oder mehr?

Versuchen DataCamp for Business

Beliebt bei Lernenden in Tausenden Unternehmen


Kursbeschreibung

Entscheidungsbäume sind überwachte Lernmodelle, die für Klassifizierungs- und Regressionsprobleme verwendet werden. Baummodelle bieten eine hohe Flexibilität, die jedoch ihren Preis hat: Einerseits können Bäume komplexe nichtlineare Beziehungen erfassen, andererseits neigen sie dazu, sich das Rauschen in einem Datensatz einzuprägen. Durch die Zusammenfassung der Vorhersagen von Bäumen, die auf unterschiedliche Weise trainiert wurden, nutzen Ensemble-Methoden die Flexibilität von Bäumen und reduzieren gleichzeitig ihre Tendenz, sich Rauschen einzuprägen. Ensemble-Methoden werden in einer Vielzahl von Bereichen eingesetzt und haben sich in vielen Wettbewerben für maschinelles Lernen als erfolgreich erwiesen. In diesem Kurs lernst du, wie du mit Python Entscheidungsbäume und baumbasierte Modelle mit der benutzerfreundlichen Bibliothek für maschinelles Lernen scikit-learn trainierst. Du lernst die Vorteile und Nachteile von Bäumen kennen und erfährst, wie Ensembling diese Nachteile ausgleichen kann, während du an realen Datensätzen übst. Schließlich erfährst du auch, wie du die einflussreichsten Hyperparameter abstimmst, um das Beste aus deinen Modellen herauszuholen.
Für Unternehmen

Trainierst du 2 oder mehr?

Verschaffen Sie Ihrem Team Zugriff auf die vollständige DataCamp-Plattform, einschließlich aller Funktionen.
DataCamp Für UnternehmenFür eine maßgeschneiderte Lösung buchen Sie eine Demo.

In den folgenden Tracks

Zertifizierung verfügbar

Associate Data Scientist in Python

Gehe zu Track

Machine Learning Scientist mit Python

Gehe zu Track

Überwachtes Machine Learning in Python

Gehe zu Track
  1. 1

    Klassifizierungs- und Regressionsbäume

    Kostenlos

    Klassifizierungs- und Regressionsbäume (CART) sind eine Gruppe von überwachten Lernmodellen, die für Klassifizierungs- und Regressionsprobleme verwendet werden. In diesem Kapitel lernst du den CART Algorithmus kennen.

    Kapitel Jetzt Abspielen
    Entscheidungsbaum für die Klassifizierung
    50 xp
    Trainiere deinen ersten Klassifikationsbaum
    100 xp
    Bewerten Sie den Klassifikationsbaum
    100 xp
    Logistische Regression vs. Klassifikationsbaum
    100 xp
    Klassifizierungsbaum Lernen
    50 xp
    Wachsen eines Klassifikationsbaums
    50 xp
    Entropie als Kriterium verwenden
    100 xp
    Entropie vs. Gini-Index
    100 xp
    Entscheidungsbaum für Regression
    50 xp
    Trainiere deinen ersten Regressionsbaum
    100 xp
    Evaluiere den Regressionsbaum
    100 xp
    Lineare Regression vs. Regressionsbaum
    100 xp
  2. 2

    Der Kompromiss zwischen Verzerrung und Varianz

    Der Kompromiss zwischen Verzerrung und Varianz ist eines der grundlegenden Konzepte beim überwachten maschinellen Lernen. In diesem Kapitel erfährst du, wie du die Probleme von Overfitting und Underfitting diagnostizieren kannst. Außerdem lernst du das Konzept des Ensembling kennen, bei dem die Vorhersagen mehrerer Modelle zusammengefasst werden, um robustere Vorhersagen zu erhalten.

    Kapitel Jetzt Abspielen
  3. 3

    Bagging und Random Forests

    Bagging ist eine Ensemble-Methode, bei der derselbe Algorithmus viele Male mit verschiedenen Teilmengen aus den Trainingsdaten trainiert wird. In diesem Kapitel erfährst du, wie du mit Hilfe von Bagging ein Baumensemble erstellen kannst. Du erfährst auch, wie der Random-Forest-Algorithmus durch Randomisierung auf der Ebene der einzelnen Splits in den Bäumen, die das Ensemble bilden, zu einer weiteren Diversität des Ensembles führen kann.

    Kapitel Jetzt Abspielen
  4. 4

    Ankurbelung

    Boosting bezieht sich auf eine Ensemble-Methode, bei der mehrere Modelle nacheinander trainiert werden, wobei jedes Modell aus den Fehlern seiner Vorgänger lernt. In diesem Kapitel lernst du die beiden Boosting-Methoden AdaBoost und Gradient Boosting kennen.

    Kapitel Jetzt Abspielen
  5. 5

    Model Tuning

    Die Hyperparameter eines maschinellen Lernmodells sind Parameter, die nicht aus den Daten gelernt werden. Sie sollten festgelegt werden, bevor das Modell an die Trainingsmenge angepasst wird. In diesem Kapitel erfährst du, wie du die Hyperparameter eines baumbasierten Modells mithilfe der Kreuzvalidierung durch Rastersuche abstimmst.

    Kapitel Jetzt Abspielen
Für Unternehmen

Trainierst du 2 oder mehr?

Verschaffen Sie Ihrem Team Zugriff auf die vollständige DataCamp-Plattform, einschließlich aller Funktionen.

In den folgenden Tracks

Zertifizierung verfügbar

Associate Data Scientist in Python

Gehe zu Track

Machine Learning Scientist mit Python

Gehe zu Track

Überwachtes Machine Learning in Python

Gehe zu Track

Datensätze

Auto-mpgBike Sharing DemandWisconsin Breast CancerIndian Liver Patient

Mitwirkende

Collaborator's avatar
Kara Woo
Collaborator's avatar
Eunkyung Park
Collaborator's avatar
Sumedh Panchadhar
Elie Kawerk HeadshotElie Kawerk

Senior Data Scientist

Mehr Anzeigen

Was sagen andere Lernende?

Melden Sie sich an 15 Millionen Lernende und starten Sie Maschinelles Lernen mit baumbasierten Modellen in Python Heute!

Kostenloses Konto erstellen

GoogleLinkedInFacebook

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.