Maschinelles Lernen mit baumbasierten Modellen in Python
In diesem Kurs lernen Sie, wie Sie baumbasierte Modelle und Ensembles für Regression und Klassifikation mit scikit-learn verwenden.
Kurs Kostenlos Starten5 Stunden15 Videos57 Übungen95.211 LernendeLeistungsnachweis
Kostenloses Konto erstellen
oder
Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.Trainierst du 2 oder mehr?
Versuchen DataCamp for BusinessBeliebt bei Lernenden in Tausenden Unternehmen
Kursbeschreibung
Entscheidungsbäume sind überwachte Lernmodelle, die für Klassifizierungs- und Regressionsprobleme verwendet werden. Baummodelle bieten eine hohe Flexibilität, die jedoch ihren Preis hat: Einerseits können Bäume komplexe nichtlineare Beziehungen erfassen, andererseits neigen sie dazu, sich das Rauschen in einem Datensatz einzuprägen. Durch die Zusammenfassung der Vorhersagen von Bäumen, die auf unterschiedliche Weise trainiert wurden, nutzen Ensemble-Methoden die Flexibilität von Bäumen und reduzieren gleichzeitig ihre Tendenz, sich Rauschen einzuprägen. Ensemble-Methoden werden in einer Vielzahl von Bereichen eingesetzt und haben sich in vielen Wettbewerben für maschinelles Lernen als erfolgreich erwiesen.
In diesem Kurs lernst du, wie du mit Python Entscheidungsbäume und baumbasierte Modelle mit der benutzerfreundlichen Bibliothek für maschinelles Lernen scikit-learn trainierst. Du lernst die Vorteile und Nachteile von Bäumen kennen und erfährst, wie Ensembling diese Nachteile ausgleichen kann, während du an realen Datensätzen übst. Schließlich erfährst du auch, wie du die einflussreichsten Hyperparameter abstimmst, um das Beste aus deinen Modellen herauszuholen.
Trainierst du 2 oder mehr?
Verschaffen Sie Ihrem Team Zugriff auf die vollständige DataCamp-Plattform, einschließlich aller Funktionen.In den folgenden Tracks
Machine Learning Scientist mit Python
Gehe zu TrackÜberwachtes Machine Learning in Python
Gehe zu Track- 1
Klassifizierungs- und Regressionsbäume
KostenlosKlassifizierungs- und Regressionsbäume (CART) sind eine Gruppe von überwachten Lernmodellen, die für Klassifizierungs- und Regressionsprobleme verwendet werden. In diesem Kapitel lernst du den CART Algorithmus kennen.
Entscheidungsbaum für die Klassifizierung50 xpTrainiere deinen ersten Klassifikationsbaum100 xpBewerten Sie den Klassifikationsbaum100 xpLogistische Regression vs. Klassifikationsbaum100 xpKlassifizierungsbaum Lernen50 xpWachsen eines Klassifikationsbaums50 xpEntropie als Kriterium verwenden100 xpEntropie vs. Gini-Index100 xpEntscheidungsbaum für Regression50 xpTrainiere deinen ersten Regressionsbaum100 xpEvaluiere den Regressionsbaum100 xpLineare Regression vs. Regressionsbaum100 xp - 2
Der Kompromiss zwischen Verzerrung und Varianz
Der Kompromiss zwischen Verzerrung und Varianz ist eines der grundlegenden Konzepte beim überwachten maschinellen Lernen. In diesem Kapitel erfährst du, wie du die Probleme von Overfitting und Underfitting diagnostizieren kannst. Außerdem lernst du das Konzept des Ensembling kennen, bei dem die Vorhersagen mehrerer Modelle zusammengefasst werden, um robustere Vorhersagen zu erhalten.
Generalisierungsfehler50 xpKomplexität, Verzerrung und Varianz50 xpÜberanpassung und Unteranpassung50 xpDiagnose von Verzerrungen und Varianzproblemen50 xpDas Modell instanziieren100 xpBeurteile den 10-fachen CV Fehler100 xpBeurteile den Trainingsfehler100 xpHohe Verzerrung oder hohe Varianz?50 xpEnsemble Learning50 xpDefiniere das Ensemble100 xpEinzelne Klassifikatoren evaluieren100 xpBessere Leistung mit einem Voting Classifier100 xp - 3
Bagging und Random Forests
Bagging ist eine Ensemble-Methode, bei der derselbe Algorithmus viele Male mit verschiedenen Teilmengen aus den Trainingsdaten trainiert wird. In diesem Kapitel erfährst du, wie du mit Hilfe von Bagging ein Baumensemble erstellen kannst. Du erfährst auch, wie der Random-Forest-Algorithmus durch Randomisierung auf der Ebene der einzelnen Splits in den Bäumen, die das Ensemble bilden, zu einer weiteren Diversität des Ensembles führen kann.
Absacken50 xpDefiniere den Bagging-Klassifikator100 xpBewertung der Bagging-Leistung100 xpOut of Bag Bewertung50 xpBereite den Boden vor100 xpOOB Ergebnis vs. Test Set Ergebnis100 xpRandom Forests (RF)50 xpTrainiere einen RF Regressor100 xpEvaluiere den RF Regressor100 xpVisualisierung der Bedeutung von Merkmalen100 xp - 4
Ankurbelung
Boosting bezieht sich auf eine Ensemble-Methode, bei der mehrere Modelle nacheinander trainiert werden, wobei jedes Modell aus den Fehlern seiner Vorgänger lernt. In diesem Kapitel lernst du die beiden Boosting-Methoden AdaBoost und Gradient Boosting kennen.
Adaboost50 xpDefiniere den AdaBoost-Klassifikator100 xpTrainiere den AdaBoost-Klassifikator100 xpEvaluiere den AdaBoost-Klassifikator100 xpGradient Boosting (GB)50 xpDefiniere den Regressor GB100 xpTrainiere den GB Regressor100 xpEvaluiere den GB Regressor100 xpStochastisches Gradient Boosting (SGB)50 xpRegression mit SGB100 xpTrainiere den SGB Regressor100 xpEvaluiere den SGB Regressor100 xp - 5
Model Tuning
Die Hyperparameter eines maschinellen Lernmodells sind Parameter, die nicht aus den Daten gelernt werden. Sie sollten festgelegt werden, bevor das Modell an die Trainingsmenge angepasst wird. In diesem Kapitel erfährst du, wie du die Hyperparameter eines baumbasierten Modells mithilfe der Kreuzvalidierung durch Rastersuche abstimmst.
Abstimmung der Hyperparameter einer CART50 xpBaum-Hyperparameter50 xpDas Hyperparameter-Raster des Baums festlegen100 xpSuche nach dem optimalen Baum100 xpEvaluiere den optimalen Baum100 xpAbstimmung der Hyperparameter einer RF50 xpHyperparameter für Zufallswälder50 xpLege das Hyperparameter-Raster von RF100 xpSuche nach dem optimalen Wald100 xpBewerten Sie den optimalen Wald100 xpHerzlichen Glückwunsch!50 xp
Trainierst du 2 oder mehr?
Verschaffen Sie Ihrem Team Zugriff auf die vollständige DataCamp-Plattform, einschließlich aller Funktionen.In den folgenden Tracks
Machine Learning Scientist mit Python
Gehe zu TrackÜberwachtes Machine Learning in Python
Gehe zu TrackMitwirkende
Voraussetzungen
Supervised Learning with scikit-learnElie Kawerk
Mehr AnzeigenSenior Data Scientist
Was sagen andere Lernende?
Melden Sie sich an 15 Millionen Lernende und starten Sie Maschinelles Lernen mit baumbasierten Modellen in Python Heute!
Kostenloses Konto erstellen
oder
Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.