Direkt zum Inhalt
StartseitePython

Lernpfad

Professioneller Dateningenieur in Python

In unserem Lernpfad zum Professional Data Engineer lernst du die fortgeschrittenen Fähigkeiten und modernsten Tools kennen, die die Arbeit im Data Engineering heute revolutionieren.
Track kostenlos starten

Im Lieferumfang enthaltenPremium or Teams

PythonData Engineering40 Stunden2,233

Kostenloses Konto erstellen

GoogleLinkedInFacebook

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.
Group

Trainierst du 2 oder mehr?

Versuchen DataCamp for Business

Beliebt bei Lernenden in Tausenden Unternehmen

Beschreibung des Lernpfades

Professioneller Dateningenieur in Python

Mit unserem Lernpfad zum Professional Data Engineer bringst du deine Fähigkeiten auf die nächste Stufe. Dieser Lernpfad für Fortgeschrittene baut auf den Lernpfaden Associate Data Engineer in SQL und Data Engineer in Python auf. Er vermittelt dir die neuesten Kenntnisse und Werkzeuge, die für moderne Aufgaben im Data Engineering erforderlich sind. Auf dieser Reise wirst du moderne Datenarchitekturen meistern, deine Python-Kenntnisse mit einem tiefen Einblick in die objektorientierte Programmierung erweitern, NoSQL-Datenbanken erkunden und die Leistungsfähigkeit von dbt für eine nahtlose Datentransformation nutzen. Enthülle die Geheimnisse von DevOps mit grundlegenden Praktiken, fortschrittlichen Testverfahren und Tools wie Docker, um deine Entwicklungs- und Bereitstellungsprozesse zu optimieren. Tauche mit PySpark in Big-Data-Technologien ein und beherrsche die Datenverarbeitung und Automatisierung mit Shell-Skripting. Wende dein Wissen in praktischen Projekten an und bearbeite reale Datensätze, um dein Wissen anzuwenden, komplexe Workflows zu debuggen und Datenprozesse zu optimieren. Mit dem Abschluss dieses Lernpfads erwirbst du nicht nur die fortgeschrittenen Fähigkeiten, die du brauchst, um komplexe Herausforderungen im Data Engineering zu meistern, sondern auch das Selbstvertrauen, sie in der dynamischen Welt des Data Engineering anzuwenden.

Voraussetzungen

Dateningenieur
  • Course

    1

    Understanding Modern Data Architecture

    Discover modern data architecture's key components, from ingestion and serving to governance and orchestration.

  • Course

    Die Unix-Befehlszeile hilft, Programme zu kombinieren, Aufgaben zu automatisieren und Programme in Clustern und Clouds auszuführen.

  • Course

    This course introduces dbt for data modeling, transformations, testing, and building documentation.

  • Course

    Conquer NoSQL and supercharge data workflows. Learn Snowflake to work with big data, Postgres JSON for handling document data, and Redis for key-value data.

  • Course

    In this Introduction to DevOps, you’ll master the DevOps basics and learn the key concepts, tools, and techniques to improve productivity.

  • Project

    Bonus

    Debugging a Sales Data Workflow

    Sometimes, things that once worked perfectly suddenly hit a snag. Practice your knowledge of DataFrames to find the problem and fix it!

  • Course

    10

    Einführung in Docker

    Erhalte eine Einführung in Docker und entdecke seine Bedeutung im Werkzeugkasten von Datenexperten. Erfahre mehr über Docker Container, Images und mehr.

  • Chapter

    In this chapter, you'll learn how Spark manages data and how can you read and write tables from Python.

  • Chapter

    In this chapter, you'll learn about the pyspark.sql module, which provides optimized data queries to your Spark session.

  • Chapter

    This chapter introduces the exciting world of Big Data, as well as the various concepts and different frameworks for processing Big Data. You will understand why Apache Spark is considered the best framework for BigData.

  • Chapter

    The main abstraction Spark provides is a resilient distributed dataset (RDD), which is the fundamental and backbone data type of this engine. This chapter introduces RDDs and shows how RDDs can be created and executed using RDD Transformations and Actions.

  • Chapter

    In this chapter, you'll learn about Spark SQL which is a Spark module for structured data processing. It provides a programming abstraction called DataFrames and can also act as a distributed SQL query engine. This chapter shows how Spark SQL allows you to use DataFrames in Python.

  • Chapter

    In this chapter, we learn how to download data files from web servers via the command line. In the process, we also learn about documentation manuals, option flags, and multi-file processing.

  • Chapter

    In the last chapter, we bridge the connection between command line and other data science languages and learn how they can work together. Using Python as a case study, we learn to execute Python on the command line, to install dependencies using the package manager pip, and to build an entire model pipeline using the command line.

  • Course

    Learn about the difference between batching and streaming, scaling streaming systems, and real-world applications.

  • Course

    Master Apache Kafka! From core concepts to advanced architecture, learn to create, manage, and troubleshoot Kafka for real-world data streaming challenges!

  • Course

    In diesem Kurs lernen Sie Kubernetes-Grundlagen und Container mit Manifests und kubectl zu verwalten.

Professioneller Dateningenieur in Python
12 Kurse
Track
abgeschlossen

Leistungsnachweis verdienen

Fügen Sie diese Anmeldeinformationen zu Ihrem LinkedIn-Profil, Lebenslauf oder Lebenslauf hinzu
Teilen Sie es in den sozialen Medien und in Ihrer Leistungsbeurteilung

Im Lieferumfang enthaltenPremium or Teams

Jetzt anmelden

Machen Sie mit 15 Millionen Lernende und starten Sie Professioneller Dateningenieur in Python Heute!

Kostenloses Konto erstellen

GoogleLinkedInFacebook

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.