Saltar al contenido principal
InicioPython

programa

Ingeniero de Datos Profesional en Python

Sumérgete a fondo en las habilidades avanzadas y las herramientas de última generación que revolucionan las funciones de la ingeniería de datos hoy en día con nuestro curso de Ingeniero de Datos Profesional.
Iniciar pista de forma gratuita

Incluido conPremium or Teams

Pythontopics.ingenieriaDeDatos40 horas2,253

Crea Tu Cuenta Gratuita

GoogleLinkedInFacebook

o

Al continuar, acepta nuestros Términos de uso, nuestra Política de privacidad y que sus datos se almacenan en los EE. UU.
Group

¿Entrenar a 2 o más personas?

Probar DataCamp for Business

Preferido por estudiantes en miles de empresas

Descripción de la pista

Ingeniero de Datos Profesional en Python

Lleva tus habilidades al siguiente nivel con nuestro itinerario de Ingeniero de Datos Profesional. Este itinerario avanzado está diseñado a partir de los itinerarios de Ingeniero de Datos Asociado en SQL e Ingeniero de Datos en Python. Te dota de los conocimientos y herramientas de vanguardia que exigen las funciones modernas de ingeniería de datos. A lo largo de este viaje, dominarás las arquitecturas de datos modernas, mejorarás tus conocimientos de Python con una inmersión profunda en la programación orientada a objetos, explorarás las bases de datos NoSQL y aprovecharás el poder de dbt para una transformación de datos sin fisuras. Desvela los secretos de DevOps con prácticas esenciales, técnicas de prueba avanzadas y herramientas como Docker para agilizar tus procesos de desarrollo y despliegue. Sumérgete en las tecnologías de big data con PySpark y domina el procesamiento de datos y la automatización mediante shell scripting. Participa en proyectos prácticos y aborda conjuntos de datos del mundo real para aplicar tus conocimientos, depurar flujos de trabajo complejos y optimizar los procesos de datos. Al completar este itinerario, no sólo adquirirás los conocimientos avanzados necesarios para superar complejos retos de ingeniería de datos, sino también la confianza para aplicarlos en el dinámico mundo de la ingeniería de datos.

Prerrequisitos

Ingeniero de datos
  • Course

    1

    Comprender la arquitectura moderna de datos

    Descubre los componentes clave de la arquitectura de datos moderna: ingestión, servicio, gobernanza y orquestación.

  • Course

    La línea de comandos Unix permite combinar programas, automatizar tareas y ejecutar en clústeres y nubes.

  • Course

    "Este curso introduce dbt para modelado de datos, transformaciones, pruebas y creación de documentación."

  • Course

    Domina NoSQL y mejora los flujos de datos. Aprende Snowflake, Postgres JSON y Redis.

  • Course

    In this Introduction to DevOps, you’ll master the DevOps basics and learn the key concepts, tools, and techniques to improve productivity.

  • Project

    Sobresueldo

    Debugging a Sales Data Workflow

    Sometimes, things that once worked perfectly suddenly hit a snag. Practice your knowledge of DataFrames to find the problem and fix it!

  • Course

    10

    Introducción a Docker

    Obtén una introducción a Docker y descubre su importancia en el kit de herramientas de un profesional de datos.

  • Chapter

    In this chapter, you'll learn how Spark manages data and how can you read and write tables from Python.

  • Chapter

    In this chapter, you'll learn about the pyspark.sql module, which provides optimized data queries to your Spark session.

  • Chapter

    This chapter introduces the exciting world of Big Data, as well as the various concepts and different frameworks for processing Big Data. You will understand why Apache Spark is considered the best framework for BigData.

  • Chapter

    The main abstraction Spark provides is a resilient distributed dataset (RDD), which is the fundamental and backbone data type of this engine. This chapter introduces RDDs and shows how RDDs can be created and executed using RDD Transformations and Actions.

  • Chapter

    In this chapter, you'll learn about Spark SQL which is a Spark module for structured data processing. It provides a programming abstraction called DataFrames and can also act as a distributed SQL query engine. This chapter shows how Spark SQL allows you to use DataFrames in Python.

  • Chapter

    In this chapter, we learn how to download data files from web servers via the command line. In the process, we also learn about documentation manuals, option flags, and multi-file processing.

  • Chapter

    In the last chapter, we bridge the connection between command line and other data science languages and learn how they can work together. Using Python as a case study, we learn to execute Python on the command line, to install dependencies using the package manager pip, and to build an entire model pipeline using the command line.

  • Course

    Learn about the difference between batching and streaming, scaling streaming systems, and real-world applications.

  • Course

    Master Apache Kafka! From core concepts to advanced architecture, learn to create, manage, and troubleshoot Kafka for real-world data streaming challenges!

  • Course

    En este curso, aprenderás los fundamentos de Kubernetes y a desplegar contenedores con Manifests y kubectl.

Ingeniero de Datos Profesional en Python
12 cursos
Pista
completa

Obtener Declaración de Logro

Añade esta credencial a tu perfil, currículum vitae o CV de LinkedIn
Compártelo en las redes sociales y en tu evaluación de desempeño

Incluido conPremium or Teams

Inscríbete ahora

Únete a más 15 millones de estudiantes y empezar Ingeniero de Datos Profesional en Python ¡Hoy!

Crea Tu Cuenta Gratuita

GoogleLinkedInFacebook

o

Al continuar, acepta nuestros Términos de uso, nuestra Política de privacidad y que sus datos se almacenan en los EE. UU.