Pular para o conteúdo principal
InícioSpark

Cursos Spark

Com o Spark, os dados são lidos na memória, as operações são realizadas e os resultados são gravados de volta, resultando em uma execução mais rápida. Aprenda os princípios básicos e os pacotes comuns no DataCamp.
Cursos Spark icon

Recomendado para iniciantes no Spark

Desenvolva suas habilidades no Spark com cursos interativos organizados por especialistas do mundo real

curso

Introdução ao PySpark

IntermediateSkill Level
4 horas
1.2K
Aprenda a implementar gerenciamento de dados distribuídos e aprendizado de máquina no Spark usando o pacote PySpark.

programa

Big Data com PySpark

25 horas
65
Aprenda a processar big data e aproveitá-lo de forma eficiente com o Apache Spark usando a API PySpark.

Não sabe por onde começar?

Faça Uma Avaliação
8 resultados

curso

Introdução ao PySpark

IntermediateSkill Level
4 horas
1.2K
Aprenda a implementar gerenciamento de dados distribuídos e aprendizado de máquina no Spark usando o pacote PySpark.

curso

Feature Engineering with PySpark

AdvancedSkill Level
4 horas
192
Learn the gritty details that data scientists are spending 70-80% of their time on; data wrangling and feature engineering.

Recursos relacionados em Spark

tutorial

Tutorial do Pyspark: Primeiros passos com o Pyspark

Descubra o que é o Pyspark e como ele pode ser usado, com exemplos.
Natassha Selvaraj's photo

Natassha Selvaraj

10 min


Você está pronto para aplicar suas habilidades?

Os projetos permitem que você aplique seu conhecimento a uma ampla variedade de conjuntos de dados para que você resolva problemas do mundo real em seu navegador

Ver Mais

Perguntas frequentes

Qual curso do Spark é o melhor para iniciantes absolutos?

Para novos alunos, o DataCamp tem três cursos introdutórios do Spark nas linguagens de programação mais populares:

Introdução ao PySpark 

Introdução ao Spark com o sparklyr em R 

Curso de introdução ao Spark SQL em Python

Preciso de alguma experiência prévia para fazer um curso Spark?

Você precisará ter concluído um curso de introdução à linguagem de programação na qual está usando o Spark. 

Tudo isso você pode encontrar aqui:

Introdução ao Python

Introdução ao R

Introdução ao SQL

Além disso, qualquer pessoa pode começar a usar o Spark por meio de exercícios simples e interativos no DataCamp.

Para que o PySpark é usado?

Se você já estiver familiarizado com Python e bibliotecas como Pandas, o PySpark é uma boa linguagem para aprender a criar análises e pipelines mais dimensionáveis.

O Apache Spark é basicamente um mecanismo de computação que trabalha com grandes conjuntos de dados, processando-os em sistemas paralelos e em lote.

O Spark é escrito em Scala, e o PySpark foi lançado para dar suporte à colaboração do Spark e do Python.

Como o Spark pode ajudar minha carreira?

Você adquirirá a capacidade de analisar dados e treinar modelos de aprendizado de máquina em conjuntos de dados de grande escala - uma habilidade valiosa para se tornar um cientista de dados. 

Ter o conhecimento necessário para trabalhar com estruturas de big data, como o Apache Spark, fará com que você se destaque.

O que é o Apache Spark?

O Apache Spark é um sistema de processamento distribuído e de código aberto usado para cargas de trabalho de big data. 

Ele utiliza cache na memória e execução de consultas otimizada para consultas analíticas rápidas em dados de qualquer tamanho. 

Ele fornece APIs de desenvolvimento em Java, Scala, Python e R, e oferece suporte à reutilização de código em várias cargas de trabalho - processamento em lote, consultas interativas, análise em tempo real, aprendizado de máquina e processamento de gráficos.

Outras tecnologias e tópicos

tecnologias