Oferta por tempo limitado!
Programação Para Dados

Programação Para Dados

Desvende dados com programação avançada. Domine análise agora! Impulsione sua carreira!
TI - Tecnologia da informação Gestão de negócios, administração e empreendedorismo Data - Ciências de Dados
  • 40 horas de carga horária
  • 34 aulas
  • 13 módulos de conteúdo
  • Última atualização 03/04/2024
  • Certificado de conclusão de curso
  • 14 arquivos para download

3x R$ 17,76

era R$ 100,00 R$ 50,00 à vista

Comprar agora
Adicionar cupom de desconto?

Sobre o Curso

Neste curso, você aprendera sobre os fundamentos e técnicas necessárias para aplicação de programação para gestão e ciência de dados. Você aprenderá conteúdos sobre: Funções, operações, controle de fluxo, listas, tabelas dicionários, strings, arquivos, RDDs, dentre outros conhecimentos. 

Público alvo

Programadores, Psicólogos, Estatísticos, Cientistas da computação e todos os demais interessados na área.

Sobre o certificado

O certificado de conclusão de Curso/Capacitação da nossa plataforma é válido conforme a Lei número 9.394. Ele pode ser utilizado para:

  • Horas extracurriculares, 
  • Atividades complementares,
  • Enriquecer seu currículo, 
  • Avaliações de empresas, 
  • Processos de recrutamento e seleção, 
  • Concursos públicos e provas de títulos. (Observar requisitos do edital)

Ao obter nosso certificado, você adquire uma comprovação sólida de suas habilidades e conhecimentos, abrindo portas para diversas oportunidades acadêmicas e profissionais.

6 meses

Sem tempo para fazer o curso agora?

Fique tranquilo, você poderá participar desse curso em até 6 meses após a matrícula.

Conteúdo

1Unidade 1 - Do inicio

Nesta rápida mas poderosa jornada introdutória, mergulharemos nos fundamentos essenciais da programação e tecnologia de dados. Começaremos nossa exploração entendendo os diversos tipos de dados, desde números até strings, passando por estruturas de dados como listas, tuplas e dicionários, que são as pedras angulares da manipulação de informações em Python. Além disso, vamos desvendar o mundo das IDEs (Ambientes de Desenvolvimento Integrado), onde os programadores realizam suas criações com facilidade e eficiência. Discutiremos o papel das IDEs no desenvolvimento de software, destacando ferramentas populares como Jupyter Notebook, PyCharm e Visual Studio Code. Mas nossa jornada não para por aí! Vamos explorar o fascinante mundo do armazenamento de dados, entendendo como a memória RAM e o disco rígido (HD) desempenham papéis vitais no processamento e armazenamento de informações em um computador. Compreenderemos os conceitos básicos de memória, armazenamento e processamento, lançando luz sobre o funcionamento interno de nossas máquinas.
  • Aula 0

    09:33

  • Aula 1

    06:10

  • Aula 2

    [object Ob

  • Aula 3

    17:29

2Unidade 2 - Operadores

Na unidade de operadores, você aprenderá sobre as ferramentas essenciais que Python oferece para manipular dados e controlar o fluxo do seu programa. Operadores são elementos-chave para realizar operações matemáticas, lógicas e de comparação em Python. Nesta unidade, exploraremos diferentes tipos de operadores, como aritméticos (+, -, *, /), operadores de comparação (==, !=, <, >), operadores lógicos (and, or, not) e operadores de atribuição (=, +=, -=, *=, /=). Compreender como usar esses operadores é fundamental para realizar cálculos, tomar decisões com base em condições e manipular variáveis de forma eficaz. Ao dominar os operadores, você será capaz de escrever códigos mais concisos e eficientes, economizando tempo e esforço no desenvolvimento de suas aplicações.
  • Aula 4

    16:39

3Unidade 3 - Funções

No módulo de Funções, você explorará uma das características mais poderosas da programação: a capacidade de encapsular blocos de código em unidades independentes e reutilizáveis. As funções permitem organizar e modularizar seu código, tornando-o mais legível, fácil de manter e reutilizável em diferentes partes do seu programa. Neste módulo, você aprenderá a definir suas próprias funções em Python, utilizando a sintaxe adequada e compreendendo os conceitos fundamentais, como parâmetros e argumentos. Exploraremos diferentes tipos de funções, desde aquelas que não retornam valores até aquelas que produzem resultados específicos com a declaração return. Além disso, abordaremos tópicos avançados, como funções anônimas (lambda), funções recursivas e escopo de variáveis, que são essenciais para escrever códigos mais elegantes e eficientes. Você também aprenderá sobre a importância de documentar suas funções adequadamente para facilitar o entendimento e a colaboração com outros desenvolvedores.
  • Aula 5

    16:31

4Unidade 4 - Controle de Fluxo

Na unidade de Controle de Fluxo, você mergulhará no cerne da lógica de programação, aprendendo a direcionar o comportamento do seu código de maneira inteligente e eficiente. O controle de fluxo permite que você tome decisões, execute blocos de código condicionalmente e repita tarefas com base em certas condições, tornando seu programa dinâmico e adaptável a diferentes cenários. Nesta unidade, você explorará estruturas fundamentais, como condicionais (if, elif, else), que permitem executar blocos de código com base em avaliações de expressões booleanas. Você também aprenderá sobre loops, incluindo o loop while e o loop for, que são essenciais para executar tarefas repetitivas de forma eficiente. Além disso, discutiremos técnicas avançadas de controle de fluxo, como interrupções (break, continue), que permitem modificar o comportamento dos loops e estruturas de controle de forma mais granular e flexível.
  • Aula 6

    13:05

  • Aula 7

    13:52

5Unidade 5 - Listas

Na Unidade 5 - Listas, você explorará uma das estruturas de dados mais fundamentais e versáteis em Python. As listas são coleções ordenadas de elementos que podem armazenar uma variedade de tipos de dados, como números, strings e até mesmo outras listas. Elas oferecem flexibilidade e eficiência para manipular conjuntos de dados de forma dinâmica e poderosa. Nesta unidade, você aprenderá como criar, acessar, modificar e manipular listas em Python. Você explorará técnicas essenciais, como indexação e fatiamento, que permitem acessar elementos individuais ou subconjuntos de uma lista com facilidade. Além disso, discutiremos métodos integrados que permitem adicionar, remover e modificar elementos em uma lista de forma eficiente. Você também aprenderá sobre iteração através de listas usando loops for e técnicas avançadas, como list comprehension, que oferecem maneiras elegantes de criar e manipular listas de forma concisa e eficiente. Além disso, discutiremos conceitos importantes, como mutabilidade e imutabilidade de listas, que são fundamentais para entender o comportamento das listas em Python.
  • Aula 8

    08:22

  • Aula 9

    19:17

6Unidade 6 - Tuplas

Na programação para dados com Python, as tuplas são como listas, mas com uma diferença importante: elas são imutáveis, o que significa que uma vez que você as cria, não pode modificá-las. Em vez disso, elas são úteis quando você deseja armazenar um conjunto de valores que não devem ser alterados durante a execução do programa. Imagine uma tupla como uma "caixa" onde você pode armazenar múltiplos itens relacionados, como coordenadas (latitude e longitude), informações sobre uma pessoa (nome, idade, sexo), ou até mesmo uma série de valores que precisam ser processados juntos. As tuplas são frequentemente usadas quando você tem dados que não devem ser modificados acidentalmente. Por exemplo, se você está passando valores para uma função e quer garantir que eles não serão alterados dentro da função, você pode usar uma tupla. Apesar de serem imutáveis, você ainda pode acessar os itens individuais de uma tupla usando indexação, assim como em uma lista. As tuplas são bastante eficientes em termos de processamento e podem ser úteis em situações onde você precisa garantir a integridade dos seus dados.
  • Aula 10

    [object Ob

7Unidade 7 - Dicionários

Na unidade 7, abordamos os dicionários, uma estrutura de dados fundamental em Python para armazenar pares de chave-valor. Ao contrário das listas, onde os elementos são acessados por meio de índices numéricos, os dicionários permitem que você acesse os valores associados a chaves específicas. Um dicionário é uma coleção desordenada, mutável e indexada de itens. Cada item em um dicionário é uma combinação de uma chave única e seu valor correspondente. As chaves geralmente são strings, mas podem ser de qualquer tipo imutável, como números inteiros ou tuplas. Os valores podem ser de qualquer tipo de dado, inclusive outras estruturas de dados como listas ou até mesmo outros dicionários. Os dicionários são muito eficientes para busca de dados, pois o acesso aos valores é feito diretamente através das chaves, sem a necessidade de percorrer toda a estrutura de dados. Isso os torna ideais para situações em que você precisa associar informações de maneira rápida e eficiente. Além disso, os dicionários em Python oferecem uma ampla gama de métodos integrados que permitem adicionar, remover e modificar elementos, bem como realizar operações de busca e iteração sobre os itens armazenados.
  • Aula 11

    18:44

8Unidade 8 - Strings

Na Unidade 8, exploramos as strings, que são uma sequência de caracteres em Python. As strings são uma das estruturas de dados mais fundamentais e amplamente utilizadas em programação, pois são usadas para representar texto e informações textualmente legíveis. Em Python, as strings podem ser definidas usando aspas simples (' '), aspas duplas (" "), ou até mesmo aspas triplas (''' ''' ou """ """). Isso oferece flexibilidade na manipulação de strings que contêm citações ou caracteres de escape. As strings em Python são imutáveis, o que significa que, uma vez criadas, elas não podem ser alteradas. No entanto, você pode realizar uma variedade de operações em strings, como concatenar, dividir, substituir, formatar e muito mais. Essas operações permitem manipular eficientemente o conteúdo das strings para atender às necessidades específicas do seu programa. Além disso, Python fornece uma grande variedade de métodos integrados para trabalhar com strings, permitindo realizar tarefas comuns, como busca de substrings, conversão de maiúsculas e minúsculas, remoção de espaços em branco, e muito mais. Esses métodos simplificam o trabalho com strings e tornam o código mais legível e conciso. As strings desempenham um papel crucial em uma ampla gama de aplicativos, desde a manipulação de texto simples até o processamento de dados mais complexo, como análise de arquivos de texto, comunicação em rede e manipulação de dados estruturados. Sua versatilidade e facilidade de uso as tornam uma ferramenta essencial em Python para lidar com dados textuais em praticamente qualquer contexto de programação.
  • Aula 12

    16:21

  • Aula 13

    20:59

9Unidade 9 - Arquivos

Na Unidade 9, exploramos o trabalho com arquivos em Python, uma habilidade essencial para lidar com a entrada e saída de dados em programas. Arquivos são utilizados para armazenar informações de forma permanente em um dispositivo de armazenamento, como o disco rígido de um computador. Em Python, você pode abrir, ler, escrever e fechar arquivos usando funções e métodos integrados. O processo básico envolve três etapas principais: abrir o arquivo, realizar operações de leitura ou escrita conforme necessário, e finalmente fechar o arquivo para liberar recursos do sistema. Ao abrir um arquivo, você pode especificar o modo de operação, que pode ser de leitura ('r'), escrita ('w'), ou anexação ('a'), entre outros. Dependendo do modo selecionado, você pode ler o conteúdo do arquivo, escrever novos dados nele ou adicionar informações ao final do arquivo existente. Python também oferece suporte para diferentes tipos de arquivos, como texto simples, arquivos binários e arquivos de texto codificados em diferentes formatos, como UTF-8. Isso permite que você trabalhe com uma variedade de dados, desde documentos de texto simples até imagens, vídeos e dados estruturados. Além disso, você pode usar estruturas de controle de fluxo, como loops e condicionais, juntamente com operações de arquivo, para processar grandes volumes de dados de forma eficiente e automatizada. Por exemplo, você pode ler dados de um arquivo linha por linha, filtrar informações específicas ou processar dados em lotes. Trabalhar com arquivos em Python é uma habilidade crucial para muitas aplicações, incluindo processamento de texto, manipulação de dados, análise de dados, e muito mais. Dominar o trabalho com arquivos permite que você crie programas mais sofisticados e poderosos que podem manipular grandes conjuntos de dados de forma eficiente e confiável.
  • Aula 14

    18:27

  • Aula 15

    11:35

  • Aula 16

    06:43

10Unidade 10 - Dataframes

Na Unidade 10, adentramos ao mundo dos DataFrames, uma estrutura de dados fundamental na análise e manipulação de dados em Python, especialmente quando se trabalha com bibliotecas como Pandas e Spark. Um DataFrame é uma estrutura tabular, semelhante a uma planilha, composta por linhas e colunas, onde cada coluna pode conter dados de um tipo diferente, como inteiros, floats, strings, ou até mesmo objetos mais complexos, como outras estruturas de dados. Essa estrutura tabular permite armazenar e manipular dados de forma eficiente, organizada e flexível. Os DataFrames são amplamente utilizados para realizar tarefas de análise de dados, como limpeza, transformação, agregação e visualização. Eles fornecem uma maneira intuitiva e poderosa de trabalhar com conjuntos de dados, permitindo que você execute operações complexas de forma simples e concisa. Em Python, você pode criar DataFrames usando bibliotecas como Pandas, que é amplamente utilizada na comunidade de ciência de dados, ou Spark, que é mais adequada para processamento de big data em ambientes distribuídos. Além disso, os DataFrames oferecem uma ampla gama de funcionalidades integradas para realizar operações comuns de manipulação de dados, como filtragem, ordenação, agrupamento, junção, pivoteamento e agregação. Isso permite que você realize uma variedade de análises e extrai informações valiosas dos seus dados de forma eficiente e eficaz. Em resumo, os DataFrames são uma ferramenta poderosa e versátil para análise e manipulação de dados em Python. Dominar o trabalho com DataFrames é essencial para qualquer pessoa que trabalhe com dados, pois permite explorar, analisar e visualizar informações de maneira eficaz, tornando-se uma habilidade fundamental para profissionais de ciência de dados, engenheiros de dados e analistas de dados.
  • Aula 17

    11:18

  • Aula 18

    13:47

  • Aula 19

    22:42

  • Aula 20

    05:25

11Unidade 11 - O Papel do spark no ecossistema de big data

Na Unidade 11, exploramos o papel fundamental do Spark no ecossistema de Big Data. O Apache Spark é um framework de processamento de dados distribuído e de código aberto, projetado para lidar com grandes volumes de dados de forma eficiente e escalável. Uma das principais características do Spark é sua capacidade de processar dados em memória, o que o torna significativamente mais rápido do que sistemas de processamento de dados tradicionais, como o Hadoop MapReduce. Além disso, o Spark oferece suporte a uma variedade de linguagens de programação, incluindo Python, Java, Scala e SQL, permitindo que os desenvolvedores escrevam código em sua linguagem de escolha. O Spark fornece uma ampla gama de funcionalidades para processamento de dados, incluindo manipulação de dados estruturados com DataFrames, processamento de streaming em tempo real, aprendizado de máquina, processamento de gráficos e muito mais. Isso torna o Spark uma plataforma versátil para uma variedade de aplicativos de Big Data. Além disso, o Spark é altamente escalável e pode ser executado em vários ambientes de computação distribuída, incluindo clusters locais, nuvens públicas e ambientes de contêineres. Ele aproveita ao máximo o paralelismo distribuído para processar grandes volumes de dados de forma rápida e eficiente, permitindo que as organizações lidem com conjuntos de dados cada vez maiores. O Spark também integra-se facilmente com outras tecnologias de Big Data, como Hadoop, Hive, HBase e Kafka, permitindo que as organizações construam pipelines de dados completos e complexos que abrangem todo o ecossistema de Big Data. Em resumo, o Spark desempenha um papel crucial no ecossistema de Big Data, oferecendo uma plataforma poderosa e escalável para processamento e análise de grandes volumes de dados. Sua velocidade, flexibilidade e integração com outras tecnologias o tornam uma escolha popular para uma ampla variedade de aplicativos de Big Data em organizações de todos os tamanhos.
  • Aula 21

    06:30

  • Aula 22

    13:01

  • Aula 23

    10:53

  • Aula 24

    10:14

  • Aula 25

    08:32

12Unidade 12 - RDDs

Na Unidade 12, exploramos os RDDs (Resilient Distributed Datasets), uma estrutura de dados fundamental no contexto do Apache Spark. RDDs são a base do processamento distribuído no Spark e servem como uma abstração de dados resiliente e distribuída. Um RDD é uma coleção imutável e distribuída de registros que podem ser manipulados em paralelo. Eles são tolerantes a falhas, o que significa que em caso de falha de um nó, os dados podem ser reconstruídos automaticamente a partir do estado anterior. Isso torna os RDDs altamente confiáveis e adequados para ambientes distribuídos. Os RDDs podem ser criados a partir de dados em memória, de armazenamentos persistentes, como HDFS (Hadoop Distributed File System), ou de outras fontes de dados como bancos de dados, arquivos locais, ou streams de dados em tempo real. Uma vez criados, os RDDs podem ser transformados e manipulados usando uma ampla gama de operações, como map, filter, reduce, join e muitos outros. Uma das principais vantagens dos RDDs é sua capacidade de lidar com operações complexas de forma eficiente e escalável. Eles são distribuídos automaticamente entre os nós de um cluster Spark e as operações são executadas em paralelo, aproveitando ao máximo o poder de processamento disponível. Além disso, os RDDs são altamente flexíveis e podem ser usados para uma variedade de aplicativos, incluindo processamento de dados em lote, processamento de streams em tempo real, análise de dados interativos e muito mais. Sua versatilidade e eficiência tornam os RDDs uma escolha popular para uma ampla gama de cenários de Big Data. Em resumo, os RDDs são uma parte fundamental do Apache Spark, oferecendo uma abstração poderosa e eficiente para processamento distribuído de dados. Sua capacidade de lidar com grandes volumes de dados de forma resiliente e distribuída os torna uma escolha ideal para uma ampla variedade de aplicativos de Big Data em ambientes distribuídos.
  • Aula 26

    04:54

  • Aula 27

    10:38

  • Aula 28

    04:39

13Unidade 13 - Dataframe Spark

Na Unidade 13, mergulhamos nos DataFrames Spark, uma estrutura de dados que revolucionou a maneira como lidamos com análise e manipulação de dados em ambientes distribuídos com o Apache Spark. Os DataFrames Spark são uma extensão dos RDDs (Resilient Distributed Datasets) e oferecem uma maneira mais fácil e eficiente de trabalhar com dados estruturados. Eles são distribuídos e tolerantes a falhas, permitindo processar grandes volumes de dados de forma rápida e escalável. Os DataFrames Spark são semelhantes aos DataFrames encontrados em outras bibliotecas, como Pandas em Python ou R, o que os torna familiares para muitos usuários. Eles são uma estrutura de dados tabular, organizada em linhas e colunas, onde cada coluna possui um tipo de dado específico. Uma das principais vantagens dos DataFrames Spark é sua integração perfeita com outras funcionalidades do Spark, como SQL, streaming, machine learning e processamento de gráficos. Isso permite construir pipelines de dados completos e complexos usando uma única plataforma. Os DataFrames Spark oferecem uma ampla gama de funcionalidades para manipulação e análise de dados, incluindo operações de filtro, seleção, agregação, junção e muito mais. Eles também suportam consultas SQL, o que permite aos usuários executar consultas SQL diretamente nos dados distribuídos. Além disso, os DataFrames Spark são altamente otimizados para desempenho, aproveitando ao máximo o paralelismo distribuído para processar grandes volumes de dados de forma eficiente. Isso os torna ideais para aplicações que exigem análise de dados em tempo real ou processamento de grandes conjuntos de dados. Em resumo, os DataFrames Spark são uma ferramenta poderosa e versátil para análise e manipulação de dados em ambientes distribuídos com o Apache Spark. Sua facilidade de uso, integração com outras funcionalidades do Spark e desempenho otimizado os tornam uma escolha popular para uma ampla variedade de aplicativos de Big Data.
  • Aula 29

    08:33

  • Aula 30

    05:38

  • Aula 31

    05:19

  • Aula 32

    07:58

  • Aula 33

    05:21

Professores(as)

Beu Oséias

Beu Oséias

Data Lead na maior FoodTech da américa latina, Co-Founder da XData, mestrando em Data Science plea NOVA IMS em Lisboa e apaixonado por insights, ML, educação e tecnológica.
João Pedro Passos

João Pedro Passos

Especialista em Data Analytics e Data Engineering, experiente em gestão, tecnologia e empreendedorismo, pronto para inspirar e ensinar pessoas no campo da análise de dados.

Perguntas Frequentes

Como é o modelo de certificado?

expand_more
Para acessar o modelo do certificado acesse: https://drive.google.com/file/d/1ytfLXXVQ3eAKB0ZQYI2KuQ7MSRdDSjxx/view?usp=sharing

O Certificado apresenta o nome das disciplinas no verso?

expand_more
No verso do certificado, são apresentadas as disciplinas, a carga horária total do curso, bem como código de validação e assinatura.

Qual tempo de duração dos cursos?

expand_more
A duração dos cursos varia com a modalidade escolhida, todos os cursos possuem uma carga horária mínima de 10 horas, podendo chegar até a 450 horas. Portanto é importante que você confira a carga horária de casa curso antes de adquirir.

Qual a modalidade dos cursos?

expand_more
Os cursos são na modalidade a distância, isto é, mediado por tecnologias da informação e da comunicação. Conforme Lei nº9394/1996.

Posso fazer mais de um curso por vez?

expand_more
Você pode realizar quantos cursos desejar, lembrando que para cada curso concluído você receberá o respectivo certificado.

Qual a legislação que embasa nossos cursos?

expand_more
Os cursos Livres não demandam de Portaria de autorização e reconhecimento, mas são embasados na Lei nº 9.394 - Diretrizes e Bases da Educação Nacional, onde menciona que estes cursos são inseridos na modalidade de educação profissional e tecnológica e aperfeiçoamento. Nossos cursos também são embasados no Decreto Presidencial nº 5.154 de 23 de julho de 2004, que menciona acerca da educação profissional e dos cursos livres que se enquadram em formação inicial ou continuada.

Tenho dúvidas, como posso entrar em contato?

expand_more
Você poderá entrar em contato por meio da Central de Atendimento (WhatsApp) ou via e-mail contato@aprendaprime.com.br

Como é a forma de pagamento dos cursos?

expand_more
Os cursos podem ser pagos com cartão de crédito, débito, PIX e boleto bancário.

Acesso por 6 meses

Estude quando e onde quiser

Materiais para download

Programação Para Dados

3x R$ 17,76

era R$ 100,00 R$ 50,00 à vista

DESCONTO DE 50%


  • 40 horas de carga horária
  • 34 aulas
  • 13 módulos de conteúdo
  • Última atualização 03/04/2024
  • Certificado de conclusão de curso
  • 14 arquivos para download
Comprar agora
Adicionar cupom de desconto?

Este site usa cookies para melhorar sua experiência. Política de Privacidade