/main

Main Repository

Primary LanguageHTML

Olá, meu nome é Pedro Heeger e seja muito bem vindo por ter chegado até aqui. Abaixo estão minhas redes sociais e meu currículo esta dispoível no link do GitHub Pages. Este é o meu repositório principal e aqui você saberá mais sobre mim e sobre minha conta no GitHub.

GitHub GitHub Pages Linkedin Instagram Discord Slack

Summary

  1. Main Repository
  2. About Me 2.1. Phase 1 - Civil Engineering
    2.2. Phase 2 - Getting Started in Technology
    2.3. Phase 3 - My First Bootcamps
    2.4. Phase 4 - Organization of Studies
  3. My GitHub Account 3.1. Profile Repository (pedroheeger)
    3.2. Main Repository (main)
    3.3. Study Repositories
  4. Resume
  5. Certificate 5.1. Technology Certificate
    5.2. Language Certificate
  6. Reports and Dashboards
  7. Read Books
  8. Technologies studied during my journey
  9. Study Repository
  10. Badges
  11. Main Projects
  12. All Projects

1. Main Repository

Back to summary

Este é o meu repositório principal, onde apresento toda a organização da minha conta no GitHub, falo um pouco mais sobre mim, explico sobre os meus repositórios, disponibilizo meu currículo em um website, exibo as certificações que conquistei, os certificados dos eventos que participei, as línguas que domino e as ferramentas que já utilizei.

Para construção desse repositório fiz um fork de um repositório já existente da plataforma Digital Innovation One - DIO (digitalinnovationone/resume) que contém um template em HTML e CSS para criação de um currículo online, sendo disponibilizado em um link hospedado no GitHub Pages. Para acessar meu currículo online, clique aqui.

O repositório original é apenas para montagem do currículo online, mas resolvi adaptá-lo para utilizar como repositório principal e acrescentar diversas outras informações sobre mim e minha conta no GitHub. Apenas utilizei, do repositório original, o arquivo de template em HMTL para criação do meu currículo online.


2. About Me

Back to summary

Olá novamente, como já sabe meu nome irei falar um pouco mais sobre mim. Atualmente tenho 30 anos e moro na cidade onde eu nasci e cresci, Salvador-BA e sou graduado em Engenharia Civil pela Universidade Católica do Salvador e formado em Engenharia de Dados pela SoulCode Academy.

2.1. Phase 1 - Civil Engineering

Back to item 2

Iniciei minha carreira profissional, em Fevereiro de 2019, ainda durante a faculdade, como assistente administrativo em uma empresa de fiscalização de obras contratada pela empresa de água e saneamento de Salvador para fiscalizar a construtora contratada que realizou uma obra de ampliação de um centro de reservação de abastecimento de água de minha cidade. Nesta obra foi construído um reservatório apoiado, um reservatório elevado, uma estação elevatória, toda a rede de interligação e a urbanização deste centro de reservação.

Após conclusão da obra e com minha graduação concluída, em Junho de 2021, fui contratado pela construtora, em Outubro de 2021, a qual eu tinha fiscalizado, para uma outra obra. Desta vez, uma obra de complementação da ampliação do sistema de esgotamento sanitário de Salvador para as bacias do Trobogy e Cambunas.

Durante esse período, foi o momento em que comecei a pensar em realizar uma transição de carreira. Eu gostava muito da engenharia, gostava de onde eu trabalhava, porém não me sentia realizado, não sentia que era isso que eu queria para o resto da minha vida, sentia que eu poderia muito mais. Como desde de pequeno gostava de computador, sempre gostei muito de excel, desde os 11 anos que eu pesquisava como montar planilhas de copa do mundo utilizando macros, comecei a me questionar porque não aprender tecnologia? o porque não aprender uma linguagem de programação?

2.2. Phase 2 - Getting Started in Technology

Back to item 2

Foi nesse momento que ocorreu a virada de chave. Passei a buscar na internet, ler sobre o tema, e vi que a perspectiva do mercado para essa área estava muito boa e só iria aumentar. Então comecei a receber sugestões de cursos de Python, e fiquei encantado com aquilo até o momento que tomei uma grande decisão na minha vida, talvez uma das maiores. Decidi que iria sair do meu emprego e iria estudar tecnologia.

No final de Agosto de 2021, me desliguei da empresa onde trabalhava e logo surgiu para mim um processo seletivo para realização de um bootcamp de Engenharia de Dados com Python e Google Cloud numa edtech chamada SoulCode Academy. Analisei sobre o processo e vi que não precisava de experiência, como não sabia nada ainda desse universo que é a tecnologia, só sabia excel e muito pouco para o que eu achava que sabia, decidi participar. Infelizmente, não passei para fase de seguinte, mas não me desanimei, pois minha jornada nessa área só estava a começar.

Como eu tinha já pesquisado algumas coisas sobre tecnologia, descobri sobre a área de dados e banco de dados e sobre linguagem de programação, mais precisamente sobre o Python, então comecei a salvar alguns links de vídeos, cursos e plataformas de estudo sobre o tema e pensei vou estudar esses materiais e depois procuro um bootcamp para realizar. Então surgiu uma nova turma para o mesmo bootcamp de dados da SoulCode Academy, decidi tentar novamente e passei não só para fase seguinte, como para participar do bootcamp.

2.3. Phase 3 - My First Bootcamps

Back to item 2

No final de Outubro de 2021, iniciei o bootcamp e o aprendizado foi incrível. Para quem não tinha conhecimento nenhum foi super esclarecedor, me fez entender as áreas da tecnologia, coisas básicas que eu não sabia, desde sistemas operacionais com o uso do Linux, passando por conhecimento de redes, linguagem de programação, banco de dados, comunicação entre a linguagem e o banco, conhecimentos de big data e até chegar a clouds. Foi um excelente ponta pé de partida para eu entender as áreas e como as coisas funcionam no mundo da tencologia. A partir desse bootcamp, pesquisar e procurar os assuntos sobre o tema se tornou muito mais fácil. O bootcamp foi intensivo e durou por três meses, sendo concluido em Fevereiro de 2022. Existe uma pasta específica sobre esse bootcamp em um dos meus repositórios, caso queira saber mais clique aqui.

Após a conclusão do bootcamp, fiz outros cursos e fui pesquisando mais sobre os assuntos. Até que em Outubro de 2022, conheci uma plataforma chamada DIO - Digital Innovation One, que possui diversos cursos e programas específicos de estudos bem completo. Nessa época, realizei o meu primeiro bootcamp na plataforma que foi o Geração Tech Unimed-BH - Ciência de Dados e conheci melhor a área da ciência de dados e, mais uma vez, fiquei encantado. Conclui o bootcamp no final de Dezembro desse mesmo ano.

2.4. Phase 4 - Organization of Studies

Back to item 2

Em 2023, percebi que eu precisava me organizar, que eu tinha muito material, muito conteúdo, mas sentia que estava tudo bagunçado e precisava organizar. Foi então que comecei e ainda estou num processo de organizar todo meu material de estudo, começando do mais básico, no caso o Excel, que agora posso dizer que tenho conhecimento em Excel avançado, passando pelas três áreas de Dados (Análise de Dados, Engenharia de Dados e Ciência de Dados) com objetivo de obter o conhecimento sólido sobre esses temas.

No momento atual, estou realizando cursos e aulas, organizando materiais que salvei durante esse tempo, seguindo uma sequência, revisando e ampliando meus conhecimentos sobre as áreas que conheci. Meu foco atual é a Engenharia de Dados, mas simpatizo muito com a Ciência de Dados. Também tenho iniciado outros Bootcamps na plataforma da DIO, meu objetivo é concluí alguns cursos e bootcamps dessa plataforma para fortalecer minha base de conhecimento e conquistar algumas certificações.


3. My GitHub Account

Back to summary

Na minha conta do GitHub existe cinco repositórios e irei explicar agora como eles funcionam. Todos esses repositórios existem remotamente (GitHub) e localmente (minha maquina). Na minha maquina eles são salvos em uma pasta do Google Drive de nome 4_Proj, já que formam juntos todos os meus projetos que realizei e a estrutura do meu perfil do GitHub.

Nem todos os arquivos dentro das sub-pastas dos repositórios serão disponibilizados no GitHub, porém todo conteúdo está armazenando no Google Drive pessoal. O objetivo é diminuir a quantidade de arquivos armazenados que não são versionados como arquivos de Excel (CSV), Power BI, PowerPoint e de imagens. São versionados apenas arquivos relavantes e arquivos de README explicando o conteúdo do repositório e das suas sub-pastas, que são os projetos desenvolvidos.

3.1. Profile Repository (pedroheeger)

Back to item 3

O primeiro repositório é o pedroheeger que é o repositório de perfil do GitHub. Nele só existe um único arquivo markdown de README para construção do perfil no GitHub. No perfil é apresentado uma breve introdução sobre mim, as minhas redes sociais, os cartões de status do GitHub e principais linguagens utilizadas, as minha habilidades mais utilizadas, um card direcionando para esse repositório, que é o repositório principal e outros cards direcionando para meus repositórios de estudos, além de links direto para os projetos que ficam nas sub-pastas dos meus repositórios e links direto para alguns dashboards e reports online.

3.2. Main Repository (main)

Back to item 3

O segundo repositório é este, que como já foi dito no início deste arquivo, é o meu repositório principal, onde apresento toda a organização da minha conta no GitHub, falo um pouco mais sobre mim, explico sobre os meus repositórios, disponibilizo meu currículo em um website, exibo as certificações que conquistei, os certificados dos eventos que participei, as línguas que domino, as ferramentas que já utilizei e os mesmos conteúdos do repositório de perfil de forma mais ampliada.

3.3. Study Repositories

Back to item 3

Os meus repositórios de estudos são organizados em três repositórios. O primeiro é o boot que armazena todos os bootcamps que realizei divididos em sub-pastas. O segundo repositório é o course que guarda todos os cursos que realizei, também divididos em sub-pastas. O terceiro é o video armazenando todas as vídeo-aulas que realizei, divididos em sub-pastas.

Os bootcamps são um conjunto de cursos, as vezes separados por módulos. Já os cursos são um conjunto de vídeos, também podendo ser separados por módulos. Por fim, as vídeo-aulas são a unidade mais básica do meu estudo.

Subdivisions of Repositories

Esses três repositórios são divididos em níveis de sub-divisões de pastas. Vamos entender cada nível agora.

  • Primeiro Nível de Pastas: O primeiro nível de pastas dividi o repositório em sub-pastas para cada plataforma diferente onde realizei o estudo (ex.: DIO, Microsoft Learn, Hashtag, Soul Code Academy).
nivel1
Primeiro Nível de Pastas em um repositório.

  • Segundo Nível de Pastas: Após a primeira sub-divisão, em alguns casos é necessário a criação de um segundo nível de pastas, quando se tem muitos estudos sobre diferentes software/assuntos. Por tanto, a sub-pasta da plataforma é sub-dividida por nome do software ou assunto (python, power_bi, mysql, javascript, analise_dados, etc.).
nivel2
Segundo Nível de Pastas em um repositório.

  • Terceiro Nível de Pastas: Por fim, o terceiro nível pasta sub-dividi a sub-pasta do software/assunto (segundo nível) ou a sub-pasta da plataforma (primeiro nível) em um nome específico com um número de ordem para controle (boot_01, boot_02, course_010, course_029, aula_135, aula_223). Esta sub-pasta conterá todo material do estudo que está sendo realizado. O material pode ser arquivos ou outras pastas, nos casos que seja necessário, dentro de um mesmo estudo, separar por módulos.
nivel3
Terceiro Nível de Pastas em um repositório.

nivel4
Pasta com todo material do estudo.


4. Resume

Back to summary

Como dito anteriormente, este repositório foi originado de um fork de um repositório já existente da plataforma Digital Innovation One - DIO (digitalinnovationone/resume) que contém um template em HTML e CSS para criação de um currículo online, sendo disponibilizado em um link hospedado no GitHub Pages. Acesse o meu currículo aqui.


5. Certificate

Back to summary

5.1. Technology Certificate

Back to item 5

Neste repositório é disponibilizado uma sub-pasta com todos os certificados que obtive durante o meu processo de aprendizagem. Na sub-pasta está contida os certificados de conclusão de cursos, certificados de conclusão de bootcamps, certificações especiais, entre outros. Para acessá-la, clique aqui.

5.2. Language Certificate

Back to item 5

Aqui também é disponibilizado uma sub-pasta com todos os certificados referentes aos línguas que aprendi. Para acessar essa sub-pasta, clique aqui.


6. Reports and Dashboards

Back to summary

Neste repositório é disponibilizado, em uma sub-pasta, todos os reports e dashboards (relatórios e paineis) realizados nos projetos desenvolvidos em todos os repositórios de estudos. Para acessá-la e conferir o conteúdo, clique aqui.


7. Read Books

Back to summary

  • Começando com Linux: Comandos, serviços e administração - Casa do Código
  • Linux Fundamentals - 4.Linux
  • Linux Essentials - 4.Linux
  • Linux Gerencia de Pacotes - IFRN
  • Containers Fundamentls - 4.Linux
  • Containers com Docker: Do desenvolvimento à producão - Cada do Código
  • DevOps Essentials - 4.Linux

8. Technologies studied during my journey Flexed Biceps Medium-Light Skin Tone

Back to summary

Programming Language

Python Java JavaScript Solidity

Databases

MySQL PostgreSQL MongoDB Cassandra

Library and Frameworks

Pandas NumPy Scikit Learn TensorFlow Keras Truffle Hardhat Ganache

Business Intelligence (BI)

Excel Power BI

Cloud Platforms

AWS Google Cloud Digital Ocean

AWS Services

AWS EC2 AWS S3 AWS Lambda AWS RDS AWS DynamoDB AWS CloudWatch AWS API Gateway AWS CloudFormation AWS EBS AWS EFS AWS Systems Manager AWS Bedrock AWS SageMaker AWS CloudTrail

Big Data

Apache Spark Databricks

Repository and Versioning

GitHub Git

Integrated Development Environment (IDE)

Visual Studio Code Colab Jupyter Notebook PyCharm Replit Remix IDE

Containerization and Orchestration

Docker Kubernetes

Terraform

Terraform

CI/CD

GitHub Actions GitLab CI

Operating Systems

Linux Windows Ubuntu Debian

Shell Languages

Bash PowerShell

Other Languages

HTML5 CSS3 Markdown

Blockchain Tools

Bitcoin Ethereum Sepolia MetaMask Electrum Bitcoin Wallet Keplr OpenSea Uptick

9. Study Repository Open Book

Back to summary

These are my study repositories, where I create my specific projects for each study I carry out.

Boot Repo Course Repo

10. Badges Trophy

Back to summary

Certificações

aws_clf02

Programas

aws_re-start sca-engenharia_dados

Bootcamps / Cursos

dio-boot_003 dio-boot_004 dio-boot_005 dio-boot_006 dio-boot_007 dio-boot_011 dio-boot_012 dio-boot_013 dio-boot_014 dio-boot_015 dio-boot_017 dio-boot_020 dio-boot_024 dio-boot_025 dio-boot_026 dio-boot_027 dio-boot_028

Eventos

iniciativa_devops-docker iniciativa_devops-kubernetes iniciativa_devops-terraform iniciativa_devops-github_actions iniciativa_devops-prometheus_grafana

Plataformas de Estudo

atlantico_avanti cev dio msft_learn simplifica_treinamentos soulcode_academy xperiun
4linux aws_skill_builder cloud_treinamentos cubo_tres edn empowerdata full_cycle grasshoper hashtag

11. Main Projects Bullseye

Back to summary

Click here to expand
  • curso_048: Minicurso Power BI Experience curso_048Construção de um report em Power BI, com modo dark e light, para análises das vendas de uma empresa em um cenário hipotético.
  • curso_051: Desafio Missão ZERO - Bootcamp HPN curso_051Construção de um report em Power BI para análises das vendas da empresa Heavy Power Nutrition (HPN).
  • curso_066: Dev Week - Ifood Ciência de Dados com Python curso_066Análise da satisfação dos feedbacks de um bootcamp, através do cálculo do Net Promoter Score (NPS) com utilização da linguagem Python, executando o código em três paradigmas diferentes: Paradigma Imperativo, Paradigma Funcional e Paradigma Orientado a Objetos (POO). A partir do valor calculado do NPS, foi construindo um gráfico com uso da biblioteca Matplotlib. Por fim, com a biblioteca Openai foi construída uma função para o ChatGPT analisar os sentimentos com base nos comentários do feedback.
  • curso_092:Introduction to Amazon Elastic Compute Cloud (EC2) curso_092Provisionamento de instâncias no serviço Amazon Elastic Compute Cloud (EC2) na cloud da AWS e execução de várias formas de acesso remoto entre maquinas de diferentes sistemas operacionais. Os tipos de acesso remoto foram: acesso remoto, execução remota de comandados, transferência de arquivos, transferência de pastas e acesso remoto gráfico. Já os sistemas operacionais utilizados foram: Windows, Linux Ubuntu, Windows Server e Amazon Linux com interface gráfica. Já os softwares utilizados foram: OpenSSH, PuTTY, Telnet, PowerShell com o recurso PowerShell Remoting, RDP Client ou Remote Desktop Connection, TeamViewer, Google Chrome Desktop e o recurso Session Manager do serviço AWS System Manager (SSM).
  • curso_102: Introduction to Amazon Elastic Container Service curso_102 Implantação de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura instâncias de container do serviço Amazon Elastic Compute Cloud (EC2). As aplicações foram aplicações de testes executadas através de imagens Docker, sendo uma da aplicação fornecida do curso 116, baixada do repositório do Docker Hub e a outra um servidor web Nginx baixada do repositório Amazon Elastic Container Registry (ECR). A implantação das aplicações no cluster se deram por meio de tasks e services, e neste curso não foi utilizado auto scaling e load balancer. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.
  • curso_104: Introduction to AWS Fargate curso_104Implantação de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura o serviço AWS Fargate. As aplicações foram aplicações de testes executadas através de imagens Docker, sendo uma da aplicação fornecida do curso 116 e a outra um servidor web Apache HTTP (Httpd), ambas baixadas do repositório do Docker Hub. A implantação das aplicações no cluster se deram por meio de tasks e services, e neste curso não foi utilizado auto scaling e load balancer. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.
  • curso_105: Amazon Elastic Container Service (ECS) Primer curso_105 Deploy completo de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura instâncias de container do serviço Amazon Elastic Compute Cloud (EC2). A aplicação foi uma aplicação de teste executada através de imagens Docker fornecida pelo curso 116, sendo baixada do repositório do Docker Hub. A implantação da aplicação no cluster se deu por meio de services, sendo utilizando uma instância de banco de dados do Amazon Relational Database Service (RDS) para armazenar os dados desta aplicação. O serviço AWS Auto Scaling foi utilizado para executar escalonamento dos services no cluster (AWS Application Auto Scaling). O serviço Amazon Load Balancer (ELB) foi utilizado para distribuir o tráfego entre os services do cluster. Também foi utilizado um domínio do Registro.BR e configurado no Amazon Route53 para que esse domínio fornecesse acesso a aplicação, permitindo também acesso via HTTPS com utilização de certificado gerado no Amazon Certificate Manager (ACM). O Amazon CloudWatch também foi usado para armazenar alguns logs. A aplicação cujo nome era `kubenews` se tratava de um microblog, que ao prencher os campos de um formulário e enviá-los, os dados eram alimentados em um banco. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.
  • curso_107: Deep Dive on AWS Fargate: Building Serverless Containers at Scale curso_107Deploy completo de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura o serviço AWS Fargate. A aplicação foi uma aplicação de teste executada através de imagens Docker fornecida pelo curso 116, sendo baixada do repositório do Docker Hub. A implantação da aplicação no cluster se deu por meio de services, sendo utilizando uma instância de banco de dados do Amazon Relational Database Service (RDS) para armazenar os dados desta aplicação. O serviço AWS Auto Scaling foi utilizado para executar escalonamento tanto para capacidade computacional, ou seja, quantidade de maquinas (Amazon EC2 Auto Scaling), como também para escalonar os services no cluster (AWS Application Auto Scaling). O serviço Amazon Load Balancer (ELB) foi utilizado para distribuir o tráfego entre as instâncias. Também foi utilizado um domínio do Registro.BR e configurado no Amazon Route53 para que esse domínio fornecesse acesso a aplicação, permitindo também acesso via HTTPS com utilização de certificado gerado no Amazon Certificate Manager (ACM). O Amazon CloudWatch também foi usado para armazenar alguns logs. A aplicação cujo nome era `kubenews` se tratava de um microblog, que ao prencher os campos de um formulário e enviá-los, os dados eram alimentados em um banco. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.
  • curso_109: Introduction to AWS Auto Scaling curso_109Construção de grupos de Auto Scaling com diferentes configurações no serviço Amazon EC2 Auto Scaling, inclusive diferentes tipos de load balancer (Application Load Balancer (ALB) e Classic Load Balancer (CLB)) do serviço Amazon Load Balancer (ELB) para aplicação dos diferentes tipos de políticas de escalonamento e verificação do escalonamento sendo realizado. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.
  • curso_114: Amazon EKS Primer curso_114Implantação de aplicação web containerizada Docker no serviço Amazon Elastic Kubernetes Service (EKS) da AWS. As aplicações foram aplicações de testes executadas através de imagens Docker, sendo uma da aplicação fornecida do curso 116 e a outra um servidor web Apache HTTP (Httpd), ambas baixadas do repositório do Docker Hub. Neste curso não foi utilizado auto scaling e load balancer. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.
  • curso_116: Imersão Docker e Kubernetes curso_116Implantação de uma aplicação web containerizada, utilizando como infraestrutura uma instância do serviço Amazon Elastic Compute Cloud (EC2). A mesma implantação foi realizada de três formas, através do Docker executando os comandos diretamente nos arquivos de script, por arquivo `Docker-Compose` e com o software Kubernetes, construindo um cluster na instância. A aplicação de nome `kubenews` consistiu em um microblog (portal de notícias) escrito em Node.js que teve como persistência dos dados um container com imagem do banco PostgreSQL. A execução de todo o curso foi praticamente 100% automatizada através de arquivos de scripts em PowerShell e Bash, sendo o PowerShell executando na maquina física Windows e o Bash na instância do EC2 Linux Ubuntu. Neste curso, os acessos remotos foram realizados com o OpenSSH.
  • curso_117: Domine AWS com Henrylle Maia curso_117Deploy de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura instâncias de container do serviço Amazon Elastic Compute Cloud (EC2). A aplicação foi uma aplicação de teste executada através de imagens Docker fornecida pelo professor do curso, sendo baixada do repositório do Docker Hub. A implantação da aplicação no cluster se deu por meio de services, sendo utilizando uma instância de banco de dados PostgreSQL do serviço Amazon Relational Database Service (RDS) para armazenar os dados desta aplicação. O serviço Amazon Load Balancer (ELB) foi utilizado para distribuir o tráfego entre as instâncias do cluster. Também foi utilizado um domínio do Registro.BR e configurado no Amazon Route53 para que esse domínio fornecesse acesso a aplicação, permitindo também acesso via HTTPS com utilização de certificado gerado no Amazon Certificate Manager (ACM). O Amazon CloudWatch também foi usado para armazenar alguns logs. A aplicação cujo nome era `bia` era uma espécie de bloco de tarefas, onde eram adicionadas tarefas e que ficavam armazenadas como posts na aplicação. A execução de todo o curso foi praticamente 100% automatizada através de arquivos de scripts PowerShell, que utilizavam o AWS CLI para interagir com os serviços da AWS. Neste curso, os acessos remotos foram realizados com o recurso Session Manager do serviço AWS System Manager (SSM).
  • boot_022: AWS re/Start - Cloud Computing boot_022O AWS re/Start é um programa universal gratuito de capacitação em computação em nuvem oferecido pela Amazon Web Services (AWS), projetado para ajudar pessoas sem experiência prévia na área de tecnologia a iniciar uma carreira na nuvem. Com duração de cerca de 12 semanas, o programa abrange temas como fundamentos da AWS, computação, segurança, redes, bancos de dados e práticas de DevOps, além de preparar os participantes para a certificação AWS Certified Cloud Practitioner. Além do conhecimento técnico, o curso também oferece suporte no desenvolvimento de habilidades profissionais, como preparação para entrevistas e currículos. Este programa foi ministrado pela edtech Escola da Nuvem, onde foi aprendido sobre o que é a cloud AWS e como ela funciona, conhecendo e executando vários dos seus serviços através de laboratórios. Entre os serviços utilizados destacam-se: AWS Identity and Access Management (IAM), Amazon Elastic Compute Cloud (EC2), Amazon Virtual Private Cloud (VPC), Amazon Simple Storage Service (S3), Amazon Elastic Block Store (EBS), Amazon Elastic File System (EFS), Amazon S3 Glacier, Amazon Relational Database Service (RDS), Amazon DynamoDB, Amazon Lambda, AWS Systems Manager (SSM), Amazon Route 53, Amazon CloudWatch, AWS CloudTrail, AWS Config, AWS Trusted Advisor, AWS Command Line Interface (CLI), Amazon EC2 Auto Scaling e Amazon Simple Notification Service (SNS).

12. All Projects Ledger

Back to summary

Click here to expand
Artificial Intelligence
Cloud Computing
Big Data
  • Apache Kafka apache_kafka
  • Apache Spark apache_spark
  • Databricks databricks
Blockchain
Cluster Management Software
Configuration Management (CM)
  • Terraform terraform
Container Manager
Data
DevOps
Operating System (OS)
Programming
Programming Logic
  • ???
Versioning
  • ???
Web Devolopment
  • ???
    • boot_
Workflow Management System (WFMS)
  • Apache Airflow apache_airflow
  • GitHub Actions github_actions