Olá, meu nome é Pedro Heeger e seja muito bem vindo por ter chegado até aqui. Abaixo estão minhas redes sociais e meu currículo esta dispoível no link do GitHub Pages. Este é o meu repositório principal e aqui você saberá mais sobre mim e sobre minha conta no GitHub.
- Main Repository
- Resume
- Reports and Dashboards
- Read Books
- Technologies studied during my journey
- Study Repository
- Badges
- Main Projects
- All Projects
Back to summary
Este é o meu repositório principal, onde apresento toda a organização da minha conta no GitHub, falo um pouco mais sobre mim, explico sobre os meus repositórios, disponibilizo meu currículo em um website, exibo as certificações que conquistei, os certificados dos eventos que participei, as línguas que domino e as ferramentas que já utilizei.
Para construção desse repositório fiz um fork de um repositório já existente da plataforma Digital Innovation One - DIO (digitalinnovationone/resume) que contém um template em HTML e CSS para criação de um currículo online, sendo disponibilizado em um link hospedado no GitHub Pages. Para acessar meu currículo online, clique aqui.
O repositório original é apenas para montagem do currículo online, mas resolvi adaptá-lo para utilizar como repositório principal e acrescentar diversas outras informações sobre mim e minha conta no GitHub. Apenas utilizei, do repositório original, o arquivo de template em HMTL para criação do meu currículo online.
Back to summary
Olá novamente, como já sabe meu nome irei falar um pouco mais sobre mim. Atualmente tenho 30 anos e moro na cidade onde eu nasci e cresci, Salvador-BA e sou graduado em Engenharia Civil pela Universidade Católica do Salvador e formado em Engenharia de Dados pela SoulCode Academy.
Back to item 2Iniciei minha carreira profissional, em Fevereiro de 2019, ainda durante a faculdade, como assistente administrativo em uma empresa de fiscalização de obras contratada pela empresa de água e saneamento de Salvador para fiscalizar a construtora contratada que realizou uma obra de ampliação de um centro de reservação de abastecimento de água de minha cidade. Nesta obra foi construído um reservatório apoiado, um reservatório elevado, uma estação elevatória, toda a rede de interligação e a urbanização deste centro de reservação.
Após conclusão da obra e com minha graduação concluída, em Junho de 2021, fui contratado pela construtora, em Outubro de 2021, a qual eu tinha fiscalizado, para uma outra obra. Desta vez, uma obra de complementação da ampliação do sistema de esgotamento sanitário de Salvador para as bacias do Trobogy e Cambunas.
Durante esse período, foi o momento em que comecei a pensar em realizar uma transição de carreira. Eu gostava muito da engenharia, gostava de onde eu trabalhava, porém não me sentia realizado, não sentia que era isso que eu queria para o resto da minha vida, sentia que eu poderia muito mais. Como desde de pequeno gostava de computador, sempre gostei muito de excel, desde os 11 anos que eu pesquisava como montar planilhas de copa do mundo utilizando macros, comecei a me questionar porque não aprender tecnologia? o porque não aprender uma linguagem de programação?
Back to item 2Foi nesse momento que ocorreu a virada de chave. Passei a buscar na internet, ler sobre o tema, e vi que a perspectiva do mercado para essa área estava muito boa e só iria aumentar. Então comecei a receber sugestões de cursos de Python, e fiquei encantado com aquilo até o momento que tomei uma grande decisão na minha vida, talvez uma das maiores. Decidi que iria sair do meu emprego e iria estudar tecnologia.
No final de Agosto de 2021, me desliguei da empresa onde trabalhava e logo surgiu para mim um processo seletivo para realização de um bootcamp de Engenharia de Dados com Python e Google Cloud numa edtech chamada SoulCode Academy. Analisei sobre o processo e vi que não precisava de experiência, como não sabia nada ainda desse universo que é a tecnologia, só sabia excel e muito pouco para o que eu achava que sabia, decidi participar. Infelizmente, não passei para fase de seguinte, mas não me desanimei, pois minha jornada nessa área só estava a começar.
Como eu tinha já pesquisado algumas coisas sobre tecnologia, descobri sobre a área de dados e banco de dados e sobre linguagem de programação, mais precisamente sobre o Python, então comecei a salvar alguns links de vídeos, cursos e plataformas de estudo sobre o tema e pensei vou estudar esses materiais e depois procuro um bootcamp para realizar. Então surgiu uma nova turma para o mesmo bootcamp de dados da SoulCode Academy, decidi tentar novamente e passei não só para fase seguinte, como para participar do bootcamp.
Back to item 2No final de Outubro de 2021, iniciei o bootcamp e o aprendizado foi incrível. Para quem não tinha conhecimento nenhum foi super esclarecedor, me fez entender as áreas da tecnologia, coisas básicas que eu não sabia, desde sistemas operacionais com o uso do Linux, passando por conhecimento de redes, linguagem de programação, banco de dados, comunicação entre a linguagem e o banco, conhecimentos de big data e até chegar a clouds. Foi um excelente ponta pé de partida para eu entender as áreas e como as coisas funcionam no mundo da tencologia. A partir desse bootcamp, pesquisar e procurar os assuntos sobre o tema se tornou muito mais fácil. O bootcamp foi intensivo e durou por três meses, sendo concluido em Fevereiro de 2022. Existe uma pasta específica sobre esse bootcamp em um dos meus repositórios, caso queira saber mais clique aqui.
Após a conclusão do bootcamp, fiz outros cursos e fui pesquisando mais sobre os assuntos. Até que em Outubro de 2022, conheci uma plataforma chamada DIO - Digital Innovation One, que possui diversos cursos e programas específicos de estudos bem completo. Nessa época, realizei o meu primeiro bootcamp na plataforma que foi o Geração Tech Unimed-BH - Ciência de Dados e conheci melhor a área da ciência de dados e, mais uma vez, fiquei encantado. Conclui o bootcamp no final de Dezembro desse mesmo ano.
Back to item 2Em 2023, percebi que eu precisava me organizar, que eu tinha muito material, muito conteúdo, mas sentia que estava tudo bagunçado e precisava organizar. Foi então que comecei e ainda estou num processo de organizar todo meu material de estudo, começando do mais básico, no caso o Excel, que agora posso dizer que tenho conhecimento em Excel avançado, passando pelas três áreas de Dados (Análise de Dados, Engenharia de Dados e Ciência de Dados) com objetivo de obter o conhecimento sólido sobre esses temas.
No momento atual, estou realizando cursos e aulas, organizando materiais que salvei durante esse tempo, seguindo uma sequência, revisando e ampliando meus conhecimentos sobre as áreas que conheci. Meu foco atual é a Engenharia de Dados, mas simpatizo muito com a Ciência de Dados. Também tenho iniciado outros Bootcamps na plataforma da DIO, meu objetivo é concluí alguns cursos e bootcamps dessa plataforma para fortalecer minha base de conhecimento e conquistar algumas certificações.
Back to summary
Na minha conta do GitHub existe cinco repositórios e irei explicar agora como eles funcionam. Todos esses repositórios existem remotamente (GitHub) e localmente (minha maquina). Na minha maquina eles são salvos em uma pasta do Google Drive de nome 4_Proj, já que formam juntos todos os meus projetos que realizei e a estrutura do meu perfil do GitHub.
Nem todos os arquivos dentro das sub-pastas dos repositórios serão disponibilizados no GitHub, porém todo conteúdo está armazenando no Google Drive pessoal. O objetivo é diminuir a quantidade de arquivos armazenados que não são versionados como arquivos de Excel (CSV), Power BI, PowerPoint e de imagens. São versionados apenas arquivos relavantes e arquivos de README explicando o conteúdo do repositório e das suas sub-pastas, que são os projetos desenvolvidos.
Back to item 3O primeiro repositório é o pedroheeger que é o repositório de perfil do GitHub. Nele só existe um único arquivo markdown de README para construção do perfil no GitHub. No perfil é apresentado uma breve introdução sobre mim, as minhas redes sociais, os cartões de status do GitHub e principais linguagens utilizadas, as minha habilidades mais utilizadas, um card direcionando para esse repositório, que é o repositório principal e outros cards direcionando para meus repositórios de estudos, além de links direto para os projetos que ficam nas sub-pastas dos meus repositórios e links direto para alguns dashboards e reports online.
Back to item 3O segundo repositório é este, que como já foi dito no início deste arquivo, é o meu repositório principal, onde apresento toda a organização da minha conta no GitHub, falo um pouco mais sobre mim, explico sobre os meus repositórios, disponibilizo meu currículo em um website, exibo as certificações que conquistei, os certificados dos eventos que participei, as línguas que domino, as ferramentas que já utilizei e os mesmos conteúdos do repositório de perfil de forma mais ampliada.
Back to item 3Os meus repositórios de estudos são organizados em três repositórios. O primeiro é o boot que armazena todos os bootcamps que realizei divididos em sub-pastas. O segundo repositório é o course que guarda todos os cursos que realizei, também divididos em sub-pastas. O terceiro é o video armazenando todas as vídeo-aulas que realizei, divididos em sub-pastas.
Os bootcamps são um conjunto de cursos, as vezes separados por módulos. Já os cursos são um conjunto de vídeos, também podendo ser separados por módulos. Por fim, as vídeo-aulas são a unidade mais básica do meu estudo.
Esses três repositórios são divididos em níveis de sub-divisões de pastas. Vamos entender cada nível agora.
- Primeiro Nível de Pastas: O primeiro nível de pastas dividi o repositório em sub-pastas para cada plataforma diferente onde realizei o estudo (ex.: DIO, Microsoft Learn, Hashtag, Soul Code Academy).
- Segundo Nível de Pastas: Após a primeira sub-divisão, em alguns casos é necessário a criação de um segundo nível de pastas, quando se tem muitos estudos sobre diferentes software/assuntos. Por tanto, a sub-pasta da plataforma é sub-dividida por nome do software ou assunto (python, power_bi, mysql, javascript, analise_dados, etc.).
- Terceiro Nível de Pastas: Por fim, o terceiro nível pasta sub-dividi a sub-pasta do software/assunto (segundo nível) ou a sub-pasta da plataforma (primeiro nível) em um nome específico com um número de ordem para controle (boot_01, boot_02, course_010, course_029, aula_135, aula_223). Esta sub-pasta conterá todo material do estudo que está sendo realizado. O material pode ser arquivos ou outras pastas, nos casos que seja necessário, dentro de um mesmo estudo, separar por módulos.
Back to summary
Como dito anteriormente, este repositório foi originado de um fork de um repositório já existente da plataforma Digital Innovation One - DIO (digitalinnovationone/resume) que contém um template em HTML e CSS para criação de um currículo online, sendo disponibilizado em um link hospedado no GitHub Pages. Acesse o meu currículo aqui.
Back to summary Back to item 5
Neste repositório é disponibilizado uma sub-pasta com todos os certificados que obtive durante o meu processo de aprendizagem. Na sub-pasta está contida os certificados de conclusão de cursos, certificados de conclusão de bootcamps, certificações especiais, entre outros. Para acessá-la, clique aqui.
Back to item 5Aqui também é disponibilizado uma sub-pasta com todos os certificados referentes aos línguas que aprendi. Para acessar essa sub-pasta, clique aqui.
Back to summary
Neste repositório é disponibilizado, em uma sub-pasta, todos os reports e dashboards (relatórios e paineis) realizados nos projetos desenvolvidos em todos os repositórios de estudos. Para acessá-la e conferir o conteúdo, clique aqui.
Back to summary
- Começando com Linux: Comandos, serviços e administração - Casa do Código
- Linux Fundamentals - 4.Linux
- Linux Essentials - 4.Linux
- Linux Gerencia de Pacotes - IFRN
- Containers Fundamentls - 4.Linux
- Containers com Docker: Do desenvolvimento à producão - Cada do Código
- DevOps Essentials - 4.Linux
Back to summary
Back to summary
These are my study repositories, where I create my specific projects for each study I carry out.
Back to summary
Back to summary
curso_048: Minicurso Power BI Experience
Construção de um report em Power BI, com modo dark e light, para análises das vendas de uma empresa em um cenário hipotético.curso_051: Desafio Missão ZERO - Bootcamp HPN
Construção de um report em Power BI para análises das vendas da empresa Heavy Power Nutrition (HPN).curso_066: Dev Week - Ifood Ciência de Dados com Python
Análise da satisfação dos feedbacks de um bootcamp, através do cálculo do Net Promoter Score (NPS) com utilização da linguagem Python, executando o código em três paradigmas diferentes: Paradigma Imperativo, Paradigma Funcional e Paradigma Orientado a Objetos (POO). A partir do valor calculado do NPS, foi construindo um gráfico com uso da biblioteca Matplotlib. Por fim, com a biblioteca Openai foi construída uma função para o ChatGPT analisar os sentimentos com base nos comentários do feedback.curso_092:Introduction to Amazon Elastic Compute Cloud (EC2)
Provisionamento de instâncias no serviço Amazon Elastic Compute Cloud (EC2) na cloud da AWS e execução de várias formas de acesso remoto entre maquinas de diferentes sistemas operacionais. Os tipos de acesso remoto foram: acesso remoto, execução remota de comandados, transferência de arquivos, transferência de pastas e acesso remoto gráfico. Já os sistemas operacionais utilizados foram: Windows, Linux Ubuntu, Windows Server e Amazon Linux com interface gráfica. Já os softwares utilizados foram: OpenSSH, PuTTY, Telnet, PowerShell com o recurso PowerShell Remoting, RDP Client ou Remote Desktop Connection, TeamViewer, Google Chrome Desktop e o recurso Session Manager do serviço AWS System Manager (SSM).curso_102: Introduction to Amazon Elastic Container Service
Implantação de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura instâncias de container do serviço Amazon Elastic Compute Cloud (EC2). As aplicações foram aplicações de testes executadas através de imagens Docker, sendo uma da aplicação fornecida do curso 116, baixada do repositório do Docker Hub e a outra um servidor web Nginx baixada do repositório Amazon Elastic Container Registry (ECR). A implantação das aplicações no cluster se deram por meio de tasks e services, e neste curso não foi utilizado auto scaling e load balancer. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.curso_104: Introduction to AWS Fargate
Implantação de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura o serviço AWS Fargate. As aplicações foram aplicações de testes executadas através de imagens Docker, sendo uma da aplicação fornecida do curso 116 e a outra um servidor web Apache HTTP (Httpd), ambas baixadas do repositório do Docker Hub. A implantação das aplicações no cluster se deram por meio de tasks e services, e neste curso não foi utilizado auto scaling e load balancer. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.curso_105: Amazon Elastic Container Service (ECS) Primer
Deploy completo de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura instâncias de container do serviço Amazon Elastic Compute Cloud (EC2). A aplicação foi uma aplicação de teste executada através de imagens Docker fornecida pelo curso 116, sendo baixada do repositório do Docker Hub. A implantação da aplicação no cluster se deu por meio de services, sendo utilizando uma instância de banco de dados do Amazon Relational Database Service (RDS) para armazenar os dados desta aplicação. O serviço AWS Auto Scaling foi utilizado para executar escalonamento dos services no cluster (AWS Application Auto Scaling). O serviço Amazon Load Balancer (ELB) foi utilizado para distribuir o tráfego entre os services do cluster. Também foi utilizado um domínio do Registro.BR e configurado no Amazon Route53 para que esse domínio fornecesse acesso a aplicação, permitindo também acesso via HTTPS com utilização de certificado gerado no Amazon Certificate Manager (ACM). O Amazon CloudWatch também foi usado para armazenar alguns logs. A aplicação cujo nome era `kubenews` se tratava de um microblog, que ao prencher os campos de um formulário e enviá-los, os dados eram alimentados em um banco. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.curso_107: Deep Dive on AWS Fargate: Building Serverless Containers at Scale
Deploy completo de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura o serviço AWS Fargate. A aplicação foi uma aplicação de teste executada através de imagens Docker fornecida pelo curso 116, sendo baixada do repositório do Docker Hub. A implantação da aplicação no cluster se deu por meio de services, sendo utilizando uma instância de banco de dados do Amazon Relational Database Service (RDS) para armazenar os dados desta aplicação. O serviço AWS Auto Scaling foi utilizado para executar escalonamento tanto para capacidade computacional, ou seja, quantidade de maquinas (Amazon EC2 Auto Scaling), como também para escalonar os services no cluster (AWS Application Auto Scaling). O serviço Amazon Load Balancer (ELB) foi utilizado para distribuir o tráfego entre as instâncias. Também foi utilizado um domínio do Registro.BR e configurado no Amazon Route53 para que esse domínio fornecesse acesso a aplicação, permitindo também acesso via HTTPS com utilização de certificado gerado no Amazon Certificate Manager (ACM). O Amazon CloudWatch também foi usado para armazenar alguns logs. A aplicação cujo nome era `kubenews` se tratava de um microblog, que ao prencher os campos de um formulário e enviá-los, os dados eram alimentados em um banco. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.curso_109: Introduction to AWS Auto Scaling
Construção de grupos de Auto Scaling com diferentes configurações no serviço Amazon EC2 Auto Scaling, inclusive diferentes tipos de load balancer (Application Load Balancer (ALB) e Classic Load Balancer (CLB)) do serviço Amazon Load Balancer (ELB) para aplicação dos diferentes tipos de políticas de escalonamento e verificação do escalonamento sendo realizado. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.curso_114: Amazon EKS Primer
Implantação de aplicação web containerizada Docker no serviço Amazon Elastic Kubernetes Service (EKS) da AWS. As aplicações foram aplicações de testes executadas através de imagens Docker, sendo uma da aplicação fornecida do curso 116 e a outra um servidor web Apache HTTP (Httpd), ambas baixadas do repositório do Docker Hub. Neste curso não foi utilizado auto scaling e load balancer. Todos os recursos foram implantados utilizando o SDK Boto3 da linguagem Python.curso_116: Imersão Docker e Kubernetes
Implantação de uma aplicação web containerizada, utilizando como infraestrutura uma instância do serviço Amazon Elastic Compute Cloud (EC2). A mesma implantação foi realizada de três formas, através do Docker executando os comandos diretamente nos arquivos de script, por arquivo `Docker-Compose` e com o software Kubernetes, construindo um cluster na instância. A aplicação de nome `kubenews` consistiu em um microblog (portal de notícias) escrito em Node.js que teve como persistência dos dados um container com imagem do banco PostgreSQL. A execução de todo o curso foi praticamente 100% automatizada através de arquivos de scripts em PowerShell e Bash, sendo o PowerShell executando na maquina física Windows e o Bash na instância do EC2 Linux Ubuntu. Neste curso, os acessos remotos foram realizados com o OpenSSH.curso_117: Domine AWS com Henrylle Maia
Deploy de aplicação web containerizada Docker no serviço Amazon Elastic Container Service (ECS) da AWS utilizando como infraestrutura instâncias de container do serviço Amazon Elastic Compute Cloud (EC2). A aplicação foi uma aplicação de teste executada através de imagens Docker fornecida pelo professor do curso, sendo baixada do repositório do Docker Hub. A implantação da aplicação no cluster se deu por meio de services, sendo utilizando uma instância de banco de dados PostgreSQL do serviço Amazon Relational Database Service (RDS) para armazenar os dados desta aplicação. O serviço Amazon Load Balancer (ELB) foi utilizado para distribuir o tráfego entre as instâncias do cluster. Também foi utilizado um domínio do Registro.BR e configurado no Amazon Route53 para que esse domínio fornecesse acesso a aplicação, permitindo também acesso via HTTPS com utilização de certificado gerado no Amazon Certificate Manager (ACM). O Amazon CloudWatch também foi usado para armazenar alguns logs. A aplicação cujo nome era `bia` era uma espécie de bloco de tarefas, onde eram adicionadas tarefas e que ficavam armazenadas como posts na aplicação. A execução de todo o curso foi praticamente 100% automatizada através de arquivos de scripts PowerShell, que utilizavam o AWS CLI para interagir com os serviços da AWS. Neste curso, os acessos remotos foram realizados com o recurso Session Manager do serviço AWS System Manager (SSM).boot_022: AWS re/Start - Cloud Computing
O AWS re/Start é um programa universal gratuito de capacitação em computação em nuvem oferecido pela Amazon Web Services (AWS), projetado para ajudar pessoas sem experiência prévia na área de tecnologia a iniciar uma carreira na nuvem. Com duração de cerca de 12 semanas, o programa abrange temas como fundamentos da AWS, computação, segurança, redes, bancos de dados e práticas de DevOps, além de preparar os participantes para a certificação AWS Certified Cloud Practitioner. Além do conhecimento técnico, o curso também oferece suporte no desenvolvimento de habilidades profissionais, como preparação para entrevistas e currículos. Este programa foi ministrado pela edtech Escola da Nuvem, onde foi aprendido sobre o que é a cloud AWS e como ela funciona, conhecendo e executando vários dos seus serviços através de laboratórios. Entre os serviços utilizados destacam-se: AWS Identity and Access Management (IAM), Amazon Elastic Compute Cloud (EC2), Amazon Virtual Private Cloud (VPC), Amazon Simple Storage Service (S3), Amazon Elastic Block Store (EBS), Amazon Elastic File System (EFS), Amazon S3 Glacier, Amazon Relational Database Service (RDS), Amazon DynamoDB, Amazon Lambda, AWS Systems Manager (SSM), Amazon Route 53, Amazon CloudWatch, AWS CloudTrail, AWS Config, AWS Trusted Advisor, AWS Command Line Interface (CLI), Amazon EC2 Auto Scaling e Amazon Simple Notification Service (SNS).
Back to summary
Artificial Intelligence
Cloud Computing
AWS
- boot_011: Bootcamp Cloud AWS
- boot_012: Formação AWS Cloud Practitioner Certification
- boot_013: Descubra a Nuvem AWS - Nexa Resources
- boot_014: Descubra a Nuvem AWS – LocalizaLabs
- curso_092: Introduction to Amazon Elastic Compute Cloud (EC2)
- curso_093: AWS Compute Services Overview
- curso_094: Elementos essenciais do AWS Cloud Practitioner
- curso_096: Introduction to AWS Command Line Interface (CLI)
- curso_097: Introduction to Amazon EC2 Systems Manager
- curso_098: AWS Identity and Access Management - Basics
- curso_099: Introduction to AWS Identity and Access Management (IAM)
- curso_100: AWS Identity and Access Management - Architecture and Terminology
- curso_101: Authentication and Authorization with AWS Identity and Access Management
- curso_102: Introduction to Amazon Elastic Container Service
- curso_103: Introduction to Amazon Elastic Container Registry
- curso_104: Introduction to AWS Fargate
- curso_105: Amazon Elastic Container Service (ECS) Primer
- curso_106: Introduction to Containers
- curso_107: Deep Dive on AWS Fargate: Building Serverless Containers at Scale
- curso_109: Introduction to AWS Auto Scaling
- curso_110: Introduction to Amazon Elastic Load Balancer - Application
- curso_111: Introdução ao Amazon Bedrock
- curso_112: Amazon CodeWhisperer: Introdução
- curso_114: Amazon EKS Primer
- curso_117: Domine AWS com Henrylle Maia
- boot_022: AWS re/Start - Cloud Computing
Blockchain
- boot_025: Formação Blockchain Specialist
- boot_026: Formação Web3 Fundamentals
- boot_027: Binance - Blockchain Developer with Solidity
Cluster Management Software
Kubernetes
- boot_015: Formação Kubernetes Fundamentals
Configuration Management (CM)
Terraform
- boot_a
Container Manager
Docker
- boot_006: Formação Docker Fundamentals
- curso_084: Containers Fundamentals
Data
Power BI
- curso_041: Intensivão de Power BI 2023
- curso_043: Simplifica Power Excel
- curso_048: Minicurso Power BI Experience
- curso_051: Desafio Missão ZERO - Bootcamp HPN
- curso_069: Desafio Kickstart 1 | Atendimento Laboratorial
- curso_074: 002 - Desafio Kickstart | Filmes Netflix
- curso_075: Simplifica Power BI
MySQL Server
- boot_a
DevOps
DevOps
- curso_081: Imersão DevOps & Cloud 1
- curso_085: DevOps Essentials
- curso_116: Imersão Docker e Kubernetes
- boot_017: Formação DevOps Fundamentals
- boot_020: Jornada DevOps com AWS - Impulso
Operating System (OS)
Linux
- boot_003: Linux do Zero
- boot_004: Linux Experience
- boot_005: Formação Linux Fundamentals
- curso_077: Linux Fundamentals
- curso_083: Linux Essentials
Programming
HTML
- boot_007: Formação HTML Web Developer
Java
- boot_010: Formação Java Developer
Python
- curso_066: Dev Week - Ifood Ciência de Dados com Python
Spring
- boot_a
Windows PowerShell
- curso_119: Aprenda PowerShell do zero
Programming Logic
???
- boot_a
Versioning
???
- boot_a