Belaschich
Professora de matemática, ex-tripulante e agora Analista de dados Jr..👨💻❤
Fast ShopSão Paulo
Pinned Repositories
Belaschich
Cognizant_Cloud_Data_Engineer_2
BootCampa da Cognizant Cloud Data Engineer #2 na Digital Inovation
Curso-em-Video---Python
Todas as atividades feitas em aula do curso, Python do Guanabara
Desafio_Bootcamp_DataEx
O Desafio irá testar suas habilidades nas seguintes competências: ✓ Habilidades com a linguagen SQL e T-SQL Comandos DDL e DML ✓ Construção de 1 Pipeline de dados no SQL Server Integration Services (SSIS)
Extensao_Analitics
Extensão do curso dde Engenharia de dados
hackathon
Mini_Projeto_SoulCode
Desafio Nivel Infra O Dataset deve ser salvo em ambiente cloud(Drive ou Cloud Storage) Os DataFrames devem ser obrigatoriamente salvos em uma bucket do CloudStorage Nivel Pandas O arquivo está em outra linguagem e deve ter seus dados traduzidos para Português-BR Realizar a extração corretamente para um dataframe Verificar a existência de dados inconsistentes e realizar a limpeza para NaN ou NA Realizar o drop(se necessário) de colunas do dataframe Todos os passos devem ser comentados Nivel PySpark (Funções básicas vistas em aula) Deverá ser montada a estrutura do DataFrame utilizando o StructType Realizar a mudança de nome de pelo menos 2 colunas Deverá criar pelo menos duas novas colunas contendo alguma informação relevante sobre as outras colunas já existentes(Use a sua capacidade analítica) Deverá utilizar filtros, ordenação e agrupamento, trazendo dados relevantes para o negócio em questão. (Use a sua capacidade analítica) Utilizar pelo menos duas Window Functions Nivel SparkSQL Utilizar no minimo 10 consultas diferentes utilizando o SparkSQL, comentando o porquê de ter escolhido essas funções e explicando o que cada consulta faz. Ferramentas: Colab ou Ides | Google Cloud
potencia-feminina-git-e-github
Repositorio do curso da womakers sobre criacao de git e git hub
potencia-feminina-git-e-github_Kamila
repositorio do curso ministrado para o projeto potencia feminina
Projeto_Final_SoulCode
REQUISITOS OBRIGATÓRIOS Obrigatoriamente os datasets devem ter formatos diferentes (CSV / Json / Parquet / Sql / NoSql) e 1 deles obrigatoriamente tem que ser em CSV. Operações com Pandas (limpezas , transformações e normalizações) Operações usando PySpark com a descrição de cada uma das operações. Operações utilizando o SparkSQL com a descrição de cada umas das operações. Os datasets utilizados podem ser em lingua estrangeira , mas devem ao final terem seus dados/colunas exibidos na lingua PT-BR os datasets devem ser salvos e operados em armazenamento cloud obrigatoriamente dentro da plataforma GCP (não pode ser usado Google drive ou armazenamento alheio ao google) os dados tratados devem ser armazenados também em GCP, mas obrigatoriamente em um datalake(Gstorage ) , DW(BigQuery) ou em ambos. Deve ser feito análises dentro do Big Query utilizando a linguagem padrão SQL com a descrição das consultas feitas. Deve ser criado no datastudio um dash board simples para exibição gráfica dos dados tratados trazendo insights importantes E deve ser demonstrado em um workflow simples (gráfico) as etapas de ETL. REQUISITOS DESEJÁVEIS Implementar captura e ingestão de dados por meio de uma PIPELINE com modelo criado em apache beam usando o dataflow para o work Criar plotagens usando pandas para alguns insights durante o processo de Transformação Por meio de uma PIPELINE fazer o carregamento dos dados normalizados diretamente para um DW ou DataLake ou ambos Montar um relatório completo com os insights que justificam todo o processo de ETL utilizado
Belaschich's Repositories
Belaschich/Belaschich
Belaschich/Cognizant_Cloud_Data_Engineer_2
BootCampa da Cognizant Cloud Data Engineer #2 na Digital Inovation
Belaschich/Curso-em-Video---Python
Todas as atividades feitas em aula do curso, Python do Guanabara
Belaschich/Desafio_Bootcamp_DataEx
O Desafio irá testar suas habilidades nas seguintes competências: ✓ Habilidades com a linguagen SQL e T-SQL Comandos DDL e DML ✓ Construção de 1 Pipeline de dados no SQL Server Integration Services (SSIS)
Belaschich/Extensao_Analitics
Extensão do curso dde Engenharia de dados
Belaschich/hackathon
Belaschich/Mini_Projeto_SoulCode
Desafio Nivel Infra O Dataset deve ser salvo em ambiente cloud(Drive ou Cloud Storage) Os DataFrames devem ser obrigatoriamente salvos em uma bucket do CloudStorage Nivel Pandas O arquivo está em outra linguagem e deve ter seus dados traduzidos para Português-BR Realizar a extração corretamente para um dataframe Verificar a existência de dados inconsistentes e realizar a limpeza para NaN ou NA Realizar o drop(se necessário) de colunas do dataframe Todos os passos devem ser comentados Nivel PySpark (Funções básicas vistas em aula) Deverá ser montada a estrutura do DataFrame utilizando o StructType Realizar a mudança de nome de pelo menos 2 colunas Deverá criar pelo menos duas novas colunas contendo alguma informação relevante sobre as outras colunas já existentes(Use a sua capacidade analítica) Deverá utilizar filtros, ordenação e agrupamento, trazendo dados relevantes para o negócio em questão. (Use a sua capacidade analítica) Utilizar pelo menos duas Window Functions Nivel SparkSQL Utilizar no minimo 10 consultas diferentes utilizando o SparkSQL, comentando o porquê de ter escolhido essas funções e explicando o que cada consulta faz. Ferramentas: Colab ou Ides | Google Cloud
Belaschich/potencia-feminina-git-e-github
Repositorio do curso da womakers sobre criacao de git e git hub
Belaschich/potencia-feminina-git-e-github_Kamila
repositorio do curso ministrado para o projeto potencia feminina
Belaschich/Projeto_Final_SoulCode
REQUISITOS OBRIGATÓRIOS Obrigatoriamente os datasets devem ter formatos diferentes (CSV / Json / Parquet / Sql / NoSql) e 1 deles obrigatoriamente tem que ser em CSV. Operações com Pandas (limpezas , transformações e normalizações) Operações usando PySpark com a descrição de cada uma das operações. Operações utilizando o SparkSQL com a descrição de cada umas das operações. Os datasets utilizados podem ser em lingua estrangeira , mas devem ao final terem seus dados/colunas exibidos na lingua PT-BR os datasets devem ser salvos e operados em armazenamento cloud obrigatoriamente dentro da plataforma GCP (não pode ser usado Google drive ou armazenamento alheio ao google) os dados tratados devem ser armazenados também em GCP, mas obrigatoriamente em um datalake(Gstorage ) , DW(BigQuery) ou em ambos. Deve ser feito análises dentro do Big Query utilizando a linguagem padrão SQL com a descrição das consultas feitas. Deve ser criado no datastudio um dash board simples para exibição gráfica dos dados tratados trazendo insights importantes E deve ser demonstrado em um workflow simples (gráfico) as etapas de ETL. REQUISITOS DESEJÁVEIS Implementar captura e ingestão de dados por meio de uma PIPELINE com modelo criado em apache beam usando o dataflow para o work Criar plotagens usando pandas para alguns insights durante o processo de Transformação Por meio de uma PIPELINE fazer o carregamento dos dados normalizados diretamente para um DW ou DataLake ou ambos Montar um relatório completo com os insights que justificam todo o processo de ETL utilizado
Belaschich/Projeto_Python
Requisitos : Criar um programa que simule um software de acordo com o segmento que foi definido para a sua equipe. O software deverá seguir as especificações abaixo: Ao executar o algoritmo, deverá aparecer duas opções: A - Para acessar o programa ou F - Para finalizar o programa. Caso o usuário digite A, deverá ser direcionado para outra parte do programa que tenha no mínimo 4 funcionalidades que podem ser : Adicionar produto , adicionar serviço , finalizar a compra , etc . A cada produto ou serviço selecionado, deverá aumentar o valor a ser pago na conta , igualmente num caixa de supermercado convencional . considerando que o cliente pode levar mais de uma quantidade do mesmo produto/serviço (ex : 2 caixas de leite , 2 trocas de pneus ) . Ao fechar/concluir o processo de seleção de produtos/serviços deve exibir ao cliente o total de valor a ser pago e pedir para que o cliente selecione a forma de pagamento , obrigatoriamente deve existir a forma de pagamento em dinheiro que gere troco , caso o troco seja gerado deve-se informar o valor do troco e quantas cedulas vão ser dadas para o cliente, sempre considere a menor quantidade de cédulas possíveis . As cédulas disponíveis são : 50 , 20 , 10 , 5 ,2 e 1 real . Pode descartar valores de centavos No processo de finalização da compra deve existir uma opção para o cliente desistir da compra , em caso positivo deve ser perguntado a confirmação da desistência (informando os produtos/serviços que o cliente está desistindo) Ao finalizar a compra deve-se voltar a tela inicial Acessar programa / finalizar programa . Quando finalizar deve-se exibir uma mensagem agradecendo a visita, informando o que foi comprado e o valor gasto no estabelecimento
Belaschich/Semantix_Bootcamp
Treinamento de Big Data Engineer no Semantix Academy
Belaschich/SoulON
Aulas de Python da SoulCode Academy
Belaschich/Womaker_Power
Criacao de um novo repositorio para praticar a adição, commit e push para o GitHub
Belaschich/womakercode-git-e-github
Repositorio do curso ministrado para o projeto Bootcamp data analytics WomaKersCode