DIO-LiveCoding-AWS-BigData

Projeto feito através do bootcamp Cognizant Cloud Data Engineer da DIO

Utilizei neste projeto AWS EMR e Python

Instruções

  • Acessar S3: https://s3.console.aws.amazon.com/s3/
    • Criar estrutura de data lake : dio-live-datalake
    • Criar estrutura de pastas:
      • data
      • output
      • temp
  • Acessar EMR: https://console.aws.amazon.com/elasticmapreduce/
    • O cluster será criado pelo MrJob e não pelo console
    • Infraestrutura como código
  • Criar chave SSH
  • Obter Id e chave secreta AWS para configurar MrJob
  • Ambiente linux
    • Criar ambiente virtual python: virtualenv --python=python3.6 venv_diolive
    • Acessar com o vs code
  • Instalar vscode no Ubuntu
    • code .
  • Criar algoritmo de análise de palavras
    • dio-live-wordcount-test.py
    • map-reduce-count : contar
    • Instalar boto3: pip install boto3
    • Instalar mrjob: pip install mrjob
  • Acessar S3
    • Upload de arquivo para o bucket
  • Ambiente virtual python: source venv_teste/bin/activate
    • nano ~/.mrjob.conf
    • python3 dio-live-wordcount-test.py -r emr s3://{seu_bucket_s3_aqui}/data/SherlockHolmes.txt --output-dir=s3://{seu_bucket_s3_aqui}/output/logs1 --cloud-tmp-dir=s3://{seu_bucket_s3_aqui}/temp/