Esse repositório centraliza links e dados sobre boletins de número de casos das secretarias de saúde estaduais sobre a pandemia de coronavírus no Brasil. O recorte é por município por dia, para acompanharmos localmente a evolução da propagação do vírus.
A licença do código é LGPL3 e dos dados convertidos Creative Commons Attribution ShareAlike. Caso utilize os dados, cite a fonte original e quem tratou os dados, como: Fonte: Secretarias de Saúde das Unidades Federativas, dados tratados por Álvaro Justen/Brasil.IO. Caso compartilhe os dados, utilize a mesma licença.
Depois de coletados e checados os dados ficam disponíveis no dataset covid19 no Brasil.IO.
Caso queira acessar os dados antes de serem publicados (ATENÇÃO: pode ser que não tenham sido checados), você pode acessar diretamente as planilhas em que estamos trabalhando.
Se esse programa e/ou os dados resultantes foram úteis a você ou à sua empresa, considere fazer uma doação ao projeto Brasil.IO, que é mantido voluntariamente.
Você pode contribuir de diversas formas:
- Coletando links para os boletins de seu estado;
- Coletando dados sobre os casos por município por dia;
- Entrando em contato com a secretaria estadual de seu estado, sugerindo as recomendações de liberação dos dados;
- Evitando contato com humanos;
- Lavando as mãos várias vezes ao dia;
- Sendo solidário aos mais vulneráveis;
Procure o seu estado nas issues desse repositório e vamos conversar por lá.
Necessita de Python 3 (testado em 3.8.2). Para montar seu ambiente:
- Instale o Python 3.8.2
- Crie um virtualenv
- Instale as dependências:
pip install -r requirements.txt
- Rode o script de coleta:
./collect.sh
- Rode o script de consolidação:
./run.sh
Verifique o resultado em data/output
.
Crie um arquivo .env
com os valores corretos para as seguintes variáveis de
ambiente:
BRASILIO_SSH_USER
BRASILIO_SSH_SERVER
BRASILIO_DATA_PATH
BRASILIO_UPDATE_COMMAND
Execute o script:
./deploy.sh
Ele irá coletar os dados das planilhas (que estão linkadas em
data/boletim_url.csv
e data/caso_url.csv
), adicionar os dados ao
repositório, compactá-los, enviá-los ao servidor e executar o comando de
atualização de dataset.
Nota: o script que baixa e converte os dados automaticamente deve ser executado separadamente, com o comando
./collect.sh
.