-
To download the mongo container
docker-compose pull ServiceName
-
To build the project
docker-compose build
-
To run container in detached mode ````�docker-compose up -d```
-
Access the route bellow on your browser to more information
http://localhost:3009/api/scrap?url=[product_URL]
A aplicação dinamicamente analisa qual foi a URL informada, selecionando assim qual algoritmo de scraper utilizar devido a particularidade de cada página.
- Foi utilizado nodeJS como backend juntamemente com docker-compose para containerização da solução.
- Como biblioteca de scraper, foi utilizado o Cheerio para demostrar que mesmo uma biblioteca não muito complexa é possível conseguir resultados interessantes. Acredito que um ponto de melhoria seria utilizar o Selenium.
- Foi utilizado o mongoDB por sua simplicidade e performance para este tipo de dado.
- Foi utilizado o Jest juntamente com o supertest para testes unitários bem como de endpoint assíncronos. Foram desenvolvidos poucos testes unitários pelo pouco tempo que possuo para o desenvolvimento do desafio.
- Utilização do eslint
- Utilização do git actions