Lien vers le challenge: https://www.kaggle.com/c/ranzcr-clip-catheter-line-classification/overview
Lien vers le OneDrive contenant les données, la vidéo, ainsi que nos meilleurs modèles sous format pth: https://centralesupelec-my.sharepoint.com/:f:/g/personal/guillaume_herry_student-cs_fr/EsxX2WNX-cBGgPHV2-fmJVYBjDSu6oAAqpx4BZqTOOngKA?e=3mmDN1
Description du repository:
-
Dossier EDA:
- exploration_des_données.ipynb : Notebook contenant les scripts ayant permis de réaliser l'exploration des données dans notre présentation (graphes et annotations).
-
Dossier models:
-
main.py : Fichier principal
-
models.py : Il contient les classes des modèles que nous avons utilisés
-
utils.py : Il contient toutes les fonctions que nous utilisons
-
Testing.ipynb : Exemple pour tester les modèles que nous avons entrainé
-
Training.ipynb : Exemple pour entrainer un des modèles
-
Exemples d'utilisation:
-
Assurez-vous que les librairies inclues dans le requirements.txt sont installées
-
Pour lancer l'entrainement du modèle resnet200d en affichant les logs
python3 main.py --model resnet --mode train --verbose
-
Pour tester le modèle EfficientNetB2 sans afficher les logs
python3 main.py --model efficientnet --mode test
-
Pour visualiser l'ensemble des arguments possibles
python3 main.py -h
-
-
Data:
Les données étant très volumineuses (+ de 10 Go), nous ne pouvons pas les importer sur notre repository, vous pouvez y accéder de deux manières:
- Directement via le challenge Kaggle: https://www.kaggle.com/c/ranzcr-clip-catheter-line-classification/data (bouton download all)
- Via le Onedrive que nous avons créé et qui contient l'ensemble des données (lien à la deuxième ligne du ReadMe).
Afin de tester notre code avec les données, il faut donc:
- exploration_des_données.ipynb: Compléter la variable "BASE_DIR" (seconde cellule), en y mettant le PATH menant aux données (train.csv, train_annotations.csv et les dossiers contenant les jpg)
- Scripts Python: Préciser dans la fonction
get_config()
le chemin vers les données et les fichers pickle des modèles.
Classement final du challenge:
Nous obtenons un score de 92.5%, le meilleur score étant à 97,5%. Cela nous place
1230 ème / 1500.
Ce classement nous semble fortement biaisé car le score d'un grand nombre de participants est très proche de celui de Notebook publics. Nous supposons que certaines équipes obtiennent un score autour de 96-97% en inférent simplement un des modèles à partir d'un Notebook Public sans effectuer d'entrainement.
Vidéo de présentation:
Vous pouvez y accéder via le OneDrive que nous avons créé (lien à la seconde ligne du ReadMe).