Dette repository indeholder kode og modelvægtene til A&ttack algortimen. Den er udviklet af Analyse og Tal F.M.B.A. med støtte fra TryghedsFonden.
Algoritmen er designet til at finde sproglige angreb i korte tesktstykker. Den er blevet brugt til at finde sproglige angreb i den offentlige debat, et arbejde som man kan læse om her. En let tilgængelig beskrivelse af hvordan algoritmen er blevet til kan findes i denne artikel.
Algortimen er en binær klassifikationsalgortime der vurdere om et kort tekststykke er udtryk for et sprogligt angreb eller ej. Den helt korte definition af et sprogligt angreb er tekststykker der indeholder: Stigmatiserende, nedsættende, krænkende, chikanerende og truende ytringer rettet mod personer eller grupper.
En udvidet definition af sproglige angreb og eksempler herpå kan findes i filen definitioner.pdf.
Algortimen er trænet vha. et annoteret datasæt med 67.188 tekststykker. Teksstykkerne er kommentarer og svar afgivet på opslag i en række offentlige Facebook Pages og større grupper. Datasættet er opdelt i et træningsdatasæt (70 %), et evalueringsdatasæt (20 %) og et testdatasæt (10 %).
Trænings- og evalueringsdatasættet blev brugt til at træne og udvælge den bedste kombination af algoritmearkitektur og hyperparametre. Til det brugte vi den højest macro average F1 score. Efter udvælgelsen af den bedste algoritme blev denne testet på testdatasættet.
Den bedste model bruger en dansk electra model som sprogmodel og har et feed forward lag til selve klassificeringen. Se modeldefinitionen i filen model_def.py
.
Resultaterne for algoritmen på evalueringsdatasættet er:
- Macro averace F1 score: 0.8341
- Precision: 0.8389
- Recall: 0.8295
- Confusion matrix:
Annoteret ikke-angreb | Annoteret angreb | |
---|---|---|
Ikke-angreb iflg. A&ttack | 9663 | 712 |
Angreb iflg. A&ttack | 830 | 2218 |
Og for testdatasættet:
- Macro averace F1 score: 0.8349
- Precision: 0.8431
- Recall: 0.8275
- Confusion matrix:
Annoteret ikke-angreb | Annoteret angreb | |
---|---|---|
Ikke-angreb iflg. A&ttack | 4823 | 335 |
Angreb iflg. A&ttack | 433 | 1113 |
For at gør brug af algortimen skal der først installeres transformers og pytorch:
pip install torch
pip install transformers
Derefter kan modellen bruges tests på enkelte tekststykker ved at køre følgende:
import torch
from transformers import AutoTokenizer
from model_def import ElectraClassifier
text = "Du er et stort fjols"
def load_model():
model_checkpoint = 'Maltehb/aelaectra-danish-electra-small-cased'
tokenizer = AutoTokenizer.from_pretrained(model_checkpoint, use_fast=True)
model = ElectraClassifier(model_checkpoint,2)
model_path = 'pytorch_model.bin'
model.load_state_dict(torch.load(model_path, map_location=torch.device('cpu')))
model.eval()
return(model, tokenizer)
def make_prediction(text):
tokenized_text = tokenizer(
text,
truncation=True,
max_length=512,
padding='max_length',
return_attention_mask=True,
return_token_type_ids=False,
return_tensors='pt',
)
input_ids = tokenized_text['input_ids']
attention_masks = tokenized_text['attention_mask']
logits = model(input_ids,attention_masks)
logit,preds = torch.max(logits, dim=1)
return(int(preds))
model, tokenizer = load_model()
text_clf = make_prediction(text)
Hvor make_predition returnere klasse 0 hvis teksten vurderes til ikke at være et sprogligt angreb og klassen 1 hvis teksten vurderes at være et sprogligt angreb.
Funktionerne i data_prep.py kan bruges til at lave batch inferens.
Spørgsmål til indeholder af dette repository kan sendes til:
- Ronnie Taarnborg (ronnie@ogtal.dk)
- Edin Lind Ikanovic (edin@ogtal.dk)
Projektets annotører
- Ida Marcher Manøe
- Julie Enevoldsen
- Nikolaj Meldgaard Christensen
- Naja Bau Nielsen
Projektets advisory board
- Andreas Birkbak, Associat Professor, TANTlab, AAU
- Bolette Sandford Pedersen, Professor, CenterforSprogteknologi, KU
- Leon Derczynski, Associate Professor, ComputerScience, ITU
- Marianne Rathje, Seniorforsker, Dansk Sprognævn
- Michael Bang Petersen, Professor, Institut for Statskundskab, AU
- Rasmus Rønlev, Adjunkt, Center for Journalistik, SDU
Vores samarbejdspartnere hos TrygFonden
- Anders Hede, Forskningschef
- Christoffer Elbrønd, Projektchef
- Christian Nørr, Dokumentarist
- Peter Pilegaard Hansen, Projektchef
Danske Open-source teknologi vi står på skuldrene af
- The Danish Gigaword Project: Leon Derczynski, Manuel R. Ciosici
- Ælectra: Malte Højmark-Bertelsen