심플 한국어 언어모델 사전학습
ref: https://huggingface.co/transformers/examples.html
- Exobrain + Wordpiece: exobrain_wordpiece.json
- BERT: simple BERT pre-training.
- BART: simple BART pre-training.
- ALBERT: simple ALBERT pre-training
- GPT-2: simple GPT-2 pre-training
python test.py
ex) 요새 [MASK]에 앉자 있으면
[{'sequence': '요새 자리 에 앉아 있으면.', 'score': 0.13420788943767548, 'token': 7132,}, {'sequence': '요새 의자 에 앉아 있으면.', 'score': 0. ...08035723119974136,