hemingkx/CLUENER2020

如果替换成英文数据集

Opened this issue · 0 comments

用bert-base-uncased对英文句子进行tokenize的时候,token 的长度自然与labels不一致,请问该如何处理呢