提升BERT fine-tune正确率0.2%-0.3%的一个细节_bertner模型增加准确性-CSDN博客

网站介绍:文章浏览阅读445次。字级别分词,不要用官方的tokenizer (https://github.com/google-research/bert/blob/master/tokenization.py)自己重写一个def tokenize_to_str_list(textString): split_tokens = [] for i in range(len(textString)): split_tokens.append(textString[i]) return split__bertner模型增加准确性