irpas技术客

bert-ancient-chinese——专注于古汉语智能处理的BERT预训练模型_Ji_Huai_bert chinese

大大的周 3178

引言

当下人工智能和数字人文浪潮风靡全球,现代汉语自动分析已取得很大成果。而古代汉语的自动分析研究相对薄弱,难以满足国学、史学、文献学、汉语史的研究和国学、传统文化教育的实际需求。古汉语存在字词、词语、词类的诸多争议,资源建设困难重重。数字人文研究需要大规模语料库和高性能古文自然语言处理工具支持。鉴于预训练语言模型已经在英语和现代汉语文本上极大的提升了文本挖掘的精度,目前亟需专门面向古文自动处理领域的预训练模型。

2021年产生了两个较为高效的面向古文智能处理任务的预训练模型SikuBERT和SikuRoBERTa,并被第一个古汉语领域NLP工具评估比赛——EvaHan 2022 作为封闭环境下的预训练模型。bert-ancient-chinese 是我们为了进一步优化开放环境下模型效果得到的。

预训练

相比于之前的预训练模型,bert-ancient-chinese主要有以下特点:

古汉语文本多以繁体字出现,并且包含大量生僻汉字,这使得预训练模型的vocab表(词表)中并不存在部分生僻汉字。bert-base-chinese通过在大规模语料中进行学习,进一步扩充了预训练模型的vocab(词典),最终的vocab表大小为38208,相比于bert-base-chinese词表大小为21128,siku-bert词表大小为29791,bert-ancient-chinese拥有更大的词表,也收录了更多的生僻字,更有利于提升模型在下游任务的表现性能。vocab表即词表,收录在预训练模型中的vocab.txt中。

bert-ancient-chinese使用了更大规模的训练集。相比于siku-bert只使用《四库全书》作为预训练数据集,我们使用了更大规模的数据集(约为《四库全书》的六倍),涵盖了从部、道部、佛部、集部、儒部、诗部、史部、医部、艺部、易部、子部,相比于四库全书内容更为丰富、范围更加广泛。

基于领域适应训练(Domain-Adaptive Pretraining)的思想,bert-ancient-chinese在bert-base-chinese的基础上结合古文语料进行继续训练,以获取面向古文自动处理领域的预训练模型。

使用方法 Huggingface Transformers

基于Huggingface Transformers的from_pretrained方法可以直接在线获取bert-ancient-chinese模型。

from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained("Jihuai/bert-ancient-chinese") model = AutoModel.from_pretrained("Jihuai/bert-ancient-chinese") 模型下载

我们提供的模型是PyTorch版本。

调用

通过Huggingface官网直接下载,目前官网的模型已同步更新至最新版本:

bert-ancient-chinese:Jihuai/bert-ancient-chinese · Hugging Face 云盘

下载地址:

模型名称网盘链接bert-ancient-chinese链接 提取码: qs7x
验证与结果

我们在比赛EvaHan 2022提供的训练集、测试集上对不同的预训练模进行了测试和比较。我们通过对模型在下游任务自动分词、词性标注上微调(fine-tuning)的性能进行了比较。

我们以BERT+CRF作为基线模型,对比了siku-bert、siku-roberta和bert-ancient-chinese在下游任务上的性能。为了充分利用整个训练数据集,我们采用 K 折交叉验证法,同时其他超参均保持一致。评测指标为F1值。

《左传》《史记》自动分词词性标注自动分词词性标注siku-bert96.0670%92.0156%92.7909%87.1188%siku-roberta96.0689%92.0496%93.0183%87.5339%bert-ancient-chinese 96.3273% 92.5027% 93.2917% 87.8749%
引用

如果我们的内容有助您研究工作,欢迎在论文中引用。

免责声明

报告中所呈现的实验结果仅表明在特定数据集和超参组合下的表现,并不能代表各个模型的本质。实验结果可能因随机数种子,计算设备而发生改变。使用者可以在许可证范围内任意使用该模型,但我们不对因使用该项目内容造成的直接或间接损失负责。

致谢

bert-ancient-chinese是基于bert-base-chinese继续训练得到的。

感谢邱锡鹏教授和复旦大学自然语言处理实验室。

联系我们

Pengyu Wang: wpyjihuai@gmail.com


1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,会注明原创字样,如未注明都非原创,如有侵权请联系删除!;3.作者投稿可能会经我们编辑修改或补充;4.本站不提供任何储存功能只提供收集或者投稿人的网盘链接。

标签: #Bert #chinese