Chinese spelling correction method based on ChineseBert
Cui Fan
,
Qiang Jipeng
,
,
Zhu Yi
,
Li Yun
School of Information Engineering,Yangzhou University,Yangzhou,225127,China
中文拼写错误主要集中在拼音相似和字形相似两个方面,而通用的预训练语言模型只考虑文本的语义信息,忽略了中文的拼音和字形特征.最新的中文拼写纠错(Chinese Spelling Correction,CSC)方法在预训练模型的基础上利用额外的网络来融入拼音和字形特征,但和直接微调预训练模型相比,改进的模型没有显著提高模型的性能,因为由小规模拼写任务语料训练的拼音和字形特征,和预训练模型获取的丰富语义特征相比,存在严重的信息不对等现象.将多模态预训练语言模型ChineseBert应用到CSC问题上,由于ChineseBert已将拼音和字形信息放到预训练模型构建阶段,基于ChineseBert的CSC方法不仅无须构建额外的网络,还解决了信息不对等的问题.由于基于预训练模型的CSC方法普遍不能很好地处理连续错误的问题,进一步提出SepSpell方法.首先利用探测网络检测可能错误的字符,再对可能错误的字符保留拼音特征和字形特征,掩码对应的语义信息进行预测,这样能降低预测过程中错误字符带来的干扰,更好地处理连续错误问题.在三个官方评测数据集上进行评估,提出的两个方法都取得了非常不错的结果.
中文拼写纠错
ChineseBert
多模态语言模型
Chinese spelling errors mainly focuse on both phonetic and glyph similar. General pretrained language models only consider the semantic information of the text,ignoring the Chinese phonetic and glyph features. The latest Chinese Spelling Correction (CSC) methods incorporate pinyin and glyph features via additional networks on the basis of the pretrained language models. Compared with fine⁃tuning pretrained model directly,the improved model does not significantly improve the performance of CSC task. Because of the phonetic and glyphic features trained by the small⁃scale spelling task corpus,there is a serious information asymmetry compared with the rich semantic features obtained by the pre⁃training model. To betterly solve the information asymmetry,this paper tries to apply the multimodal pre⁃training language model ChineseBert to the CSC problem. Since ChineseBert combines phonetic and glyph information into the pre⁃training model building stage,CSC based on ChineseBert not only needn't to build additional networks,but also solve the problem of information asymmetry. The CSC method based on the pretrained model generally cannot deal with continuous errors very well. Therefore,we propose a novel method SepSpell,which firstly uses the probing network to detect potentially incorrect characters,and preserves the phonetic and glyphic features of the characters that may be incorrect to predict the corresponding semantic information of the mask. SepSpell reduces the interference caused by incorrect characters during the prediction process,so as to better handle the problem of continuous errors. Evaluating on three official evaluation datasets prove both methods with very good results.
Keywords:
Chinese Spelling Correction
ChineseBert
multimodal pretrained modeling
本文引用格式
崔凡, 强继朋, 朱毅, 李云.
基于ChineseBert的中文拼写纠错方法
.
南京大学学报(自然科学)
[J], 2023, 59(2): 302-312 doi:10.13232/j.cnki.jnju.2023.02.013
Cui Fan, Qiang Jipeng, Zhu Yi, Li Yun.
Chinese spelling correction method based on ChineseBert
.
Journal of nanjing University
[J], 2023, 59(2): 302-312 doi:10.13232/j.cnki.jnju.2023.02.013
最近,随着大型预训练语言模型的成功(如Bert
[
7
]
,Roberta
[
8
]
),基于预训练语言模型的CSC方法也被提出.Hong et al
[
2
]
提出FASpell模型,采用Bert作为CSC的去噪自动编码器来生成候选字符,并通过计算字符之间的相似度来筛选字符.虽然获得了不错的结果,但由于Bert等预训练语言模型只考虑字符的语义信息,导致生成的候选字符更多地只考虑语义相似的字符.Liu et al
[
9
]
指出,大约83%的错误与语音相似性有关,48%与视觉相似性有关.如
图1
a所示,一些工作在预训练语言模型中,通过额外网络融入语音和视觉信息辅助生成候选字符.例如,Cheng et al
[
10
]
提出SpellGCN模型,利用Bert初始化每个字符的节点特征,再使用两个图卷积网络在混淆集上分别学习字符之间的形状和拼音的相似关系.Xu et al
[
11
]
提出REALISE模型,通过额外的GRU (Gated Recurrent Unit)网络和卷积网络分别获取字符的字音和字形特征.Huang et al
[
12
]
提出PHMOSpell模型,通过VGG19和神经TTS网络分别获取字符的字形和字音特征等.但基于该框架训练的CSC模型只能利用CSC语训练得到的拼音和字形特征,与预训练模型获取的语义特征之间存在特征不对等的问题.但如果预训练语言模型在构建时融入拼音和字形等特征(如
图1
b所示),就不需要构建额外的网络,可直接进行中文拼写纠错,不仅简化了模型结构,也解决了因训练数据不同带来的特征信息不对等问题.
最近,一些研究开始关注由错误字符引起的噪声信息问题.Guo et al
[
24
]
提出一个全局注意力解码器(Global Attention Decoder,GAD)来缓解噪声信息的影响.Wang et al
[
14
]
提出动态连接网络(Dynamic Connected Networks,DCN)来学习两个相邻汉字之间的依赖关系,一定程度上避免了模型因噪声影响输出不连贯的语句.Wang and Shang
[
25
]
通过对候选句子重新进行评估,找到与原始错误字符相比在字符概率和相似度方面最好的句子来避免噪声的影响.这些方法虽然在一定程度上提高了模型的性能,但本质上都是对模型校正之后结果的重新筛选和排序,噪声信息仍被输入了模型,干扰了模型的预测.与这些方法不同,本文提出的SepSpell方法通过mask字符将屏蔽噪声之后的语句输入模型,从源头解决了噪声干扰问题.
预训练模型最初是为英语设计的,所以在当前的大规模中文预训练模型中缺少两个特定于中文的重要特征:字形信息和拼音信息.中文是象形文字,字形和字音特征包含重要信息,对语言理解十分重要.在此背景下,Sun et al
[
13
]
提出全新的中文预训练模型Chinese⁃Bert,如
图2
所示,根据中文特点,对每个汉字,首先将其语义特征、字形特征和字音特征串联起来,然后通过一个全连接层映射到同一维度,形成融合特征,最后将融合特征向量与位置编码向量一起作为Bert模型的输入,同时使用全词掩蔽
[
8
]
和字符掩蔽进行预训练.和通用的中文预训练模型相比,ChineseBert在广泛的中文NLP (Natural Language Processing)任务上实现了最佳性能,也验证了获取的字形字音特征的有效性.
各算法在SIGHAN2013,SIGHAN2014和SIGHAN2015三个测试集上的实验结果
Table 2
Experimental results of different algorithms on three test sets of SIGHAN2013,SIGHAN2014 and SIGHAN2015
在句子级别的评估结果中,ChineseBert的性能接近之前最先进的模型.和ChineseBert相比,SepSpell在SIGHAN2015上检测和校正水平的
F
1分别又提高了2.0%和2.1%,在SIGHAN 2013上分别提高了2.8%和3.0%.和以往的最佳模型REALISE相比,SepSpell仅在SIGHAN2014测试集上校正水平的
F
1低0.7%,此结果仍然非常具有竞争力,而在SIGHAN2013和SIGHAN2015测试集上校正水平的
F
1分别提高了0.8%和1.3%.与之前的先进模型相比,使用ChineseBert作为预训练语言模型,将字符的字音和字形特征的提取工作放到预训练模型阶段,不仅极大地简化了整体CSC模型的结构,而且,由于字音和字形特征是经过大规模语料统一训练得到的,也使训练得到的字音特征和字形特征更具泛化性.
实验结果如
图4
所示.由图可见,随着阈值的降低,探测模型的
P
下降,错误字符的召回率
R
提高.但由于召回率
R
已接近最大值100%,
Err
的降低对召回率
R
的提升增益在不断减小,而精确率
P
却下降得很快,导致综合性能的
F
1一直在下降.实验中选择
F
1最好的
Err
,即0.05.
为了进一步探究探测模型中的超参数
Err
对校正模型的影响,将
Err
分别设定为0.03,0.05,0.1,0.2,0.5进行实验.由于
Err
对三个测试集影响的趋势相同,所以仅在SIGHAN2015上进行测试,实验结果如
图5
所示.由图可见,随着探测器阈值
Err
的降低,校正模型的探测和校正水平的
F
1在不断提高,在
时达到最高,随后开始下降.通过前面的实验可以发现,虽然降低
Err
能提高错误字符的召回率
R
,但不断的下降使其对召回率
R
的影响越来越小,而精确率下降得更明显,显然当
时,校正模型的性能反而降低了.
为了进行对比,将Roberta,ChineseBert,SepSpell三种方法使用相同的训练集和实验参数设置进行训练,并使用句子级别的评估指标来进行对比,最终的实验结果如
表6
所示,表中黑体字代表结果最优.由表可见,SepSpell的探测和校正水平的指标都是最好的.值得注意的是,虽然Roberta和ChineseBert方法在探测水平上均获得了不错的
F
1分数,但在校正水平上,两个方法的
F
1分数和探测水平相比,均出现断崖式下降,分别下降了15%和10.1%,说明在含有噪声的文本环境中,Roberta和ChineseBert虽然能检测句子中的错误,但不能将其正确校正.相反,SepSpell校正水平的
F
1比Roberta提高接近10%,证明SepSpell对连续错误的校正的有效性.
Table 6
SepSpell方法在连续错误问题上的表现
Table 6
Performance of SepSpell on continuous error problems
为了探究模型的推理效率,按照Hong et al
[
2
]
的设定,根据每句话的绝对时间消耗来衡量模型的推理速度.为了减少硬件造成的速度差异,在i5⁃6300 CPU上比较FASpell,Roberta,ChineseBert,SepSepll四个模型的推理速度,实验结果如
表7
所示.由表可见,因为不需要进行任何后处理操作,ChineseBert和Roberta的速度最快,而SepSpell需要经过两遍的网络探测和校正,和Roberta和ChinseeBert相比耗时翻倍,但由于采用了非自回归的解码方式,加上模型性能的提升,增加的时间损耗还是值得的.另外,和FASpell相比,两者虽然耗时相差不大,但SepSpell仍然具有优势,因为SepSpell可以直接输出对文本的预测结果,不需要对模型的预测重新进行筛选和排序.
Table 7
模型的推理速度(ms per sentence)
Table 7
Model inference speed (ms per sentence)
Bert:Pre⁃training of deep bidirectional transformers for language understanding
∥
Proceedings of 2019 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies,Volume 1 (Long and Short Papers)
.
Minneapolis,MI,USA
:
Association for Computational Linguistics
,
2019
:
4171
-
4186
.
Cheng
X Y
,
Xu
W D
,
Chen
K L
,
et al
.
SpellGCN:Incorporating phonological and visual similarities into language models for Chinese spelling check
∥
Proceedings of the 58
th
Annual Meeting of the Association for Computational Linguistics.
Seatle,Washington DC,USA
:
Association for Computational Linguistics
,
2020
:
871
-
881
.
Huang
L
,
Li
J J
,
Jiang
W W
,
et al
.
PHMOSpell:Phonological and morphological knowledge guided Chinese spelling check
∥
Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1:Long Papers)
.
Bangkok, Thailand
:
Association for Computational Linguistics
,
2021
:
5958
-
5967
.
Sun
Z J
,
Li
X Y
,
Sun
X F
,
et al
.
ChineseBERT:Chinese pretraining enhanced by glyph and pinyin information
∥
Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1:Long Papers)
.
Bangkok, Thailand
:
Association for Computational Linguistics
,
2021
:
2065
-
2075
.
Rao
G Q
,
Gong
Q
,
Zhang
B l
,
et al
.
Overview of NLPTEA⁃2018 share task Chinese grammatical error diagnosis∥/Proceedings of the 5
th
Workshop on Natural Language Processing Techniques for Educational Applications.
Melbourne,Australia
:
Association for Computational Linguistics
,
2018
:
42
-
51
.
Fu
R J
,
Pei
Z Q
,
Gong
J F
,
et al
.
Chinese grammatical error diagnosis using statistical and prior knowledge driven features with probabilistic ensemble enhancement
∥
Proceedings of the 5
th
Workshop on Natural Language Processing Techniques for Educational Applications.
Melbourne,Australia
:
Association for Computational Linguistics
,
2018
:
52
-
59
.
FASPell:A fast,adaptable,simple,powerful Chinese spell checker based on DAE?decoder paradigm
... 最近,随着大型预训练语言模型的成功(如Bert
[
7
]
,Roberta
[
8
]
),基于预训练语言模型的CSC方法也被提出.Hong et al
[
2
]
提出FASpell模型,采用Bert作为CSC的去噪自动编码器来生成候选字符,并通过计算字符之间的相似度来筛选字符.虽然获得了不错的结果,但由于Bert等预训练语言模型只考虑字符的语义信息,导致生成的候选字符更多地只考虑语义相似的字符.Liu et al
[
9
]
指出,大约83%的错误与语音相似性有关,48%与视觉相似性有关.如
图1
a所示,一些工作在预训练语言模型中,通过额外网络融入语音和视觉信息辅助生成候选字符.例如,Cheng et al
[
10
]
提出SpellGCN模型,利用Bert初始化每个字符的节点特征,再使用两个图卷积网络在混淆集上分别学习字符之间的形状和拼音的相似关系.Xu et al
[
11
]
提出REALISE模型,通过额外的GRU (Gated Recurrent Unit)网络和卷积网络分别获取字符的字音和字形特征.Huang et al
[
12
]
提出PHMOSpell模型,通过VGG19和神经TTS网络分别获取字符的字形和字音特征等.但基于该框架训练的CSC模型只能利用CSC语训练得到的拼音和字形特征,与预训练模型获取的语义特征之间存在特征不对等的问题.但如果预训练语言模型在构建时融入拼音和字形等特征(如
图1
b所示),就不需要构建额外的网络,可直接进行中文拼写纠错,不仅简化了模型结构,也解决了因训练数据不同带来的特征信息不对等问题. ...
Bert:Pre?training of deep bidirectional transformers for language understanding
... 最近,随着大型预训练语言模型的成功(如Bert
[
7
]
,Roberta
[
8
]
),基于预训练语言模型的CSC方法也被提出.Hong et al
[
2
]
提出FASpell模型,采用Bert作为CSC的去噪自动编码器来生成候选字符,并通过计算字符之间的相似度来筛选字符.虽然获得了不错的结果,但由于Bert等预训练语言模型只考虑字符的语义信息,导致生成的候选字符更多地只考虑语义相似的字符.Liu et al
[
9
]
指出,大约83%的错误与语音相似性有关,48%与视觉相似性有关.如
图1
a所示,一些工作在预训练语言模型中,通过额外网络融入语音和视觉信息辅助生成候选字符.例如,Cheng et al
[
10
]
提出SpellGCN模型,利用Bert初始化每个字符的节点特征,再使用两个图卷积网络在混淆集上分别学习字符之间的形状和拼音的相似关系.Xu et al
[
11
]
提出REALISE模型,通过额外的GRU (Gated Recurrent Unit)网络和卷积网络分别获取字符的字音和字形特征.Huang et al
[
12
]
提出PHMOSpell模型,通过VGG19和神经TTS网络分别获取字符的字形和字音特征等.但基于该框架训练的CSC模型只能利用CSC语训练得到的拼音和字形特征,与预训练模型获取的语义特征之间存在特征不对等的问题.但如果预训练语言模型在构建时融入拼音和字形等特征(如
图1
b所示),就不需要构建额外的网络,可直接进行中文拼写纠错,不仅简化了模型结构,也解决了因训练数据不同带来的特征信息不对等问题. ...
Pre?training with whole word masking for Chinese BERT
... 最近,随着大型预训练语言模型的成功(如Bert
[
7
]
,Roberta
[
8
]
),基于预训练语言模型的CSC方法也被提出.Hong et al
[
2
]
提出FASpell模型,采用Bert作为CSC的去噪自动编码器来生成候选字符,并通过计算字符之间的相似度来筛选字符.虽然获得了不错的结果,但由于Bert等预训练语言模型只考虑字符的语义信息,导致生成的候选字符更多地只考虑语义相似的字符.Liu et al
[
9
]
指出,大约83%的错误与语音相似性有关,48%与视觉相似性有关.如
图1
a所示,一些工作在预训练语言模型中,通过额外网络融入语音和视觉信息辅助生成候选字符.例如,Cheng et al
[
10
]
提出SpellGCN模型,利用Bert初始化每个字符的节点特征,再使用两个图卷积网络在混淆集上分别学习字符之间的形状和拼音的相似关系.Xu et al
[
11
]
提出REALISE模型,通过额外的GRU (Gated Recurrent Unit)网络和卷积网络分别获取字符的字音和字形特征.Huang et al
[
12
]
提出PHMOSpell模型,通过VGG19和神经TTS网络分别获取字符的字形和字音特征等.但基于该框架训练的CSC模型只能利用CSC语训练得到的拼音和字形特征,与预训练模型获取的语义特征之间存在特征不对等的问题.但如果预训练语言模型在构建时融入拼音和字形等特征(如
图1
b所示),就不需要构建额外的网络,可直接进行中文拼写纠错,不仅简化了模型结构,也解决了因训练数据不同带来的特征信息不对等问题. ...
... 为了更好地处理连续拼写错误的问题,本文基于ChineseBert进一步提出新的CSC方法SepSpell,包含一个探测模型和校正模型,其中探测模型采用与探测任务更吻合的ELECTRA
[
15
]
作为模型编码器,校正模型仍然采用ChineseBert模型.校正过程中,利用探测网络找到可能错误的字符的位置,利用mask字符屏蔽错误字符的语义特征,保留对预测输出有帮助的字形和字音特征.和直接利用ChineseBert的方法相比,SepSpell能较好地处理连续的拼写错误.在三个人工标注的数据集SIGHAH2013,SIGHAH2014,SIGHAH 2015上,SepSpell的校正水平比ChineseBert的
F
1分别提高3.0%,1.9%和2.1%.考虑到官方基准数据集中缺乏连续错误的案例,根据拼音输入法会出现连续错误的特点,构建用于训练和评估连续错误的数据集.在相同数据集训练下,SepSpell的校正水平比直接微调预训练模型的Roberta
[
8
]
的
F
1提高约10%,验证了SepSpell针对连续错误问题的有效性. ...
... 预训练模型最初是为英语设计的,所以在当前的大规模中文预训练模型中缺少两个特定于中文的重要特征:字形信息和拼音信息.中文是象形文字,字形和字音特征包含重要信息,对语言理解十分重要.在此背景下,Sun et al
[
13
]
提出全新的中文预训练模型Chinese⁃Bert,如
图2
所示,根据中文特点,对每个汉字,首先将其语义特征、字形特征和字音特征串联起来,然后通过一个全连接层映射到同一维度,形成融合特征,最后将融合特征向量与位置编码向量一起作为Bert模型的输入,同时使用全词掩蔽
[
8
]
和字符掩蔽进行预训练.和通用的中文预训练模型相比,ChineseBert在广泛的中文NLP (Natural Language Processing)任务上实现了最佳性能,也验证了获取的字形字音特征的有效性. ...
... Roberta
[
8
]
:直接使用CSC训练数据微调Roberta⁃base得到. ...
Visually and phonologically similar characters in incorrect Chinese words:Analyses,identification,and applications
... 最近,随着大型预训练语言模型的成功(如Bert
[
7
]
,Roberta
[
8
]
),基于预训练语言模型的CSC方法也被提出.Hong et al
[
2
]
提出FASpell模型,采用Bert作为CSC的去噪自动编码器来生成候选字符,并通过计算字符之间的相似度来筛选字符.虽然获得了不错的结果,但由于Bert等预训练语言模型只考虑字符的语义信息,导致生成的候选字符更多地只考虑语义相似的字符.Liu et al
[
9
]
指出,大约83%的错误与语音相似性有关,48%与视觉相似性有关.如
图1
a所示,一些工作在预训练语言模型中,通过额外网络融入语音和视觉信息辅助生成候选字符.例如,Cheng et al
[
10
]
提出SpellGCN模型,利用Bert初始化每个字符的节点特征,再使用两个图卷积网络在混淆集上分别学习字符之间的形状和拼音的相似关系.Xu et al
[
11
]
提出REALISE模型,通过额外的GRU (Gated Recurrent Unit)网络和卷积网络分别获取字符的字音和字形特征.Huang et al
[
12
]
提出PHMOSpell模型,通过VGG19和神经TTS网络分别获取字符的字形和字音特征等.但基于该框架训练的CSC模型只能利用CSC语训练得到的拼音和字形特征,与预训练模型获取的语义特征之间存在特征不对等的问题.但如果预训练语言模型在构建时融入拼音和字形等特征(如
图1
b所示),就不需要构建额外的网络,可直接进行中文拼写纠错,不仅简化了模型结构,也解决了因训练数据不同带来的特征信息不对等问题. ...
SpellGCN:Incorporating phonological and visual similarities into language models for Chinese spelling check
... 最近,随着大型预训练语言模型的成功(如Bert
[
7
]
,Roberta
[
8
]
),基于预训练语言模型的CSC方法也被提出.Hong et al
[
2
]
提出FASpell模型,采用Bert作为CSC的去噪自动编码器来生成候选字符,并通过计算字符之间的相似度来筛选字符.虽然获得了不错的结果,但由于Bert等预训练语言模型只考虑字符的语义信息,导致生成的候选字符更多地只考虑语义相似的字符.Liu et al
[
9
]
指出,大约83%的错误与语音相似性有关,48%与视觉相似性有关.如
图1
a所示,一些工作在预训练语言模型中,通过额外网络融入语音和视觉信息辅助生成候选字符.例如,Cheng et al
[
10
]
提出SpellGCN模型,利用Bert初始化每个字符的节点特征,再使用两个图卷积网络在混淆集上分别学习字符之间的形状和拼音的相似关系.Xu et al
[
11
]
提出REALISE模型,通过额外的GRU (Gated Recurrent Unit)网络和卷积网络分别获取字符的字音和字形特征.Huang et al
[
12
]
提出PHMOSpell模型,通过VGG19和神经TTS网络分别获取字符的字形和字音特征等.但基于该框架训练的CSC模型只能利用CSC语训练得到的拼音和字形特征,与预训练模型获取的语义特征之间存在特征不对等的问题.但如果预训练语言模型在构建时融入拼音和字形等特征(如
图1
b所示),就不需要构建额外的网络,可直接进行中文拼写纠错,不仅简化了模型结构,也解决了因训练数据不同带来的特征信息不对等问题. ...
Read,listen,and see:Leveraging multimodal information helps Chinese spell checking
... 最近,随着大型预训练语言模型的成功(如Bert
[
7
]
,Roberta
[
8
]
),基于预训练语言模型的CSC方法也被提出.Hong et al
[
2
]
提出FASpell模型,采用Bert作为CSC的去噪自动编码器来生成候选字符,并通过计算字符之间的相似度来筛选字符.虽然获得了不错的结果,但由于Bert等预训练语言模型只考虑字符的语义信息,导致生成的候选字符更多地只考虑语义相似的字符.Liu et al
[
9
]
指出,大约83%的错误与语音相似性有关,48%与视觉相似性有关.如
图1
a所示,一些工作在预训练语言模型中,通过额外网络融入语音和视觉信息辅助生成候选字符.例如,Cheng et al
[
10
]
提出SpellGCN模型,利用Bert初始化每个字符的节点特征,再使用两个图卷积网络在混淆集上分别学习字符之间的形状和拼音的相似关系.Xu et al
[
11
]
提出REALISE模型,通过额外的GRU (Gated Recurrent Unit)网络和卷积网络分别获取字符的字音和字形特征.Huang et al
[
12
]
提出PHMOSpell模型,通过VGG19和神经TTS网络分别获取字符的字形和字音特征等.但基于该框架训练的CSC模型只能利用CSC语训练得到的拼音和字形特征,与预训练模型获取的语义特征之间存在特征不对等的问题.但如果预训练语言模型在构建时融入拼音和字形等特征(如
图1
b所示),就不需要构建额外的网络,可直接进行中文拼写纠错,不仅简化了模型结构,也解决了因训练数据不同带来的特征信息不对等问题. ...
... 遵循先前的工作
[
2
,
10
]
,使用SIGHAN官方训练数据和Wang et al
[
21
]
生成的伪数据作为训练集,并使用SIGHAN2013,SIGHAN 2014,SIGHAN2015为测试集.训练集和测试集的统计结果如
表1
所示.由于原始数据是繁体中文,使用OpenCC (https:∥github.com/BYVoid/OpenCC)将其转化为简体中文,再利用Xu et al
[
11
]
的方法,对转化过程中的错误进行处理(如著→着,妳→你).由于SIGHAN2013测试集中人为标注语料的质量较差,相当多的助词“的”“地”“得”的混合用法没有标注
[
10
]
,导致性能良好的模型在该数据集上的分数不佳.为了缓解这个问题,本文也采用Xu et al
[
11
]
的后处理方法,从模型输出中删除所有检测和更正的“的”“地”“得”. ...
PHMOSpell:Phonological and morphological knowledge guided Chinese spelling check
... 最近,随着大型预训练语言模型的成功(如Bert
[
7
]
,Roberta
[
8
]
),基于预训练语言模型的CSC方法也被提出.Hong et al
[
2
]
提出FASpell模型,采用Bert作为CSC的去噪自动编码器来生成候选字符,并通过计算字符之间的相似度来筛选字符.虽然获得了不错的结果,但由于Bert等预训练语言模型只考虑字符的语义信息,导致生成的候选字符更多地只考虑语义相似的字符.Liu et al
[
9
]
指出,大约83%的错误与语音相似性有关,48%与视觉相似性有关.如
图1
a所示,一些工作在预训练语言模型中,通过额外网络融入语音和视觉信息辅助生成候选字符.例如,Cheng et al
[
10
]
提出SpellGCN模型,利用Bert初始化每个字符的节点特征,再使用两个图卷积网络在混淆集上分别学习字符之间的形状和拼音的相似关系.Xu et al
[
11
]
提出REALISE模型,通过额外的GRU (Gated Recurrent Unit)网络和卷积网络分别获取字符的字音和字形特征.Huang et al
[
12
]
提出PHMOSpell模型,通过VGG19和神经TTS网络分别获取字符的字形和字音特征等.但基于该框架训练的CSC模型只能利用CSC语训练得到的拼音和字形特征,与预训练模型获取的语义特征之间存在特征不对等的问题.但如果预训练语言模型在构建时融入拼音和字形等特征(如
图1
b所示),就不需要构建额外的网络,可直接进行中文拼写纠错,不仅简化了模型结构,也解决了因训练数据不同带来的特征信息不对等问题. ...
ChineseBERT:Chinese pretraining enhanced by glyph and pinyin information
... 近期,Sun et al
[
13
]
提出ChineseBert预训练模型,联合了中文的字形和拼音两个重要特征.和只关注语义特征的预训练模型相比,ChineseBert提升了一些中文下游任务的性能,但还没有工作利用ChineseBert进行CSC任务.本文首次将ChineseBert预训练模型应用到CSC任务,在不添加任何额外网络的情况下,仅利用ChineseBert在CSC数据上进行微调.在三个人工标注的数据集SIGHAH2013,SIGHAH2014,SIGHAH2015上进行实验,获得了非常好的结果. ...
... 预训练模型最初是为英语设计的,所以在当前的大规模中文预训练模型中缺少两个特定于中文的重要特征:字形信息和拼音信息.中文是象形文字,字形和字音特征包含重要信息,对语言理解十分重要.在此背景下,Sun et al
[
13
]
提出全新的中文预训练模型Chinese⁃Bert,如
图2
所示,根据中文特点,对每个汉字,首先将其语义特征、字形特征和字音特征串联起来,然后通过一个全连接层映射到同一维度,形成融合特征,最后将融合特征向量与位置编码向量一起作为Bert模型的输入,同时使用全词掩蔽
[
8
]
和字符掩蔽进行预训练.和通用的中文预训练模型相比,ChineseBert在广泛的中文NLP (Natural Language Processing)任务上实现了最佳性能,也验证了获取的字形字音特征的有效性. ...
Dynamic connected networks for Chinese spelling check
... 最近,一些研究开始关注由错误字符引起的噪声信息问题.Guo et al
[
24
]
提出一个全局注意力解码器(Global Attention Decoder,GAD)来缓解噪声信息的影响.Wang et al
[
14
]
提出动态连接网络(Dynamic Connected Networks,DCN)来学习两个相邻汉字之间的依赖关系,一定程度上避免了模型因噪声影响输出不连贯的语句.Wang and Shang
[
25
]
通过对候选句子重新进行评估,找到与原始错误字符相比在字符概率和相似度方面最好的句子来避免噪声的影响.这些方法虽然在一定程度上提高了模型的性能,但本质上都是对模型校正之后结果的重新筛选和排序,噪声信息仍被输入了模型,干扰了模型的预测.与这些方法不同,本文提出的SepSpell方法通过mask字符将屏蔽噪声之后的语句输入模型,从源头解决了噪声干扰问题. ...
... DCN
[
14
]
:通过一个独特的动态连接网络,在模型输出阶段生成
个路径(
K
表示候选词数,
n
表示句子长度),再通过动态连接网络打分,选择一条最优路径. ...
Electra:Pre?training text encoders as discriminators rather than generators
... 为了更好地处理连续拼写错误的问题,本文基于ChineseBert进一步提出新的CSC方法SepSpell,包含一个探测模型和校正模型,其中探测模型采用与探测任务更吻合的ELECTRA
[
15
]
作为模型编码器,校正模型仍然采用ChineseBert模型.校正过程中,利用探测网络找到可能错误的字符的位置,利用mask字符屏蔽错误字符的语义特征,保留对预测输出有帮助的字形和字音特征.和直接利用ChineseBert的方法相比,SepSpell能较好地处理连续的拼写错误.在三个人工标注的数据集SIGHAH2013,SIGHAH2014,SIGHAH 2015上,SepSpell的校正水平比ChineseBert的
F
1分别提高3.0%,1.9%和2.1%.考虑到官方基准数据集中缺乏连续错误的案例,根据拼音输入法会出现连续错误的特点,构建用于训练和评估连续错误的数据集.在相同数据集训练下,SepSpell的校正水平比直接微调预训练模型的Roberta
[
8
]
的
F
1提高约10%,验证了SepSpell针对连续错误问题的有效性. ...
Global attention decoder for Chinese spelling error correction
... 最近,一些研究开始关注由错误字符引起的噪声信息问题.Guo et al
[
24
]
提出一个全局注意力解码器(Global Attention Decoder,GAD)来缓解噪声信息的影响.Wang et al
[
14
]
提出动态连接网络(Dynamic Connected Networks,DCN)来学习两个相邻汉字之间的依赖关系,一定程度上避免了模型因噪声影响输出不连贯的语句.Wang and Shang
[
25
]
通过对候选句子重新进行评估,找到与原始错误字符相比在字符概率和相似度方面最好的句子来避免噪声的影响.这些方法虽然在一定程度上提高了模型的性能,但本质上都是对模型校正之后结果的重新筛选和排序,噪声信息仍被输入了模型,干扰了模型的预测.与这些方法不同,本文提出的SepSpell方法通过mask字符将屏蔽噪声之后的语句输入模型,从源头解决了噪声干扰问题. ...
Improve Chinese spelling check by reevaluation
... 最近,一些研究开始关注由错误字符引起的噪声信息问题.Guo et al
[
24
]
提出一个全局注意力解码器(Global Attention Decoder,GAD)来缓解噪声信息的影响.Wang et al
[
14
]
提出动态连接网络(Dynamic Connected Networks,DCN)来学习两个相邻汉字之间的依赖关系,一定程度上避免了模型因噪声影响输出不连贯的语句.Wang and Shang
[
25
]
通过对候选句子重新进行评估,找到与原始错误字符相比在字符概率和相似度方面最好的句子来避免噪声的影响.这些方法虽然在一定程度上提高了模型的性能,但本质上都是对模型校正之后结果的重新筛选和排序,噪声信息仍被输入了模型,干扰了模型的预测.与这些方法不同,本文提出的SepSpell方法通过mask字符将屏蔽噪声之后的语句输入模型,从源头解决了噪声干扰问题. ...