收藏 分销(赏)

基于多层次特征提取的中文医疗实体识别.pdf

上传人:自信****多点 文档编号:636903 上传时间:2024-01-21 格式:PDF 页数:7 大小:1.06MB
下载 相关 举报
基于多层次特征提取的中文医疗实体识别.pdf_第1页
第1页 / 共7页
基于多层次特征提取的中文医疗实体识别.pdf_第2页
第2页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、中文医疗实体识别是医疗领域文本信息处理的基础,但中文医疗文本中常常存在语法不规范、实体嵌套和类型易混淆等问题易造成实体识别精度下降,因此确保中文医疗实体识别的准确度具有较大的理论研究和实际应用价值。为此,提出一种融合 BERT 预训练、双向长短期记忆网络(BILSTM)和结合注意力机制的空洞卷积网络(IDCNN)的实体识别模型来提升中文医疗实体识别的精度。起先,使用 BERT 预训练语言模型使中文字符转换为词向量并增强其语法语义特征;而后将训练好的词向量分别通过 BILSTM 网络和加入注意力机制的 IDCNN 网络获取上下文信息和更大的感受野;最终将蕴含语法语义特征、上下文信息和更大的感受野

2、信息的特征融合并输入到条件随机场(CRF)中进行实体预测。在两个公开的医疗数据集 CMeEE/Yidu-S4K 上的实验表明,该模型的 F1 值分别达到了0.711 6 和0.820 6,较主流模型分别提高了 1.40 百分点和 2.29 百分点,验证了此模型在中文医疗实体识别上的有效性。关键词:实体识别;BERT 预训练;空洞卷积网络;注意力机制;感受野中图分类号;TP391摇 摇 摇 摇 摇 摇 摇 文献标识码:A摇 摇 摇 摇 摇 摇 文章编号:1673-629X(2023)09-0119-07doi:10.3969/j.issn.1673-629X.2023.09.018Chinese

3、 Medical Entity Recognition Based on Multi-levelFeature ExtractionLI Zheng-hui1,LIAO Guang-zhong2(1.School of Computer Science and Technology,Wuhan University of Science and Technology,Wuhan 430065,China;2.Hubei Province Key Laboratory of Intelligent Information Processing and Real-time Industrial S

4、ystem,Wuhan University of Science and Technology,Wuhan 430065,China)Abstract:Chinese medical entity recognition is the basis of text information processing in the medical field,but there are oftengrammatical irregularities,entity nesting and type confusion in Chinese medical texts that may cause the

5、 decrease of entity recognition ac鄄curacy,so it is of great theoretical research and practical application value to ensure the accuracy of Chinese medical entity recognition.To this end,we propose an entity recognition model that combines BERT pre-training,bi-directional long and short-term memoryne

6、twork(BILSTM)and IDCNN with attention mechanism to improve the accuracy of Chinese medical entity recognition.At first,theBERT pre-trained language model is used to convert Chinese characters into word vectors and enhance their grammatical-semanticfeatures.The trained word vectors are then passed th

7、rough the BILSTM network and the IDCNN network with attention mechanism toobtain contextual information and a larger perceptual field,respectively.Finally,the features containing grammatical-semantic features,contextual information and a larger perceptual field are fused and fed into the conditional

8、 random field(CRF)for entity recognition.Thefeatures containing syntactic semantic features,contextual information and larger receptive field information are finally fused and fed intoconditional randomization(CRF)for entity prediction.Experiments on two publicly available medical datasets,CMeEE/Yid

9、u-S4K,showed that the F1 values of the model reached 0.711 6 and 0.820 6 respectively,which were 1.40 and 2.29 percentage points higherthan that of the mainstream models,validating the effectiveness of this model for Chinese medical entity recognition.Key words:entity recognition;BERT pre-training;I

10、DCNN;mechanism of attention;receptive field第 33 卷摇 第 9 期2023 年 9 月摇 摇 摇 摇 摇 摇 摇 摇 摇 摇计 算 机 技 术 与 发 展COMPUTER TECHNOLOGY AND DEVELOPMENT摇 摇 摇 摇 摇 摇 摇 摇 摇 摇Vol.33摇 No.9Sep.摇 20230摇 引摇 言命 名 实 体 识 别(NamedEntityRecognition,NER)1作 为 自 然 语 言 处 理(NatureLanguageProcessing,NLP)的一项基本任务,旨在精准定位与识别文本信息中的预定义实体类型。近

11、年来,随着信息技术的快速发展,自然语言处理的研究也逐渐融入各行各业,其中医疗领域的命名实体识别受到业界的广泛关注。虽然命名实体识别在诸如机构名、人名、地点和职务等实体识别上取得了很高的成就2,但是从中文医疗文本中提取实体是一个更复杂的任务3。首先,提取的实体类型易混淆,例如“左肺上叶冶是属于“病理冶类型还是“影像冶类型;其次,数据中存在嵌套问题也是导致医疗实体识别精度下降的原因,如“患者呼吸中枢受累冶这句话中,“呼吸中枢受累冶的实体类型是“症状冶,而“呼吸中枢冶是“部位冶类型;最后,中文医疗实体识别某些类型比较长,这会造成识别这类实体时边界定位错误,从而导致整体效果变差。此外,中文医疗文本中的

12、标注错误和错别字等问题也会影响命名实体识别模型。针对以上问题,该文提出一种融合BERT 预训练4、双向长短期记忆网络(BILSTM)5和结合注意力机制6的一维空洞卷积神经网络(IteratedDilated Convolutional Neural Network,IDCNN)7 的医疗实体识别模型,相较于传统模型,主要贡献如下:(1)使用 BERT 预训练加强字与句子的联系,使词向量在拥有位置信息的同时,语法语义特征也得到强化,降低数据中易混淆实体类型对模型的影响。(2)从多层次提取医疗文本特征。在 BERT 语言模型训练好词向量的基础上,使用 BILSTM 模块提取上下文信息;使用 IDC

13、NN 模块捕获更长距离的特征信息,并且为了不遗漏细节特征加入注意力机制。最后在输入条件随机场(CRF)8预测实体前进行特征融合,得到蕴含多层次特征的词向量。(3)分层设置学习率和学习率衰减策略。为了使模型效果更好,在训练时利用学习率衰减策略和分层设置学习率,得到更好的结果,另外为了避免模型过拟合,每个模块都加入随机失活(Dropout)层。1摇 相关工作命名实体识别研究包括统计机器学习方法和深度学习方法。随着近年来人工智能技术的发展,统计机器学习方法费时费力,深度学习方法已成为业内研究的焦点。当前基于深度学习的 NER 的思路主要分为序列标注和基于分类两类。其中,序列标注方法最为常见。BILS

14、TM-CRF 是实体识别中主流的模型,对中文和英文的数据都有良好的效果。李妮等人 9 使用改进传统的卷积后的空洞卷积,在实体识别方面取得不错的成果。Li 等人 10 提出 FLAT 模型,改良 lattice结构,在性能和效率上都优于其他基于词汇的模型。为了进一步提高实体识别的精度,Li 等人 11 采用负采样的思想,可以有效降低未标记实体带来的误导。崔少国等人12 融合汉字图形和五笔等特征更进一步提升了模型的效果。另外,在 2018 年由 Google AI 研究院提出的预训练模型 BERT 也对实体识别精度的提升有很大的帮助。受到以上研究的启发,该文为解决中文医疗实体识别中存在的实体类型易

15、混淆、数据嵌套和实体类型过长等问题,提出一种融合 BERT 预训练、BILSTM 和结合注意力机制的 IDCNN 模型,可以从多层次提取医疗文本的特征,有效提高医疗实体识别的准确度。2摇 模型设计2.1摇 模型框架该文设计了一种新的中文医疗实体识别模型,其整体结构框架如图 1 所示。在嵌入层,模型将输入的医疗文本通过 BERT 层化为词向量表示;在特征提取层,将词向量分别通过 BILSTM 层和融合注意力机制的 IDCNN 层,再将这三者词向量融合得到多层次语义特征向量;在输出层,通过 CRF 得到预测的结果。BERTBILSTMIDCNN+CRFB-sysI-sysI-sysI-sysI-s

16、ysI-sysI-sys图 1摇 模型整体结构2.2摇 嵌入层由于输入嵌入层的医疗文本中存在易混淆的类别并且可能有错字等问题,易影响模型性能。而 BERT语言 模 型 历 经 几 代 预 训 练 模 型 的 迭 代,克 服 了Word2Vec 模型训练的缺点 词向量是静态的,无法表示一词多义;综合 ELMO 和 GPT 模型的优势,做到获取每个字词在当前句子中的上下文信息 13。因此选用 BERT 作为嵌入层。BERT 的 总 体 结 构 如 图 2 所 示,主 要 应 用021摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 计算机技术与发展摇 摇 摇 摇

17、摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷Transform14中的编码器(encoder),使用多个 encoder组成图 2 中的 Trm 单元,使得最终的词向量具有很好的位置特征、句法特征和语义特征。TrmTrmTrm.EN.TN.TrmTrmTrm.T1T2E1E2图 2摇 BERT 整体结构Trm 单元结构如图 3 所示。对于输入序列 s=(C1,C2,Cn),其中 Ci表示医疗文本输入句子的第i 个字。首先通过 Word2Vec 得到该字的特征向量表示 ei=ew(Ci),ew是 Word2Vec 初始化矩阵。并且需要叠加位置编码,这是因为对于文本序列来说

18、,获取句子中每个字的相对位置很重要,其计算如公式(1)所示:PE(pos,2i)=sin(pos/10 0002i/dmodel)PE(pos,2i+1)=cos(pos/10 0002i/dmodel)(1)其中,pos 表示单词的位置,i 表示单词的维度。然后到了 encoder 的关键部分,采用注意力思想使输入序列中每个词向量获取其与其他词向量的关联程度。具体计算如公式(2)所示:Attention(Q,K,V)=Softmax(QKTdk)V(2)其中,Q,K,V 是词向量矩阵,dk是词向量的维度。而这里使用的多头注意力机制是基于注意力机制的基础,先将每个词向量拆分成多个词向量,然后对

19、每个拆分的词向量单独做自注意力机制,最后将不同的结果拼接起来,计算如公式(3)所示:MultiHead(Q,K,V)=Concat(head1,headn)Woheadi=Attention(QWQi,KWKi,VWVi)(3)因此,词向量就能得到不同空间的句法特征,其中W 是权重矩阵。最后经过全连接前馈网络(FFN)做非线性变换,计算如公式(4)所示:FFN(Z)=Relu(ZW1+b1)W2+b2(4)其中,Relu()是激活函数,W1、W2是权重矩阵,Z 是经过多头注意力机制的词向量表示,b1、b2是偏置量。另外在流程中,多头注意力机制和全连接前馈网络分别经过一层残差网络和归一化是为了避

20、免梯度消失和梯度爆炸。Add&NormFNNAdd&Norm+图 3摇 Trm 单元结构2.3摇 特征提取层特征提取层的目的是基于 BERT 预训练,并结合BILSTM 和融入注意力机制的 IDCNN 对医疗文本进行多层 次 的 特 征 提 取,特 征 提 取 层 有 三 大 部 分:BILSTM 模块、IDCNN+注意力机制模块和特征融合模块。2.3.1摇 BILSTM 模块BILSTM 是由双向 LSTM 网络组合而成,通过对输入的医疗文本序列做顺序和逆序的计算,提取序列中的上下文信息,最终得到训练好的词向量序列。实现其功能的主要单元为 LSTM,其结构如图 4 所示。LS

21、TM 记忆单元是由输入门、细胞状态、临时细胞状态、隐层状态、遗忘门、记忆门、输出门组成。其核心思想为,通过对细胞状态中信息遗忘和记忆新的信息使得对后续时刻计算有用的信息得以传递,而无用的信息被丢弃,并在每个时间步都会输出隐层状态,其中遗忘、记忆与输出由通过上个时刻的隐层状态和当前输入计算出来的遗忘门、记忆门、输出门来控制。计算如式(5)所示:ft=滓(Wfht-1,xt+bf)it=滓(Wiht-1,xt+bi)Ct=tanh(WCht-1,xt+bC)Ct=ft*Ct-1+it*Ctot=滓(Woht-1,xt+bo)ht=ot*tanh(Ct)(5)式中,滓 是激活函数,W 是权重矩阵,b

22、 是偏置向量,ht-1是前一时刻的输入,it、ft、ot分别是输入门、遗忘门及输出门的输出结果,ht是当前时刻的输出,xt是当前输入词向量,Ct、Ct-1、Ct分别代表当前时刻、上一时刻和临时的细胞状态。最终得到包含上下文信息的词121摇 第 9 期摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 李正辉等:基于多层次特征提取的中文医疗实体识别向量序列 h1,hn+1。图 4摇 LSTM 单元结构2.3.2摇 IDCNN+注意力机制模块为了进一步提取医疗文本的特征信息,选用变体的卷积神经网络 IDCNN,这是因为相较于 BILSTM 网络,卷积神经网络对局部特征的提取效果更好,并且IDCNN 在标准

23、卷积的基础上注入空洞,能够在不通过池化损失信息的情况下增加感受野,对输入中的较长实体能够分词更加准确。另外因 IDCNN 模块的特性,不会造成整体模型参数过大和训练时间过长。空洞卷积与标准卷积的区别如图 5 所示,通过这种方式,在卷积核大小不变的条件下,就能得到更大的感受域。空洞卷积的感受域计算公式如式(6),其中 i代表步长。Fi+1=(2i+2-1)伊(2i+2-1)(6)IDCNN 模块则是将 4 个结构相同的膨胀卷积块进行堆叠,相当于进行了 4 次迭代,每次迭代将前一次的结果作为输入,这种参数共享可有效防止模型过拟台,每个膨胀卷积块有膨胀宽度分别为 1.1.2 的 3 层膨胀卷积。通过

24、 IDCNN 模块,经过 BERT 预训练的词向量将能更好地提取文本中的特征。虽然 IDCNN 可使感受域变大,能有效提取更长文本的特征,但提取的特征不会都是有用的信息,因此还需经注意力机制进行医疗文本的筛选。这里使用BERT 模块中的多头注意力机制,经过式(3)的计算,词向量将能得到更好的特征信息。3x3 kerneldilation rate=13x3 kerneldilation rate=2图 5摇 空洞卷积与标准卷积2.3.3摇 特征融合模块经过上述模块后,分别得到能够准确识别自己的词向量 Xi、捕获具有上下文信息的词向量 Yi和更长特征的词向量 Zi,为使最终的词向量 Ci拥有以上

25、所有特征并不造成模型过拟合,先以公式(7)对词向量进行 拼 接,然 后 经 过 Dropout 层,最 后 将 其 输 入CRF 层。Ci=Concat(Xi,Yi,Zi)(7)式中,i 为序号。2.4摇 输出层CRF 模型常用于序列标注任务中的输出层,其可以通过学习给定数据集中标签之间的转移概率从而修正特征提取层的输出,确保最终预测输出的合理性。3摇 实验与结果分析将文中模型与各基线模型在 CMeEE15和 Yidu-S4K 数据集上进行对比实验,评估各模型的输出结果,并进行结果分析。3.1摇 实验数据集采用的数据集为国内公开的中文医疗评测数据集,CMeEE 数 据 集 是 中 文 医 学

26、语 言 理 解 测 评(CBLUE)中命名实体识别任务所使用的数据集,包含训练集 15 000 条句子,验证集 5 000 条句子,每条句子中包含的实体类型和数量不等,总计分为 9 大实体类型,包括:疾病(dis)、临床表现(sym)、药物(dru)、医疗设备(equ)、医疗程序(pro)、身体(bod)、医学检验项目(ite)、微生物类(mic)、科室(dep)。Yidu-S4K数据集是医渡云(北京)技术有限公司用于医疗命名实体识别评测任务的数据集,其包含:疾病和诊断、检查、检验、手术、药物、解剖部位 6 种实体类型。表 1 和表 2 分别展示了 CMeEE 数据集和 Yidu-S4K 数据

27、集的分布情况。表 1摇 CMeEE 数据集分布情况/个实体训练集验证集总计dis19 0836 19425 277sym13 8084 43118 239dru4 3481 5595 907equ8561621 018pro9 3963 23812 634bod15 7784 75920 537ite3 2368814 117mic2 2276052 832dep34586431实体数69 07721 91590 992表 2摇 Yidu-S4K 数据集分布情况/个实体训练集验证集总计疾病和诊断2 4651 7474 212手术6124171 029221摇 摇 摇 摇 摇 摇 摇 摇 摇 摇

28、 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 计算机技术与发展摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷续表 2实体训练集验证集总计解剖部位4 8223 6048 426药物9848381 822影像检查746223969实验室检验6825131 195实体数10 3117 34217 653摇 摇 从上述两个表格可以看出,CMeEE 数据集规模较大,而 Yidu-S4K 数据集规模较小。通过这两个实体类型相似而规模不同的数据集,能进一步验证模型的泛化能力。3.2摇 数据集标注与评价指标实验中两份数据集都使用 BIO 标注体系进行数据的标注。在 BIO

29、 标注体系中,B 代表实体的开始位置,I 代表实体的内部,O 代表非实体部分。并且将两份原始数据集都分别重新划分数据集与测试集,其划分比例为 7 颐 3。使用如下三个指标来衡量模型的精准度:精准率(Precision,P)、召回率(Recall,R)和 F1 值(F1)。为计算这三个指标,需使用混淆矩阵,如表 3 所示。该混淆矩阵由以下四个元素组成,真正例:TP;真负例:TN;假正例:FP;假负例:FN。精准率 P 表示预测为正例的样本中真正正例的比例,表达式如公式(8)所示:P=TPTP+FP摇 摇(8)召回率 R 表示预测为正例的真实正例占所有正例的比例,表达式如公式(9)所示:R=TPT

30、P+FN摇(9)F1 值是精确率和召回率的合成指标,综合了二者的结果,取值范围为0,1,F1 值越髙,代表模型的综合性能越好,表达式如公式(10)所示:F1=2 伊 P 伊 RP+R摇 摇(10)3.3摇 实验环境与实验参数设置实验环境为 Window 10 操作系统、CPU Intel Corei5-8400 4.0 GHz、16 GB RAM 以及 NVIDIA GTX1050Ti 图形处理器。模型框架为 Python3.7.0、Keras2.3.1 和 tensorflow-gpu 2.4.0。实验模型中所使用的语言模型 BERT 的版本为bert-base-chinese,训练方式为自

31、动检查点机制,若当前 epoch 的结果好于当前最优记录,将自动地将此轮epoch 学习到的参数进行转储,并更新最优记录。并且为了更好地优化模型参数,使用学习率衰减策略和分层设置学习率的方法。学习率衰减策略是每当模型经过 5 轮训练后性能没提升,就缩小当前设置的学习率,再继续训练直到训练轮数结束。使用分层设置学习率是因为该实验需要在预训练模型基础上对下游任务进行微调,因此自定义的模块初始需要较大的学习率。另外的一些其他参数设置见表 3。表 3摇 实验参数参数名值梯度下降优化方法AdamBILSTM 隐层大小256Dropout0.4Batch-size8初始学习率5e-4epoch60BERT

32、 的 embedding 大小768输入句子最大长度1003.4摇 实验方式为了验证模型的优越性,将文中模型与现有主流模型进行对比实验以及与自身进行的消融实验。(1)BERT-BILSTM-CRF 模型16。该模型是现有常用于序列标注任务的模型之一。(2)BERT-BILSTM-CRF(*)模型。该模型与模型(1)的不同点为将经过 BERT-BILSTM 的词向量与通过 BERT 预训练的词向量拼接融合后再输入到CRF 层。(3)BERT-IDCNN-CRF 模 型9。该 模 型 将BILSTM 层换成 IDCNN 层。(4)BERT-IDCNN-CRF(*)模型。该模型与模型(3)的不同点为

33、将经过 BERT-IDCNN 的词向量与通过 BERT 预训练的词向量拼接融合后再输入到CRF 层。(5)BERT-IDCNN-CRF(*)模型。该模型在模型(4)的基础上,在 IDCNN 后加入多头注意力机制。(6)FLAT 模型10。该模型改良了 lattice 结构,提出相对位置编码。(7)BILSTM-CRF 模型。早期泛用的实体识别模型,相较于模型(1),减少了 BERT 层。对于对比实验,使用上述模型(2)(4)和(5)与文中模型在两个不同数据集上进行对比。对于消融实验,为了验证文中模型结构的有效性,使用上述模型(2)(4)和(5)与文中模型在数据集 Yidu-S4K 上进行对比。

34、3.5摇 结果分析针对上述实验,使用3.2 小节所述的评价指标 P、R 和 F1 值进行评估。对比实验结果如表 4 所示。321摇 第 9 期摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 李正辉等:基于多层次特征提取的中文医疗实体识别从表 4 的实验结果可以分析出,BEET 预训练对词向量的增强效果是明显的,在 CMeEE 数据集上 F1从 61.41%提升到 69.76%,在 Yidu-S4K 数据集上 F1从 70.97%提升到 79.77%,说明 BEER 能够增强词向量的语法语义特征。并且当在 BERT 预训练的基础上进一步融合上下文和更广的感受野信息,模型的性能大大提高,在两个数据集上

35、 F1 值分别提高了 1.40 百分点和 2.29 百分点,可见从多层次提取特征信息有效提高了医疗实体识别的精确度。另外,模型在这两个规模不一样的数据集上都有良好表现,验证了模型的泛化性。表 4摇 模型对比实验摇%数据集模型PRF1CMeEEBERT-BILSTM-CRF69.2470.2869.76BERT-IDCNN-CRF68.4469.2868.86FLAT60.5665.1762.78BILSTM-CRF58.8764.1761.41文中模型70.2172.1371.16Yidu-S4KBERT-BILSTM-CRF79.9179.6379.77BERT-IDCNN-CRF79.31

36、79.1179.21FLAT73.7672.5173.13BILSTM-CRF69.4372.5870.97文中模型82.3581.7782.06摇 摇 为进一步验证模型的可靠性与泛用性,在 CMeEE数据集上与近年来刚发表的医疗实体识别模型进行对比实验,在使用相同的参数与数据集的前提下,实验结果如表 5 所示。从中可以看出,虽然文中模型对比文献17-19的模型提升性能不大,但是却反映出文中模型拥有着不输于近年来新发表的医疗实体识别模型的性能。表 5摇 与近几年模型的对比实验摇%数据集模型PRF1CMeEEBERT-BILSTM-IDCNN-CRF1771.0571.0871.06BERT-I

37、DCNN-GAT1871.1570.2870.71ERNIE-BILSTM-IDCNN-CRF1970.1072.1871.12文中模型70.2172.1371.16表 6摇 模型消融实验摇 摇 摇%数据集模型PRF1Yidu-S4KBERT-BILSTM-CRF(*)80.9879.1780.07BERT-IDCNN-CRF(*)80.1279.8779.99BERT-IDCNN-CRF(*)81.1580.2880.71文中模型82.3581.7782.06摇摇消融实验的结果如表 6 所示。对比两个基于IDCNN 模块的模型,F1 值从 79.99%上升到 80.71%,说明多头注意力机制

38、能够在 IDCNN 获取更大感受野的同时不遗漏细节特征。此外,从表中 F1 值的提高可以看出,多层次提取特征后的确可以提升模型的识别效率,并且在多个特征提取融合后能进一步增强其效果,同时也验证了文中模型的有效性和结构的合理性。4摇 结束语中文医疗实体识别是医疗领域文本信息抽取的基础任务,具有较大的理论研究和实际应用价值。该文提出一种融合 BERT 预训练、双向长短期记忆网络和结合注意力机制的一维空洞卷积网络的实体识别模型,在多层次充分提取了医疗文本的语法和语义特征,有效缓解了医疗文本中语法不规范、实体嵌套和类型易混淆等问题,在两个不同的数据集上表现出不错的性能。但是中文医疗实体识别是一个复杂的

39、任务,还有很多需要面临的挑战,识别精度还有进一步提升的空间。未来将继续增强模型的鲁棒性和考虑引入例如字421摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 计算机技术与发展摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷典和字形图形等额外信息以增强模型性能。参考文献:1摇 张汝佳,代摇璐,王摇邦,等.基于深度学习的中文命名实体识别最新研究进展综述J.中文信息学报,2022,36(6):20-35.2摇LI J,SUN A,HAN J,et al.A survey on deep learning fornamed enti

40、ty recognitionJ.IEEE Transactions on Knowl鄄edge and Data Engineering,2020,34(1):50-70.3摇 SHI J,SUN M,SUN Z,et al.Multi-level semantic fusionnetwork for Chinese medical named entity recognitionJ.Journal of Biomedical Informatics,2022,133:104144.4摇 HU P,DONG L,ZHAN Y.BERT pre-training accelerationalgo

41、rithm based on MASK mechanismJ.Journal of Phys鄄ics:Conference Series,2021,2025(1):012038.5摇 周摇 康,曲卫东,杨艺琛.基于增强 BiLSTM 的网络文章核心实体识别J.计算机技术与发展,2021,31(1):7-12.6摇 陈摇 明,刘摇 蓉,张摇 晔.基于多重注意力机制的中文医疗实体识别J.计算机工程,2022,48(9):1-7.7摇 KAPOOR A J,FAN H,SARDAR M S.Intelligent detectionusing convolutional neural network

42、(ID-CNN)J.IOPConference Series:Earth and Environmental Science,2019,234(1):012061.8摇GAO W,ZHENG X,ZHAO S.Named entity recognitionmethod of Chinese EMR based on BERT-BiLSTM-CRFJ.Journal of Physics:Conference Series,2021,1848(1):012083.9摇 李摇 妮,关焕梅,杨摇飘,等.基于 BERT-IDCNN-CRF 的中文命名实体识别方法J.山东大学学报:理学版,2020,5

43、5(1):102-109.10 LI X,YAN H,QIU X,et al.FLAT:Chinese NER using flat-lattice transformerJ.arXiv:2004.11795,2020.11 LI Y,LIU L,SHI S.Empirical analysis of unlabeled entityproblem in named entity recognitionJ.arXiv:2012.05426,2020.12 崔少国,陈俊桦,李晓虹.融合语义及边界信息的中文电子病历命名实体识别J.电子科技大学学报,2022,51(4):565-571.13 张摇

44、栋,陈文亮.基于上下文相关字向量的中文命名实体识别J.计算机科学,2021,48(3):233-238.14 罗摇峦,夏骄雄.融合 ERNIE 与改进 Transformer 的中文NER 模型J.计算机技术与发展,2022,32(10):120-125.15 ZHANG N,CHEN M,BI Z,et al.Cblue:a chinese biomedic鄄al language understanding evaluation benchmarkJ.arXiv:2106.08087,2021.16 谢摇 腾,杨俊安,刘摇辉.基于 BERT-BiLSTM-CRF 模型的中文实体识别J.计算

45、机系统应用,2020,29(7):48-55.17 郭建勤.基于深度学习的中文医疗病历命名实体识别研究D.太原:中北大学,2022.18 梁文桐,朱艳辉,詹摇飞,等.基于深度学习多模型融合的医疗命名实体识别J.计算机应用与软件,2022,39(10):162-168.19 邢照野,刘晓群,刘亚军,等.基于增强字符信息的混合电子病历实体识别模型J.科学与信息化,2021(20):145-148蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚.(上接第 118 页)摇摇 from cheap operationsC/2020 IEEE/CVF confe

46、rence oncomputer vision and pattern recognition(CVPR).Seattle:IEEE,2020:1577-1586.13 LIU S,QI L,QIN H,et al.Path aggregation network for in鄄stance segmentation C/2018 IEEE/CVF conference oncomputer vision and pattern recognition(CVPR).Salt LakeCity:IEEE,2018:8759-8768.14 ZHANG Y F,REN W,ZHANG Z,et a

47、l.Focal and efficientIOU loss for accurate bounding box regressionJ.Neuro鄄computing,2022,506:146-157.15 REDMON J,DIVVALA S,GIRSHICK R,et al.You onlylook once:unified,real-time object detection C/2016IEEE conference on computer vision and pattern recognition(CVPR).Las Vegas:IEEE,2016:779-788.16 TAN M,PANG R,LE Q V.EfficientDet:scalable and effi鄄cient object detectionC/2020 IEEE/CVF conference oncomputer vision and pattern recognition(CVPR).Seattle:IEEE,2020:10778-10787.521摇 第 9 期摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 李正辉等:基于多层次特征提取的中文医疗实体识别

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服