收藏 分销(赏)

大语言模型融合知识图谱的问答系统研究.pdf

上传人:自信****多点 文档编号:917688 上传时间:2024-04-07 格式:PDF 页数:12 大小:8.08MB
下载 相关 举报
大语言模型融合知识图谱的问答系统研究.pdf_第1页
第1页 / 共12页
大语言模型融合知识图谱的问答系统研究.pdf_第2页
第2页 / 共12页
大语言模型融合知识图谱的问答系统研究.pdf_第3页
第3页 / 共12页
亲,该文档总共12页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、计算机科学与探索Journal of Frontiers of Computer Science and Technology1673-9418/2023/17(10)-2377-12doi:10.3778/j.issn.1673-9418.2308070大语言模型融合知识图谱的问答系统研究张鹤译1,王鑫1+,韩立帆1,李钊1,陈子睿1,陈哲21.天津大学 智能与计算学部,天津 3003542.天津中医药大学 循证医学中心,天津 301617+通信作者 E-mail:摘要:大语言模型(large language model,LLM),包括ChatGPT,在理解和响应人类指令方面表现突出,对自

2、然语言问答影响深远。然而,由于缺少针对垂直领域的训练,LLM在垂直领域的表现并不理想。此外,由于对硬件的高要求,训练和部署LLM仍然具有一定困难。为了应对这些挑战,以中医药方剂领域的应用为例,收集领域相关数据并对数据进行预处理,基于LLM和知识图谱设计了一套垂直领域的问答系统。该系统具备以下能力:(1)信息过滤,过滤出垂直领域相关的问题,并输入LLM进行回答;(2)专业问答,基于LLM和自建知识库来生成更具备专业知识的回答,相比专业数据的微调方法,该技术无需重新训练即可部署垂直领域大模型;(3)抽取转化,通过强化LLM的信息抽取能力,利用生成的自然语言回答,从中抽取出结构化知识,并和专业知识图

3、谱匹配以进行专业验证,同时可以将结构化知识转化成易读的自然语言,实现了大模型与知识图谱的深度结合。最后展示了该系统的效果,并通过专家主观评估与选择题客观评估两个实验,从主客观两个角度验证了系统的性能。关键词:大语言模型(LLM);知识图谱;问答系统;垂直领域;中医药方剂文献标志码:A中图分类号:TP391Research on Question Answering System on Joint of Knowledge Graph and LargeLanguage ModelsZHANG Heyi1,WANG Xin1+,HAN Lifan1,LI Zhao1,CHEN Zirui1,CH

4、EN Zhe21.College of Intelligence and Computing,Tianjin University,Tianjin 300354,China2.Evidence-Based Medicine Center,Tianjin University of Traditional Chinese Medicine,Tianjin 301617,ChinaAbstract:The large language model(LLM),including ChatGPT,has shown outstanding performance in understandingand

5、 responding to human instructions,and has a profound impact on natural language question answering(Q&A).However,due to the lack of training in the vertical field,the performance of LLM in the vertical field is not ideal.Inaddition,due to its high hardware requirements,training and deploying LLM rema

6、ins difficult.In order to addressthese challenges,this paper takes the application of traditional Chinese medicine formulas as an example,collectsthe domain related data and preprocesses the data.Based on LLM and knowledge graph,a vertical domain Q&Asystem is designed.The system has the following ca

7、pabilities:(1)Information filtering.Filter out vertical domainrelated questions and input them into LLM to answer.(2)Professional Q&A.Generate answers with more professionalknowledge based on LLM and self-built knowledge base.Compared with the fine-tuning method of introducingprofessional data,using

8、 this technology can deploy large vertical domain models without the need for retraining.基金项目:国家自然科学基金面上项目(61972275);中国人工智能学会-华为MindSpore学术奖励基金(2022037A)。This work was supported by the National Natural Science Foundation of China(61972275),and the Chinese Association for ArtificialIntelligence-Huawe

9、i MindSpore Open Fund(2022037A).收稿日期:2023-08-02修回日期:2023-09-21Journal of Frontiers of Computer Science and Technology计算机科学与探索2023,17(10)问答系统(question answering,QA)能够自动回答用户提出的自然语言问题,是信息检索和自然语言处理的交叉研究方向。将知识图谱(knowledgegraph,KG)与问答系统融合,正确理解用户语义是一大挑战1。虽然知识图谱问答能够通过对问题进行分析理解,最终获取答案,但面对自然语言的灵活性与模糊性,如何处理复杂问

10、题的语义信息,如何提高复杂推理问答的高效性仍是研究难点2。近年来,大语言模型(large language models,LLM)在多种自然语言处理任务3-4上取得了显著的成果,并表现出若干涌现能力5。InstructGPT6、ChatGPT(https:/ 在各种自然语言处理任务上表现卓越,甚至能够对未见过的任务表现出不错的性能,这为正确处理复杂问题展示了能够提供统一解决方案的潜力。然而,这些模型都存在一些固有的局限性,包括处理中文能力较差,部署困难,无法获得关于最近事件的最新信息以及产生有害幻觉事实(halluci-natoryfact)9等。由于这些局限性,将大语言模型直接应用于专业领域

11、问答仍然存在诸多问题。一方面难以满足大语言模型对于硬件资源的要求;另一方面,面对专业领域,大语言模型的能力仍然有所不足。面对专业领域的问题,大语言模型的生成结果可能缺乏真实性和准确性,甚至会产生“幻觉事实”。为了增强大语言模型应对专业领域问题的能力,很多工作采取数据微调的方式修改模型参数,从而让大模型具有更高的专业能力。然而一些文献指出这些数据微调的方法会产生灾难性遗忘(catas-trophic forgetting)10,致使模型原始对话能力丧失,甚至在处理非微调数据时会出现混乱的结果。为了应对这些问题,本文结合大语言模型与知识图谱,设计了一种应用于专业领域的问答系统。该问答系统通过将知识

12、库(knowledge base,KB)中的文本知识、知识图谱的结构化知识、大语言模型中的参数化知识三者融合,生成专业问答结果,因此无需使用数据微调的方式修改模型参数,就能够理解用户语义并回答专业领域的问题。同时,通过采用类似于ChatGLM-6B这样对硬件资源要求较低的模型,以降低硬件对系统的约束。另外,随着大语言模型技术的发展,认知智能范式的转变将是接下来的研究重点,如何将大语言模型与知识图谱进行有效结合是一个值得研究的课题。因此,本文参照研究问答系统的形式,进一步研究“大语言模型+知识图谱”的智能信息系统新范式,探索知识图谱与大语言模型的深度结合,利用专业性知识图谱来增强LLM的生成结果

13、,并利用LLM理解语义抽取实体对知识图谱进行检索与增强。本文的主要贡献有两点:(1)提出大语言模型+专业知识库的基于提示学习(prompt learning)的问答系统范式,以解决专业领域问答系统数据+微调范式带来的灾难性遗忘问题。在提升大模型专业能力的同时,保留其回答通用问题的能力。在硬件资源不足的情况下,选择较小的大模型部署专业领域的问答系统,实现能和较大的大模型在专业领域相媲美甚至更好的效果。(2)探索了大语言模型和知识图谱两种知识范式的深度结合。实现了将大语言模型和知识图谱的双向链接,可以将易读的自然语言转换为结构化的数据,进而和知识图谱中的结构化数据匹配,以增强回答专业性;可以将KG

14、中的结构化知识转换为更易读的自然语言知识来方便人们理解。本文相关代码开源在https:/ ChatGPT为代表的大语言模型表现出令人震惊的能力,国内诸多厂商纷纷投入构建中文大语言模型,并涌现出了一系列的模型,如百度的文心(3)Extract conversion.By strengthening the information extraction ability of LLM and utilizing its generatednatural language responses,structured knowledge is extracted and matched with a pr

15、ofessional knowledge graph forprofessional verification.At the same time,structured knowledge can be transformed into readable natural language,achieving a deep integration of large models and knowledge graphs.Finally,the effect of the system is demonstratedand the performance of the system is verif

16、ied from both subjective and objective perspectives through twoexperiments of subjective evaluation of experts and objective evaluation of multiple choice questions.Key words:large language model(LLM);knowledge graph;Q&A system;vertical field;traditional Chinese medicine2378张鹤译 等:大语言模型融合知识图谱的问答系统研究一

17、言、阿里的通义千问、华为的盘古大模型等。这些模型虽然具有一定的问答能力,但是正如上文所言,它们在专业领域都有着巨大的局限性。GLM(gene-ral language model)11是清华提出的预训练语言模型,它的底层架构是通用语言模型,在超过 4 000亿个文本标识符上进行预训练。本文系统的应用示例同样是基于GLM。在垂直领域存在很多的工作,它们主要采用的方法仍然是数据+微调的范式,即使用不同的专业数据对预训练语言模型进行微调,如 P-tuning12、P-tuning v213等,以获取语言模型在相应领域的专业能力。通过更新少量参数,减少了对硬件资源的要求。虽然减弱了微调产生的灾难性遗忘

18、问题,但是此问题仍然存在。PMC-LLaMA14提出一种基于生物医学文献的预训练语言模型,通过对LLaMA模型进行微调,注入医疗知识以增强其在医疗领域专业的能力,从而提高其在医疗问答基准测试中的表现。Med-PaLM15针对医疗领域,提出了 MultiMedQA 医学问题回答基准,涵盖了医学考试、医学研究和消费者医学问题。基于 Flan-PaLM 进行指令微调(instructiontuning),在多个方面缩小了与临床医生的差距,证明了指令提示调整的有效性。ChatDoctor16使用医疗领域知识对 LLaMA 模型进行微调获取医疗聊天模型,其根据在线医疗咨询网站的10万真实世界患者-医生对

19、话,对模型进行了微调,添加了自主知识检索功能,通过构建适当的提示在大语言模型中实现具体检索功能。华佗(本草)17基于中文医学知识的LLaMA微调模型,采用了公开和自建的中文医学知识库,主要参考了中文医学知识图谱CMeKG(https:/ ChatGLM-6B 的中文问诊模型,由 ChatGPT生成与医学知识内容与逻辑关系相关的若干问题构建训练数据,再通过“文本段-问题”对的方式让ChatGPT回答问题,使ChatGPT生成含有医学指南信息的回答,保证回答的准确性。从以上工作可以总结出,垂直领域的范式还是通过不同来源的数据+不同的模型基座进行微调,仍然无法避免微调的固有缺陷,而本文使用的专业知识

20、库+大语言模型的新范式能够解决这一问题。LangChain(https:/ 一 个强大的框架,旨在帮助开发人员使用语言模型构建端到端的应用程序,可以为 LLM 的开发利用提供有力支撑。它提供了一套工具、组件和接口,可以简化创建由 LLM 或聊天模型提供支持的应用程序的过程。LangChain可以轻松管理与大语言模型的交互,将多个组件链接在一起,并集成额外的资源。利用LangChain,本文设计的问答系统可以轻松建立知识库与大语言模型间的链接,将知识注入到大语言模型当中。2系统概述本文提出的专业问答系统基于大语言模型与知识图谱,旨在探索大语言模型+专业知识库的问答系统范式,探索大语言模型与知识图

21、谱的深度结合,以实现专业的垂直领域问答效果,并为用户提供专业问答服务和友好交互服务。基于以上目标系统实现了以下功能:信息过滤、专业问答、抽取转化。为了实现这些功能,系统基于专业知识与大语言模型,利用 LangChain将两者结合,设计并实现了大语言模型与知识图谱的深度结合新模式。信息过滤模块旨在减少大语言模型生成虚假信息的可能性,以提高回答的准确性。专业问答模块通过将专业知识库与大语言模型结合,提供专业性的回答。这种方法避免了重新训练大语言模型所需的高硬件要求和可能导致的灾难性遗忘后果。抽取转化是指从自然语言文本抽取出知识图谱结构化数据,将知识图谱结构化数据转化为自然语言文本,是为了进一步探索

22、问答系统新范式而设计的。一方面基于大语言模型提取出专业知识,将知识图谱结构化数据转化为自然语言文本,易于用户理解;另一方面利用知识抽取出三元组和知识图谱对比验证,可以增强大语言模型回答的专业性,同时抽取出的三元组在经专家验证后可以插入知识图谱中以增强知识图谱。除此之外,本系统还实现了用户友好的交互服务。如图1所示,系统交互流程如下:(1)用户向系统提出问题,问题通过信息过滤后,与知识库中的相关专业知识组成提示,输入到专业问答模块中得到答案;(2)信息抽取模块从回答中提取出三元组,与知识图谱进行匹配,获取相关节点数据;(3)这些节点数据经用户选择后,同样以提示的形式输入专业问答模块得到知识图谱增

23、强的回答。这种双向交互实现了大语言模型和知识图谱的深度结合。总而言之,本文提出的专业问答系统通过大语言模型与知识图谱深度结合,实现了专业的垂直领2379Journal of Frontiers of Computer Science and Technology计算机科学与探索2023,17(10)域问答效果,并且提供用户友好的交互服务。系统的信息过滤模块减少了虚假信息生成的可能性,专业问答模块提供了专业性的回答,抽取转化模块进一步增强了回答的专业性,并可以对结构化数据进行解释,降低用户理解难度,同时可用专家确认无误的知识进一步增强知识图谱。这种新的问答系统范式为用户提供了更准确、更专业的答案

24、,同时保持了用户友好的交互体验。3系统构建方法本文从数据构造与预处理、信息过滤、专业问答、抽取转化四方面,以中医药方剂领域的应用为例,介绍如何构建系统。本文针对专业领域,收集相关领域数据进行预处理,设计流程来训练一套易于部署的专业领域问答系统,并探索大语言模型与知识图谱的融合。图 2以中医药方剂专业领域为例展示了该系统的问答流程。首先,对输入的中医药方剂相关问题文本进行信息过滤,即文本分类,判断出该文本是否与中医药方剂相关。其次,通过LangChain在知识库中检索与文本相关的知识,以提示的方式和问题一起输入大模型,如:ChatGPT、ChatGLM等,大模型通过推理生成具备专业知识的答案。然

25、后,对该回答进行知识抽取,从回答中抽取出三元组。将抽取出的三元组和已有的方剂知识图谱进行匹配,以验证回答的专业性,同时将知识图谱中的节点以问题的形式输入大模型,获取易读的自然语言解释,从而实图1问答系统流程图Fig.1Flow chart of Q&A system图2 大语言模型融合知识图谱问答流程示例Fig.2 Example of question-answer process for integrating knowledge graph in a large language model2380张鹤译 等:大语言模型融合知识图谱的问答系统研究现了大模型和知识图谱的双向转换。3.1数据

26、构造与预处理本系统的实现需要收集整理专业数据集,以支持系统的实现。本文基于多种数据构造系统所需的数据集、知识库,并对这些数据进行数据预处理。(1)基于已有的专业领域数据集。本文直接搜集专业领域已有的相关数据集,参考其构成,从中整理筛选出所需的数据。对于中医药方剂领域,参考MedDialog19、CBLUE20、COMETA21、CMeKG 数 据集,整理并构建相关专业数据。相关介绍如表1所示。(2)权威数据。权威数据从专业书籍或权威网站收集。这部分数据来自于相关领域的专业书籍和权威网站,用于构建知识库,为大模型的回答提供专业知识支撑。对于中医药方剂领域,主要基于方剂学等专业书籍构建了中医药方剂

27、专业知识库,同时从 NMPA(国家药品监督管理局)、药融云-中医药数据库群、TCMID中医药数据库、中医药证候关联数据库等专业权威网站收集中医药方剂领域的相关数据知识。(3)问题数据。问题数据用来训练信息过滤模型。由于某些专业领域存在问题数据缺失的情况,本文设计了一种基于提示的方法,使用大模型生成问题数据(图 3所示)。首先从相关数据中选择一条数据用来生成提示,将提示输入大模型生成一条数据,重复以上述步骤,直到相关数据被选完。算法1 基于LLM生成数据输入:相关文本D,LLM(如ChatGPT)的API_KEY。输出:基于LLM生成的问题数据R。1.llm_connectioncreate(A

28、PI_KEY)/通过 API_KEY创建与LLM接口的链接2.fori:=1 toNdo3.d select(D)/选择一条相关数据4.prompt P(d)/根据选择的数据生成提示5.r llmresult(llm_connection,prompt)/通过建立的链接访问LLM接口,输入提示生成答复6.R abstract()r/从 LLM 生成结果中提取出问题数据,并汇总到R中7.end for其中D表示所有的相关数据,d表示一条相关数据,R表示所有生成的问题数据,r表示一条生成的数据。create 根据用户提供的 API_KEY 创建与LLM(如ChatGPT)的链接,select表示选

29、择一条数据,P表示根据数据生成合适的提示,llmresult表示获取LLM生成的回复,abstract表示从生成回复中提取出问题数据并进行汇总。在中医药方剂领域,如表2中P1所示,将提示P1输入 LLM 中,生成相关问题。中医药方剂领域问答系统的问题数据,80%来自于现有的问答数据集,如MultiMedQA15、CMRC201822、CMedQA-System23、cMedQA2(https:/ 3 所示,使用基于提示的方法,通过让 LLM 回答问题,生成合适的微调数据。提示如表 2中P2所示,结合信息抽取示例,将P2输入 LLM 生成 25 条微调数据,利用这些数据微调大模型以激活大模型的信

30、息抽表1相关专业数据集Table 1Related professional datasets数据集MedDialogCBLUECOMETACMeKG描述医学对话数据集8个中医药相关的数据集两万个生物医学实体中文医学知识图谱图3 基于LLM生成数据方法Fig.3Method for generating datasets based on LLM表2提示示例Table 2Prompt example提示P1P2P3P4提示文本现在你是某个领域如:中医药方剂领域的专家,请参考以下数据:专业知识文本,生成一些相关的问题。请参考信息抽取示例,生成信息抽取的微调数据集。知识图谱节点数据是什么?/请详细

31、解释知识图谱节点数据的意思。现在你是某个领域如:中医药方剂领域的专家,请参考以下数据:专业知识文本,回答问题:用户输入的问题。注:“”内的内容是可以更改的内容。2381Journal of Frontiers of Computer Science and Technology计算机科学与探索2023,17(10)取能力。系统使用(1)、(2)中的数据构建知识库,知识库支持多种形式的数据,包括 txt、html、pdf等格式。使用(3)中的数据训练信息过滤模型。使用(4)中的数据训练知识抽取模型。3.2信息过滤针对专业领域的问答,大语言模型无需回答其他领域的问题,为此本系统添加了基于 BERT

32、(bidi-rectional encoder representations from transformers)24的文本过滤器对问题进行过滤,以限制大模型可以回答的问题范围。其他模型在面对专业领域的边界问题或交叉问题时往往会产生微妙的幻觉事实,生成错误文本。尽管使用微调的形式同样也可以使得大模型具备一定的问题甄别能力,但是这种能力在面对与微调数据集中相似的其他问题时,仍然会被迷惑,甚至对于原本可以正确回答的问题也会生成错误的答案。因此需要单独设计文本过滤器以对信息进行过滤。假设可输入大模型的所有的问题集合为Q,大模型在某一专业领域可以回答的问题集合为R,可以生成专业回答的问题集合为D,显

33、然有Q R D。使用微调方式限制将使得R D,会让模型回答能力减弱1)。而使用过滤器的形式,使得Q R,将尽可能保证询问的问题在R的范围之内,虽然会有部分R之外的数据进入大模型,但是由于本文设计的专业增强问答系统仍然保留一定的通用能力,对R之外的问题也可以进行无专业验证的回答。信息过滤将保证本系统尽可能回答在系统能力范围以内的问题,以减少产生幻觉事实的可能。训练过程如图4所示,将训练数据输入BERT,再将BERT的结果输入全连接层(fully connected layer,FCL)得到对本文的分类结果CLS。根据数据集中的标签,训练时只需要更新全连接层的参数即可。一般来说使用BERT进行文本

34、分类任务,会采用BERT结果的分类词向量H,基于 softmax做一个简单的分类器,预测类别的标签L的概率:P(L|H)=softmax(WH)(1)这里W是分类任务的参数矩阵,最终通过最大化正确标签的对数概率来微调 BERT 和W中的所有参数。将其修改为使用全连接层得到每个标签的概率:P(L|H)=FC(H)(2)训练时输入全连接层的向量维度为768,具有两个隐藏层,维度分别为 384、768,输出维度为类别个数,这里是一个二分类任务,因此为 2。最终选择概率更大的标签作为分类的结果CLS。在中医药方剂学领域中,CLS为问题是否与中医药方剂相关,通过过滤问题,减少生成幻觉事实的可能,并同检索

35、结果一起判断能否进行专业回答。3.3专业回答为了使得大模型知识图谱问答系统的回答更具备专业性,本文通过提示的方式注入知识库中专业知识,增强回答的专业性。通过检索知识库,大模型可以回答其本身能力之外的专业问题,使得大语言模型支持的问题边界扩大。这种方式和引入专业数据的微调方法对比,无需重新训练就可以部署一个专业领域大语言模型。如 图 5 所 示,在 中 医 药 方 剂 领 域,本 文 使 用LangChain+LLM,生成更具备专业知识的回答。本系统基于 LangChain在知识库中检索与问题相关的专业知识,然后专业知识和问题文本一起构成P4(表2所示)输入 LLM,最终得到答案文本。这里可以选

36、择使用ChatGLM-6B、ChatGPT等作为大模型。假设知识库中的第i个文件为Fi(i=1,2,n),1)表示包含关系,若A B,则A B表示集合A的范围向集合B的范围缩小。图4 信息过滤模型的训练过程Fig.4Training process of information filtering model图5基于LangChain+LLM的问答流程图Fig.5Question-answer flow chartbased on LangChain+LLM2382张鹤译 等:大语言模型融合知识图谱的问答系统研究基于 LangChain进行检索会将各个文件中的文本进行分块,Dij(i=1,2,

37、n;j=1,2,m)表示第i个文件的第j个文本块。然后对每一块文本建立向量索引Vi(i=1,2,nm),在检索时将问题文本向量化,得到问题文本向量Q,最后通过向量相似度计算出和Q最相似的k个向量索引,并返回对应的文本块。将匹配到的专业知识文本D和问题文本以P4的形式拼接,最终输入 LLM 中得到大模型生成的专业回答。该过程的伪代码如下所示:算法2 向量化索引检索问答输入:问题文本q,知识库文件f。输出:大模型的回答文本result。1.fori:=1 toNdo2.di split(fi)/对第i个文件划分文本块3.end for4.fori:=1 toN Mdo5.Vi trans(di)/

38、生成每个文本块的向量索引6.end for7.Q trans(q)/将问题文本转化为问题向量8.Vk score(Q,Vn m)/计算问题向量和索引向量的相似度,得到k个最相似的索引向量9.dk de_trans(Vk)/根据匹配到的k个问题向量转化为相应的知识文本10.result model(P4(q,dk)/将问题文本和专业知识文本以P4形式输入大模型以获取回答算法中q表示问题文本,f表示知识库文件,d表示知识文本块,Q表示问题文本向量,V表示文本块的向量索引,split表示划分文本块的过程,trans表示从文本转化为向量,de_trans表示从向量转化为文本,score将返回k个最相似

39、的向量索引,model(P4(q,dk)表示将问题文本和专业知识文本以P4形式输入大模型ChatGLM-6B。3.4抽取转化本节探索大语言模型和知识图谱的深度结合。大模型的回答是易读的自然语言数据,而知识图谱的数据是结构化的知识。为了将两者交互结合,需要实现两者的相互转换:(1)实现对自然语言的结构化;(2)可将结构化的知识转换为自然语言。前者是信息抽取的任务,后者可以通过提示的方式输入大模型转换成自然语言文本。以中医药方剂领域的应用为例进行分析:(1)对于信息抽取,使用 P-tuning v2微调的方式强化 LLM 的信息抽取能力。具体来说,在语言模型的每一层上将l个可训练的注意力键和值嵌入

40、连接到前缀上,给定原始的键向量K Rl d和值向量V Rl d,可训练的向量Pk、Pv将分别与K和V连接。注意力机制头的计算就变为:headi(x)=Attention(xW(i),P(i)k:K(i),P(i)v:V(i)(3)其中,上标(i)代表向量中与第i个注意力头对应的部分,本文通过这种方法来微调大语言模型,第 3.1 节描述了如何构建微调数据。如图1所示,将大模型生成的自然语言答案文本,输入经过信息抽取增强微调后的大模型中,提取出结构化的三元组信息,并与知识图谱进行匹配,在专家验证后,可以存储到方剂知识图谱中。(2)对于结构数据的易读化,使用提示的方式(提示构造如表2的P3所示),将

41、知识图谱相关节点转换为P3后,再将P3输入大模型得到自然语言的回答。本文尝试将专业知识图谱与大语言模型结合,利用大模型生成自然语言回答,抽取出专业的结构化知识,并和已有的专业方剂知识图谱进行知识匹配,以进行专业验证。同时可以将知识图谱中的结构化知识转化成易读的自然语言。4实验本章为系统的效果提供了实验证据,分为三部分:(1)不同模型回答效果展示;(2)性能评估;(3)大语言模型和知识图谱的相互转换。本文实验模型采用 ChatGLM-6B 在 MindSpore1.10.1 环 境 下,基 于Ascend910硬件运行。4.1不同模型回答效果展示表 3是不同模型对相同中医药方剂相关问题的一些回答

42、结果。ChatGPT没有开源,也没有透露任何训练细节,因此无法保证评估数据是否被用于训练它们的模型,从而它们的结果在这里只能作为参考,而不应该被用来进行公平的比较14。对于问题 1,由于知识库中存在相关的知识,专家问答系统可以进行专业回答,ChatGLM 则无法生成方剂学的专业回答,相比于ChatGPT的回答,专家问答系统更精细,不仅有方剂名称,适用范围还有具体的方剂信息。对于问题2,此问题是数学和方剂学的交叉问题,知识库中并没有相关信息,直接由ChatGLM 回答,会生成幻觉事实。专业问答系统可以判断无足够专业知识进行回答,进而避免生成幻觉事实。这些结果表明,本文设计的系统具备良好2383J

43、ournal of Frontiers of Computer Science and Technology计算机科学与探索2023,17(10)的专业回答能力,同时也能对自身无法专业回复的问题表示拒绝。专业问答系统仍然保留ChatGLM本身的能力,能对一些绕过信息过滤的问题进行回答,这种能力能够保证在面对专业领域边界问题或交叉问题时可以进行较好的回答。4.2性能评估为了评估系统的性能,本节从主观评估与客观评估两方面验证了在中医药方剂学领域的专业效果,并通过消融实验验证了各个模块都具备相应的提升系统性能的能力。4.2.1主观评估本实验请三个中医药方面的专家对不同模型的回答进行评估,用以验证系统

44、效果。将100个问题分别输入三个不同的模型生成答案,然后把来自不同模型的每个问题的结果,交给专家进行评估,比较对于同一个问题,专家更喜欢哪一个模型的回答。如图6所示,横坐标表示不同的专家,纵坐标表示最满意问题所占问题总数的比例。模型 1是本文所提专业问答系统,模型2表示ChatGLM,模型3表示ChatGPT。由于是对比三个模型的结果,因此只需专家最满意比例大于总体 1/3 就可以证明专业问答系统的回答更好。专家们对模型 1的回答结果最满意总个数分别是 37、42、42,都超过总问题个数的 1/3,因此本文设计的系统更受专家喜欢。实验过程中,问题被分为两类,一种是普通问题,另一种是专业问题,两

45、者分别有50个问题,共100个问题。普通问题是相对常见的问题,对专业知识需求较低;专业问题是考验式问题,类似于考试题,回答专业问题需要具备更多的知识。专家总体评估如图6(a),简单问题评估如图6(b),专业问题评估如图6(c)。表3 不同模型结果对比Table 3 Comparison of results of different models模型专业问答系统ChatGLM-6BChatGPT回答问题1:我发烧了,请给我推荐几个方剂。发烧是身体免疫系统的一种反应,可能是因为感染、炎症、过敏等多种原因引起的。以下是几个针对不同原因引起的发烧的方剂:1.桂枝汤:该方剂能够发汗解表,适用于感冒、流

46、感引起的发热、恶寒、头痛等症状。它出自于 医略六书 卷二十五,主要处方包括白术三钱(炒),桂枝一钱半,白芍一钱半,炙草八分,大枣3枚,生姜3片等,用法是水煎,去滓温服。2.五苓散:该方剂能够利水消肿,适用于因湿邪引起的发热、头痛、口渴等症状。它出自于 医方类聚,主要成分包括泽泻,滑石,赤茯苓,白术,猪苓等。以上方剂建议在中医师的指导下使用,不宜自行使用,尤其对于孕妇、儿童、老人等特殊人群,应当谨慎使用。同时,若发热严重,伴有呼吸急促、胸痛等症状,应当及时就医。发烧了,最好尽快就医,让医生进行诊断和治疗。在没有就医的情况下,以下是一些缓解轻度发烧的建议:1.多喝水和温水:保持充足的水分和液体,帮

47、助身体保持正常的水分平衡,缓解喉咙干燥,降低体温。2.冷敷:用冰袋或湿毛巾冷敷头部和脸部,帮助降低体温。3.休息:充足的休息可以帮助身体恢复,缓解症状。4.香菜、芹菜等绿叶蔬菜:这些食物含有丰富的维生素和矿物质,对退烧有一定的帮助。5.退烧药:如果体温超过了正常范围,可以考虑服用退烧药,如对乙酰氨基酚等。但请务必按照药品说明或医生建议使用。请注意,如果体温持续上升或出现其他症状,请尽快就医。如果您发烧了,建议您及时就医,由医生根据您的具体情况开具适合您的方剂。以下是一些常用的中药方剂,供您参考:1.麻黄汤:适用于感冒引起的发热、头痛、咳嗽等症状。2.桂枝汤:适用于感冒引起的发热、头痛、身体酸痛

48、、恶寒等症状。3.三妙丸:适用于感冒引起的发热、咳嗽、喉咙痛等症状。4.清热解毒汤:适用于病毒感染引起的高热、咽喉肿痛、口干舌燥等症状。请注意,以上方剂仅供参考,具体使用需要在医生的指导下进行。同时,如果您的症状严重或持续时间较长,建议及时就医。问题2:有两个人来开方,每个人开三个方,一共开了哪些方剂?根据已知信息无法回答该问题,因为并没有提供足够的相关信息,无法确定每个人开了哪些方剂。假设这两个人是 A 和 B,每个人开了三个方,那么一共开了以下方剂:A 开了三个方剂:1.方1 2.方2.方3 B开了三个方剂:1.方 1.方 3.方 4 因此开了 3 个方剂:方 1、方 2 和方 3,以及方

49、1、方3和方4。这个问题似乎是中医方剂的问题。如果我理解正确,每个人开三个方剂,那么两个人一共开了六个方剂。但是,具体开了哪些方剂需要更多的信息才能回答。请提供更多的上下文或信息,以便我能够更好地回答您的问题。图6专家评估Fig.6Expert evaluation2384张鹤译 等:大语言模型融合知识图谱的问答系统研究在图 6(a)中,模型 1取得了最高的满意率,可以看出本系统提出的方法更受中医药专家的喜欢。对于简单问题,如图 6(b)所示,远远优于其他两个模型,对于专业问题,如图 6(c)所示,虽然 ChatGPT 取得最优的结果,但是模型1相对于模型2仍更受专家喜欢。相对于其他模型,模型

50、 1的回复更加详细,会补充更多专业知识。但是当问题难度上升,回答问题需求知识更多,当知识库中没有这部分知识时,模型 1 的回答专业性就不如 ChatGPT。这可能是因为ChatGPT 训练时所用的语料中涉及专业问题,所以ChatGPT在回答专业问题时更具备优势。结果表明,总体上本文所提系统更受专家喜欢。虽然面对复杂问题时,表现不如 ChatGPT,但是相对基线模型ChatGLM-6B仍保持更高的满意率,表明了本文所提系统的有效性。4.2.2客观性能评估为了客观验证系统的问答性能,让系统回答专业相关的选择题,可以客观验证系统性能。此实验收集并整理了 50条方剂学不同难度的选择题,让不同模型进行回

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服