1、油藏的含油气柱高度在很大程度上反映了圈闭中油气层的丰富程度。石油含量高度的估计,对于钻前储量评价、井位优化部署等都有着一定重要性。为了提升油气柱高度预测精度,展开基于神经网络模型的油气柱高度预测方法的研究,并侧重于一维残差收缩网络的研究,因为一维的卷积核侧重对每一维特征的提取,更符合本实验数据的特性;其次模型使用了残差块,该模块使用链接跳跃方法来绕过输入信息直接输出来保护信息完整性,进而缓解梯度损失和网络退化问题;软阈值作为非线性变换层插入到深层结构中,以消除不重要的特征,来提高从高噪声数据中学习特征的能力。同时,为了验证模型的有效性,对目前应用较为广泛的模型,如 CNN、1DCNN、Goog
2、LeNet、DenseNet、1DRSN 在圈闭数据上的应用进行了比较和分析。1DRSN 预测准确率达到 84.0%,优于其他模型,表明该模型对油气柱高度预测有更加准确的结果。关键词:油气柱高度;卷积神经网络;深度学习;软阈值;一维残差收缩网络中图分类号:TP391 摇 摇 摇 摇 摇 摇 摇 文献标识码:A摇 摇 摇 摇 摇 摇 文章编号:1673-629X(2023)09-0175-07doi:10.3969/j.issn.1673-629X.2023.09.026Oil and Gas Column Height Prediction Based on Deep ResidualShri
3、nkage NetworkDU Rui-shan1,2*,CHENG Yong-chang1,MENG Ling-dong2(1.School of Computer and Information Technology,Northeast Petroleum University,Daqing 163318,China;2.Key Laboratory of Oil and Gas Reservoir and Underground Gas Storage IntegrityEvaluation(Northeast Petroleum University),Daqing 163318,Ch
4、ina)Abstract:The height of the hydrocarbon-bearing column of the reservoir reflects the richness of the hydrocarbon layer in the trap to alarge extent.Estimation of oil content height is of great importance for pre-drilling reserve evaluation and well location optimization de鄄ployment.In order to im
5、prove the prediction accuracy of the oil and gas column height,the research on the oil and gas column height pre鄄diction method based on the neural network model is carried out,and the research on the one-dimensional residual shrinkage network isfocused.Because the one-dimensional convolution kernel
6、 focuses on the extraction of each dimension feature,which is more in line withthe characteristics of the experimental data.Secondly,the model uses a residual block,which uses the link skip method to bypass theinput information and directly output to protect the information integrity,thereby allevia
7、ting the problem of gradient loss and network deg鄄radation.Soft threshold as a nonlinear transformation Layers are inserted into deep structures to eliminate unimportant features to improvethe ability to learn features from noisy data.At the same time,in order to verify the validity of the model,the
8、 applications of widely usedmodels,such as CNN,1DCNN,GoogLeNet,DenseNet,and 1DRSN,on trapped data are compared and analyzed.The experimental resultsshow that the prediction accuracy of 1DRSN reaches 84.0%,which is better than that of other models,indicating that the model has moreaccurate results fo
9、r the prediction of oil and gas column height.Key words:oil and gas column height;convolutional neural network;deep learning;soft thresholding;1DRSN0摇 引摇 言断层对油气的运动、聚集等有明显的影响,对油气流体的影响很复杂。一些断层允许流体通过断裂传递,一些断层不允许流体通过,从而产生多个复杂的油气隐藏。在探索研究的早期阶段,通过对断层封堵研究断层中承载的油气柱高度,判断圈闭的封闭资源,估第 33 卷摇 第 9 期2023 年 9 月摇 摇 摇 摇
10、 摇 摇 摇 摇 摇 摇计 算 机 技 术 与 发 展COMPUTER TECHNOLOGY AND DEVELOPMENT摇 摇 摇 摇 摇 摇 摇 摇 摇 摇Vol.33摇 No.9Sep.摇 2023计各层储量,选择油气井的位置,具有重要意义。建立断层封闭定量评价标准的目的是确定断层属性与封闭油气柱高度的关系,最终通过已知的断层属性数据预测油气柱高度。目前,提出了 3 种系列定量评价方法:(1)基于岩性对接提出的定量评价方法1;(2)基于断裂带 SGR预测,定量评价断层封闭性2-4;(3)基于断层稳定性,根据应力状态去定量评价断层封闭性5。这 3 种方法实际是从毛细管封闭和水力封闭 2
11、个角度去定量评价断层的封闭性。这些方法一般需要在具有一定特性的断层上使用,模型缺乏泛化能力,需要大量的人工操作。近些年油气柱高度预测研究又有些新的进展,2019 年 Ma C 等人6使用基于地层超压的盖层最大油气柱 高 度 计 算 方 法 预 测 油 气 柱 高 度,2019 年Edmundson I 等人7将前景的尺寸和埋深与其他地下技术因素一起使用确定油气柱高度,2020 年 Grant NT8使用蒙特卡罗模型预测油气柱高度,2020 年张鸿妍9使用 SGR 法预测油气柱高度,等等。随着计算机技术的飞速发展,机器学习和神经网络在地学领域的研究越来越广泛。例如,2019 年,Mukherje
12、e T 等人10使用机器学习方法对天然气产量进行预测,Al Ghaithi A11使用人工神经网络对剪切测井进行预测,Das V 等人12使用卷积神经网络从叠前地震数据预测岩石物理特性;2020 年,GlubokovskikhS 等人13使用机器学习方法对声波测井进行预测,Sang 等人14使用多任务残差网络同时进行阻抗和含气饱和度预测;2021 年,Feng S 等人15使用时空 CNN监测和预测 Sleipner 地区的 CO2储存;2022 年,秦峰等人16使用深度学习来模拟油气藏大幅提升模拟速度,于红岩等人17从机器学习、智能优化理论两个方面阐述人工智能在油气勘探开发中的研究进展,证明
13、了其具有一定的优越性等等。可以看出,近年来,神经网络在测井、地震、储量等方面得到了广泛的应用。由此看出目前油气柱高度预测技术大多局限于传统的地质方法,很少涉及机器学习和深度学习方面。因此,该文决定使用一维残差收缩网络(One-di鄄mensional Residual Shrinkage Network,1DRSN)进行建模预测,该模型在每次卷积时使用一维的卷积核能够侧重对每一维特征的提取,更符合本实验数据的特性;其次,模型在传统卷积神经网络(Convolutional NeuralNetwork,CNN)的基础上加入了残差块,该模块使用链接跳跃方法来缓解由于深度神经网络深度增加产生的梯度损失
14、和网络退化问题。并通过绕过输入信息直接输出来保护信息完整性;最后,收缩网络模块能够用以提高从高噪声数据中学习特征的能力,并达到较高的预测精度。并对 CNN、一维卷积神经网络(One-di鄄mensional Convolutional Neural Network,1DCNN)和残差网络(Residual Network,ResNet)、一维残差网络(One-dimensional Residual Network,1DResNet)、GoogLeNet、DenseNet、1DRSN 在圈闭数据上的应用进行了比较和分析。综合考虑模型运行效率和准确率,选取最合适的模型。1摇 相关基础1.1摇 残
15、差网络1.1.1摇 ResNet随着网络深度的增加,训练也会变得越来越困难。在训练时可能会有梯度爆炸的现象,这种现象制约了网络深度的增加,在训练快完成时,训练误差也会增加。对此,何凯文学者18提出了残差网络,有效解决了这个难题。残差收缩的主干网络主要是残差网络,因此残差收缩网络也具有残差网络的基本特征,可以有效解决随着网络深度的增加产生的梯度消失和梯度爆炸问题。1.1.2摇 残差块包含以及不包含 1 伊1 卷积层的残差块如图 1所示。ReLU33ReLUx33ReLU33ReLUx3311图 1摇 包含以及不包含 1伊1 卷积层的残差块假设某段网络的输入为 x,期望输出为 H(x)。在残差网络
16、结构中,通过捷径连接直接将输入 x 传到输出作为初始结果,网络学习的将是输入和输出的差值,即残差 H(x)=x+F(x),训练的目的是使残差结果逼近于 0,相比于训练一个等价映射,这样训练的难度要大大降低。1.1.3摇 ResNet18 基本结构文中模型是在 ResNet18 的基础上进行调整建模,ResNet18 模型的组成包括:第一大层包括卷积层、最671摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 计算机技术与发展摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷大池化层、批量归一化层,接着是四个残差块组成的模块,首
17、个残差块保持数据的通道数不变,随后的每个残差块将保持通道数翻倍、高宽减半的特性,最后在残差块后接全局平均池化层、全连接层。1.2摇 残差收缩网络深度 残 差 收 缩 网 络(Deep Residual ShrinkageNetwork,DRSN)本质是 ResNet 上的一种新型改进,然后再将软阈值化作为非线性层加入到 ResNet 的网络结构之中,目的是提高深度学习方法在含噪声数据或复杂数据上的特征学习效果。软阈值化所需要的阈值,本质上是在注意力机制下设置的。1.2.1摇 软阈值软阈值化是许多降噪方法的核心步骤19-20。其主要作用是将绝对值小于某个阈值的属性置零,进而使其他属性也朝零调整,
18、称之为收缩。这里,阈值也是一个必须预先确定的参数,它的值直接影响降噪效果。软阈值化的运算关系如下。y=x-子,x 子0,-子 臆 x 臆 子x+子,x -子(1)其中,x 代表一个输入特性,y 代表一个输出特性,子 代表一个阈值。由公式(1)可知,软阈值化是一种非线性变换,它在某些方面有着与 ReLU 激活函数一致的处理方式:函数变换梯度是 0 或 1。因此,软阈值化可以看作是一种激活函数。实际上,已经有学者将软阈值应用到神经网络中。更重要地,目前的收缩网络中的软阈值是结合了较为流行的注意力机制而自动学习的21。意思是,-阈值,阈值 范围的确定,是可以根据样本自身情况、自动调整的,避免了人工设
19、置阈值的问题,同时能够提升精度。1.2.2摇 残差收缩模块从本质上来看,残差收缩模块是残差块、注意力机制和软阈值函数的集成。注意力机制就是将重点集中于某个局部信息,使模型能更快收敛。具体可以分为两个阶段:一是通过整体扫描寻找局部有用信息;二是加强有用信息,限制冗余信息。SENet 是一种经典的基于注意力机制的算法。它还能够使用一种小型的子网络,通过自动学习得到一个权重,对特征图的所有通道都进行了加权。其意义在于,一些特征通道中的信息对于结果来说是较为重要的,而另一部分特征信息则是冗余的。所以,模型就能够利用这些方法加强有用特征、减少冗余特征。基本的 SENet 模块如图 2 所示。FC ReL
20、UGAPFC SigmoidCWHC11C/r11CCWHCWH图 2摇 SENet 的基本模块一维深度残差缩合网络的基础模块与注意力机制模块非常类似,其中 C、W、H 分别代表输入数据的信道数目(批)、宽度和高度,该模块由一个小的子网来学习一套阈值,再对其进行软阈值处理。在此基础上,增加了恒定路径,减少了建模的困难。既能兼顾模型的时间损耗,又能提高模型的准确性。基础模块如图3 所示。BN ReLU ConV(K=C)BN ReLU ConV(K=C)BNReLUFCFC(M=C)SigmoidCWHCWHCWHC11C11C11C11CWHGAP图 3摇 残差收缩网络的基本模块1.3摇 一维
21、残差收缩网络的预测方法该文利用一维残差网和软阈值相结合的方法,将二者的优点结合起来,既能有效地减少退化信息在网络中的损失,又能把网络资源集中到对油气高度预报771摇 第 9 期摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 杜睿山等:基于深度残差收缩网络的油气柱高度预测更为关键的特点上22。如图 4 所示,展示了一个完整的深度残差收缩网络,由一个输入层,许多基本残差收缩模块和一个全连接层等组成。ConV(/2K=C)BNMaxPoolRSBU-CW(/2K=C)A number ofRSBU-CWsBNReLUGAPFC.ClassificationRSBU-CW(K=C)图 4摇 深度残差收缩网
22、络的整体结构2摇 实例研究2.1摇 数据集构建数据来源于辽河油田校企合作科研项目,筛选出12 个具有代表意义的圈闭,通过对断层进行解释和油藏解剖提取的圈闭结构化特征数据约有 20 万条,然而就目前提取的数据来看存在着一些问题,如:噪声数据(特指:属性间的冗余、因地层位置原因导致的属性对应测量的油气柱高度与实际所能封存的油气柱高度不符等)、不平衡数据等,因此需要先对数据进行处理。2.1.1摇 数据清洗数据清洗是用来测试、修正(或移除)数据集中会对训练结果造成负面影响的异常数据。从广义上说,数据的删除是将不正确的、不完全的、不相关的数据替换、修改或移除。模型准确率主要由数据和模型共同决定,数据清洗
23、的好坏直接影响到最后模型预测的结果。对于本数据出现的异常问题,仅仅占总体数据的很少一部分比例,经过查阅相关文献并与地质专业人士讨论后选择删除数据;对于某些明显无效特征,如出现全是 0,或*,也将删除。2.1.2摇 数据预处理经过数据清洗后剩余有效数据约 17.5 万条,对清洗后的数据进行特征选择来降低属性的冗余度,拟采用 Pearson 相关系数法剔除相关性较高的属性,如图 5所示,再拟用 XGBoost 算法对断层属性进行特征重要性分析,如图 6 所示,最后结合地学专家给出的建议进行属性的选取,选取 Throw、OA 等 10 个权重较高的属性。图 5摇 Pearson 相关系数图 6摇 X
24、GBoost 属性权重对于因地层位置原因导致的属性对应测量的油气柱高度与实际所能封存的油气柱高度不符问题,该文仍采用 Pearson 相关系数法对每条记录进行计算,它可以避免评分等级膨胀(grade inflation)的问题。根据专家经验当相关系数值大于 0.999 时认为其具有相同特征,进而将测量的油气柱高度赋值为相对较高的结果。然而对于数据出现的样本不均衡问题,该文采用三次样条插值的方法,它具有较好的光滑性,更能反映数据的真实情况,插值规则为:记录数量少于 4 则删除(三次样条插值数量低于 4 无法插值),记录数低于2 200条的插值到 2 200 条,插值结果如图 7 所示。最后,由于
25、原始数据的差异较大,为了消除量纲的影响,需要对数据进行归一化处理,该文使用 z-score 标准化。2.1.3摇 数据集划分因为卷积神经网络的输入一般为矩阵形式,因此,需要将归一化后的数据划分适当大小的矩阵,并以871摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 计算机技术与发展摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷7 颐 3比例划分训练集和测试集。80?00070?00060?00050?00040?00030?00020?00010?0000图 7摇 数据插值结果2.2摇 建立预测模型2.2.1摇 实验参数
26、设置数据集构建完成后,建立如图 4 所示的深度残差收缩网络模型,其具体模型结构包括:卷积层、批量归一化层、最大池化层和四个残差收缩网络模块(如图 3所示)以及最后的全局平均池化层、全连接层。网络参数包括可训练的参数和不可训练的超参数,其中可训练的参数一般是各个神经元的权重和偏置,它们是通过模型训练过程中自动学习得到的,而超参数一般是各层卷积核数量、大小、步长,池化层的大小、步长等,这些是通过人为主动设置的,并且需要综合考虑其对网络预测效果及训练时间的影响。经过反复实验对比,最终确定的超参数设置为:模型首个同维卷积特征层的一维卷积层的卷积核数量为 32,核大小为 5伊1,步长为 1,而最大池化层
27、的核大小为 3伊1,步长为1;8 个残差收缩模块的核数量分别为32、32、64、64、128、128、256、256,核大小均为 3伊1,其中跳跃连接层的核大小为 1伊1,步长分别为 2、1、1、1;最后一个特征层中的自适应平均池化层设为 1,全连接层结果设为1。除此之外,文中网络模型是基于 Pytorch 框架实现,算法优化器选择 Adam,学习率、批次、批大小分别设置为 0.000 5、100、128。模型的准确率是由模型本身和数据共同决定的,输入矩阵大小的设定对模型准确率存在一定影响,将经过特征提取后的数据和原数据对比送入模型训练,发现采用特征提取后的数据且大小设定为 30*10,模型将
28、达到比较好的结果。对于训练结果采用双重评价指标,第一是均方根误差(RMSE)作为评价指标:RMSE=1m移mi=1(yi-yi)2(2)其中,y 为油柱高度真实值,y 为模型预测值。第二是模型预测的准确率。模型实验数据是通过对圈闭进行地震勘测得到的地震数据解析后的标准化数据,由于地震勘探方法、设备等的差异,会导致检测到的地震勘探数据精度较低23,因此,实验认为的模型误差小于 10 是正确输出。Res=True(1),y-y 10False(0),y-y逸10(3)ACC=Resn(4)其中,y 为油柱高度真实值,y 为模型预测值。2.2.2摇 模型结构分析为验证文中方法的合理性,将对 ResN
29、et 模型中的每一步改进进行消融性实验,观察不同改进模型的好坏。实验结果如表 1 所示。表 1摇 不同组合方式的 ResNet 模型的预测效果模型RMSEACC/%时间/sResNet6.33382.032.0ResNet+Atten6.32182.635.41DResNet6.33083.414.21DResNet+Atten6.31283.714.7DRSN6.48783.845.51DRSN6.14684.021.2摇 摇 由表 1 可以看出,将 ResNet 的核变成一维后准确率有所提升,同时大大降低了时间的消耗,说明一维的卷积核能够侧重对每一维特征的提取,更符合该实验数据的特性;随着
30、模型中加入注意力机制后,对比1DResNet,在保证时间消耗几乎不变的情况下模型准确率有小幅度提升,验证了注意力机制对重要特征加权的能力;模型再将注意力机制部分改进为残差收缩网络(软阈值),模型变为 DRSN,由实验结果可以看出一维神经网络模型效果更好,最后模型采用更适合该实验数的1DRSN 模型,实验结果表明模型准确率有所提升,且在时间消耗上有明显的改进,验证了该方法的可行性。最终选择 1DRSN 模型进行实验,模型的 RMSE和 Accuracy 如图 8 所示。图 8摇 1DRSN 训练 RMSE-ACC2.3摇 对比实验将文中方法与深度学习中常用的 CNN、1DCDD、971摇 第 9
31、 期摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 杜睿山等:基于深度残差收缩网络的油气柱高度预测GoogLeNet、DenseNet 算 法 进 行 对 比 实 验。CNN、1DCNN 模型采用与1DRSN 算法有相同超参数的模型进行实验,GoogLeNet 的 Inception 块由常见的四条并行卷积层路径组成,四条路径分别为 1伊1ConV 层;1伊1ConV 层、3伊3ConV 层;1伊1ConV 层、5伊5ConV 层;3伊3ConV 层、1 伊 1ConV 层;该 模 型 的 其 余 参 数 均 与1DRSN 算法一致,而 DenseNet 的结构采用除跨层连接上与 ResNet 有
32、区别(使用相加和使用连结)外均相同的模型。实验结果如表 2 所示。表 2摇 对比实验结果模型RMSEACC/%时间/sCNN7.48569.686.91DCNN7.31570.112.2GoogLeNet6.33382.140.8DenseNet6.62380.8142.21DRSN6.14684.021.2摇 摇 表中模型训练结果如图 9、10 所示。图 9摇 对比实验训练 ACC图 10摇 对比实验训练 RMSE由表 2 及 图 9、10 可 以 看 出,CNN、1DCNN、GoogLeNet 和 DenseNet 的准确率分别达到 69.6%、70.1%、82.1%,80.8%,1DRS
33、N 模 型 准 确 率 最 高(84郾 0%),表明文中方法表现出较好的预测效果,虽然文中方法较其他方法结构更复杂,但是时间的消耗也在可接受范围内,满足了预测的要求。但综合图表来看,1DRSN 模型在训练集上能达到相对较高的准确率,但却在测试集的准确率达到最高,说明模型有着比较好的泛化性能。3摇 结束语该文主要分析了1DRSN 模型的原理和构建过程,利用合作项目地区选取的 12 个圈闭提取的近 20 万条结构化数据,通过数据清洗、数据预处理、数据集划分等操作完成数据集的构建;模型在 ResNet18 模型的基础上进行改进,使用控制变量法对模型输入数据矩阵大小、卷积核大小、卷积核数量等进行相对的
34、最优值选取,同 时 使 用 类 似 的 方 法 对 CNN、1DCNN、GoogLeNet、DenseNet 模型进行建模比较,最终建立1DRSN 模型。虽然文中方法较其他方法结构更复杂,但时间的消耗仅略微增加,且泛化性能也较好,满足了预测要求,为预测未知圈闭的油气柱高度提供了一个良好的借鉴。参考文献:1摇 BRETAN P,YIELDING G,JONES H.Using calibrated shalegouge ratio to estimate hydrocarbon column heights J.AAPG Bulletin,2003,87(3):397-413.2摇 FAULKN
35、ER D R,JACKSON C A L,LUNN R J,et al.A re鄄view of recent developments concerning the structure,me鄄chanics and fluid flow properties of fault zonesJ.Journalof Structural Geology,2010,32(11):1557-1575.3摇 YIELDING G,FREEMAN B,NEEDHAM D T.Quantitativefault seal predictionJ.AAPG Bulletin,1997,81(6):897-91
36、7.4摇 吕延防,黄劲松,付摇广,等.砂泥岩薄互层段中断层封闭性的定量研究J.石油学报,2009,30(6):824-829.5摇ROBERTSON J,GOULTY N R,SWARBRICK R E.Over鄄pressure distributions in Palaeogene reservoirs of the UK cen鄄tral north sea and implications for lateral and vertical fluidflowJ.Petroleum Geoscience,2013,19(3):223-236.6摇 MA C,LIN C,DONG C,et
37、 al.Quantitative relationship be鄄tween argillaceous caprock thickness and maximum sealedhydrocarbon column heightJ.Natural Resources Research,2020,29(3):2033-2049.7摇 EDMUNDSON I S,DAVIES R,FRETTE L U,et al.An em鄄pirical approach to estimating hydrocarbon column heightsfor improved predrill volume pr
38、ediction in hydrocarbon ex鄄plorationJ.AAPG Bulletin,2021,105(12):2381-2403.8摇 GRANT N T.Using Monte Carlo models to predict hydro鄄carbon column heights and to illustrate how faults influencebuoyant fluid entrapmentJ.Petroleum Geoscience,2021,27(2):petgeo2019-156.081摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇
39、摇 摇 摇 摇 计算机技术与发展摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 摇 第 33 卷9摇 张鸿妍.高邮凹陷斜坡区断层封闭能力定量评价J.甘肃科学学报,2020,32(2):34-40.10 MUKHERJEE T,BURGETT T,GHANCHI T,et al.Predic鄄ting gas production using machine learning methods:a casestudyM/SEG SAN Antonio,USA technical program ex鄄panded abstracts 2019.SAN Antonio:Socie
40、ty of ExplorationGeophysicists,2019:2248-2252.11 AL GHAITHI A,PRASAD M.Machine learning with artifi鄄cial neural networks for shear log predictions in the Volvefield Norwegian North Sea M/SEG Nanjing technicalprogram expanded abstracts 2020.Nanjing:Society of Explo鄄ration Geophysicists,2020:450-454.1
41、2 DAS V,MUKERJI T.Petrophysical properties predictionfrom prestack seismic data using convolutional neural net鄄worksJ.Geophysics,2020,85(5):N41-N55.13 GLUBOKOVSKIKH S,BAKULIN A,SMITH R,et al.Ma鄄chine learning algorithms for real-time prediction of the son鄄ic logs based on drilling parameters and dow
42、nhole acceler鄄ometersM/SEG Nanjing technical program expanded ab鄄stracts 2020.Nanjing:Society of Exploration Geophysicists,2020:405-409.14 SANG Wenjing,LIU Haojie,JIAO Xinqi,et al.Simultaneousimpedance and gas saturation prediction using multi-task re鄄sidual networksC/SPG/SEG 南京 2020 年国际地球物理会议论文集(英文
43、).Nanjing:Society of Exploration Geo鄄physicists,2020:1031-1034.15 FENG S,ZHANG X,WOHLBERG B,et al.Monitoring andforecasting CO2 storage in the Sleipner area with spatio-temporal CNNsC/SEG Beijing(online)first interna鄄tional meeting for applied geoscience&energy.Beijing:So鄄ciety of Exploration Ge
44、ophysicists,2021:1686-1690.16 秦摇 峰,闫正和,唐圣来,等.基于深度学习的代理模型在实际气藏三维模拟中的应用J.油气地质与采收率,2022,29(1):152-159.17 于红岩,丁帅伟,高彦芳,等.人工智能在提高油气田勘探开发效果中的应用J.西北大学学报:自然科学版,2022,52(6):1086-1099.18 HE K,ZHANG X,REN S,et al.Identity mappings in deepresidual networks C/Computer vision ECCV 2016:14th European conference.Amst
45、erdam:Springer InternationalPublishing,2016:630-645.19 DONOHO D L.De-noising by soft-thresholdingJ.IEEETransactions on Information Theory,1995,41(3):613-627.20 ISOGAWA K,IDA T,SHIODERA T,et al.Deep shrinkageconvolutional neural network for adaptive noise reductionJ.IEEE Signal Processing Letters,201
46、8,25(2):224-228.21 ZHAO X,ZHANG Y.An intelligent diagnosis method ofrolling bearing based on multi-scale residual shrinkage conv鄄olutional neural network J.Measurement Science andTechnology,2022,33(8):085103.22 莫仁鹏,李天梅,司小胜,等.采用残差网络与卷积注意力机制的设备剩余使用寿命预测方法J.西安交通大学学报,2022,56(4):194-202.23 王摇 珲.基于 ZigBee
47、对地震勘探数据精度提高技术的方法研究J.地震工程学报,2020,42(4):907-913蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚蕚.(上接第 174 页)摇摇completion with adaptive sparse transfer matrixC/The30th AAAI conference on artificial intelligence.Phoenix:AAAI,2016:985-991.16 JIA Y,WANG Y,LIN H,et al.Locally adaptive translationfor knowledge
48、 graph embeddingC/The thirtieth AAAIconference on artificial intelligence.Phoenix:AAAI,2016:992-998.17 洪锦堆,陈摇 伟,赵摇 雷.一种结合实体邻居信息的知识表示模型J.小型微型计算机系统,2020,41(8):1596-1601.18 QIAN J,LI G,ATKINSON K,et al.Negative sampling inknowledge representation learning:a MiniReviewC/The10th international conference on advances in computing andinformation technology(ACITY 2020),academy&industryresearch collaboration center(AIRCC).Sydney:s.n.,2020:229-238.19 CAI L,WANG W Y.KBGAN:adversarial learning for knowl鄄edge graph embeddings C/The 2018 conference of theNorth American Chapter of the association for co