我是靠谱客的博主 文艺发箍,最近开发中收集的这篇文章主要介绍神经网络算法的关键参数,神经网络预测时间序列,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

神经网络预测安全系数

首先建立一种较简单的神经网络预测安全系数模型,以验证该方法用于露天井工联合开采煤岩边坡分析时的可行性。

6.4.3.1露天井工联合开采边坡稳定性影响因素确定及其预处理诸多因素影响下的边坡,具有复杂的变形破坏机理和模式。不同类型边坡涉及到的稳定性影响因素也是不同的,不能一概而论。

但是对于某一区域或某一类型边坡而言,其涉及到的影响因素可以认为是类似的,可以认为它们的不稳定性活灾害强度和发展趋势是可类比的。

本节神经网络样本取自海州露天矿的现场实测和分析数据,具有较强的相似性和可比性。按工程地质研究方法,影响因素可分为内因和外因两大因素。

内因主要有边坡岩体的地层、材料特性、地质构造、井工开采的煤层分布等;外因有边坡形态的改造、地下采空区范围、人为活动等。

本节研究中的输入因素:内因取为容重、黏聚力、内摩擦角、采深采厚比、煤层倾角;外因取为边坡高、总边坡角、采空区面积。以极限平衡计算得到的边坡安全系数作为输出参数(参见6.2节分析)。

6.2节中的分析共选取了海州露天矿的12条剖面,选取W7、W3、E5、E7、E13、E19、E23、E25共8各剖面的计算实例作为学习样本,以W5、E1、E10、E174个剖面的计算实例作为预测样本,见表6-7。

表6-7神经网络样本原始数据将原始数据按式。进行归一化处理,使参数均转化为(0,1)的数据。6.4.3.2BP神经网络学习对样本数据进行归一化处理,得到神经网络的学习输入参数,见表6-8。

表6-8神经网络学习样本参数神经网络结构优化如下:本模型中,k=8,n=8,m=1。据式(6-17),取,则要求n1>4;据式(6-18),;据式(6-19),n1≥log2n=3。

可见,n1取值在4~13之间是适宜的,取不同隐层节点数进行网络训练,使系统总误差最小,可得n1=8时训练效果最理想。

样本训练误差E和循环次数t是程序运行时结束的两个结束标准,迭代中以程序结束标准为:E=0,t=10000。据网络结果优化确定:η=0.9,α=0.7,隐含层数c=1,隐层节点数n=8。

对神经网络进行训练,训练总误差E=9.913×10-4。6.4.3.3BP神经网络预测据学习好的神经网络,进行4个样本的神经网络预测。表6-9为预测样本输入参数。

表6-9预测样本输入参数将该表输入训练好的网络,得预测结果及误差见表6-10所示。表6-10神经网络预测结果与实测结果的对照注:δ表示预测值与实测值的相对误差,。

可见,安全系数的预测总平均误差均在20%以内,可以满足要求,从理论上说明了BP神经网络的可用性,可以预测输出目标。

BP神经网络模型各个参数的选取问题

样本变量不需要那么多,因为神经网络的信息存储能力有限,过多的样本会造成一些有用的信息被丢弃AI爱发猫 www.aifamao.com。如果样本数量过多,应增加隐层节点数或隐层数目,才能增强学习能力。

一、隐层数一般认为,增加隐层数可以降低网络误差(也有文献认为不一定能有效降低),提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合”的倾向。

一般来讲应设计神经网络应优先考虑3层网络(即有1个隐层)。一般地,靠增加隐层节点数来获得较低的误差,其训练效果要比增加隐层数更容易实现。

对于没有隐层的神经网络模型,实际上就是一个线性或非线性(取决于输出层采用线性或非线性转换函数型式)回归模型。

因此,一般认为,应将不含隐层的网络模型归入回归分析中,技术已很成熟,没有必要在神经网络理论中再讨论之。

二、隐层节点数在BP网络中,隐层节点数的选择非常重要,它不仅对建立的神经网络模型的性能影响很大,而且是训练时出现“过拟合”的直接原因,但是目前理论上还没有一种科学的和普遍的确定方法。

目前多数文献中提出的确定隐层节点数的计算公式都是针对训练样本任意多的情况,而且多数是针对最不利的情况,一般工程实践中很难满足,不宜采用。事实上,各种计算公式得到的隐层节点数有时相差几倍甚至上百倍。

为尽可能避免训练时出现“过拟合”现象,保证足够高的网络性能和泛化能力,确定隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的隐层节点数。

研究表明,隐层节点数不仅与输入/输出层的节点数有关,更与需解决的问题的复杂程度和转换函数的型式以及样本数据的特性等因素有关。

卷积神经网络能用于参数预测吗

卷积神经网络有以下几种应用可供研究:1、基于卷积网络的形状识别物体的形状是人的视觉系统分析和识别物体的基础,几何形状是物体的本质特征的表现,并具有平移、缩放和旋转不变等特点,所以在模式识别领域,对于形状的分析和识别具有十分重要的意义,而二维图像作为三维图像的特例以及组成部分,因此二维图像的识别是三维图像识别的基础。

2、基于卷积网络的人脸检测卷积神经网络与传统的人脸检测方法不同,它是通过直接作用于输入样本,用样本来训练网络并最终实现检测任务的。

它是非参数型的人脸检测方法,可以省去传统方法中建模、参数估计以及参数检验、重建模型等的一系列复杂过程。本文针对图像中任意大小、位置、姿势、方向、肤色、面部表情和光照条件的人脸。

3、文字识别系统在经典的模式识别中,一般是事先提取特征。提取诸多特征后,要对这些特征进行相关性分析,找到最能代表字符的特征,去掉对分类无关和自相关的特征。

然而,这些特征的提取太过依赖人的经验和主观意识,提取到的特征的不同对分类性能影响很大,甚至提取的特征的顺序也会影响最后的分类性能。同时,图像预处理的好坏也会影响到提取的特征。

神经网络算法原理

4.2.1概述人工神经网络的研究与计算机的研究几乎是同步发展的。

1943年心理学家McCulloch和数学家Pitts合作提出了形式神经元的数学模型,20世纪50年代末,Rosenblatt提出了感知器模型,1982年,Hopfiled引入了能量函数的概念提出了神经网络的一种数学模型,1986年,Rumelhart及LeCun等学者提出了多层感知器的反向传播算法等。

神经网络技术在众多研究者的努力下,理论上日趋完善,算法种类不断增加。目前,有关神经网络的理论研究成果很多,出版了不少有关基础理论的著作,并且现在仍是全球非线性科学研究的热点之一。

神经网络是一种通过模拟人的大脑神经结构去实现人脑智能活动功能的信息处理系统,它具有人脑的基本功能,但又不是人脑的真实写照。它是人脑的一种抽象、简化和模拟模型,故称之为人工神经网络(边肇祺,2000)。

人工神经元是神经网络的节点,是神经网络的最重要组成部分之一。目前,有关神经元的模型种类繁多,最常用最简单的模型是由阈值函数、Sigmoid函数构成的模型(图4-3)。

图4-3人工神经元与两种常见的输出函数神经网络学习及识别方法最初是借鉴人脑神经元的学习识别过程提出的。

输入参数好比神经元接收信号,通过一定的权值(相当于刺激神经兴奋的强度)与神经元相连,这一过程有些类似于多元线性回归,但模拟的非线性特征是通过下一步骤体现的,即通过设定一阈值(神经元兴奋极限)来确定神经元的兴奋模式,经输出运算得到输出结果。

经过大量样本进入网络系统学习训练之后,连接输入信号与神经元之间的权值达到稳定并可最大限度地符合已经经过训练的学习样本。

在被确认网络结构的合理性和学习效果的高精度之后,将待预测样本输入参数代入网络,达到参数预测的目的。

4.2.2反向传播算法(BP法)发展到目前为止,神经网络模型不下十几种,如前馈神经网络、感知器、Hopfiled网络、径向基函数网络、反向传播算法(BP法)等,但在储层参数反演方面,目前比较成熟比较流行的网络类型是误差反向传播神经网络(BP-ANN)。

BP网络是在前馈神经网络的基础上发展起来的,始终有一个输入层(它包含的节点对应于每个输入变量)和一个输出层(它包含的节点对应于每个输出值),以及至少有一个具有任意节点数的隐含层(又称中间层)。

在BP-ANN中,相邻层的节点通过一个任意初始权值全部相连,但同一层内各节点间互不相连。

对于BP-ANN,隐含层和输出层节点的基函数必须是连续的、单调递增的,当输入趋于正或负无穷大时,它应该接近于某一固定值,也就是说,基函数为“S”型(Kosko,1992)。

BP-ANN的训练是一个监督学习过程,涉及两个数据集,即训练数据集和监督数据集。

给网络的输入层提供一组输入信息,使其通过网络而在输出层上产生逼近期望输出的过程,称之为网络的学习,或称对网络进行训练,实现这一步骤的方法则称为学习算法。

BP网络的学习过程包括两个阶段:第一个阶段是正向过程,将输入变量通过输入层经隐层逐层计算各单元的输出值;第二阶段是反向传播过程,由输出误差逐层向前算出隐层各单元的误差,并用此误差修正前层权值。

误差信息通过网络反向传播,遵循误差逐步降低的原则来调整权值,直到达到满意的输出为止。

网络经过学习以后,一组合适的、稳定的权值连接权被固定下来,将待预测样本作为输入层参数,网络经过向前传播便可以得到输出结果,这就是网络的预测。

反向传播算法主要步骤如下:首先选定权系数初始值,然后重复下述过程直至收敛(对各样本依次计算)。

(1)从前向后各层计算各单元Oj储层特征研究与预测(2)对输出层计算δj储层特征研究与预测(3)从后向前计算各隐层δj储层特征研究与预测(4)计算并保存各权值修正量储层特征研究与预测(5)修正权值储层特征研究与预测以上算法是对每个样本作权值修正,也可以对各个样本计算δj后求和,按总误差修正权值。

matlab怎么利用神经网络做预测

高精度储层预测技术

基于高精度采集处理资料,以提高薄层、中深层砂砾岩、浊积岩储层预测精度为目标,开展一系列技术研究,形成并完善渤海湾盆地古近系、新近系隐蔽储层高精度预测描述技术。

(一)高精度古地貌恢复技术古地形地貌是控制盆地内沉积相发育与分布的主导因素之一,基准面旋回变化控制着层序地层单元的结构类型、叠加样式,因此,利用其在基准面旋回中所处的位置与沉积动力学关系等可以对沉积地层进行高分辨率的等时地层对比。

运用高分辨率层序地层学进行沉积前古地貌分析也是建立在等时基准面的基础上的。详细内容见第三章。(二)基于时频分析的储层预测技术1.频谱分解技术谱分解技术的理论基础是薄层反射系统可产生复杂的谐振反射。

谱分解技术使地质研究人员可以用一系列的“频率切片”而不是时间切片或深度切片来观看数据信息,提高薄互层条件下的地震分辨率。

1)振幅对分频效果的影响地震剖面绝对振幅在分频后都有不同程度的变化,当分频频率与地震剖面主频一致时,其振幅达到最大值,随着分频频率与地震主频差异的增大,其分频剖面中的振幅响应也越来越小。

同一厚度不同阻抗反射层的振幅比在分频前后基本不变,其振幅的差异也会影响到对反射层厚度的预测,因此在利用反射层分频数据进行厚度预测时,应该充分注意波阻抗对分频效果的影响。

2)地震主频对谱分解的影响(1)当分频频率对应的调谐厚度大于λ/4时,地震分频剖面中反射层的最大振幅响应对应的分频频率随着地震剖面主频的增高而增大;当分频频率对应的调谐厚度小于λ/4时,地震分频剖面中反射层的最大振幅响应对应的分频频率不会随着地震剖面主频的增高而增大,其中心频率集中在λ/4对应的频率;(2)如果地震资料主频较低,则很难识别薄层,如果地震资料主频较高,则比较容易识别薄层,但对厚层的识别能力较差。

因此,在利用小波变换进行谱分解时,尽量避免对中深层等低频地层进行分频研究。

3)陈家庄陈气10井区应用实例图4-87是过陈气20-16、陈气20-21、陈气20和陈气20-13的连井剖面,气层和厚水层在地震剖面中都表现为亮点,无法辨别。

当分频频率为25Hz时,15.6m水层和5m气层在分频剖面上无法分辨,当分频频率为55Hz时,15.6m水层的反射变弱,气层的反射变强,从而可将水层和气层分开。

厚气层与薄气层的分频剖面的反射强度变化基本一致,只不过其反射强度比薄气层强,因此可以通过分频剖面来识别不同厚度储层及其含油气情况。

2.多子波地震道分解与重构技术1)多子波地震道分解与重构的基本原理(1)多子波地震道分解。

多子波地震道分解的基础是地震剖面上的同相轴都是由多个不同振幅和频率的子波叠加构成的,换句话说,通过一定的方法可以把地震剖面上的同相轴分解成几个强度、频率和相位不同的子波,这些子波的形状与界面上下的地层岩性、岩石物性、流体性质等有关,因此当这些原始的地质和地球物理参数在空间上变化时,则子波在振幅、频率和相位上就会发生不同程度的改变。

(2)储层地震道重构分析。地震道分解后,可以对子波进行筛选,重新构建出新的地震道(图4-88)。

在重构中可根据已知钻井的储层和油气层资料,选取与储层变化或油气变化相关的子波,舍弃那些与储层变化和分布没有直接关系的子波,重新合成新的地震数据体。

新合成的地震数据体将最大限度地反映储层的横向变化,为储层及其含油气性的横向预测提供有效依据。

图4-87不同分频剖面对比图4-88分解后的子波进行筛选和重构2)基于连续小波变换的子波分解与重构方法研究成熟探区油气精细勘探理论与实践其中,。

式(4-21)给出了利用信号的连续小波变换重构原信号的公式,在此基础上利用Riesz基的概念,解决了根据信号f的小波变换Wψf(a,b)在时间与频率参数离散化的情况下精确重建原信号的问题。

通过对比分析认为,Morlet小波具有较好的模拟地震子波的能力,因此利用连续小波变换算法,可将地震信号分解为一系列不同频率的Morlet子波,实现信号的多子波分解与重构。

对于一维信号,它能够消除与储层无关的子波,保留有效子波,经过小波重构,可以恢复有效信号。3)应用实例图4-89是过大17井的连井地震剖面,从剖面中可以看到沙二段3砂组的反射很弱,断断续续,不利于解释。

为了突出弱反射轴,对它进行子波分解,分析对比之后,筛选出15~22Hz的子波进行地震剖面重构(图4-90)。重构后的地震剖面与原始地震剖面相比,3砂组弱反射得到加强,有利于进一步的储层描述。

图4-89大17井地震剖面图4-90大17井连井剖面的15~22Hz重构剖面(三)地震属性综合处理技术地震属性是目前常用的储层预测技术之一,地震属性综合处理的方法很多,如综合参数方法、判别分析方法、神经网络方法、模式识别方法等。

这些方法根据井点提供的油气信息或岩性、储层性质等定性特征,对这些信息进行描述和归类,然后对全区进行储层横向预测。

1.地震属性处理1)综合参数法综合参数分析方法可以作为无标准样本学习的一种模式识别方法使用。

用于地震属性参数综合处理的主要实现步骤有:①提取地震属性参数,并形成最佳地震属性参数矩阵;②考虑到各个参数具有不同的物理意义和量纲,在计算协方差矩阵之前,应对各参数作归一化处理,可用均方根值作为归一化因子,计算归一化后的地震属性参数的自相关矩阵;③求解本征方程组,取最大本征值所对应的本征向量就是所求的加权因子;④进行处理得到综合参数;⑤作出统计判定。

图4-91至图4-94是综合参数分析方法对背斜模型的应用例子。

根据聚类分析结果,分别选取属性2,31,24,33(功率谱上50%对应的频率、有效段带宽频率、整波形能量、均方根振幅之比)的组合、属性32,10,25,34(全谱带宽频率、自相关函数极小值与主极值之比、波形正半周面积、均方根振幅之比)组合和属性5,16,23,36(振幅谱主频、L2模、整波形面积、主频之比)组合进行综合处理。

比较不同属性组合的综合处理结果,可以看出它们变化趋势相似,这说明在进行地震属性综合处理时,在反映储层特征的同类地震属性中选取最能反映储层特征变化的一个地震属性即可。

图4-91背斜模型正演记录图4-92属性组合(2,31,24,33)综合处理结果图4-93属性组合(32,10,25,34)综合处理结果图4-94属性组合(5,16,23,36)综合处理结果对比模型正演剖面和综合处理结果可以看出,在综合处理的结果图上,在横向上可以清楚地划分出油气边界和油水边界,说明上述方法优选出的地震属性用于储层横向预测和烃类检测是有效的。

2)神经网络方法及应用条件地震储层横向预测方法都有其应用条件,神经网络进行储层横向预测的条件是:①地震资料的质量要高。

研究认为,当地震资料的信噪比大于2时,才可以利用地震属性研究地质问题(储层参数、含油气性等),当信噪比大于4时,所提取的地震属性最稳定,所得结果可靠性较高。②样本质量要高且具有差异性。

应用人工神经网络进行储层横向预测,要求待预测的输入信息中应该包含两类确定样本,一类是目的层含油气的先验信息,另一类是目的层不含油气的先验信息,而且两类先验信息的空间分布尽量均匀。

在成熟探区容易满足要求,但在新探区,则难以满足。③高质量或有效的特征参数。作为神经网络输入部分的特征参数是储层横向预测所利用的信息,其质量的高低或有效性直接关系到预测效果的好坏。

需要在储层横向预测前进行地震属性优化处理。所谓有效的特征参数,是指选出的特征参数必须与预测储层目标关系密切,且选出的地震特征参数(地震属性)彼此间不相关,即没有重复的地震信息。④围岩岩性分布基本稳定。

由于地震特征参数与储层段的岩性有关,因此,岩相基本稳定是利用神经网络进行储层预测的又一个前提条件。只有这样,地震特征参数的变化才可以认为是由储层及所含流体的变化引起的。

2.地震属性优选在进行地震属性参数的优选之前,首先要进行地震属性的标准化处理,然后再进行相关分析,据此确定属性间相互关系。

1)地震属性标准化地震属性标准化方法包括总和标准化、最大值标准化、模标准化、中心标准化、标准差标准化、极差标准化和极差正规化等。

针对地震属性参数的特点,常采用极差正规化标准对地震属性数据进行归一化处理,变换后的每个变量观测值都在0~1之间。

2)相关性定性分析由于提取的众多地震属性之间并不是相互独立的,所反映的信息可能是类似的,因此在利用地震属性进行储层参数、油气预测之前,应该先分析地震属性之间的相关性,找出能够反映具体预测目标本质特征的、相互间独立的地震属性。

通常在所提取的各个地震属性之间作交汇图,从中可以定性地了解到不同属性之间的相互关系。3)地震属性的优化方法地震属性优化不仅是模式识别的关键步骤之一,对提高储层预测精度也具有重要意义。

通常,在不同地区、不同层位,对所预测对象敏感的地震属性是不完全相同的;即使在同一地区、同一层位,也有差异。地震属性的优化分析方法很多,大体上分为地震属性降维映射与地震属性选择两大类。

地震属性降维映射就是从大量地震属性出发,构造少数有效的主成分分量,常用方法是K-L变换。地震属性选取包括专家优化、自动优选以及两者相结合的混合优化方法。

专家优化是由专家凭经验选择与预测目标关系比较密切的地震属性组合;自动优选方法主要是使用各种数学方法使得预测误差最小,包括地震属性比较法、顺序前进法、顺序后退法、遗传算法以及RS理论决策分析方法等;混合优化则结合专家知识经验,减少自动优化的计算量,常使用专家优化与最优搜索算法相结合进行属性优化。

(四)层序约束的储层预测技术1.地震数据倾角导向中值滤波处理地震数据体中包含了噪声,为了消除噪声,对地震数据进行倾角导向中值滤波处理。

倾角导向中值滤波处理器是一个边缘保持滤波器,它按照地震同相轴的构造方向将输入地震道集中到一个圆盘内,圆盘中心的振幅值用圆盘内所有振幅值的中值代替,这里圆盘并非平的,而是按照局部倾角-方位角场发生,因此倾角导向的中值滤波也成为构造导向滤波。

从图4-95可以看出,经过中值滤波处理后的剖面品质有了很大改善。

图4-95过丰深1井的原始地震剖面和处理后的倾角体剖面2.应用数据驱动方式进行小层对比与追踪由于沉积体内部结构的地震反射通常较弱,同相轴连续性差,而且形态上与沉积相类型密切相关,应用常规的人工地震解释难度非常大。

为此,提出了数据驱动的方式进行小层的对比与追踪,即追踪时除考虑地震振幅、同相轴连续性外,还应用了每个采样点都带有倾角、方位角信息的Steering数据体对地震数据加以控制(图4-96),然后根据局部地层倾角、方位角信息进行搜寻反射能量最大值,寻找到下一个控制点,如此类推,追踪出沉积体内部结构的控制小层。

图4-96steering数据体控制下的数据驱动追踪方式与一般追踪方法对比3.Wheeler域自动变换技术PeterVail在文献中提到,“只有把层序地层解释作Wheeler转换后才能真正理解其含义”。

在层序地层及地震层序解释中引入Wheeler变换,可以有如下5方面的功能:(1)揭示沉积组合间空间关系;(2)突出缺失和叠加模式;(3)使体系域解释成为可能;(4)使在年代地层域中提取时间切片成为可能;(5)对沉积、侵蚀和沉积时间有更深刻的理解。

层序地层解释系统在沉积体内部结构小层全三维追踪结果的基础上,通过对每一小层拉平自动将时深域追踪结果转换为Wheeler域,获得相对等时的沉积旋回韵律体剖面,实现了由地震剖面向地质剖面的转换。

在沉积旋回韵律体(Wheeler域)上结合地震剖面小层追踪结果,利用可视化三维显示,能够较容易识别和划分出层序界面、正反旋回、体系域等,从而进一步精细划分出砂砾岩体内幕沉积的期次。

4.期次划分实例在沉积旋回韵律体(Wheeler域)上结合地震剖面上小层追踪的结果(图4-97),在大尺度期次划分的基础上,对东营北带的砂砾岩体进行了精细的期次划分。

沙四上在盐家—胜北地区砂砾岩发育特点是纵向上厚度大、泥岩隔层少,为多期扇体叠置。每期砂砾岩体是自下而上由粗变细的旋回,顶部有少量泥岩,可划为5个中期正旋回,构成完整的长期正旋回。

沙三下靠近断剥面砂砾岩发育,砂砾岩延伸距离近,砂砾岩整体为向上变细的正旋回,中期旋回性不明显。因此将本段地层旋回特征分为9个期次。

图4-97沉积体内部结构小层自动追踪结果及Wheeler域转换通过以上分析,认为:①地震数据倾角导向中值滤波处理技术能有效地提高地震资料分辨率。

②数据驱动控制下的小层自动追踪与对比及Wheeler域自动转换技术可用于断陷盆地陡坡带大套砂砾岩扇体内部沉积旋回期次的精细划分,实现砂砾岩扇体内等时地层对比,进而精细预测有效储层的分布。

怎样用人工神经网络法预测二维色谱柱效 ?如题 谢谢了

摘要二维柱色谱系统是近年来迅速发展的新型色谱方法,柱效与主要影响因素的关系难以用传统方法建立定量模型。

本文采用基于变步长BP算法的人工神经网络,对高效微填充柱──毛细管柱构成的二维柱色谱系统建立了柱效与影响因素的权接拓朴模型,并用于柱效预测和操作条件优化中,取得了较好的效果。

1、前言现代气相色谱已广泛采用了毛细管柱,毛细管柱的分离效能高但柱容量低,直接进样极易造成进样过量,柱管也易被样品中的高沸点组分玷污。

因此,比较理想的方法是在毛细和柱前串接一支短填充柱,构成二维柱色谱系统。

由于二维柱色谱便于实现中心切割、溶剂切割、反吹等切换操作,有利于痕量杂质的测定、有利于保护主柱,并且可简化样品的预处理过程,故近年来这种新型的色谱方法发展十分迅速。

自八十年代起,中科院大连化物所国家色谱研究分析中心对二维柱色谱进行了大量研究工作,卢佩章院士开创性地提出了微填充柱──毛细管柱直接连接的新型系统。

根据这一思想,国振双等以美国PE公司SIGMAI气相色谱仪为基础,在原汽化室中安装了自行研制的高效微填充预柱与石英毛细管柱直接相连接,将一维柱色谱改装为二维柱色谱系统。

并以正构烷烃为样品建立了双柱系统的柱效评价实验方法,指出二维柱色谱系统的柱效主要由预柱柱温、主柱柱温、预柱间压差、预柱与主柱间的放空量所决定,但未建立柱效与因素之间的数学关系。

实际上,这种关系较为复杂,并不能找到一个简单的函数式来表示,如果用传统的建模方法来研究,通常难以奏效。

人工神经网络(ArtificialNeuralNetwork,简称ANN)是近年来迅速发展的研究热点,在生物科学、自动控制、化学工程等领域取得了很大的应用进展。

它是一种新型的黑箱方法,不需要了解输入输出之间的相互关系,其自学习功能能够“记忆”样本所含的信息,网络只是根据训练样本的数据来自动寻找相互关系,给所研究的系统以具体的数学表达,从而使系统的定量化优化和预测成为可能;并且由于其并行计算的性质,计算量不会因为维数增加而发生指数“爆炸”。

在研究系统内复杂关系的建模问题上,人工神经网络显示出其独特的优越性。

2、变步长BP算法人工神经网络我们采用的目前应用比较成熟且应用最广泛的三层BP神经网络模型,它能将样本的输入输出问题转化为一个非线性的优化问题,是从大量实验数据中总结规律的有力手段。

BP网络是由输入层、输出层和隐层所组成的前向连接模型,同层各节点互不连接,相邻层的节点通过权连接。输入层各点的输入信号经权重耦合到隐层的各点,由作用函数f(x)转换后再耦合到输出层的各点。

将输出信号与学习样本的目标数值进行比较,两者之间的误差利用“反传算法(BackpropagationLearningAlgorithm)”沿原连接通道返回,通过修改各层节点的连接权重,使误差达到最小。

权重修改公式为:式中:W为权重;t为训练次数;h和α分别为学习步长和记忆常数。

当所有样本输出值与目标期望值的之间的均方差RMS值满足要求时,停止迭代,网络训练完毕,各节点的连接权值就固定下来,同时也就得到了所研究对象的输入输出之间的拓朴关系,即建立了两者之间的数学定量关系。

利用训练好的网络即可方便地进行新样本的预测。

由于经典的BP算法存在着收敛速度慢、有局部最小问题等缺点,人们对其提出了一些改进方法,如添加惯性冲量、批处理学习样本、跳跃学习以及动态调整学习步长和记忆常数等。

我们所采用的是变步长BP算法,主要改进之处在于:(1)引入动态步长技术:根据样本的训练情况动态地增大或减小学习步长h。

在样本学习过程中,当RMS减小时自动增大h值(乘以一个大于1的常数因子a);而当RMS增大时自动减小h值(乘以一个小于1的常数因子b)。

在一般情况下,常数a和b值的选取应使得(1-b)的值比(a-1)略大一些。

(2)加入偏置以稳定网络;3、样本及网络模型参数的选取3.1训练样本集及预测集的组织实验数据组成训练样本集与预测集。其中训练样本数为22个,预测集样本数为3个。

以预柱柱温、主柱柱温、预柱间压差、预柱与主柱间的放空量四个因素为输入向量,作为衡量柱效指标的二维柱色谱系统有效塔板数N为输出向量(教师信号)。

3.2变步长BP网络参数我们所采用的网络为带一个配置节点的4-6-1体系;学习步长h初值为0.2,记忆常数α为0.5;步长调整因子a取1.02,b取0.96;传递作用函数f(x)取Sigmoid函数,即:表1变步长BP神经网络训练样本及预测样本序号类别输入向量输出向量预柱柱温(℃)主柱柱温(℃)预柱间压差(kPa)柱间放空量(mL/s)塔板数N1训练样本1406084951.1呵呵1.73140100122104.7416060102138.55160801241108.76160100832482.8718060123838.681808082726.5918010010412064.910180120103.315809.11112012033.3161621212012053.3152841312012073.3109781412012093.31049815120120113.31315016120120133.375621712012083.393491812012082.528961912012082.06482012012081.52892112012081.01082212012080.57523预测样本18010010513707.724180100103.313931.225180120103.315809.1由于研究的样本中最大最小值相差较大,而Sigmoid函数要求输入值范围在-2~+2之间、输出值范围在0~1之间,这样才能保证网络对样本具有足够的敏感性和良好的拟合性。

样本训练开始前,先用对数标准化方法将输入向量归一化至-2~+2之间、输出向量归一化至0~+1之间,对数标准化的方程为(设向量为V0,标准化合的向量为V):(A和B的值由程序根据归一化目标自动求算)采用随机数矩阵进行权值矩阵的初始化,设置随机数生成器的最大最小输出为-3和+3。

值得注意的是,这里目标误差的设置是对于已标准化的数据而言的,在标准化数据还原时可能会导致误差的放大。

4、人工神经网络的训练和预测4.1变步长BP网络的训练设置网络的目标误差为0.05(这是通常情况所采用的值),利用VisualBasic编写的程序进行样本的训练,运行平台为Windows95,机型为Pentium166、16M内存。

经过约230秒的迭代运算,RMS值小于目标误差(注意此时是对已标准化的数据而言),网络训练完毕程序输出各种结果参数。此时对于每一样本,网络的输出值对目标值(实验值)的误差都基本小于目标误差0.05。

这样,我们就建立了二维柱色谱柱效与其四个影响因素之间的BP神经网络模型,这个模型是一个定量化了的拓朴权接模型,为进一步预测和优化提供了数学依据。

4.2利用BP神经网络进行柱效预测从数据可以看出,在进行不同因素条件下的柱效预测时,标准化向量的误差均小于网络训练的目标误差0.05;这说明神经网络较好地记忆了所学习样本中蕴藏的信息,训练完毕的网络较好地反映了二维柱色谱柱效(以有效塔板数来表示)与四个主要影响因素之间的定量关系。

另一方面,正如前面第2节所述,在对标准化(归一化)向量作还原时,可能会导致误差的放大,这也正是24号样本相对误差会达20%的原因,对实际的微填充柱──毛细管柱二维色谱系统,由于其本身的柱效很高,这样的误差还是可以接受的。

而且,这种误差应该还含有实验本身误差的因素在内。实际上,预测集中的样本是取自在前期实验基础上进一步寻优实验的数据。

根据小区间的进一步寻优试验,根据所得的有效塔板数的多少确定了实验所用的二维柱色谱系统其最佳操作条件为25号样本对应的操作条件:预柱温180℃、主柱温为120℃,预柱前压为10kPa,预柱和主柱间的放空量为3.3mL/s。

如果我们依据BP神经网络的预测结果,同样可以发现,25号样本的目标输出最大,其对应的操作条件应为最佳操作条件,两者结果完全一致。

5、结论(1)BP算法人工神经网络具有自组织、自学习和自适应能力,具有模拟多种函数的能力,包括非线性函数和分段函数等。

在用于预测二维柱色谱系统的柱效时,BP网络对样本元素间的复杂关系用权接拓朴结构进行了较好的摸拟,训练好的网络在预测不同条件下二维柱色谱系统的有效塔板数、优化二维柱色谱系统操作条件时,结果基本与实验值一致,预测精度较高,证明了方法的可行性。

(2)针对经典BP网络收敛速度慢、有局部最小问题的缺点,引入了变步长技术。实践证明这种根据样本学习情况动态地改变学习步长的方法有效地改善了收敛特性和速度。

(3)BP网络的样本组织,并不需要满足某种特定的条件。例如散布于文献中的数据资料、不够系统性的有残缺性的数据等只要准确可靠,都可以作为训练的样本。

(4)当然,BP网络的应用必须基于一定数量准确可靠的输入输出数据对组成的训练样本。

这就是说,BP算法作为一种有导师学习算法,适合于应用在有数据资料积累但不易用一般数学方法分析得到定量关系的场合,而不适合于资料严重缺乏的场合。详情请参考国家标准物质网。

 

最后

以上就是文艺发箍为你收集整理的神经网络算法的关键参数,神经网络预测时间序列的全部内容,希望文章能够帮你解决神经网络算法的关键参数,神经网络预测时间序列所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(55)

评论列表共有 0 条评论

立即
投稿
返回
顶部