科学出版社旗舰店店铺主页二维码
科学出版社旗舰店 微信认证
科学出版社秉承多年来形成的“高层次、高水平、高质量”和“严肃、严密、严格”的优良传统与作风,始终坚持为科技创新服务、为传播与普及科学知识服务、为科学家和广大读者服务的宗旨。
微信扫描二维码,访问我们的微信店铺
你可以使用微信联系我们,随时随地的购物、客服咨询、查询订单和物流...

时滞递归神经网络的状态估计理论与应用

77.40
运费: ¥ 0.00-18.00
时滞递归神经网络的状态估计理论与应用 商品图0
时滞递归神经网络的状态估计理论与应用 商品图1
时滞递归神经网络的状态估计理论与应用 商品图2
时滞递归神经网络的状态估计理论与应用 商品图3
时滞递归神经网络的状态估计理论与应用 商品缩略图0 时滞递归神经网络的状态估计理论与应用 商品缩略图1 时滞递归神经网络的状态估计理论与应用 商品缩略图2 时滞递归神经网络的状态估计理论与应用 商品缩略图3

商品详情

书名:时滞递归神经网络的状态估计理论与应用
定价:98.0
ISBN:9787030418913
作者:黄鹤
版次:1
出版时间:2014-09

内容提要:
本书系统地介绍了时滞递归神经网络的状态估计理论以及在反馈控制中的应用。全书分为四部分。其中,**部分为第2-6章,主要介绍时滞局部场神经网络的状态估计。第二部分为第7-10章,主要阐述时滞静态神经网络的状态估计。第三部分为第11-12章,分析带马尔可夫跳跃参数的时滞递归神经网络的状态估计。第四部分为第13章,讨论时滞递归神经网络的状态估计理论在反馈控制方面的应用。

目录:
目录
前言
第1章 引言 1
1.1神经网络的研究进展 1
1.2 递归神经网络的分类 3
1.3 递归神经网络的动力学行为 5
1.3.1 Lyapunov稳定性理论简介 5
1.3.2 时滞线性系统的稳定性 6
1.3.3 时带递归神经网络的稳定性 8
1.4 研究现状和全书主要内容概述 9
1.5 几个常用的引理 12
**部分 时滞局部场神经网络的状态估计
第2章 时滞局部场神经网络的状态估计(Ⅰ):基于自由权矩阵的方法 15
2.1 问题的描述 16
2.2 时滞局部场神经网络的状态估计器设计 32
2.3 仿真示例 24
2.4 本章小结 27
第3章 时滞局部场神经网络的状态估计(Ⅱ):基于改进的时滞划分方法 28
3.1 问题的描述 29
3.2 改进的时滞划分方法的基本思想 31
3.3 基于改进时滞划分方法的状态估计器设计 32
3.4 数值结果与比较 39
3.5 本章小结 40
第4章 时滞局部场神经网络的状态估计(Ⅲ):基于松弛参数的方法 41
4.1 问题的描述 42
4.2 基于松弛参数的状态估计器设计 44
4.3 在时滞混沌神经网络中的应用 49
4.4本章小结 51
第5章 具有参数不确定性的时滞局部场神经网络的鲁棒状态估计 52
5.1 问题的描述 53
5.2 鲁棒状态估计棒的设计 56
5.3 不带参数不确定性的时滞局部场神经网络的状态估计 62
5.4 仿真示例 64
5.5 本章小结 69
第6章 时滞局部场神经网络的保性能状态估计 70
6.1 问题的描述 71
6.2 依赖于时滞的保H性能的状态估计器的设计 73
6.3 依赖于时滞的保广义H2性能的状态估计器的设计 80
6.4 两个示例 83
6.5 讨论与比较 91
6.6 本章小结 94
第二部分 时滞静态神经网络的状态估计
第7章 时滞静态神经网络的状态估计(Ⅰ):依赖于时滞的设计方法 99
7.1 问题的描述 100
7.2 状态估计器的设计 102
7.3 时滞静态神经网络的稳定性分析 109
7.4 仿真示例 113
7.5 本章小结 117
第8章 时滞静态神经网络的状态估计(Ⅱ)保性能状态估计的初步结果 119
8.1 问题的描述 119
8.2 时滞静态神经网络的保H∞性能的状态估计 121
8.2.1 不依赖于时滞的保H∞性能的状态估计 121
8.2.2 依赖于时滞的保H∞性能的状态估计 125
8.3 保广义乌性能的状态估计器设计 133
8.3.1 不依赖于时滞的保广义H2性能的状态估计 133
8.3.2 依赖于时滞的保广义品性能的状态估计 136
8.4仿真示例 139
8.5 本章小结 143
第9章 时滞静态神经网络的状态估计(Ⅲ):基于二阶积分不等式的保性能状态估计 145
9.1 问题的描述 146
9.2 基于二阶积分不等式的保H∞性能的状态估计 149
9.2.1 依赖于时滞的保H∞性能的设计准则 149
9.2.2 仿真示例 155
9.3 基于二阶积分不等式的保广义H2性能的状态估计 156
9.3.1 依赖于时滞的保广义H2性能的设计准则 156
9.3.2 仿真示例 163
9.4 本章小结 164
第10章 时滞静态神经网络的状态估计(Ⅳ):Arcak型状态估计器设计 166
10.1 问题的描述 167
10.2 保广义乌性能的状态估计 170
10.3 示例与数值比较 175
10.4本章小结 176
第三部分 带马尔可夫跳跃参数的时滞递归神经网络的状态估计
第11章 依赖于系统模态的带马尔可夫跳跃参数和混合时滞的递归神经网络的状态估计 181
11.1 问题的描述 183
11.2 依赖于系统模态的状态估计器设计 186
11.3 讨论与比较 193
11.4 具有复杂动力学行为的马尔可夫跳跃神经网络的状态估计 199
11.5 本章小结
第12章 带马尔可夫跳跃参数的时滞递归神经网络的滤波器设计 207
12.1 问题的描述 207
12.2 H∞滤波器的设计 209
12.3 L2-L∞滤波器的设计 213
12.4仿真示例 219
12.5 本章小结 220
第四部分 时滞递归神经网络的状态估计理论在反馈控制方面的应用
第13章 基于状态估计理论的时滞递归神经网络的指数镇定 223
13.1 问题的描述 224
13.2 基于状态估计的反馈控制 226
13.3 仿真示例 231
13.4本章小结 234
参考文献 235
本书常用的数学符号 252

在线试读:
第1章 引言
  所谓的人工神经网络(artificial neural network,以下简称为神经网络)是模拟生物神经系统的工作方式而设计实现的,由大量神经元(neuron,有时也称为计算单元)相互连接所构成的,具有通过学习获取知识并解决问题的功能的一种计算模型。因此,神经网络在用于解决实际问题之前必须得到充分的学习。学习的方式主要有三类:无监督学习(unsupervised learning)、有监督学习(supervised learning)和强化学习(reinforcement learning)。
  神经网络模型的三个基本要素为:连接权值(connection weight)、求和单元以及激励函数(activation function),其中,连接权值可用于存储学习到的知识,神经元的偏置(bias)也可以当作权值来理解,只是此时对应的输入恒为1,求和单元用于计算神经元输入信号的加权和z激励函数可以将神经元的输出限定在某个给定的范围内。比如,常用的S型函数和就可以分别将神经元的输出限制在(0,1)和(-1,1)这两个区间内。
  1.1 神经网络的研究进展
  20世纪40年代W. McCullon和W. PittB提出M-P神经元模型以及D. Hebb提出**个神经元学习规则(即Hebb规则)以来,神经网络理论得到了极大的发展。但是,其发展过程并不是一帆风顺的。事实上,神经网络理论的发展既经历过高潮时期,也有低谷阶段,可谓一波三折,在研究的初始阶段,由于受当时科学技术和认知水平的影响,人们没有完全掌握神经网络所具有的强大的计算与信息处理能力,甚至认为神经网络连一些简单的非线性可分问题都无法解决,从而使得神经网络的理论研究停滞不前。我们不妨来看一个简单的例子,在逻辑学中,异或问题(XOR)是一种简单的二值逻辑运算,通常记为AEDB,其运算规则为=当两个变量的取值相同时,逻辑函数值为0,当两个变量的取值不同时,逻辑函数值为1,异或问题的真值表如表1.1所示。对于这样简单的一个非线性可分问题,我们都没法用单层前向神经网络(Bingle-layer feedforward neural network)进行求解。虽然多层前向神经网络(multi-layer feedforward neural network)可以非常容易地解决这一问题,但是当时缺乏有效的权值调整的学习算法。这就使得人们悲观地相信神经网络理论不会有好的发展前景,从而直接导致了神经网络的研究在短暂的兴起后很快就跌入了低谷。
  表1.1异或问题的真值表
  值得庆幸的是,在这一时期,仍然有不少科学家还坚持着对神经网络的理论研究。直到20世纪七八十年代,随着Hopfield神经网络模型和一些著名的多层前向神经网络的学习算法的提出,人们对神经网络的研究兴趣才再次兴起。也正是在这个时候,递归神经网络模型(recurrent neural network)才被建立起来。在此之前,人们更多的是注重于前向神经网络(feedforward neural network)的研究与应用。在前向神经网络中,信号从输入层神经元经过隐层神经元传输到输出层神经元,没有信息可以反馈回来作为输入层神经元的输入。著名的前向神经网络模型有单层感知器(single-layer perceptron)、多层感知器(multi-layer perceptron)、径向基函数网络(radial basis function network)、自组织特征映射(self-organizing feature mapping)以及Boltzmann(玻尔兹曼)机等。与此同时,提出了很多非常著名的适用于前向神经网络训练的学习算法。比较有代表性的算法有误差后向传播算法(error back-propagation algorithm。简称BP算法)、Widrow-Hoff学习规则、正交*小二乘算法(orthogonal least squares algorithm)和内插值算法(interpolation algorithm)等。随着研究的不断深入,目前也有许多智能算法被成功地应用于训练各种前向神经网络,如遗传算法(genetic algorithm)、免疫算法(immune algorithm)、蚁群算法(ant colony algorithm)、模拟退火算法(simulated annealing algorithm)以及粒子群算法(particle swarm algorithm)等。当然,前向神经网络模型的结构也越来越复杂。比如,一个前向神经网络可以由多个子神经网络组成,即其中的一些计算单元本身就是一个神经网络。己经知道,前向神经网络模型具有很多的优点。在此,我们简单列举几点。
  (1)并行处理与分布式存储。和传统计算机的按地址存储方式不同,神经网络是将学习获得的知识存储在一些重要的参数中,如神经元的连接权值。因此,学习的目的就是按照某种方式不断地调整神经元之间的权值,直到算法停止条件满足为止。算法停止的条件可以是目标函数小于某一事先给定的阙值,或者选代达到*大的训练次数等。
  (2)函数逼近能力。已经在理论上严格证明,只要隐层神经元的个数足够多,多层前向神经网络可以以任意精度逼近一个定义在紧集上的连续函数。这样,前向神经网络模型就可以作为一个通用的函数逼近器。因此可广泛用于对未知系统进行建模。但是,不足之处是,这个结论没有告诉人们在设计多层神经网络时如何选择合适的隐层神经元个数。
  (3)非线性映射。由于神经元之间复杂的连接以及神经元的激励函数常常都具有非线性性,所以神经网络本身具有很强的非线性处理能力。事实上,神经网络可以理解为一个从输入空间到输出空间的非线性映射。
  (4)鲁棒性和容错性。通常,神经网络模型都是由大量的神经元经过高度互连所组成的,所以局部神经元的损坏并不会严重影响神经网络本身的正常运行。
  (5)自适应性。神经网络可以通过自身的调整适应外界环境的变化。
  (6)学习和联想能力。一个神经网络只有经过充分的学习后才能用于解决实际的问题。
  和前向神经网络不同的是,递归神经网络模型中存在反馈。也就是说,一个神经元的输出信号可以反馈回来作为其他神经元(甚至是自身)的输入。所以,在递归神经网络中,神经元的输入信号可以有两部分=一部分是外部输入(或者外界的刺激);另一部分是反馈回来的其他神经元的输出信号。我们所熟悉的Hopfield神经网络的神经元的输入就是这样的。从而,递归神经网络可以用动态方程来描述。一般,离散时间的递归神经网络用差分方程(difference equation)表示,连续时间的递归神经网络用微分方程(differential equation)表示。这类神经网络除了具有前向神经网络的优点之外,还具有一些特殊的优点,比如:
  (1)具有丰富的动力学行为。我们讲过,递归神经网络可以用一个动态方程来刻画。因此,在计算的过程中,模型本身会不断地演化以致于产生复杂的动力学行为,甚至混沌现象。
  (2)易于硬件实现和模拟仿真。递归神经网络可以很容易地用大规模集成电路(very large scale integration,VLSI)来实现。过去,人们对神经网络的硬件实现做了大量的研究工作,详见文献。当然,在硬件实现时需要一定的成本,因此,为了节约成本或者在条件不成熟时,人们可以利用软件对递归神经网络的溃化过程进行模拟。
  (3)便于理论分析。人们可以借助于已有的数学、物理和信息等领域的知识对递归神经网络进行理论分析。比如,J. J. Hopfield*早通过定义能量函数和运用著名的Lyapunov(李雅普诺夫)稳定性理论分析了Hopfield神经网络的稳定性。这样,在解决实际问题时,就可以将问题的解与递归神经网络的稳定的平衡点(equilibrium point)对应起来。
  由于以上的诸多优点,递归神经网络理论在近30年来得到了飞速的发展,在各种领域取得了非常成功的应用。这些领域包括自适应控制、航天航空、电子科学与技术、机械工程、金融、地质勘探、组合优化、生物医学工程、海洋工程以及制造工程等。
  1.2 递归神经网络的分类
  迄今为止,人们己经成功地建立了许多不同的递归神经网络模型。这些模型在网络结构、性能与应用等方面都有各自的特点。我们熟知的递归神经网络模型有可加神经网络(additive neural network)、Cohen-Grossberg神经网络、Hopfield神经网络、细胞神经网络(cellular neura l network)、双向联想记忆神经网络(bidirectional associative memory neural network)、盒中脑模型(brain-in-a-box model)以及投影神经网络(projection neural network)等。
  根据建模时所采用的基本变量的不同,递归神经网络可以分为两大类。
  一类是以神经元的局部场状态为基本变量而建立的局部场神经网络模型(local field neural network)。由n个神经元组成的局部场神经网络模型可以用如下的微分方程来表示:(1.1)其中,i=1,2,3是神经元j和z之间的连接权值。f是神经元j的激励函数,Ji是作用于神经元i的外部输入。前面提到的Cohen-Grossberg神经网络、Hopfield神经网络、细胞神经网络、双向联想记忆神经网络都是著名的局部场神经网络模型。
  另一类是所谓的静态神经网络(static neural network)。在这一类模型中,神经元的状态被作为基本变量用来实现对神经网络的动力学演化规则的刻画。从数学上来讲,静态神经网络可以表示为(1.2)典型的静态神经网络模型有盒中脑模型以及被广泛应用于求解组合优化问题的投影神经网络等。
  由式(1.1)和式(1.2)不难发现,局部场神经网络和静态神经网络并不相同。已经知道,只有当某些特定条件满足时,这两类递归神经网络模型才能相互转化。为了说明这一问题,记可以证明,当神经元之间的连接权矩阵W可逆且WA=AW时,通过变换U(t)=Wv(t)+J,式(1.2)就可以转化为式(1.1)。但是,这个条件并不总是成立的。
科学出版社旗舰店店铺主页二维码
科学出版社旗舰店 微信公众号认证
科学出版社秉承多年来形成的“高层次、高水平、高质量”和“严肃、严密、严格”的优良传统与作风,始终坚持为科技创新服务、为传播与普及科学知识服务、为科学家和广大读者服务的宗旨。
扫描二维码,访问我们的微信店铺
随时随地的购物、客服咨询、查询订单和物流...

时滞递归神经网络的状态估计理论与应用

手机启动微信
扫一扫购买

收藏到微信 or 发给朋友

1. 打开微信,扫一扫左侧二维码

2. 点击右上角图标

点击右上角分享图标

3. 发送给朋友、分享到朋友圈、收藏

发送给朋友、分享到朋友圈、收藏

微信支付

支付宝

扫一扫购买

打开微信,扫一扫

或搜索微信号:sciencepress-cspm
科学出版社官方微信公众号

收藏到微信 or 发给朋友

1. 打开微信,扫一扫左侧二维码

2. 点击右上角图标

点击右上角分享图标

3. 发送给朋友、分享到朋友圈、收藏

发送给朋友、分享到朋友圈、收藏