控制理论 Control theory
控制理论 Control theory研究工程过程和机器中连续运行的动态系统的控制。目的是开发一种控制模型,以最优方式使用控制动作来控制此类系统,而不会出现延迟或超调,并确保其控制的稳定性。因为控制理论非常依赖于相关学科的理论和实际应用,甚至可以将控制理论可以被视为控制工程,计算机工程,数学,控制论和运筹学的分支[1] 。
为了做出一个优秀的控制器,需要一个具有必要纠正行为的控制器。这个控制器监视受控程序变数,并将其与参考点或设定点进行比较。程序变数的实际值和期望值之间的差,称为误差信号,或者 SP-PV 误差,作为反馈来产生一个控制动作,使被控制的程序变数达到设定值。研究的其他方面还有可控性和可观测性。这是先进的自动化类型的基础,革命性的制造业,飞机,通信和其他行业。这就是反馈控制,它通常是连续的,涉及使用传感器进行测量,并通过控制阀等”最终控制元件”进行计算调整,使测量的变量保持在一定范围内[2]。
一个优秀的控制器应该监视受控过程变量 process variable(PV),并将其与参考值或设定值 set point(SP)进行比较。在控制过程中变量的实际值和期望值之间的差(称为误差信号或SP-PV误差)用作反馈,最终生成控制效果,以使受控过程变量达到与设定点相同的值。在控制中,还引入了可控性和可观性。将控制理论引入制造业,飞机,通信和其他行业的先进自动化行业中,为行业发展产生了深远的影响。含有具有反馈作用的控制器称的系统为反馈控制系统,这种控制系统通过使用传感器进行测量并进行计算调整,以通过诸如控制阀的“最终控制元件”将控制变量保持在设定范围内。
在控制理论的表示中,广泛使用的一种被称为方框图的图解方式,在控制理论中描述系统的微分方程的输入输出关系的数学模型一般称为传递函数 transfer function,也称为系统函数 system function或网络函数 network function。
控制理论的研究可以追溯到19世纪,当时James Clerk Maxwell首次描述了统治者运作的理论基础[3]。1874年 Edward Routh,Charles Sturm 和1895年 Adolf Hurwitz 进一步提出了控制理论,他们都为建立控制理论的稳定性标准做出了贡献; 从1922年开始,Nicolas Minorsky发展了PID控制[4],PID算法在现代生活中随处可见。
虽然控制理论的一个主要应用是在控制系统工程,主要涉及工业过程控制系统的设计,但是其应用范围远远超出这一范围。
历史
虽然各种类型的控制系统可以追溯到古代,一个更加正式的领域分析开始于离心式调速器的动力学分析,由物理学家詹姆斯·克拉克·麦克斯韦 James Clerk Maxwell 在1868年进行,名为“统治者”[5]。离心式调速器已经被用来调节风车的速度。麦克斯韦描述并分析了自激振荡现象,其中系统的滞后可能导致系统的过度补偿和不稳定行为。这引起了人们对这个话题的浓厚兴趣,在这期间,Maxwell 的同学,Edward John Routh,抽象出了 Maxwell 关于线性系统的一般类别的结果。 [6] 独立地,阿道夫·赫维兹 Adolf Hurwitz 在1877年使用微分方程对系统稳定性进行了分析,得出了现在所说的 Routh–Hurwitz 定理。 [7][8]
动态控制的一个显著应用是在载人飞行领域。1903年12月17日,莱特兄弟进行了首次成功的试飞,他们的杰出之处在于能够在相当长的时间内控制飞行(比已知的用机翼产生升力的能力还要强)。持续、可靠地控制飞机对于长时间的飞行是非常重要的。
到了第二次世界大战,控制理论成为一个重要的研究领域。IrmgardFlügge-Lotz 发展了非连续自动控制系统理论,并将 bang-bang 原理应用于飞机自动飞行控制装置的开发[9][10]。不连续控制的其他应用领域包括火控系统、制导系统和电子学。
也可以使用机械方法来提高系统的稳定性。例如,船舶稳定器是安装在吃水线下方并横向出现的鳍片就是一种典型的机械控制应用。在现代船舶中,陀螺仪控制的活动鳍片具有改变其迎角的能力,以抵消风或波浪作用在船上引起的侧倾。
二战后,各国开始了太空竞赛,太空竞赛非常依赖于精确的航天器控制。当代,控制理论在经济学和人工智能等领域的应用也越来越多。在这里,有人可能会说,控制得目标是找到一个遵循良好控制器定理的内部模型。因此,举例来说,在经济学中,一个(股票或商品)交易模型越准确地代表了市场的行为,它就越容易控制市场(并从中提取“有用的工作”(利润))。在人工智能中,一个例子可能是一个聊天机器人模拟人类的话语状态: 它模拟人类状态越精确(例如:在电话语音支持热线) ,它可以更好地帮助人类(例如:进行纠正措施,解决问题,防止电话呼叫造成的通话堵塞)。这俩个例子通常是将控制理论的历史解释视为一组微分方程建模和动力学建模,并将其扩展为控制器与平台相互作用的广义推广。
开环和闭环(反馈)控制
从根本上讲,控制回路有两种类型:开环控制和闭环(反馈)控制。
在开环控制中,来自控制器的控制动作独立于“过程输出”(或“受控过程变量”-PV)。一个很好的例子是仅由计时器控制的中央供暖锅炉,因此无论建筑物的温度如何,都将热量恒定地施加。控制动作是定时打开/关闭锅炉,过程变量是建筑物温度,但两者都不相关。
在闭环控制中,来自控制器的控制动作取决于过程变量(PV)值的反馈。在类似于锅炉的情况下,闭环回路将包括一个恒温器,以将建筑物温度与恒温器上设定的温度(设定值-SP)进行比较。这将产生一个控制器输出,通过打开和关闭锅炉来将建筑物维持在所需温度。因此,闭环控制器具有反馈回路,该反馈回路可确保控制器施加合适的控制动作将过程变量操纵为与“参考输入”或“设定点”相同。因此,闭环控制器也称为反馈控制器[11]。
根据英国标准协会,闭环控制系统的定义是“一个具有监视反馈的控制系统,该反馈而形成的偏差信号被用于控制最终控制元件的动作,从而尽可能使偏差减小到零。”[12]
同样 “ 反馈控制系统是一种系统,通过比较这些变量的功能并将该差异用作控制手段,趋于保持一个系统变量与另一个系统变量之间的规定关系。” [13]
其他例子
控制系统的一个示例是汽车的巡航控制系统,该系统是一种将车速保持在驾驶员提供的期望速度或参考速度的设备。该控制器是巡航控制,被控对象是汽车,而系统是汽车和巡航控制。系统输出是汽车的速度,控制本身是发动机的油门位置,它确定发动机提供多少动力。
实现巡航控制的一个原始方法是在驾驶员启动巡航控制时锁定油门位置。不过,如果巡航控制系统在一段不平坦的道路上启动,车辆上山时行驶速度会较慢,下山时则较快。这种类型的控制器被称为开环控制器,因为没有反馈; 没有测量系统输出(汽车的速度)来改变控制(油门位置)因此,控制器不能补偿作用在汽车上的变化,比如道路坡度的变化。
在闭环控制系统中,来自监测汽车速度(系统输出)的传感器的数据进入控制器,控制器连续比较代表速度的量和代表期望速度的参考量,计算得到的差称为误差,决定了节气门的位置(控制)。输出结果是匹配的汽车的速度参考速度(保持所需的系统输出)。现在,当汽车上坡时,输入(感知速度)和参考速度之间的差异不断地决定油门位置。当感觉到的速度低于参考,差值增加,油门打开,发动机功率增加,加速车辆。这样,控制器动态地抵消汽车速度的变化。这些控制系统的中心思想是反馈回路,控制器影响系统的输出,反过来测量并反馈给控制器。
经典控制理论
为了克服开回路控制器的局限性,控制理论引入了反馈。闭环控制器利用反馈来控制动力系统的状态或输出。它的名字来源于系统中的信息路径: 过程输入(例如,电动机的电压)对过程输出(例如,电动机的速度或扭矩)有影响,用传感器测量并由控制器处理; 结果(控制信号)作为过程的输入被“反馈” ,关闭循环。
闭环控制器比开环控制器有以下优点:
- 干扰抑制(例如上述巡航控制示例中的山丘)
- 当模型结构与实际过程不完全匹配且模型参数不精确时,即模型不确定,也可以保证系统性能。
- 不稳定的过程可以稳定下来
- 对参数变化的敏感性降低
- 改进的参考跟踪性能
在一些系统中,闭环控制和开环控制同时使用。在这样的系统中,开环控制被称为前馈,用于进一步改善参考跟踪性能。
常用的闭环控制器结构是 PID 控制器。
闭环传递函数
系统的输出 y(t)通过传感器测量F反馈给参考值r(t)进行比较。然后,控制器C利用参考和输出之间的误差e (差)来改变输入u到控制 P下的系统。 如图所示。这种控制器是一种闭环控制器或反馈控制器。
这被称为单输入单输出 SISO 控制系统; 另一种常见的控制系统为 MIMO 即多输入多输出系统,具有多个输入/输出。在这种情况下,变量通过向量表示,而不是简单的标量值。对于一些分布参数系统,向量可能是无限维的(典型的函数)。
如果我们假设控制器 C、被控对象P和传感器 F是线性时不变 LMI 的(即,它们的传递函数 C(s)、P(s)和 F(s) 的元素不依赖于时间) ,那么上述系统可以用拉普拉斯 Laplace 变换来分析。这就产生了以下关系:
- [math]\displaystyle{ Y(s) = P(s) U(s) }[/math]
- [math]\displaystyle{ U(s) = C(s) E(s) }[/math]
- [math]\displaystyle{ E(s) = R(s) - F(s)Y(s). }[/math]
用给定的 R(s) 解出Y(s)。
- [math]\displaystyle{ Y(s) = \left( \frac{P(s)C(s)}{1 + P(s)C(s)F(s)} \right) R(s) = H(s)R(s). }[/math]
表达式[math]\displaystyle{ H(s) = \frac{P(s)C(s)}{1 + F(s)P(s)C(s)} }[/math]称为系统的闭回路传递函数。分子是从r到y的正向(开环)增益,分母是1加上反馈回路中的增益,即所谓的回路增益。如果[math]\displaystyle{ |P(s)C(s)| \gg 1 }[/math],也就是说,它有一个很大的范数,每个值都是s,且[math]\displaystyle{ |F(s)| \approx 1 }[/math],那么Y(s)大约等于R(s),且输出紧密跟踪参考输入。
PID 反馈控制
比例-积分-微分控制器(PID 控制器)是一种广泛应用于控制系统的控制回路反馈机制控制技术。
一个 PID 控制器连续计算一个误差值[math]\displaystyle{ e(t) }[/math]作为期望设定点和被测程序变数之间的差值,并根据比例、积分和微分项进行修正。指的是对误差信号进行比例积分微分的计算与操作来产生对应的控制信号。
该理论的生成和应用可以追溯到20世纪20年代,几乎在所有的模拟控制系统中得到实现; 最初在机械控制器中,后来在工业过程计算机中使用离散电子学。
PID 控制器可能是最常用的反馈控制设计。
如果u(t)是发送到系统的控制信号,y(t)是测量输出,r(t)是期望输出,[math]\displaystyle{ e(t)=r(t)- y(t) }[/math] 是跟踪误差,则 PID 控制器具有通用形式
- [math]\displaystyle{ u(t) = K_P e(t) + K_I \int e(\tau)\text{d}\tau + K_D \frac{\text{d}e(t)}{\text{d}t}. }[/math]
期望闭环动力学是通过调整三个参数[math]\displaystyle{ K_P }[/math]、[math]\displaystyle{ K_D }[/math]和[math]\displaystyle{ K_I }[/math]得到的,通常是通过“调整”迭代得到的,不需要具体的对象模型知识。稳定性往往可以确保只使用比例来获得。积分项允许抑制阶跃扰动(在过程控制中通常是一个引人注目的规范)。导数项用于提供响应的阻尼或整形。PID控制器是最成熟的一类控制系统;然而,他们难以用于更复杂的情况,特别是如果 MIMO 系统考虑。
应用拉普拉斯变换得到变换后的 PID 控制器方程
- [math]\displaystyle{ u(s) = K_P e(s) + K_I \frac{1}{s} e(s) + K_D s e(s) }[/math]
- [math]\displaystyle{ u(s) = \left(K_P + K_I \frac{1}{s} + K_D s\right) e(s) }[/math]
具有 PID 控制器的传递函数
- [math]\displaystyle{ C(s) = \left(K_P + K_I \frac{1}{s} + K_D s\right). }[/math]
作为闭环系统[math]\displaystyle{ H(s) }[/math]中 PID 控制器整定的一个例子,考虑一个一阶被控对象
- [math]\displaystyle{ P(s) = \frac{A}{1 + sT_P} }[/math]
其中[math]\displaystyle{ A }[/math]和[math]\displaystyle{ T_P }[/math]是一些常数。系统的输出通过
- [math]\displaystyle{ F(s) = \frac{1}{1 + sT_F} }[/math]
[math]\displaystyle{ T_F }[/math]也是一个常数。现在如果我们设置[math]\displaystyle{ K_P=K\left(1+\frac{T_D}{T_I}\right) }[/math],[math]\displaystyle{ K_D=KT_D }[/math],和[math]\displaystyle{ K_I=\frac{K}{T_I} }[/math],我们可以将 PID 控制器传递函数表示成如下形式
- [math]\displaystyle{ C(s) = K \left(1 + \frac{1}{sT_I}\right)(1 + sT_D) }[/math]
把[math]\displaystyle{ P(s) }[/math], [math]\displaystyle{ F(s) }[/math],[math]\displaystyle{ C(s) }[/math]输入到闭环传递函数[math]\displaystyle{ H(s) }[/math]中,我们通过设置
- [math]\displaystyle{ K = \frac{1}{A}, T_I = T_F, T_D = T_P }[/math]
[math]\displaystyle{ H(s) = 1 }[/math]。通过本例中的这个调优,系统输出精确地跟随参考输入。
然而,在实践中,由于噪声和谐振模式的放大,纯微分器既不是物理上可实现的,也不是理想的[14] 。
线性控制和非线性控制
控制理论可分为两个分支:
控制理论领域可以分为两个分支:
- 线性控制理论–适用于由遵循叠加原理的系统,这意味着输出大致与输入成比例,系统由线性微分方程控制。其中最重要的一个子系统是具有不随时间变化的参数的系统,称为线性时不变 LTI 系统。这些系统使用通用且强大的频域数学技术,例如Laplace变换, Fourier变换,Z变换,Bode图,根轨迹和奈奎斯特稳定性判据。使用这些技术有助于使用带宽,频率响应,特征值,增益,谐振频率,零点和极点等术语对系统进行描述,从而为大多数目标系统提供了系统响应解决方案和设计方式。
- 非线性控制理论–涵盖了不遵循叠加原理的更广泛的系统类别,并适用于更多实际系统,因为所有实际控制系统都是非线性的。这些系统通常由非线性微分方程控制。为处理这些问题而开发的几种数学技术更加困难,而且通用性较低,通常仅适用于很少类别的系统。其中包括极限环理论,庞加莱图,李雅普诺夫稳定性定理和描述函数。通常在计算机上使用数值方法来分析非线性系统[15]。如果仅关注稳定点附近的解决方案,则通常可以使用微扰理论通过线性系统对非线性系统进行近似来线性化非线性系统,并且可以使用线性理论的方式进行求解。[16]
分析技术-频域和时域
分析和设计控制系统的数学技术可分为两类:
- 频域状态空间表示法–在这种类型的状态变量中,数学变量代表系统输入,输出和反馈表示为频率函数。输入信号与系统的传递函数是从时间函数到频率的函数通过转换得到的变换,如Laplace变换, Fourier变换,Z变换。这种变换的优点是可以简化数学公式表达。为了方便计算,在频域中,微分方程在系统被替换为代数方程。如上所述,频域技术只能与线性系统一起使用。
- 时域状态空间表示法–在这种类型中,状态变量的值表示为时间的函数。使用此模型,所分析的系统由一个或多个微分方程表示。由于频域技术仅限于线性系统,因此时域被广泛用于分析现实世界的非线性系统。尽管这些问题更难解决,但现代计算机模拟技术(例如Simulink)可以相对方便的对系统进行分析。
与经典控制理论的频域分析相反,现代控制理论利用时域状态空间表示,是物理系统的数学模型,它是由一阶微分方程相关的一组输入,输出和状态变量。为了从输入,输出和状态的数量中抽象出来,变量被表示为矢量,并且微分方程和代数方程以矩阵形式编写(后者仅在动力系统为线性时才可行)。状态空间表示(也称为“时域方法”)提供了一种方便而紧凑的方式来建模和分析具有多个输入和输出的系统,如我们使用Laplace变换对含输入输出系统的所有信息进行编码。与频域方法不同,状态空间表示和使用不限于具有线性分量和零初始条件的系统。“状态空间”是指其轴为状态变量的空间。系统的状态可以表示为该空间内的一个点[16][17]。
SISO和MIMO
根据输入和输出的数量,控制系统可以分为不同的类别。
- 单输入单输出 SISO –这是最简单,最常见的类型,其中一个输出由一个控制信号控制。示例是上面的巡航控制示例,或者是音频系统,其中控制输入是输入音频信号,输出是来自扬声器的声波。
- 多输入多输出 MIMO –在更复杂的系统中可以找到。例如,现代大型望远镜(例如Keck和MMT)具有由许多独立的部分组成的反射镜,每个部分都由致动器控制。MIMO 主动控制系统使用焦平面上多个传感器的输入不断调整整个反射镜的位置,以补偿由于热膨胀,收缩,旋转时的应力以及反射镜变形引起的反射镜形状变化。复杂的系统,例如核反应堆和人体细胞可以由计算机模拟为大型MIMO控制系统。
控制理论主题
稳定性
没有输入的一般动力系统的稳定性可以用Lyapunov稳定性标准来描述。
- 一个线性系统如果对于任何有界输入都舒服于有界的输出中,被称为有界输入有界输出 BIBO 稳定。
- 输入状态的非线性系统的稳定性是输入状态稳定性 ISS,它结合了Lyapunov稳定性和类似于BIBO稳定性的概念。
为简单起见,下面的描述集中于连续和离散时间线性系统。
在数学上,这意味着一个线性系统要稳定,其传递函数的所有极点都必须有负实值,即每个极点的实数部分必须小于零。实际上,稳定性意味着传递函数具有复极点
- 当使用Laplace变换获得传递函数时,在连续时间的复数平面的左半部分中保持不变。
- 使用Z变换时,离散时间下的单位圆包含的稳定性不变。
这两种情况之间的区别仅仅是对连续时间和离散时间传递函数的表示方法。连续的Laplace变换是在笛卡尔坐标系中,其中[math]\displaystyle{ x }[/math]轴是实轴,离散变换的[math]\displaystyle{ z }[/math]变换是在圆坐标系中,其中[math]\displaystyle{ \rho }[/math]轴是实轴。
当满足上述适当条件时,系统被称为渐近稳定的,渐近稳定控制系统的变量总是表现为它们的初始值减少,且不表现永久的振荡。当极点的实部精确等于零(在连续时间情况下)或模量等于1(在离散时间情况下)时,就会发生永久振荡。如果一个简单稳定的系统响应既不随时间衰减也不随时间增长,并且没有振荡,那么它是边际稳定的; 在这种情况下,系统传递函数在复平面原点处具有非重复极点(即在连续时间情况下,它们的实数和复数分量为零。当实部等于零的极点的虚部不等于零时,就存在振荡。
如果一个系统的脉冲响应为
- [math]\displaystyle{ \ x[n] = 0.5^n u[n] }[/math]
然后 z 变换(参见本例)为
- [math]\displaystyle{ \ X(z) = \frac{1}{1 - 0.5z^{-1}} }[/math]
在[math]\displaystyle{ z = 0.5 }[/math]零虚部)中有一个极点。这个系统是 BIBO (渐近)稳定的,因为极点在单位圆内。
然后,如果冲激反应是
- [math]\displaystyle{ \ x[n] = 1.5^n u[n] }[/math]
那么[math]\displaystyle{ z }[/math]变换是
- [math]\displaystyle{ \ X(z) = \frac{1}{1 - 1.5z^{-1}} }[/math]
它的极点在[math]\displaystyle{ z = 1.5 }[/math]上,不是 BIBO 稳定的,因为极点的模严格大于1。
有许多工具可用来分析系统的极点。这些包括图形系统,如根轨迹,Bode图或Nyquist图。
机械的改变可以使设备(和控制系统)更加稳定。水手们增加压舱物以改善船只的稳定性。游轮使用从船侧横向延伸约30英尺(10米)的防侧翻鳍,并不断地绕轴旋转,以产生阻止侧翻的力。
可控性和可观察性
能控性和能观性是系统分析中的主要问题,它直接影响到系统的可控性和稳定性。可控性与使用适当的控制信号使系统进入特定状态的可能性有关。如果一个状态是不可控的,那么没有信号将永远能够控制该状态。如果一个状态是不可控的,但它的动力学是稳定的,那么这个状态称为可稳定的。相反,可观测性与通过输出测量观测系统状态的可能性有关。如果一个状态不可观测,控制器将永远不能确定一个不可观测状态的行为,因此不能使用它来稳定系统。然而,类似于上面的稳定性条件,如果一个状态不能被观察到,它仍然可能是可检测的。
从几何的角度来看,看待控制系统的每个变量的状态,这些变量的每个“坏”状态必须是可控和可观测的,以确保在闭环系统中的状态表达。也就是说,如果闭环系统的特征值之一不是可控和可观测的,这部分动态将保持不变。如果这样一个特征值不稳定,这个特征值的动力学将在闭环系统中将表示为不稳定的。在状态空间表示的传递函数实现中,不可观测的极点并不存在,这就是为什么在动力系统分析中有时倾向于后者的原因。
解决不可控或不可观测系统问题的方法包括增加执行器和传感器。
控制方法
在过去的几年里,人们设计了几种不同的控制策略。这些控制器同最简单的PID控制器到对于复杂系统或非常规系统(尤其是机器人技术或飞机巡航控制)都是有一定差别的。
控制问题可以有几种规格。当然,始终存在稳定性。无论开环稳定性如何,控制器都必须确保闭环系统稳定。控制器选择不当甚至会恶化开环系统的稳定性,通常必须避免这种情况。有时希望在闭环中获得特定的动力学:即极点具有[math]\displaystyle{ Re[\lambda] \lt -\overline{\lambda} }[/math],其中 [math]\displaystyle{ \overline{\lambda}\lt /math,是一个严格大于零的固定值,而不是简单地要求\lt math\gt Re[\lambda]\lt 0 }[/math]。
另一个典型的特性是抑制阶跃扰动,包括开环系统中的积分器(即直接在系统控制之前)很容易做到这一点。其他类型的扰动需要包括不同类型的子系统。
其他“经典”控制理论规范考虑了闭环系统的时域响应。其中包括上升时间(控制系统在扰动后达到期望值所需的时间)、峰值时间、超调量(响应达到期望值之前达到的最高值)和稳定时间等其他稳态性能。频域规范通常与鲁棒性有关。
现代的性能评估使用一些综合跟踪误差的变体(IAE,ISA,CQI)。
模式辨识与鲁棒性
控制系统必须具有一定的鲁棒性。一个鲁棒控制器是具有将和其数学特性不同的变量加入控制过程中,其鲁棒特性不变。这一要求很重要,因为没有任何一个真正的物理系统能够用数学表示的一系列微分方程那样真正地表现出来。为了简化计算,通常会选择简化的数学模型,否则,真正的系统动力学可能会非常复杂,以至于不可能建立一个完整的模型。
- 系统辨识
确定控制模型动力学方程的过程称为系统辨识。这可以离线完成:例如,执行一系列测量以从中计算近似的数学模型,通常是其传递函数或矩阵。但是,从输出中进行的这种识别不能考虑不可观察的动态。有时,模型是直接从已知的物理方程式开始构建的,例如,在质量弹簧-阻尼器系统的情况下,我们知道[math]\displaystyle{ m \ddot{{x}}(t) = - K x(t) - \beta \dot{x}(t) }[/math]。即使假设在设计控制器时使用了“完整”模型,这些方程中包含的所有参数(称为“标称/名义参数”)也从来不是绝对精确的;即使连接到物理系统的真实参数值与标称值不同,控制系统也必须正确运行。
一些先进的控制技术包括“在线”识别过程。当控制器本身运行时,模型的参数被计算(“辨识”)。通过这种方式,如果参数发生剧烈变化,例如,如果机器人的手臂释放一个重量,控制器将自我调整,以确保正确的性能。
- 分析
考虑系统的传递函数并使用Nyquist和Bode图,可以在频域中对SISO控制系统的鲁棒性进行分析。包括增益和相位裕度以及幅度裕度。对于MIMO以及通常更复杂的控制系统,必须考虑针对每种控制技术设计的理论结果(请参阅下一节)。即如果需要特殊的鲁棒性,程师必须将注意力转移到控制技术上,将注意力转移到控制技术的属性中。
- 约束条件
一个特殊的鲁棒性问题是要求控制系统在存在输入和状态约束的情况下正确运行。在物理世界中,每个信号都是有限的。控制器可能会发送物理系统无法跟踪的控制信号,例如,试图以超高速旋转阀门。这可能会导致闭环系统发生不良行为,甚至损坏或损坏执行器或其他子系统。可以使用特定的控制技术来解决该问题:模型预测控制(请参阅下文)和反缠绕系统。后者包括一个附加的控制块,可确保控制信号从不超过给定的阈值。
系统分类
线性系统控制
对于MIMO系统,可以使用开环系统的状态空间表示并通过计算分配给期望位置中的极点的反馈矩阵,以数学方式执行极点放置。在复杂的系统中,这可能需要计算机辅助的计算功能,并且不能始终确保鲁棒性。此外,所有的系统状态一般不能测量,因此观测器必须包括在极点配置设计中。
非线性系统控制
机器人技术和航空航天工业等行业的流程通常具有强烈的非线性动力学。在控制理论中,有时可以将这类系统线性化并应用线性技术,但在许多情况下,有必要从头设计允许控制非线性系统的理论。这些控制方法,例如,反馈线性化控制、滑膜控制、轨迹线性化控制通常利用了基于李亚普诺夫理论的结果。微分几何已经被广泛地用作一种工具,将众所周知的线性控制概念推广到非线性情况,以及展示使它成为一个更具挑战性的问题的微妙之处。控制理论也被用来解释指导认知状态的神经机制[18]。
分散式系统控制
当系统由多个控制器控制时,问题是分散控制问题。地方分权在许多方面都很有帮助,例如,它帮助控制系统在更大的范围内运行。分散控制系统中的智能体可以利用通信信道进行交互并协调其行为。
确定性和随机性系统控制
随机控制问题是一种状态变量的演变受到系统外部随机冲击的问题。确定性控制问题不受外部随机信号的影响。
主要控制策略
每个控制系统首先必须保证闭环行为的稳定性。对于线性系统,这可以通过直接配置极点来实现。非线性控制系统使用特定的理论(通常基于李亚普诺夫理论)来确保系统的稳定性,而不考虑系统的内部动态。实现不同规格的可能性不同于所考虑的模型和所选择的控制策略。
- 主要控制技术清单
- 自适应控制使用过程参数的在线识别或控制器增益的修改,从而获得强大的鲁棒性。1950年代,自适应控制首次应用于航空航天业,并在该领域取得了特别的成功。
- 分级控制系统是一种类型的控制系统,其中一组设备和管理软件的被布置在分层 树。当树中的链接由计算机网络实现时,该分层控制系统也是网络控制系统的一种形式。
- 智能控制使用各种AI计算方法,例如人工神经网络,贝叶斯概率,模糊逻辑,[19] 机器学习,进化计算和遗传算法或这些方法的组合(例如神经模糊算法)来控制动态系统。
- 最优控制是一种特殊的控制技术,其中控制信号优化某个“成本指标”:例如,在卫星的情况下,将其推向消耗最少燃料的所需轨迹所需的喷射推力。两种最优控制设计方法已在工业应用中广泛使用,因为已证明它们可以保证闭环稳定性。这些是模型预测控制 MPC 和线性二次高斯控制 LQG 。第一个可以更明确地考虑对系统中信号的约束,这是许多工业过程中的重要特征。但是,MPC中的“最佳控制”结构只是实现这种结果的一种手段,因为它没有优化闭环控制系统的真实性能指标。与PID控制器一起,MPC系统是过程控制中使用最广泛的控制技术。
- 鲁棒控制明确地解决了控制器设计方法的不确定性。使用鲁棒控制方法设计的控制器往往能够应对真实系统与用于设计的标称模型之间的微小差异。[20] Bode和其他人的早期方法相当可靠;有时发现1960年代和1970年代发明的状态空间方法缺乏鲁棒性。现代鲁棒控制技术的例子包括H-无穷回路整形通过邓肯麦克法兰和开发基思格洛弗,滑模控制由显影(SMC)瓦迪姆Utkin和安全协议,旨在控制智能电网应用中的大量异构负载[21] 。鲁棒法旨在在存在小的建模误差的情况下实现稳健的性能和/或稳定性。
- 随机控制处理模型不确定的控制设计。在典型的随机控制问题中,假设模型和控制器中存在随机噪声和干扰,并且控制设计必须考虑这些随机偏差。
- 能量整形控制将工厂和控制器视为能量转换设备。为了实现期望的行为,根据互连制定了控制策略。
- 自组织的临界控制可以定义为试图干扰自组织系统耗散能量的过程。
系统和控制的科学家
许多活跃的历史人物对防治理论作出了重要贡献,其中包括
- 皮埃尔·西蒙·拉普拉斯 Pierre-Simon Laplace 在概率论研究中发明了Z变换,现在用于解决离散时间控制理论问题。Z变换与以他命名的Laplace变换的离散时间等效。
- Irmgard Flugge-Lotz提出了不连续自动控制的理论,并将其应用于飞机自动控制系统。
- 1890年代的Lyapunov标志着稳定性理论的诞生。
- Harold S. Black在1927年发明了负反馈放大器的概念。他在1930年代成功开发了稳定的负反馈放大器。
- 哈里·奈奎斯特 Harry Nyquist 在1930年代为反馈系统制定了奈奎斯特稳定性标准。
- 理查德·贝尔曼 Richard Bellman 从1940年代开始开发动态编程[22]。
- Andrey Kolmogorov于1941年共同开发了Wiener–Kolmogorov过滤器。
- 诺伯特·维纳(Norbert Wiener)共同开发了维纳-柯尔莫哥洛夫滤波器,并在1940年代创造了控制论一词。
- John R. Ragazzini在1950年代(由Laplace发明)在控制理论中介绍了数字控制和Z变换的使用。
- 列夫·庞特里亚金(Lev Pontryagin)介绍了最大原理和爆炸原理。
- Pierre-Louis Lions 将粘度解决方案开发为随机控制和最佳控制方法。
- 鲁道夫·卡尔曼 Rudolf Kalman 率先采用状态空间方法来进行系统和控制。介绍了可控性和可观察性的概念。开发用于线性估计的卡尔曼滤波器。
- Ali H. Nayfeh 是非线性控制理论的主要贡献者之一,并出版了许多有关微扰方法的书
- Jan C. Willems引入了耗散性概念,将Lyapunov函数推广到输入/状态/输出系统。称为Lyapunov函数的类似物的存储函数的构造导致了控制理论中线性矩阵不等式(LMI)的研究。他开创了数学系统理论的行为方法。
另请参阅
- 控制系统的例子
- 控制理论主题
- 其他相关话题
参考资料
- ↑ GND. "Katalog der Deutschen Nationalbibliothek (Authority control)". portal.dnb.de. Retrieved 2020-04-26.
{{cite web}}
: CS1 maint: url-status (link) - ↑ Bennett, Stuart (1992). A history of control engineering, 1930-1955. IET. p. 48.
- ↑ Maxwell, J. C. (1868). "On Governors" (PDF). Proceedings of the Royal Society. 100.
- ↑ Minorsky, Nicolas (1922). "Directional stability of automatically steered bodies". Journal of the American Society of Naval Engineers. 34 (2): 280–309. doi:10.1111/j.1559-3584.1922.tb04958.x.
{{cite journal}}
: Invalid|ref=harv
(help) - ↑ Maxwell, J.C. (1868). "On Governors". Proceedings of the Royal Society of London. 16: 270–283. doi:10.1098/rspl.1867.0055. JSTOR 112510.
- ↑ Routh, E.J.; Fuller, A.T. (1975). Stability of motion. Taylor & Francis.
- ↑ Routh, E.J. (1877). A Treatise on the Stability of a Given State of Motion, Particularly Steady Motion: Particularly Steady Motion. Macmillan and co.. https://archive.org/details/atreatiseonstab00routgoog.
- ↑ Hurwitz, A. (1964). "On The Conditions Under Which An Equation Has Only Roots With Negative Real Parts". Selected Papers on Mathematical Trends in Control Theory.
- ↑ Flugge-Lotz, Irmgard; Titus, Harold A. (October 1962). "Optimum and Quasi-Optimum Control of Third and Fourth-Order Systems" (PDF). Stanford University Technical Report (134): 8–12.
- ↑ Hallion, Richard P. (1980). Sicherman, Barbara; Green, Carol Hurd; Kantrov, Ilene et al.. eds. Notable American Women: The Modern Period: A Biographical Dictionary. Cambridge, Mass.: Belknap Press of Harvard University Press. pp. 241–242. ISBN 9781849722704. https://archive.org/details/notableamericanw00sich.
- ↑ "Feedback and control systems" - JJ Di Steffano, AR Stubberud, IJ Williams. Schaums outline series, McGraw-Hill 1967
- ↑ Mayr, Otto (1970). The Origins of Feedback Control. Clinton, MA USA: The Colonial Press, Inc..
- ↑ Mayr, Otto (1969). The Origins of Feedback Control. Clinton, MA USA: The Colonial Press, Inc..
- ↑ Ang, K.H.; Chong, G.C.Y.; Li, Y. (2005). "PID control system analysis, design, and technology". IEEE Transactions on Control Systems Technology. 13 (4): 559–576. doi:10.1109/TCST.2005.847331.
- ↑ trim point
- ↑ Donald M Wiberg. State space & linear systems. Schaum's outline series. McGraw Hill. ISBN 978-0-07-070096-3.
- ↑ Terrell, William (1999). "Some fundamental control theory I: Controllability, observability, and duality —AND— Some fundamental control Theory II: Feedback linearization of single input nonlinear systems". American Mathematical Monthly. 106 (9): 705–719 and 812–828. doi:10.2307/2589614. JSTOR 2589614.
- ↑ Gu Shi; et al. (2015). "Controllability of structural brain networks (Article Number 8414)". Nature Communications. 6 (6): 8414. arXiv:1406.5197. Bibcode:2015NatCo...6E8414G. doi:10.1038/ncomms9414. PMC 4600713. PMID 26423222. Lay summary.
Here we use tools from control and network theories to offer a mechanistic explanation for how the brain moves between cognitive states drawn from the network organization of white matter microstructure.
{{cite journal}}
: Cite uses deprecated parameter|lay-url=
(help) - ↑ Liu, Jie; Wilson Wang; Farid Golnaraghi; Eric Kubica (2010). "A novel fuzzy framework for nonlinear system control". Fuzzy Sets and Systems. 161 (21): 2746–2759. doi:10.1016/j.fss.2010.04.009.
- ↑ Melby, Paul; et., al. (2002). "Robustness of Adaptation in Controlled Self-Adjusting Chaotic Systems". Fluctuation and Noise Letters. 02 (4): L285–L292. doi:10.1142/S0219477502000919.
- ↑ N. A. Sinitsyn. S. Kundu, S. Backhaus (2013). "Safe Protocols for Generating Power Pulses with Heterogeneous Populations of Thermostatically Controlled Loads". Energy Conversion and Management. 67: 297–308. arXiv:1211.0248. doi:10.1016/j.enconman.2012.11.021.
- ↑ Richard Bellman (1964). "Control Theory" (PDF). Scientific American. Vol. 211, no. 3. pp. 186–200.
进一步阅读
- Levine, William S., ed. (1996). The Control Handbook. New York: CRC Press. ISBN 978-0-8493-8570-4.
- Karl J. Åström; Richard M. Murray (2008). Feedback Systems: An Introduction for Scientists and Engineers.. Princeton University Press. ISBN 978-0-691-13576-2. http://www.cds.caltech.edu/~murray/books/AM08/pdf/am08-complete_28Sep12.pdf.
- Christopher Kilian (2005). Modern Control Technology. Thompson Delmar Learning. ISBN 978-1-4018-5806-3.
- Vannevar Bush (1929). Operational Circuit Analysis. John Wiley and Sons, Inc..
- Robert F. Stengel (1994). Optimal Control and Estimation. Dover Publications. ISBN 978-0-486-68200-6.
- Franklin (2002). Feedback Control of Dynamic Systems (4 ed.). New Jersey: Prentice Hall. ISBN 978-0-13-032393-4.
- Joseph L. Hellerstein; Dawn M. Tilbury; Sujay Parekh (2004). Feedback Control of Computing Systems. John Wiley and Sons. ISBN 978-0-471-26637-2.
- Diederich Hinrichsen and Anthony J. Pritchard (2005). Mathematical Systems Theory I – Modelling, State Space Analysis, Stability and Robustness. Springer. ISBN 978-3-540-44125-0.
- Andrei, Neculai (2005). "Modern Control Theory – A historical Perspective" (PDF). Retrieved 2007-10-10.
{{cite journal}}
: Cite journal requires|journal=
(help) - Sontag, Eduardo (1998). Mathematical Control Theory: Deterministic Finite Dimensional Systems. Second Edition. Springer. ISBN 978-0-387-98489-6. http://www.sontaglab.org/FTPDIR/sontag_mathematical_control_theory_springer98.pdf.
- Goodwin, Graham (2001). Control System Design. Prentice Hall. ISBN 978-0-13-958653-8.
- Christophe Basso (2012). Designing Control Loops for Linear and Switching Power Supplies: A Tutorial Guide.. Artech House. ISBN 978-1608075577. http://cbasso.pagesperso-orange.fr/Spice.htm.
- Boris J. Lurie; Paul J. Enright (2019). Classical Feedback Control with Nonlinear Multi-loop Systems (3 ed.). CRC Press. ISBN 978-1-1385-4114-6.
其他链接
- Control Tutorials for Matlab, a set of worked-through control examples solved by several different methods.
- Control Tuning and Best Practices
- Advanced control structures, free on-line simulators explaining the control theory
- The Dark Side of Loop Control Theory, a professional seminar taught at APEC in 2012 (Orlando, FL).