Commande LQG

Page d’aide sur l’homonymie

Pour les articles homonymes, voir LQG.

Cet article est une ébauche concernant l’automatique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

En automatique, la Commande linéaire quadratique gaussienne dite commande LQG est une méthode qui permet de calculer le gain d'une commande par retour d'état dans un souci particulier de réduire les bruits blancs.

La commande LQG réunit un contrôleur LQ (Linear Quadratic) et un estimateur de Kalman pouvant être calculé indépendamment suivant le principe de séparation. La commande LQ garantit une certaine robustesse de la boucle fermée, ce qui n'est pas le cas de la boucle LQG.

Caractère optimal

Si on considère le système suivant:

x ˙ ( t ) = A ( t ) x ( t ) + B ( t ) u ( t ) + v ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=A(t)\mathbf {x} (t)+B(t)\mathbf {u} (t)+\mathbf {v} (t)}
z ( t ) = C ( t ) x ( t ) + w ( t ) , {\displaystyle \mathbf {z} (t)=C(t)\mathbf {x} (t)+\mathbf {w} (t),}

z {\displaystyle z} est le vecteur de variables contrôlées; u {\displaystyle u} est le vecteur de commande; v {\displaystyle v} est un bruit blanc gaussien sur l'état et w {\displaystyle w} un bruit blanc gaussien sur la sortie.

Le critère optimisé standard est de type temporel et permet d'opérer un compromis entre le temps de convergence et la consommation de commande: J = 0 T ( z t Q z + u t R u ) d t {\displaystyle J=\int _{0}^{T}(z^{t}Qz+u^{t}Ru)dt} Où: z {\displaystyle z} est le vecteur de variables contrôlées; u {\displaystyle u} est le vecteur de commande; Q {\displaystyle Q} et R {\displaystyle R} sont des matrices de pondérations définies positives


Le contrôleur LQG est la solution des équations:

x ^ ˙ ( t ) = A ( t ) x ^ ( t ) + B ( t ) u ( t ) + K ( t ) ( z ( t ) C ( t ) x ^ ( t ) ) , x ^ ( 0 ) = E ( x ( 0 ) ) {\displaystyle {\dot {\hat {\mathbf {x} }}}(t)=A(t){\hat {\mathbf {x} }}(t)+B(t){\mathbf {u} }(t)+K(t)\left({\mathbf {z} }(t)-C(t){\hat {\mathbf {x} }}(t)\right),{\hat {\mathbf {x} }}(0)=E\left({\mathbf {x} }(0)\right)}
u ( t ) = L ( t ) x ^ ( t ) . {\displaystyle {\mathbf {u} }(t)=-L(t){\hat {\mathbf {x} }}(t).}

La matrice K ( t ) {\displaystyle {\mathbf {} }K(t)} est appelée gain de Kalman du filtre de Kalman associée à la première équation. Ce filtre estime l'état du système x ^ ( t ) {\displaystyle {\hat {\mathbf {x} }}(t)} . Le gain de Kalman K ( t ) {\displaystyle {\mathbf {} }K(t)} est calculé à partir des matrices A ( t ) , C ( t ) {\displaystyle {\mathbf {} }A(t),C(t)} et les deux matrices de covariances V ( t ) {\displaystyle \mathbf {} V(t)} , W ( t ) {\displaystyle \mathbf {} W(t)} des bruits blancs gaussiens v ( t ) {\displaystyle \mathbf {v} (t)} et w ( t ) {\displaystyle \mathbf {w} (t)} et de l'état initial E ( x ( 0 ) x ( 0 ) ) {\displaystyle E\left({\mathbf {x} }(0){\mathbf {x} }'(0)\right)} . Le gain de Kalman est calculé par résolution de l'équation différentielle matricielle dite de Riccati,

P ˙ ( t ) = A ( t ) P ( t ) + P ( t ) A ( t ) P ( t ) C ( t ) W 1 ( t ) C ( t ) P ( t ) + V ( t ) , {\displaystyle {\dot {P}}(t)=A(t)P(t)+P(t)A'(t)-P(t)C'(t){\mathbf {} }W^{-1}(t)C(t)P(t)+V(t),}
P ( 0 ) = E ( x ( 0 ) x ( 0 ) ) . {\displaystyle P(0)=E\left({\mathbf {x} }(0){\mathbf {x} }'(0)\right).}

Soit P ( t ) , 0 t T {\displaystyle P(t),0\leq t\leq T} le gain de Kalman est,

K ( t ) = P ( t ) C ( t ) W 1 ( t ) {\displaystyle {\mathbf {} }K(t)=P(t)C'(t)W^{-1}(t)}


La matrice L ( t ) {\displaystyle {\mathbf {} }L(t)} est le gain du correcteur LQ. Cette matrice est déterminée par les matrices A ( t ) , B ( t ) , Q ( t ) , R ( t ) {\displaystyle {\mathbf {} }A(t),B(t),Q(t),R(t)} et F {\displaystyle {\mathbf {} }F} par résolution de l'équation de Riccati,

S ˙ ( t ) = A ( t ) S ( t ) + S ( t ) A ( t ) S ( t ) B ( t ) R 1 ( t ) B ( t ) S ( t ) + Q ( t ) , {\displaystyle -{\dot {S}}(t)=A'(t)S(t)+S(t)A(t)-S(t)B(t)R^{-1}(t)B'(t)S(t)+Q(t),}
S ( T ) = F . {\displaystyle {\mathbf {} }S(T)=F.}

Soit S ( t ) , 0 t T {\displaystyle {\mathbf {} }S(t),0\leq t\leq T} il vient,

L ( t ) = R 1 ( t ) B ( t ) S ( t ) . {\displaystyle {\mathbf {} }L(t)=R^{-1}(t)B'(t)S(t).}

On peut observer la similarité entre les deux équations différentielles: la première est dans le sens de la flèche du temps tandis que la deuxième est à rebours. Cela vient de la dualité entre les problèmes de contrôle et d'estimation.

Quand A ( t ) , B ( t ) , C ( t ) , Q ( t ) , R ( t ) {\displaystyle {\mathbf {} }A(t),B(t),C(t),Q(t),R(t)} et les matrices de covariances V ( t ) {\displaystyle \mathbf {} V(t)} , W ( t ) {\displaystyle \mathbf {} W(t)} ne dépendent pas du temps, le contrôleur LQG est invariant dans le temps et les équations deviennent des équations de Riccati (équation de Riccati) algébriques.


La commande LQG est optimale au sens de la norme H 2 {\displaystyle H_{2}} . Pour faire le lien avec les techniques fréquentielles de type H: il est possible de réaliser une optimisation dans le domaine fréquentiel au sens de la norme H 2 {\displaystyle H_{2}} sur le même schéma de synthèse d'une commande H. La synthèse H 2 {\displaystyle H_{2}} peut être réalisée sur les mêmes entrées-sorties que la synthèse Hinfini, tout juste sera-t-il nécessaire de régler les pondérations fréquentielles.

Articles connexes

  • Commande LQ
  • Commande optimale

Liens externes

  • Cours LQG de Daniel Alazard, Supaéro
  • Exemple d'application commande LQG, Quadrirotor
  • icône décorative Portail de l’électricité et de l’électronique