Théorie du contrôle - Control theory

La théorie du contrôle traite du contrôle des systèmes dynamiques dans les processus et les machines d'ingénierie. L'objectif est de développer un modèle ou un algorithme régissant l'application des entrées du système pour conduire le système à un état souhaité, tout en minimisant tout retard , dépassement ou erreur en régime permanent et en garantissant un niveau de stabilité de contrôle ; souvent dans le but d'atteindre un degré d' optimalité .

Pour ce faire, un contrôleur avec le comportement correctif requis est requis. Ce contrôleur surveille la variable de processus contrôlée (PV) et la compare à la référence ou au point de consigne (SP). La différence entre la valeur réelle et souhaitée de la variable de procédé, appelée signal d' erreur , ou erreur SP-PV, est appliquée comme retour pour générer une action de contrôle pour amener la variable de procédé contrôlée à la même valeur que le point de consigne. D'autres aspects qui sont également étudiés sont la contrôlabilité et l' observabilité . C'est la base du type avancé d'automatisation qui a révolutionné la fabrication, l'aéronautique, les communications et d'autres industries. Il s'agit du contrôle par rétroaction , qui consiste à prendre des mesures à l'aide d'un capteur et à effectuer des ajustements calculés pour maintenir la variable mesurée dans une plage définie au moyen d'un "élément de contrôle final", tel qu'une vanne de régulation .

Un usage intensif est généralement fait d'un style schématique connu sous le nom de schéma fonctionnel . La fonction de transfert , également connue sous le nom de fonction système ou fonction de réseau, est un modèle mathématique de la relation entre l'entrée et la sortie basé sur les équations différentielles décrivant le système.

La théorie du contrôle date du 19ème siècle, lorsque la base théorique du fonctionnement des régulateurs a été décrite pour la première fois par James Clerk Maxwell . La théorie du contrôle a été encore avancée par Edward Routh en 1874, Charles Sturm et en 1895, Adolf Hurwitz , qui ont tous contribué à l'établissement de critères de stabilité du contrôle ; et à partir de 1922, le développement de la théorie du contrôle PID par Nicolas Minorsky . Bien qu'une application majeure de la théorie mathématique du contrôle soit l' ingénierie des systèmes de contrôle , qui traite de la conception de systèmes de contrôle de processus pour l'industrie, d'autres applications vont bien au-delà. En tant que théorie générale des systèmes de rétroaction, la théorie du contrôle est utile partout où la rétroaction se produit - ainsi, la théorie du contrôle a également des applications dans les sciences de la vie, l'ingénierie informatique, la sociologie et la recherche opérationnelle.

Histoire

Bien que les systèmes de contrôle de divers types remontent à l'Antiquité, une analyse plus formelle du domaine a commencé par une analyse dynamique du régulateur centrifuge , menée par le physicien James Clerk Maxwell en 1868, intitulée On Governors . Un régulateur centrifuge était déjà utilisé pour réguler la vitesse des moulins à vent. Maxwell a décrit et analysé le phénomène d' auto-oscillation , dans lequel des retards dans le système peuvent conduire à une surcompensation et à un comportement instable. Cela a généré une vague d'intérêt pour le sujet, au cours de laquelle le camarade de classe de Maxwell, Edward John Routh , a résumé les résultats de Maxwell pour la classe générale des systèmes linéaires. Indépendamment, Adolf Hurwitz a analysé la stabilité du système à l'aide d'équations différentielles en 1877, ce qui a donné ce qui est maintenant connu sous le nom de théorème de Routh-Hurwitz .

Une application notable du contrôle dynamique était dans le domaine du vol habité. Les frères Wright ont effectué leurs premiers vols d'essai réussis le 17 décembre 1903 et se sont distingués par leur capacité à contrôler leurs vols pendant des périodes substantielles (plus que par la capacité de produire une portance à partir d'un profil aérodynamique, ce qui était connu). Un contrôle continu et fiable de l'avion était nécessaire pour les vols d'une durée supérieure à quelques secondes.

Au moment de la Seconde Guerre mondiale , la théorie du contrôle devenait un domaine de recherche important. Irmgard Flügge-Lotz a développé la théorie des systèmes de contrôle automatique discontinus et a appliqué le principe du bang-bang au développement d' équipements de contrôle de vol automatique pour les avions. Les autres domaines d'application des commandes discontinues comprenaient les systèmes de conduite de tir , les systèmes de guidage et l' électronique .

Parfois, des méthodes mécaniques sont utilisées pour améliorer la stabilité des systèmes. Par exemple, les stabilisateurs de navire sont des ailerons montés sous la ligne de flottaison et émergeant latéralement. Dans les navires contemporains, il peut s'agir d'ailerons actifs contrôlés gyroscopiquement, qui ont la capacité de changer leur angle d'attaque pour contrer le roulis causé par le vent ou les vagues agissant sur le navire.

La course à l'espace dépendait également d'un contrôle précis des engins spatiaux, et la théorie du contrôle a également vu une utilisation croissante dans des domaines tels que l'économie et l'intelligence artificielle. Ici, on pourrait dire que le but est de trouver un modèle interne qui obéit au théorème du bon régulateur . Ainsi, par exemple, en économie, plus un modèle de trading (d'actions ou de matières premières) représente avec précision les actions du marché, plus il peut facilement contrôler ce marché (et en extraire un « travail utile » (bénéfices)). En IA, un exemple pourrait être un chatbot modélisant l'état du discours des humains : plus il peut modéliser avec précision l'état humain (par exemple sur une hotline téléphonique d'assistance vocale), mieux il peut manipuler l'humain (par exemple en effectuant les actions correctives pour résoudre le problème qui a causé l'appel téléphonique à la ligne d'assistance). Ces deux derniers exemples reprennent l'interprétation historique étroite de la théorie du contrôle comme un ensemble d'équations différentielles modélisant et régulant le mouvement cinétique, et l'élargissent en une vaste généralisation d'un régulateur interagissant avec une plante .

Contrôle en boucle ouverte et en boucle fermée (rétroaction)

Un schéma fonctionnel d'un système de contrôle de rétroaction négative utilisant une boucle de rétroaction pour contrôler la variable de processus en la comparant à une valeur souhaitée et en appliquant la différence en tant que signal d'erreur pour générer une sortie de contrôle afin de réduire ou d'éliminer l'erreur.
Exemple d'une seule boucle de régulation industrielle ; montrant un contrôle modulé en continu du flux de processus.

Fondamentalement, il existe deux types de boucles de contrôle : le contrôle en boucle ouverte et le contrôle en boucle fermée (rétroaction).

Dans le contrôle en boucle ouverte, l'action de contrôle du contrôleur est indépendante de la "sortie de processus" (ou "variable de processus contrôlée" - PV). Un bon exemple en est une chaudière de chauffage central contrôlée uniquement par une minuterie, de sorte que la chaleur est appliquée pendant un temps constant, quelle que soit la température du bâtiment. L'action de contrôle est l'allumage/l'extinction temporisé de la chaudière, la variable de processus est la température du bâtiment, mais aucune n'est liée.

Dans le contrôle en boucle fermée, l'action de contrôle du contrôleur dépend du retour du processus sous la forme de la valeur de la variable de processus (PV). Dans le cas de l'analogie avec la chaudière, une boucle fermée comprendrait un thermostat pour comparer la température du bâtiment (PV) avec la température réglée sur le thermostat (le point de consigne - SP). Cela génère une sortie de contrôleur pour maintenir le bâtiment à la température souhaitée en allumant et éteignant la chaudière. Un contrôleur en boucle fermée a donc une boucle de rétroaction qui garantit que le contrôleur exerce une action de contrôle pour manipuler la variable de processus pour qu'elle soit la même que "l'entrée de référence" ou "le point de consigne". Pour cette raison, les contrôleurs en boucle fermée sont également appelés contrôleurs de rétroaction.

La définition d'un système de contrôle en boucle fermée selon la British Standard Institution est « un système de contrôle possédant un retour de surveillance, le signal de déviation formé à la suite de ce retour étant utilisé pour contrôler l'action d'un élément de contrôle final de manière à tendent à réduire l'écart à zéro."

De même; "Un système de contrôle de rétroaction est un système qui tend à maintenir une relation prescrite d'une variable système à une autre en comparant les fonctions de ces variables et en utilisant la différence comme moyen de contrôle."

Autres exemples

Un exemple de système de contrôle est le régulateur de vitesse d' une voiture , qui est un dispositif conçu pour maintenir la vitesse du véhicule à une vitesse constante souhaitée ou de référence fournie par le conducteur. Le contrôleur est le régulateur de vitesse, la plante est la voiture et le système est la voiture et le régulateur de vitesse. La sortie du système est la vitesse de la voiture et la commande elle-même est la position de l' accélérateur du moteur qui détermine la puissance fournie par le moteur.

Une façon primitive de mettre en œuvre le régulateur de vitesse consiste simplement à verrouiller la position de l'accélérateur lorsque le conducteur enclenche le régulateur de vitesse. Cependant, si le régulateur de vitesse est engagé sur un tronçon de route non plate, la voiture roulera plus lentement en montée et plus vite en descente. Ce type de contrôleur est appelé contrôleur en boucle ouverte car il n'y a pas de retour d'informations ; aucune mesure de la sortie du système (la vitesse de la voiture) n'est utilisée pour modifier le contrôle (la position de l'accélérateur.) En conséquence, le contrôleur ne peut pas compenser les changements agissant sur la voiture, comme un changement de la pente de la route.

Dans un système de contrôle en boucle fermée , les données d'un capteur surveillant la vitesse de la voiture (la sortie du système) entrent dans un contrôleur qui compare en permanence la quantité représentant la vitesse avec la quantité de référence représentant la vitesse souhaitée. La différence, appelée erreur, détermine la position du papillon (la commande). Le résultat est de faire correspondre la vitesse de la voiture à la vitesse de référence (maintenir la sortie système souhaitée). Désormais, lorsque la voiture monte une côte, la différence entre l'entrée (la vitesse détectée) et la référence détermine en permanence la position de l'accélérateur. Au fur et à mesure que la vitesse détectée descend en dessous de la référence, la différence augmente, l'accélérateur s'ouvre et la puissance du moteur augmente, accélérant ainsi le véhicule. De cette façon, le contrôleur contrebalance dynamiquement les changements de vitesse de la voiture. L'idée centrale de ces systèmes de contrôle est la boucle de rétroaction , le contrôleur affecte la sortie du système, qui à son tour est mesurée et renvoyée au contrôleur.

Théorie du contrôle classique

Pour surmonter les limitations du contrôleur en boucle ouverte , la théorie du contrôle introduit la rétroaction . Un contrôleur en boucle fermée utilise une rétroaction pour contrôler les états ou les sorties d'un système dynamique . Son nom vient du chemin d'information dans le système : les entrées de processus (par exemple, la tension appliquée à un moteur électrique ) ont un effet sur les sorties de processus (par exemple, la vitesse ou le couple du moteur), qui est mesurée avec des capteurs et traitée par le manette; le résultat (le signal de contrôle) est « renvoyé » en entrée du processus, fermant la boucle.

Les contrôleurs en boucle fermée présentent les avantages suivants par rapport aux contrôleurs en boucle ouverte :

  • rejet des perturbations (comme les collines dans l'exemple de régulateur de vitesse ci-dessus)
  • performance garantie même avec des incertitudes de modèle , lorsque la structure du modèle ne correspond pas parfaitement au processus réel et que les paramètres du modèle ne sont pas exacts
  • les processus instables peuvent être stabilisés
  • sensibilité réduite aux variations de paramètres
  • amélioration des performances de suivi des références

Dans certains systèmes, les commandes en boucle fermée et en boucle ouverte sont utilisées simultanément. Dans de tels systèmes, la commande en boucle ouverte est appelée anticipation et sert à améliorer encore les performances de suivi de référence.

Une architecture de contrôleur en boucle fermée courante est le contrôleur PID .

Fonction de transfert en boucle fermée

La sortie du système y ( t ) est renvoyée par une mesure de capteur F à une comparaison avec la valeur de référence r ( t ). Le contrôleur C prend alors l'erreur e (différence) entre la référence et la sortie pour changer les entrées u vers le système sous contrôle P . Ceci est montré dans la figure. Ce type de contrôleur est un contrôleur en boucle fermée ou un contrôleur de rétroaction.

C'est ce qu'on appelle un système de contrôle à entrée unique-sortie unique ( SISO ); Les systèmes MIMO (c'est-à-dire multi-entrées-multi-sorties), avec plus d'une entrée/sortie, sont courants. Dans de tels cas, les variables sont représentées par des vecteurs au lieu de simples valeurs scalaires . Pour certains systèmes de paramètres distribués, les vecteurs peuvent être de dimension infinie (typiquement des fonctions).

Une boucle de contrôle de rétroaction simple

Si nous supposons que le contrôleur C , la plante P et le capteur F sont linéaires et invariants dans le temps (c'est -à- dire que les éléments de leur fonction de transfert C ( s ), P ( s ) et F ( s ) ne dépendent pas du temps) , les systèmes ci-dessus peuvent être analysés en utilisant la transformée de Laplace sur les variables. Cela donne les relations suivantes :

La résolution de Y ( s ) en fonction de R ( s ) donne

L'expression est appelée fonction de transfert en boucle fermée du système. Le numérateur est le gain direct (boucle ouverte) de r à y , et le dénominateur est un plus le gain en contournant la boucle de rétroaction, ce que l'on appelle le gain de boucle. Si , c'est-à-dire qu'il a une grande norme avec chaque valeur de s , et si , alors Y ( s ) est approximativement égal à R ( s ) et la sortie suit de près l'entrée de référence.

Contrôle de rétroaction PID

Un schéma fonctionnel d'un contrôleur PID dans une boucle de rétroaction, r ( t ) est la valeur de processus souhaitée ou "point de consigne", et y ( t ) est la valeur de processus mesurée.

Un contrôleur proportionnel-intégral-dérivé (contrôleur PID) est une technique de contrôle de mécanisme de rétroaction de boucle de contrôle largement utilisée dans les systèmes de contrôle.

Un contrôleur PID calcule en continu une valeur d'erreur e ( t ) comme la différence entre un point de consigne souhaité et une variable de processus mesurée et applique une correction basée sur des termes proportionnels , entiers et dérivés . PID est un sigle pour Proportionnel-Intégral-Dérivé , se référant aux trois termes opérant sur le signal d'erreur pour produire un signal de contrôle.

La compréhension théorique et l'application datent des années 1920, et elles sont mises en œuvre dans presque tous les systèmes de contrôle analogiques ; à l'origine dans les contrôleurs mécaniques, puis en utilisant l'électronique discrète et plus tard dans les ordinateurs de processus industriels. Le contrôleur PID est probablement la conception de contrôle de rétroaction la plus utilisée.

Si u ( t ) est le signal de commande envoyé au système, y ( t ) est la sortie mesurée et r ( t ) est la sortie souhaitée, et e ( t ) = r ( t ) − y ( t ) est le suivi erreur, un régulateur PID a la forme générale

La dynamique en boucle fermée souhaitée est obtenue en ajustant les trois paramètres K P , K I et K D , souvent de manière itérative par "réglage" et sans connaissance particulière d'un modèle de centrale. La stabilité peut souvent être assurée en utilisant uniquement le terme proportionnel. Le terme intégral permet le rejet d'une perturbation d'étape (souvent une spécification frappante en contrôle de processus ). Le terme dérivé est utilisé pour fournir un amortissement ou une mise en forme de la réponse. Les contrôleurs PID sont la classe de systèmes de contrôle la mieux établie : cependant, ils ne peuvent pas être utilisés dans plusieurs cas plus compliqués, en particulier si les systèmes MIMO sont pris en compte.

L'application de la transformation de Laplace donne l'équation du contrôleur PID transformé

avec la fonction de transfert du contrôleur PID

Comme exemple de réglage d'un régulateur PID dans le système en boucle fermée H ( s ) , considérons une installation de 1er ordre donnée par

A et T P sont des constantes. La production de l'installation est réinjectée dans

T F est aussi une constante. Maintenant, si nous définissons , K D = KT D , et , nous pouvons exprimer la fonction de transfert du contrôleur PID sous forme de série comme

En branchant P ( s ) , F ( s ) et C ( s ) dans la fonction de transfert en boucle fermée H ( s ) , nous trouvons qu'en définissant

H ( s ) = 1 . Avec ce réglage dans cet exemple, la sortie système suit exactement l'entrée de référence.

Cependant, en pratique, un différentiateur pur n'est ni physiquement réalisable ni souhaitable en raison de l'amplification du bruit et des modes de résonance dans le système. Par conséquent, une approche de type compensateur à avance de phase ou un différentiateur avec atténuation passe-bas sont utilisés à la place.

Théorie du contrôle linéaire et non linéaire

Le domaine de la théorie du contrôle peut être divisé en deux branches :

Techniques d'analyse - domaine fréquentiel et domaine temporel

Les techniques mathématiques d'analyse et de conception de systèmes de contrôle se répartissent en deux catégories différentes :

Contrairement à l'analyse du domaine fréquentiel de la théorie du contrôle classique, la théorie du contrôle moderne utilise la représentation de l' espace d'état dans le domaine temporel , un modèle mathématique d'un système physique comme un ensemble de variables d'entrée, de sortie et d'état liées par des équations différentielles du premier ordre. Pour faire abstraction du nombre d'entrées, de sorties et d'états, les variables sont exprimées sous forme de vecteurs et les équations différentielles et algébriques sont écrites sous forme matricielle (cette dernière n'étant possible que lorsque le système dynamique est linéaire). La représentation de l'espace d'état (également connue sous le nom d'« approche du domaine temporel ») fournit un moyen pratique et compact de modéliser et d'analyser des systèmes avec de multiples entrées et sorties. Avec les entrées et les sorties, nous aurions autrement à écrire des transformations de Laplace pour coder toutes les informations sur un système. Contrairement à l'approche du domaine fréquentiel, l'utilisation de la représentation de l'espace d'état n'est pas limitée aux systèmes avec des composants linéaires et des conditions initiales nulles. « Espace d'état » fait référence à l'espace dont les axes sont les variables d'état. L'état du système peut être représenté comme un point dans cet espace.

Interfaçage système - SISO & MIMO

Les systèmes de contrôle peuvent être divisés en différentes catégories en fonction du nombre d'entrées et de sorties.

  • Entrée unique sortie unique (SISO) - C'est le type le plus simple et le plus courant, dans lequel une sortie est contrôlée par un signal de commande. Les exemples sont l'exemple de régulateur de vitesse ci-dessus, ou un système audio , dans lequel l'entrée de commande est le signal audio d'entrée et la sortie est les ondes sonores du haut-parleur.
  • Multiple-input multiple-output (MIMO) – Ceux-ci se trouvent dans des systèmes plus complexes. Par exemple, les grands télescopes modernes tels que le Keck et le MMT ont des miroirs composés de nombreux segments séparés, chacun contrôlé par un actionneur . La forme de l'ensemble du miroir est constamment ajustée par un système de contrôle d' optique active MIMO utilisant l'entrée de plusieurs capteurs au niveau du plan focal, pour compenser les changements de forme du miroir dus à la dilatation thermique, la contraction, les contraintes lors de sa rotation et la distorsion du front d'onde dû aux turbulences dans l'atmosphère. Les systèmes compliqués tels que les réacteurs nucléaires et les cellules humaines sont simulés par un ordinateur en tant que grands systèmes de contrôle MIMO.

Sujets en théorie du contrôle

Stabilité

La stabilité d'un système dynamique général sans entrée peut être décrite avec les critères de stabilité de Lyapunov .

Par souci de simplicité, les descriptions suivantes se concentrent sur les systèmes linéaires à temps continu et à temps discret .

Mathématiquement, cela signifie que pour qu'un système linéaire causal soit stable, tous les pôles de sa fonction de transfert doivent avoir des valeurs réelles négatives, c'est-à-dire que la partie réelle de chaque pôle doit être inférieure à zéro. En pratique, la stabilité nécessite que les pôles complexes de la fonction de transfert résident

La différence entre les deux cas est simplement due à la méthode traditionnelle de tracé des fonctions de transfert en temps continu par rapport à temps discret. La transformée de Laplace continue est en coordonnées cartésiennes où l' axe est l'axe réel et la transformée en Z discrète est en coordonnées circulaires où l' axe est l'axe réel.

Lorsque les conditions appropriées ci-dessus sont satisfaites, un système est dit asymptotiquement stable ; les variables d'un système de contrôle asymptotiquement stable diminuent toujours par rapport à leur valeur initiale et ne présentent pas d'oscillations permanentes. Les oscillations permanentes se produisent lorsqu'un pôle a une partie réelle exactement égale à zéro (dans le cas du temps continu) ou un module égal à un (dans le cas du temps discret). Si une réponse du système simplement stable ne diminue ni ne croît avec le temps et n'a pas d'oscillations, elle est marginalement stable ; dans ce cas, la fonction de transfert du système a des pôles non répétés à l'origine du plan complexe (c'est-à-dire que leur composante réelle et complexe est nulle dans le cas du temps continu). Des oscillations sont présentes lorsque des pôles de partie réelle égale à zéro ont une partie imaginaire différente de zéro.

Si un système en question a une réponse impulsionnelle de

alors la transformée en Z (voir cet exemple ), est donnée par

qui a un pôle en (zéro partie imaginaire ). Ce système est BIBO (asymptotiquement) stable puisque le pôle est à l' intérieur du cercle unité.

Cependant, si la réponse impulsionnelle était

alors la transformation Z est

qui a un pôle à et n'est pas BIBO stable puisque le pôle a un module strictement supérieur à un.

De nombreux outils existent pour l'analyse des pôles d'un système. Ceux-ci incluent des systèmes graphiques comme le locus racine , les tracés de Bode ou les tracés de Nyquist .

Les changements mécaniques peuvent rendre l'équipement (et les systèmes de contrôle) plus stable. Les marins ajoutent du lest pour améliorer la stabilité des navires. Les navires de croisière utilisent des ailerons antiroulis qui s'étendent transversalement à partir du côté du navire sur environ 30 pieds (10 m) et sont continuellement tournés autour de leurs axes pour développer des forces qui s'opposent au roulis.

Contrôlabilité et observabilité

La contrôlabilité et l' observabilité sont des enjeux majeurs dans l'analyse d'un système avant de décider de la meilleure stratégie de contrôle à appliquer, voire de savoir s'il est même possible de contrôler ou de stabiliser le système. La contrôlabilité est liée à la possibilité de forcer le système dans un état particulier en utilisant un signal de commande approprié. Si un état n'est pas contrôlable, alors aucun signal ne pourra jamais contrôler l'état. Si un état n'est pas contrôlable, mais que sa dynamique est stable, alors l'état est dit stabilisable . L'observabilité est plutôt liée à la possibilité d' observer , grâce à des mesures de sortie, l'état d'un système. Si un état n'est pas observable, le contrôleur ne pourra jamais déterminer le comportement d'un état non observable et ne pourra donc pas l'utiliser pour stabiliser le système. Cependant, similaire à la condition de stabilité ci-dessus, si un état ne peut pas être observé, il peut toujours être détectable.

D'un point de vue géométrique, en regardant les états de chaque variable du système à contrôler, chaque "mauvais" état de ces variables doit être contrôlable et observable pour assurer un bon comportement dans le système en boucle fermée. C'est-à-dire que si l'une des valeurs propres du système n'est pas à la fois contrôlable et observable, cette partie de la dynamique restera intacte dans le système en boucle fermée. Si une telle valeur propre n'est pas stable, la dynamique de cette valeur propre sera présente dans le système en boucle fermée qui sera donc instable. Les pôles non observables ne sont pas présents dans la réalisation de la fonction de transfert d'une représentation de l'espace d'état, c'est pourquoi parfois cette dernière est préférée dans l'analyse des systèmes dynamiques.

Les solutions aux problèmes d'un système incontrôlable ou inobservable comprennent l'ajout d'actionneurs et de capteurs.

Spécification de contrôle

Plusieurs stratégies de contrôle différentes ont été conçues au cours des dernières années. Celles-ci varient de très générales (contrôleur PID), à d'autres consacrées à des classes de systèmes très particulières (notamment la robotique ou le régulateur de vitesse d'avion).

Un problème de contrôle peut avoir plusieurs spécifications. La stabilité, bien sûr, est toujours présente. Le contrôleur doit s'assurer que le système en boucle fermée est stable, quelle que soit la stabilité en boucle ouverte. Un mauvais choix de contrôleur peut même détériorer la stabilité du système en boucle ouverte, ce qui doit normalement être évité. Parfois on souhaiterait obtenir une dynamique particulière en boucle fermée : c'est à dire que les pôles aient , où est une valeur fixe strictement supérieure à zéro, au lieu de simplement demander que .

Une autre spécification typique est le rejet d'une perturbation de pas ; l'inclusion d'un intégrateur dans la chaîne en boucle ouverte (c'est-à-dire directement avant le système sous contrôle) y parvient facilement. D'autres classes de perturbations nécessitent l'inclusion de différents types de sous-systèmes.

D'autres spécifications "classiques" de la théorie du contrôle concernent la réponse temporelle du système en boucle fermée. Ceux-ci incluent le temps de montée (le temps nécessaire au système de contrôle pour atteindre la valeur souhaitée après une perturbation), le dépassement de crête (la valeur la plus élevée atteinte par la réponse avant d'atteindre la valeur souhaitée) et d'autres ( temps de stabilisation , quart de décroissance). Les spécifications du domaine fréquentiel sont généralement liées à la robustesse (voir ci-après).

Les évaluations de performance modernes utilisent une certaine variation de l'erreur de suivi intégrée (IAE, ISA, CQI).

Identification et robustesse du modèle

Un système de contrôle doit toujours avoir une certaine propriété de robustesse. Un contrôleur robuste est tel que ses propriétés ne changent pas beaucoup s'il est appliqué à un système légèrement différent du système mathématique utilisé pour sa synthèse. Cette exigence est importante, car aucun système physique réel ne se comporte vraiment comme la série d'équations différentielles utilisées pour le représenter mathématiquement. Généralement, un modèle mathématique plus simple est choisi afin de simplifier les calculs, sinon, la véritable dynamique du système peut être si compliquée qu'un modèle complet est impossible.

Identification du système

Le processus de détermination des équations qui régissent la dynamique du modèle est appelé identification du système . Cela peut être fait hors ligne : par exemple, en exécutant une série de mesures à partir desquelles calculer un modèle mathématique approximatif, généralement sa fonction de transfert ou sa matrice. Une telle identification à partir de la sortie, cependant, ne peut pas prendre en compte des dynamiques non observables. Parfois le modèle est construit directement à partir d'équations physiques connues, par exemple, dans le cas d'un système masse-ressort-amortisseur on sait que . Même en supposant qu'un modèle « complet » soit utilisé dans la conception du contrôleur, tous les paramètres inclus dans ces équations (appelés « paramètres nominaux ») ne sont jamais connus avec une précision absolue ; le système de contrôle devra se comporter correctement même lorsqu'il est connecté à un système physique avec des valeurs de paramètres réelles éloignées de la valeur nominale.

Certaines techniques de contrôle avancées incluent un processus d'identification "en ligne" (voir plus loin). Les paramètres du modèle sont calculés ("identifiés") pendant que le contrôleur lui-même fonctionne. De cette façon, si une variation drastique des paramètres s'ensuit, par exemple, si le bras du robot lâche un poids, le contrôleur s'ajustera en conséquence afin d'assurer la bonne performance.

Une analyse

L'analyse de la robustesse d'un système de contrôle SISO (single input single output) peut être réalisée dans le domaine fréquentiel, en considérant la fonction de transfert du système et en utilisant les diagrammes de Nyquist et Bode . Les sujets comprennent la marge de gain et de phase et la marge d'amplitude. Pour le MIMO (multi-input multi output) et, en général, les systèmes de contrôle plus compliqués, il faut considérer les résultats théoriques élaborés pour chaque technique de contrôle (voir section suivante). C'est-à-dire que si des qualités de robustesse particulières sont nécessaires, l'ingénieur doit porter son attention sur une technique de contrôle en incluant ces qualités dans ses propriétés.

Contraintes

Un problème particulier de robustesse est l'exigence pour un système de contrôle de fonctionner correctement en présence de contraintes d'entrée et d'état. Dans le monde physique, chaque signal est limité. Il peut arriver qu'un contrôleur envoie des signaux de contrôle qui ne peuvent pas être suivis par le système physique, par exemple, en essayant de faire tourner une vanne à une vitesse excessive. Cela peut produire un comportement indésirable du système en boucle fermée, voire endommager ou casser des actionneurs ou d'autres sous-systèmes. Des techniques de contrôle spécifiques sont disponibles pour résoudre le problème : modèle de contrôle prédictif (voir plus loin), et systèmes anti-wind up . Ce dernier est constitué d'un bloc de contrôle supplémentaire qui garantit que le signal de contrôle ne dépasse jamais un seuil donné.

Classifications du système

Contrôle des systèmes linéaires

Pour les systèmes MIMO, le placement des pôles peut être effectué mathématiquement à l'aide d'une représentation dans l'espace d'état du système en boucle ouverte et en calculant une matrice de rétroaction attribuant les pôles aux positions souhaitées. Dans les systèmes complexes, cela peut nécessiter des capacités de calcul assisté par ordinateur et ne peut pas toujours garantir la robustesse. De plus, tous les états du système ne sont généralement pas mesurés et des observateurs doivent donc être inclus et incorporés dans la conception du placement des pôles.

Contrôle des systèmes non linéaires

Les processus dans des industries telles que la robotique et l' industrie aérospatiale ont généralement une forte dynamique non linéaire. En théorie du contrôle, il est parfois possible de linéariser de telles classes de systèmes et d'appliquer des techniques linéaires, mais dans de nombreux cas, il peut être nécessaire de concevoir à partir de zéro des théories permettant le contrôle de systèmes non linéaires. Ceux-ci, par exemple, la linéarisation par rétroaction , le backstepping , le contrôle de mode glissant, le contrôle de linéarisation de trajectoire tirent normalement parti des résultats basés sur la théorie de Lyapunov . La géométrie différentielle a été largement utilisée comme outil pour généraliser des concepts de contrôle linéaire bien connus au cas non linéaire, ainsi que pour montrer les subtilités qui en font un problème plus difficile. La théorie du contrôle a également été utilisée pour déchiffrer le mécanisme neuronal qui dirige les états cognitifs.

Contrôle des systèmes décentralisés

Lorsque le système est contrôlé par plusieurs contrôleurs, le problème est un contrôle décentralisé. La décentralisation est utile à bien des égards, par exemple, elle aide les systèmes de contrôle à fonctionner sur une zone géographique plus large. Les agents des systèmes de contrôle décentralisés peuvent interagir en utilisant des canaux de communication et coordonner leurs actions.

Contrôle des systèmes déterministes et stochastiques

Un problème de contrôle stochastique est un problème dans lequel l'évolution des variables d'état est soumise à des chocs aléatoires provenant de l'extérieur du système. Un problème de commande déterministe n'est pas soumis à des chocs aléatoires externes.

Principales stratégies de contrôle

Chaque système de contrôle doit d'abord garantir la stabilité du comportement en boucle fermée. Pour les systèmes linéaires , cela peut être obtenu en plaçant directement les pôles. Les systèmes de contrôle non linéaires utilisent des théories spécifiques (normalement basées sur la théorie d' Aleksandr Lyapunov ) pour assurer la stabilité sans tenir compte de la dynamique interne du système. La possibilité de remplir différentes spécifications varie selon le modèle considéré et la stratégie de contrôle choisie.

Liste des principales techniques de contrôle
  • Le contrôle adaptatif utilise l'identification en ligne des paramètres du procédé, ou la modification des gains du contrôleur, obtenant ainsi de fortes propriétés de robustesse. Les commandes adaptatives ont été appliquées pour la première fois dans l' industrie aérospatiale dans les années 1950 et ont rencontré un succès particulier dans ce domaine.
  • Un système de contrôle hiérarchique est un type de système de contrôle dans lequel un ensemble de dispositifs et de logiciels de gestion est organisé dans une arborescence hiérarchique . Lorsque les liens dans l'arbre sont mis en œuvre par un réseau informatique , alors ce système de contrôle hiérarchique est également une forme de système de contrôle en réseau .
  • Le contrôle intelligent utilise diverses approches informatiques de l'IA telles que les réseaux de neurones artificiels , la probabilité bayésienne , la logique floue , l'apprentissage automatique , le calcul évolutif et les algorithmes génétiques ou une combinaison de ces méthodes, telles que les algorithmes neuro-flous , pour contrôler un système dynamique .
  • Le contrôle optimal est une technique de contrôle particulière dans laquelle le signal de contrôle optimise un certain « indice de coût » : par exemple, dans le cas d'un satellite, les poussées de jet nécessaires pour l'amener à la trajectoire désirée qui consomme le moins de carburant. Deux méthodes de conception de contrôle optimal ont été largement utilisées dans les applications industrielles, car il a été démontré qu'elles peuvent garantir la stabilité en boucle fermée. Il s'agit du contrôle prédictif de modèle (MPC) et du contrôle linéaire-quadratique-gaussien (LQG). Le premier peut prendre en compte plus explicitement les contraintes sur les signaux dans le système, ce qui est une caractéristique importante dans de nombreux processus industriels. Cependant, la structure de "contrôle optimal" dans MPC n'est qu'un moyen d'atteindre un tel résultat, car elle n'optimise pas un véritable indice de performance du système de contrôle en boucle fermée. Avec les contrôleurs PID, les systèmes MPC sont la technique de contrôle la plus largement utilisée dans le contrôle de processus .
  • Le contrôle robuste traite explicitement de l'incertitude dans son approche de la conception du contrôleur. Les contrôleurs conçus à l'aide de méthodes de contrôle robustes ont tendance à être capables de gérer de petites différences entre le système réel et le modèle nominal utilisé pour la conception. Les premières méthodes de Bode et d'autres étaient assez robustes ; les méthodes d'espace d'état inventées dans les années 1960 et 1970 manquaient parfois de robustesse. Des exemples de techniques de contrôle robustes modernes incluent la mise en forme de boucle H-infinity développée par Duncan McFarlane et Keith Glover , le contrôle en mode coulissant (SMC) développé par Vadim Utkin et les protocoles sûrs conçus pour le contrôle de grandes populations hétérogènes de charges électriques dans les applications Smart Power Grid. . Les méthodes robustes visent à obtenir des performances et/ou une stabilité robustes en présence de petites erreurs de modélisation.
  • Le contrôle stochastique traite de la conception du contrôle avec une incertitude dans le modèle. Dans les problèmes de contrôle stochastique typiques, on suppose qu'il existe du bruit aléatoire et des perturbations dans le modèle et le contrôleur, et la conception du contrôle doit prendre en compte ces écarts aléatoires.
  • Le contrôle de criticité auto-organisé peut être défini comme des tentatives d'interférence dans les processus par lesquels le système auto-organisé dissipe l'énergie.

Les personnes dans les systèmes et le contrôle

De nombreuses personnalités actives et historiques ont apporté une contribution significative à la théorie du contrôle, notamment

Voir également

Exemples de systèmes de contrôle
Sujets en théorie du contrôle
Autres sujets connexes

Les références

Lectures complémentaires

Pour le génie chimique
  • Luyben, Guillaume (1989). Modélisation, simulation et contrôle de processus pour les ingénieurs chimistes . Colline McGraw. ISBN 978-0-07-039159-8.

Liens externes