Aller au contenu

Théorie du contrôle

Un article de Wikipédia, l'encyclopédie libre.

En mathématiques et en sciences de l'ingénieur, la théorie du contrôle a comme objet l'étude du comportement de systèmes dynamiques à partir de leur représentation mathématique, paramétrée par des entrées exogènes[1],[2]. Elle peut être vue comme une branche de l'automatique spécialisée dans la synthèse de contrôleurs délivrant des lois de commande aux systèmes dynamiques, en boucle ouverte ou en boucle fermée. Elle inclus également la synthèse d'observateurs, utiles à l'estimation de quantités physiques qui ne sont pas directement mesurables.

Le cadre formel[modifier | modifier le code]

On se place dans un ensemble, l'espace d'état (avec généralement ), sur lequel on définit une dynamique, c'est-à-dire une loi mathématiques qui depuis n'importe quel position initiale , fournit une trajectoire appartenant à l'espace d'état , fonction du temps , et dépendante des valeurs d'un paramètre a priori exogène, le paramètre de contrôle, ou paramètre d'entrée noté , et qui prend ses valeurs dans un espace des contrôles (avec généralement ). Lorsque est plongé dans un espace de dimension finie, les coordonnées de sont appelées variables d'état.

Si le déroulement du temps est modélisé par un entier (), le système est alors dit temps-discret (le temps ne prend que des valeurs entières). L'état du système ne dépend alors généralement que de l'état du système et du paramètre de contrôle à l'instant précédent. La dynamique du système est alors définie par l'intermédiaire d'une fonction ; elle s'écrit:

Si le déroulement du temps est modélisé par un réel (), le système est alors dit temps-continu (le temps s'écoule continument). Dans ce cas, la dynamique du système est donnée par une équation différentielle ordinaire; elle s'écrit:

Dans ce contexte est la dérivée temporelle de à l'instant , et il est alors généralement nécessaire de vérifier l'unicité de la trajectoire .

En pratique, on ne s'intéresse pas systématiquement à l'évolution de toutes les variables d'état, mais uniquement à certaines quantités dites de sortie, notées , à valeur dans un espace des sorties (avec généralement ). Ces sorties sont alors définie par l'intermédiaire d'une fonction :

Il est parfois nécessaire de distinguer les sorties mesurables des sorties contrôlées . Les sorties mesurables sont les quantités que l'on suppose accessibles en temps-réel, et que l'on peut notamment utiliser pour synthétiser un contrôle . Les sorties contrôlées sont quant à elles les quantités dont on souhaite manipuler l'évolution par le biais d'un contrôle . Ces types de sorties ne sont pas mutuellement exclusifs: on peut tout à fait vouloir contrôler une sortie que l'on sait mesurer.

Problématiques[modifier | modifier le code]

La question principale de la théorie du contrôle est: quel est le comportement des sorties contrôlées en fonction de celui de entrées ? Plus spécifiquement, on peut lister plusieurs grandes problématiques:

  • L'accessibilité: peut-on choisir de telle sorte que la trajectoire atteigne la sortie , une valeur cible choisie par ailleurs?
  • La stabilisabilité: peut-on choisir de telle sorte que la trajectoire se stabilise asymptotiquement en , une valeur cible choisie par ailleurs? On parle alors de problème de régulation[3],[4].
  • La poursuite de trajectoire: peut-on choisir de telle sorte que la trajectoire se stabilise asymptotiquement le long d'une trajectoire de consigne choisie par ailleurs? On parle alors de problème d'asservissement[3],[4].

Quelques exemples[modifier | modifier le code]

  • la conduite d'une voiture est un système dynamique contrôlé: le contrôle est l'angle du volant, les pressions exercée sur le frein et sur l'accélérateur, et l'état est la position de la voiture sur la route.
  • le jeu de tennis est un système dynamique contrôlé: le contrôle est ma position sur le court ainsi que la position et le mouvement de ma raquette, et l'état est la position de la balle.
  • le pilotage d'une torpille est aussi un système dynamique contrôlé: le contrôle est la position de ses ailettes, et l'état la position de la torpille.

Ces exemples montrent que l'objectif du contrôle est qualitativement assez naturel. Par exemple pour une voiture, il s'agit de rester sur la route ou de gagner une course, pour le tennis de renvoyer la balle sur le court, et pour la torpille de couler un navire qui se déplace.

Références[modifier | modifier le code]

  1. Laurent Praly & Delphine Bresch-Pietri, Fonctions de Lyapunov : stabilité & stabilisation, Spartacus-Idh,
  2. Frédéric Bonnans & Pierre Rouchon, Commande et optimisation de systemes dynamiques, Editions Ecole Polytechnique, (ISBN 978-2-7302-1251-9)
  3. a et b « Régulation et asservissement - Première partie : Différences, types d'applications, aspect théorique », sur ww2.ac-poitiers.fr (consulté le )
  4. a et b Mustapha NAJAH-IT4Business Maroc | http://www.it4business.ma, « Instrumentation industrielle Régulation et Asservissement », sur Cabinet NPM| CONSEIL| ETUDE| FORMATION, (consulté le )

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]