SEO: Optimisation mathématique — Wikipédia

SEO: Optimisation mathématique — Wikipédia

Etude d’algorithmes mathématiques pour des problèmes d’optimisation

SEO: Optimisation mathématique — Wikipédia
Graphique d’un donné par z = f(X, oui) = −(X² + oui²) + 4. Le maximum global à (x, y, z) = (0, 0, 4) est indiqué par un point bleu.
SEO: Optimisation mathématique — Wikipédia
Nelder-Mead recherche minimale de la fonction de Simionescu. Les sommets du simplexe sont classés par leurs valeurs, 1 ayant le plus bas (fx meilleure valeur.

Optimisation mathématique (autrement orthographié optimisation) ou programmation mathématique est la sélection d’un meilleur élément, en ce qui concerne certains critères, à partir d’un ensemble d’alternatives disponibles.[1] Des problèmes d’optimisation se posent dans toutes les disciplines quantitatives de l’informatique et de l’ingénierie[2] à la recherche opérationnelle et à l’économie, et le développement de méthodes de résolution intéresse les mathématiques depuis des siècles.[3]

Dans le cas le plus simple, un problème d’optimisation consiste à maximiser ou à minimiser une fonction réelle en choisissant systématiquement des valeurs d’entrée dans un ensemble autorisé et en calculant la valeur de la fonction. La généralisation de la théorie et des techniques d’optimisation à d’autres formulations constitue un vaste domaine des mathématiques appliquées. Plus généralement, l’optimisation comprend la recherche des « meilleures valeurs disponibles » d’une fonction objectif étant donné un domaine (ou entrée) défini, y compris une variété de différents types de fonctions objectifs et différents types de domaines.

Problèmes d’optimisation[[[[Éditer]

Un problème d’optimisation peut être représenté de la manière suivante :

Étant donné: une fonction F : UNE d’un certain ensemble UNE aux vrais nombres
Recherché: un élément X0 ?? UNE tel que F(X0) F(X) pour tous X ?? UNE (« minimisation ») ou de telle sorte que F(X0) F(X) pour tous X ?? UNE (« maximisation »).

Une telle formulation est appelée problème d’optimisation ou un problème de programmation mathématique (un terme non directement lié à la programmation informatique, mais toujours utilisé par exemple dans la programmation linéaire – voir Historique ci-dessous). De nombreux problèmes réels et théoriques peuvent être modélisés dans ce cadre général.

Puisque ce qui suit est valable

avec

il est plus pratique de résoudre les problèmes de minimisation. Cependant, le point de vue opposé serait également valable.

Les problèmes formulés à l’aide de cette technique dans les domaines de la physique peuvent se référer à la technique comme minimisation de l’énergie, en parlant de la valeur de la fonction F comme représentant l’énergie du système modélisé. En apprentissage automatique, il est toujours nécessaire d’évaluer en continu la qualité d’un modèle de données en utilisant une fonction de coût où un minimum implique un ensemble de paramètres éventuellement optimaux avec une erreur optimale (la plus faible).

Typiquement, UNE est un sous-ensemble de l’espace euclidien ??m, souvent spécifié par un ensemble de contraintes, les égalités ou les inégalités que les membres de UNE avoir à satisfaire. Le domaine UNE de F est appelé le espace de recherche ou la ensemble de choix, tandis que les éléments de UNE sont appelés solutions candidates ou solutions réalisables.

La fonction F est appelé, diversement, un fonction objectif, une fonction de perte ou fonction de coût (minimisation),[4] une fonction d’utilité ou fonction de remise en forme (maximisation), ou, dans certains domaines, une fonction énergétique ou énergie fonctionnelle. Une solution réalisable qui minimise (ou maximise, si tel est le but) la fonction objectif est appelée un solution optimale.

En mathématiques, les problèmes d’optimisation conventionnels sont généralement énoncés en termes de minimisation.

UNE minimum local X* est défini comme un élément pour lequel il existe des ?? > 0 tel que

l’expression F(X*) ≤ F(X) détient;

c’est-à-dire sur une certaine région autour X* toutes les valeurs de la fonction sont supérieures ou égales à la valeur de cet élément.
Les maxima locaux sont définis de la même manière.

Alors qu’un minimum local est au moins aussi bon que n’importe quel élément voisin, un minimum global est au moins aussi bon que chaque élément réalisable.
Généralement, à moins que la fonction objectif ne soit convexe dans un problème de minimisation, il peut y avoir plusieurs minima locaux.
Dans un problème convexe, s’il y a un minimum local qui est intérieur (pas sur le bord de l’ensemble des éléments réalisables), c’est aussi le minimum global, mais un problème non convexe peut avoir plus d’un minimum local dont tous n’ont pas besoin être des minima globaux.

Un grand nombre d’algorithmes proposés pour résoudre les problèmes non convexes – y compris la majorité des solveurs disponibles dans le commerce – ne sont pas capables de faire une distinction entre les solutions localement optimales et les solutions globalement optimales, et traiteront les premières comme des solutions réelles au problème d’origine. L’optimisation globale est la branche des mathématiques appliquées et de l’analyse numérique qui s’intéresse au développement d’algorithmes déterministes capables de garantir la convergence en temps fini vers la solution optimale réelle d’un problème non convexe.

Notation[[[[Éditer]

Les problèmes d’optimisation sont souvent exprimés avec une notation spéciale. Voici quelques exemples:

Valeur minimale et maximale d’une fonction[[[[Éditer]

Considérez la notation suivante :

Ceci dénote la valeur minimale de la fonction objectif X2 + 1, lors du choix X de l’ensemble des nombres réels ??. La valeur minimale dans ce cas est 1, apparaissant à x = 0.

De même, la notation

demande la valeur maximale de la fonction objectif 2X, où X peut être n’importe quel nombre réel. Dans ce cas, il n’y a pas de maximum car la fonction objectif est illimitée, donc la réponse est « infini » ou « indéfini ».

Arguments d’entrée optimaux[[[[Éditer]

Considérez la notation suivante :

ou équivalent

Ceci représente la valeur (ou les valeurs) de l’argument X dans l’intervalle (−∞,−1] qui minimise (ou minimise) la fonction objectif X2 + 1 (la valeur minimale réelle de cette fonction n’est pas ce que le problème demande). Dans ce cas, la réponse est X = -1, puisque X = 0 est infaisable, c’est-à-dire qu’il n’appartient pas à l’ensemble des possibles.

De la même manière,

ou équivalent

représente le {X, oui} paire (ou paires) qui maximise (ou maximise) la valeur de la fonction objectif X car oui, avec la contrainte supplémentaire que X se situer dans l’intervalle [−5,5] (encore une fois, la valeur maximale réelle de l’expression n’a pas d’importance). Dans ce cas, les solutions sont les paires de la forme {5, 2k??} et {-5, (2k + 1)??}, où k s’étend sur tous les entiers.

Les opérateurs arg min et arg max sont parfois aussi écrits comme argmin et argmax, et représente argument du minimum et argument du maximum.

Histoire[[[[Éditer]

Fermat et Lagrange ont trouvé des formules basées sur le calcul pour identifier les optima, tandis que Newton et Gauss ont proposé des méthodes itératives pour aller vers un optimum.

Le terme « programmation linéaire » pour certains cas d’optimisation était dû à George B. Dantzig, bien qu’une grande partie de la théorie ait été introduite par Leonid Kantorovich en 1939. (La programmation dans ce contexte ne fait pas référence à la programmation informatique, mais provient de l’utilisation de programme par l’armée américaine pour se référer aux programmes d’entraînement et de logistique proposés, qui étaient les problèmes que Dantzig étudiait à cette époque.) Dantzig a publié l’algorithme Simplex en 1947 et John von Neumann a développé la théorie de la dualité la même année.[[[[citation requise]

D’autres chercheurs notables en optimisation mathématique sont les suivants :

Principaux sous-champs[[[[Éditer]

  • La programmation convexe étudie le cas où la fonction objectif est convexe (minimisation) ou concave (maximisation) et l’ensemble de contraintes est convexe. Cela peut être considéré comme un cas particulier de programmation non linéaire ou comme une généralisation de la programmation quadratique linéaire ou convexe.
    • La programmation linéaire (LP), un type de programmation convexe, étudie le cas dans lequel la fonction objectif F est linéaire et les contraintes sont spécifiées en utilisant uniquement des égalités et des inégalités linéaires. Un tel ensemble de contraintes est appelé un polyèdre ou un polytope s’il est borné.
    • La programmation conique du second ordre (SOCP) est un programme convexe et comprend certains types de programmes quadratiques.
    • La programmation semi-définie (SDP) est un sous-domaine de l’optimisation convexe où les variables sous-jacentes sont des matrices semi-définies. C’est une généralisation de la programmation quadratique linéaire et convexe.
    • La programmation conique est une forme générale de programmation convexe. LP, SOCP et SDP peuvent tous être considérés comme des programmes coniques avec le type de cône approprié.
    • La programmation géométrique est une technique par laquelle les contraintes objectives et d’inégalité exprimées sous forme de posynômes et les contraintes d’égalité sous forme de monômes peuvent être transformées en un programme convexe.
  • La programmation en nombres entiers étudie les programmes linéaires dans lesquels certaines ou toutes les variables sont contraintes de prendre des valeurs entières. Ce n’est pas convexe, et en général beaucoup plus difficile que la programmation linéaire régulière.
  • La programmation quadratique permet à la fonction objectif d’avoir des termes quadratiques, tandis que l’ensemble des possibles doit être spécifié avec des égalités et des inégalités linéaires. Pour des formes spécifiques du terme quadratique, il s’agit d’un type de programmation convexe.
  • La programmation fractionnaire étudie l’optimisation des rapports de deux fonctions non linéaires. La classe spéciale des programmes fractionnaires concaves peut être transformée en un problème d’optimisation convexe.
  • La programmation non linéaire étudie le cas général dans lequel la fonction objectif ou les contraintes ou les deux contiennent des parties non linéaires. Cela peut être ou non un programme convexe. En général, le fait que le programme soit convexe affecte la difficulté de le résoudre.
  • La programmation stochastique étudie le cas dans lequel certaines contraintes ou paramètres dépendent de variables aléatoires.
  • L’optimisation robuste est, comme la programmation stochastique, une tentative de capturer l’incertitude dans les données sous-jacentes au problème d’optimisation. L’optimisation robuste vise à trouver des solutions valables sous toutes les réalisations possibles des incertitudes définies par un ensemble d’incertitudes.
  • L’optimisation combinatoire concerne les problèmes où l’ensemble des solutions réalisables est discret ou peut être réduit à un discret.
  • L’optimisation stochastique est utilisée avec des mesures de fonction aléatoires (bruyantes) ou des entrées aléatoires dans le processus de recherche.
  • L’optimisation de dimension infinie étudie le cas où l’ensemble des solutions réalisables est un sous-ensemble d’un espace de dimension infinie, tel qu’un espace de fonctions.
  • Les heuristiques et les métaheuristiques font peu ou pas d’hypothèses sur le problème en cours d’optimisation. Habituellement, les heuristiques ne garantissent pas qu’une solution optimale doit être trouvée. D’autre part, les heuristiques sont utilisées pour trouver des solutions approximatives à de nombreux problèmes d’optimisation complexes.
  • La satisfaction de contrainte étudie le cas où la fonction objectif F est constant (ceci est utilisé dans l’intelligence artificielle, en particulier dans le raisonnement automatisé).
    • La programmation par contraintes est un paradigme de programmation dans lequel les relations entre les variables sont énoncées sous forme de contraintes.
  • La programmation disjonctive est utilisée lorsqu’au moins une contrainte doit être satisfaite mais pas toutes. Il est particulièrement utile dans l’ordonnancement.
  • La cartographie spatiale est un concept de modélisation et d’optimisation d’un système d’ingénierie avec une précision de modèle haute fidélité (fine) exploitant un modèle grossier ou de substitution physiquement significatif.

Dans un certain nombre de sous-domaines, les techniques sont conçues principalement pour l’optimisation dans des contextes dynamiques (c’est-à-dire la prise de décision dans le temps) :

Optimisation multi-objectifs[[[[Éditer]

L’ajout de plusieurs objectifs à un problème d’optimisation ajoute de la complexité. Par exemple, pour optimiser une conception structurelle, on souhaiterait une conception à la fois légère et rigide. Lorsque deux objectifs entrent en conflit, un compromis doit être créé. Il peut y avoir une conception la plus légère, une conception la plus rigide et un nombre infini de conceptions qui constituent un compromis entre poids et rigidité. L’ensemble des conceptions de compromis qui améliorent un critère au détriment d’un autre est connu sous le nom d’ensemble de Pareto. La courbe créée traçant le poids par rapport à la rigidité des meilleurs modèles est connue sous le nom de frontière de Pareto.

Un design est jugé « Pareto optimal » (équivalent, « Pareto efficient » ou dans l’ensemble de Pareto) s’il n’est dominé par aucun autre design : s’il est pire qu’un autre design à certains égards et pas meilleur à aucun égard, alors elle est dominée et n’est pas optimale Pareto.

Le choix parmi les solutions « Pareto optimales » pour déterminer la « solution préférée » est délégué au décideur. En d’autres termes, définir le problème comme une optimisation multi-objectifs signale que certaines informations sont manquantes : les objectifs souhaitables sont donnés mais les combinaisons d’entre eux ne sont pas notées les unes par rapport aux autres. Dans certains cas, les informations manquantes peuvent être obtenues par des sessions interactives avec le décideur.

Les problèmes d’optimisation multi-objectifs ont été généralisés en problèmes d’optimisation vectorielle où l’ordre (partiel) n’est plus donné par l’ordre de Pareto.

Optimisation multimodale ou globale[[[[Éditer]

Les problèmes d’optimisation sont souvent multimodaux ; c’est-à-dire qu’ils possèdent plusieurs bonnes solutions. Elles pourraient toutes être globalement bonnes (même valeur de fonction de coût) ou il pourrait y avoir un mélange de solutions globalement bonnes et localement bonnes. L’obtention de toutes (ou au moins de certaines) des multiples solutions est l’objectif d’un optimiseur multimodal.

Les techniques d’optimisation classiques en raison de leur approche itérative ne fonctionnent pas de manière satisfaisante lorsqu’elles sont utilisées pour obtenir plusieurs solutions, car il n’est pas garanti que différentes solutions seront obtenues même avec des points de départ différents dans plusieurs exécutions de l’algorithme.

Les approches courantes des problèmes d’optimisation globale, où plusieurs extrema locaux peuvent être présents, incluent les algorithmes évolutionnaires, l’optimisation bayésienne et le recuit simulé.

Classification des points critiques et des extrema[[[[Éditer]

Problème de faisabilité[[[[Éditer]

Les problème de satisfaisabilité, aussi appelé le problème de faisabilité, est juste le problème de trouver une solution réalisable sans égard à la valeur objective. Cela peut être considéré comme le cas particulier de l’optimisation mathématique où la valeur objective est la même pour chaque solution, et donc toute solution est optimale.

De nombreux algorithmes d’optimisation doivent commencer à partir d’un point réalisable. Une façon d’obtenir un tel point consiste à assouplir les conditions de faisabilité à l’aide d’une variable d’écart ; avec suffisamment de mou, n’importe quel point de départ est faisable. Ensuite, réduisez cette variable de marge jusqu’à ce que la marge soit nulle ou négative.

Existence[[[[Éditer]

Le théorème des valeurs extrêmes de Karl Weierstrass énonce qu’une fonction continue à valeur réelle sur un ensemble compact atteint sa valeur maximale et minimale. Plus généralement, une fonction semi-continue inférieure sur un ensemble compact atteint son minimum ; une fonction semi-continue supérieure sur un ensemble compact atteint son point ou vue maximum.

Conditions nécessaires à l’optimalité[[[[Éditer]

L’un des théorèmes de Fermat stipule que les optima des problèmes sans contraintes se trouvent aux points stationnaires, où la dérivée première ou le gradient de la fonction objectif est nul (voir test de la dérivée première). Plus généralement, ils peuvent se trouver aux points critiques, où la dérivée première ou le gradient de la fonction objectif est nul ou indéfini, ou à la frontière de l’ensemble de choix. Une équation (ou un ensemble d’équations) indiquant que la ou les dérivées premières sont égales à zéro à un optimum intérieur est appelée une « condition de premier ordre » ou un ensemble de conditions de premier ordre.

Les optima des problèmes d’égalité peuvent être trouvés par la méthode du multiplicateur de Lagrange. Les optima des problèmes avec des contraintes d’égalité et/ou d’inégalité peuvent être trouvés en utilisant les « conditions de Karush–Kuhn–Tucker ».

Des conditions suffisantes pour l’optimalité[[[[Éditer]

Alors que le test de la dérivée première identifie les points qui pourraient être extrêmes, ce test ne distingue pas un point qui est un minimum d’un point qui est un maximum ou qui n’est ni l’un ni l’autre. Lorsque la fonction objectif est deux fois dérivable, ces cas peuvent être distingués en vérifiant la dérivée seconde ou la matrice des dérivées secondes (appelée la matrice hessienne) dans les problèmes sans contraintes, ou la matrice des dérivées secondes de la fonction objectif et les contraintes appelées le bordé Hessian dans les problèmes contraints. Les conditions qui distinguent les maxima, ou les minima, des autres points stationnaires sont appelées « conditions du second ordre » (voir « Test de la dérivée seconde »). Si une solution candidate satisfait les conditions du premier ordre, alors la satisfaction des conditions du second ordre est également suffisante pour établir au moins l’optimalité locale.

Sensibilité et continuité des optima[[[[Éditer]

Le théorème de l’enveloppe décrit comment la valeur d’une solution optimale change lorsqu’un paramètre sous-jacent change. Le processus de calcul de ce changement est appelé statique comparative.

Le théorème du maximum de Claude Berge (1963) décrit la continuité d’une solution optimale en fonction des paramètres sous-jacents.

Calcul d’optimisation[[[[Éditer]

Pour les problèmes sans contraintes avec des fonctions deux fois différentiables, certains points critiques peuvent être trouvés en trouvant les points où le gradient de la fonction objectif est nul (c’est-à-dire les points stationnaires). Plus généralement, un sous-gradient nul certifie qu’un minimum local a été trouvé pour les problèmes de minimisation avec des fonctions convexes et d’autres fonctions localement Lipschitz.

De plus, les points critiques peuvent être classés en utilisant la définition de la matrice Hessian : Si la Hessian est positif défini en un point critique, alors le point est un minimum local ; si la matrice hessienne est définie négative, alors le point est un maximum local ; enfin, s’il est indéfini, alors le point est une sorte de point de selle.

Les problèmes contraints peuvent souvent être transformés en problèmes non contraints à l’aide de multiplicateurs de Lagrange. La relaxation lagrangienne peut également fournir des solutions approximatives à des problèmes contraints difficiles.

Lorsque la fonction objectif est une fonction convexe, alors tout minimum local sera également un minimum global. Il existe des techniques numériques efficaces pour minimiser les fonctions convexes, telles que les méthodes des points intérieurs.

Techniques d’optimisation informatique[[[[Éditer]

Pour résoudre des problèmes, les chercheurs peuvent utiliser des algorithmes qui se terminent par un nombre fini d’étapes, ou des méthodes itératives qui convergent vers une solution (sur une classe spécifiée de problèmes), ou des heuristiques qui peuvent fournir des solutions approximatives à certains problèmes (bien que leurs itérations n’aient pas besoin d’être converger).

Algorithmes d’optimisation[[[[Éditer]

Méthodes itératives[[[[Éditer]

Les méthodes itératives utilisées pour résoudre les problèmes de programmation non linéaire diffèrent selon qu’elles évaluent des Hessiens, des gradients ou uniquement des valeurs de fonction. Alors que l’évaluation des Hessiens (H) et des gradients (G) améliore le taux de convergence, pour les fonctions pour lesquelles ces quantités existent et varient suffisamment régulièrement, de telles évaluations augmentent la complexité de calcul (ou le coût de calcul) de chaque itération. Dans certains cas, la complexité de calcul peut être excessivement élevée.

Un critère majeur pour les optimiseurs est juste le nombre d’évaluations de fonctions requises car cela représente souvent déjà un effort de calcul important, généralement beaucoup plus que dans l’optimiseur lui-même, qui doit principalement opérer sur les N variables. Les dérivés fournissent des informations détaillées pour ces optimiseurs, mais sont encore plus difficiles à calculer, par ex. l’approximation du gradient prend au moins N+1 évaluations de fonction. Pour les approximations des dérivées 2 (collectées dans la matrice hessienne), le nombre d’évaluations de fonctions est de l’ordre de N². La méthode de Newton nécessite les dérivées d’ordre 2, donc pour chaque itération, le nombre d’appels de fonction est de l’ordre de N², mais pour un optimiseur de gradient pur plus simple, il n’est que de N. Cependant, les optimiseurs de gradient ont généralement besoin de plus d’itérations que l’algorithme de Newton. Lequel est le meilleur en ce qui concerne le nombre d’appels de fonction dépend du problème lui-même.

  • Méthodes qui évaluent les Hessiens (ou les Hessiens approximatifs, en utilisant des différences finies) :
    • La méthode de Newton
    • Programmation quadratique séquentielle : une méthode basée sur Newton pour les petites et moyennes échelles contraint problèmes. Certaines versions peuvent gérer des problèmes de grande dimension.
    • Méthodes de points intérieurs : il s’agit d’une grande classe de méthodes d’optimisation sous contraintes. Certaines méthodes de points intérieurs n’utilisent que des informations de (sous-)gradients et d’autres nécessitent l’évaluation des Hessiens.
  • Méthodes qui évaluent les gradients, ou les gradients approximatifs d’une certaine manière (ou même des sous-gradients) :
    • Méthodes de descente de coordonnées : algorithmes qui mettent à jour une seule coordonnée à chaque itération
    • Méthodes du gradient conjugué : méthodes itératives pour les gros problèmes. (En théorie, ces méthodes se terminent par un nombre fini d’étapes avec des fonctions objectifs quadratiques, mais cette terminaison finie n’est pas observée en pratique sur les ordinateurs à précision finie.)
    • Descente de gradient (alternativement, « descente la plus raide » ou « montée la plus raide ») : une méthode (lente) d’intérêt historique et théorique, qui a suscité un regain d’intérêt pour trouver des solutions approximatives à d’énormes problèmes.
    • Méthodes de sous-gradients : Une méthode itérative pour les grandes fonctions localement Lipschitz utilisant des gradients généralisés. À la suite de Boris T. Polyak, les méthodes de sous-gradient-projection sont similaires aux méthodes conjuguées-gradient.
    • Méthode de descente par faisceau : Une méthode itérative pour les problèmes de petite à moyenne taille avec des fonctions de Lipschitz localement, en particulier pour les problèmes de minimisation convexe (similaire aux méthodes de gradient conjugué).
    • Méthode ellipsoïde : Une méthode itérative pour de petits problèmes avec des fonctions objectifs quasi convexes et d’un grand intérêt théorique, en particulier pour établir la complexité en temps polynomial de certains problèmes d’optimisation combinatoire. Il présente des similitudes avec les méthodes quasi-Newton.
    • Méthode du gradient conditionnel (Frank-Wolfe) pour la minimisation approximative de problèmes spécialement structurés avec des contraintes linéaires, en particulier avec les réseaux de trafic. Pour les problèmes généraux sans contraintes, cette méthode se réduit à la méthode du gradient, qui est considérée comme obsolète (pour presque tous les problèmes).
    • Méthodes Quasi-Newton : Méthodes itératives pour les problèmes moyens-grands (par exemple N
    • Méthode d’approximation stochastique par perturbation simultanée (SPSA) pour l’optimisation stochastique ; utilise une approximation de gradient aléatoire (efficace).
  • Méthodes qui évaluent uniquement les valeurs de fonction : si un problème est différentiable en continu, les gradients peuvent être approximés à l’aide de différences finies, auquel cas une méthode basée sur les gradients peut être utilisée.

Convergence mondiale[[[[Éditer]

Plus généralement, si la fonction objectif n’est pas une fonction quadratique, de nombreuses méthodes d’optimisation utilisent d’autres méthodes pour garantir qu’une sous-séquence d’itérations converge vers une solution optimale. La première méthode et toujours populaire pour assurer la convergence repose sur les recherches de ligne, qui optimisent une fonction le long d’une dimension. Une deuxième méthode de plus en plus populaire pour assurer la convergence utilise les régions de confiance. Les recherches de ligne et les régions de confiance sont utilisées dans les méthodes modernes d’optimisation non différentiable. Habituellement, un optimiseur global est beaucoup plus lent que les optimiseurs locaux avancés (tels que BFGS), donc souvent un optimiseur global efficace peut être construit en démarrant l’optimiseur local à partir de différents points de départ.

Heuristique[[[[Éditer]

Outre les algorithmes (à terminaison finie) et les méthodes itératives (convergentes), il existe des heuristiques. Une heuristique est tout algorithme qui n’est pas garanti (mathématiquement) de trouver la solution, mais qui est néanmoins utile dans certaines situations pratiques. Liste de quelques heuristiques bien connues :

Applications[[[[Éditer]

Mécanique[[[[Éditer]

Les problèmes de dynamique des corps rigides (en particulier la dynamique des corps rigides articulés) nécessitent souvent des techniques de programmation mathématique, car vous pouvez voir la dynamique des corps rigides comme une tentative de résolution d’une équation différentielle ordinaire sur une variété de contraintes ;[7] les contraintes sont diverses contraintes géométriques non linéaires telles que « ces deux points doivent toujours coïncider », « cette surface ne doit en pénétrer aucune autre », ou « ce point doit toujours se situer quelque part sur cette courbe ». De plus, le problème du calcul des forces de contact peut être résolu en résolvant un problème de complémentarité linéaire, qui peut également être considéré comme un problème QP (programmation quadratique).

De nombreux problèmes de conception peuvent également être exprimés sous forme de programmes d’optimisation. Cette application est appelée optimisation de la conception. Un sous-ensemble est l’optimisation de l’ingénierie, et un autre sous-ensemble récent et en croissance de ce domaine est l’optimisation de la conception multidisciplinaire, qui, bien qu’utile dans de nombreux problèmes, a en particulier été appliquée aux problèmes d’ingénierie aérospatiale.

Cette approche peut être appliquée en cosmologie et en astrophysique.[8]

Économie et finance[[[[Éditer]

L’économie est suffisamment liée à l’optimisation des agents pour qu’une définition influente décrit l’économie en tant que la science comme « l’étude du comportement humain en tant que relation entre des fins et des moyens rares » avec des utilisations alternatives.[9] La théorie de l’optimisation moderne comprend la théorie de l’optimisation traditionnelle, mais se chevauche également avec la théorie des jeux et l’étude des équilibres économiques. Les Revue de littérature économique les codes classent la programmation mathématique, les techniques d’optimisation et les sujets connexes sous JEL:C61-C63.

En microéconomie, le problème de maximisation de l’utilité et son double problème, le problème de minimisation des dépenses, sont des problèmes d’optimisation économique. Dans la mesure où ils se comportent de manière cohérente, les consommateurs sont supposés maximiser leur utilité, tandis que les entreprises sont généralement supposées maximiser leur profit. De plus, les agents sont souvent modélisés comme étant averses au risque, préférant ainsi éviter le risque. Les prix des actifs sont également modélisés à l’aide de la théorie de l’optimisation, bien que les mathématiques sous-jacentes reposent sur l’optimisation des processus stochastiques plutôt que sur l’optimisation statique. La théorie du commerce international utilise également l’optimisation pour expliquer la structure des échanges entre les nations. L’optimisation des portefeuilles est un exemple d’optimisation multi-objectifs en économie.

Depuis les années 1970, les économistes modélisent les décisions dynamiques au fil du temps en utilisant la théorie du contrôle.[10] Par exemple, des modèles de recherche dynamique sont utilisés pour étudier le comportement sur le marché du travail.[11] Il existe une distinction cruciale entre les modèles déterministes et stochastiques.[12] Les macroéconomistes construisent des modèles d’équilibre général stochastique dynamique (DSGE) qui décrivent la dynamique de l’ensemble de l’économie comme le résultat des décisions d’optimisation interdépendantes des travailleurs, des consommateurs, des investisseurs et des gouvernements.[13][14]

Ingénierie électrique[[[[Éditer]

Certaines applications courantes des techniques d’optimisation en génie électrique comprennent la conception de filtres actifs,[15] réduction des champs parasites dans les systèmes de stockage d’énergie magnétique supraconducteur, conception de cartographie spatiale de structures micro-ondes,[16] antennes de combiné,[17][18][19] conception basée sur l’électromagnétisme. L’optimisation de la conception validée électromagnétiquement des composants et des antennes hyperfréquences a largement utilisé un modèle de substitution approprié basé sur la physique ou empirique et des méthodologies de cartographie spatiale depuis la découverte de la cartographie spatiale en 1993.[20][21]

Travaux publics[[[[Éditer]

L’optimisation a été largement utilisée en génie civil. La gestion de la construction et l’ingénierie des transports sont parmi les principales branches du génie civil qui reposent fortement sur l’optimisation. Les problèmes de génie civil les plus courants qui sont résolus par l’optimisation sont les déblais et remblais de routes, l’analyse du cycle de vie des structures et des infrastructures,[22] nivellement des ressources,[23][24] allocation des ressources en eau, gestion du trafic[25] et l’optimisation des horaires.

Recherche opérationnelle[[[[Éditer]

Un autre domaine qui utilise abondamment les techniques d’optimisation est la recherche opérationnelle.[26] La recherche opérationnelle utilise également la modélisation et la simulation stochastiques pour soutenir une meilleure prise de décision. De plus en plus, la recherche opérationnelle utilise la programmation stochastique pour modéliser des décisions dynamiques qui s’adaptent aux événements ; de tels problèmes peuvent être résolus avec des méthodes d’optimisation à grande échelle et d’optimisation stochastique.

Technique de contrôle[[[[Éditer]

L’optimisation mathématique est utilisée dans la plupart des conceptions de contrôleurs modernes. Les contrôleurs de haut niveau tels que le contrôle prédictif de modèle (MPC) ou l’optimisation en temps réel (RTO) utilisent l’optimisation mathématique. Ces algorithmes s’exécutent en ligne et déterminent à plusieurs reprises les valeurs des variables de décision, telles que les ouvertures d’étranglement dans une usine de traitement, en résolvant de manière itérative un problème d’optimisation mathématique comprenant des contraintes et un modèle du système à contrôler.

Géophysique[[[[Éditer]

Les techniques d’optimisation sont régulièrement utilisées dans les problèmes d’estimation de paramètres géophysiques. Étant donné un ensemble de mesures géophysiques, par ex. enregistrements sismiques, il est courant de résoudre les propriétés physiques et les formes géométriques des roches et des fluides sous-jacents. La majorité des problèmes en géophysique sont non linéaires, les méthodes déterministes et stochastiques étant largement utilisées.

Modélisation moléculaire[[[[Éditer]

Les méthodes d’optimisation non linéaire sont largement utilisées en analyse conformationnelle.

Biologie des systèmes informatiques[[[[Éditer]

Les techniques d’optimisation sont utilisées dans de nombreuses facettes de la biologie des systèmes informatiques, telles que la construction de modèles, la conception expérimentale optimale, l’ingénierie métabolique et la biologie synthétique.[27] Linear programming has been applied to calculate the maximal possible yields of fermentation products,[27] and to infer gene regulatory networks from multiple microarray datasets[28] as well as transcriptional regulatory networks from high-throughput data.[29] Nonlinear programming has been used to analyze energy metabolism[30] and has been applied to metabolic engineering and parameter estimation in biochemical pathways.[31]

Machine learning[[[[edit]

Solvers[[[[edit]

See also[[[[edit]

  1. ^ « The Nature of Mathematical Programming Archived 2014-03-05 at the Wayback Machine, » Mathematical Programming Glossary, INFORMS Computing Society.
  2. ^ Martins, Joaquim R. R. A.; Ning, Andrew (2021-10-01). Engineering Design Optimization. Cambridge University Press. ISBN 978-1108833417.
  3. ^ Du, D. Z.; Pardalos, P. M.; Wu, W. (2008). « History of Optimization ». In Floudas, C.; Pardalos, P. (eds.). Encyclopedia of Optimization. Boston: Springer. pp. 1538–1542.
  4. ^ W. Erwin Diewert (2008). « cost functions, » The New Palgrave Dictionary of Economics, 2nd Edition Contents.
  5. ^ Zervoudakis, Konstantinos; Tsafarakis, Stelios (2020). « A mayfly optimization algorithm ». . ahead-of-print (ahead-of-print): head-of-print. doi:10.1016/j.cie.2020.106559.
  6. ^ Battiti, Roberto; Mauro Brunato; Franco Mascia (2008). Reactive Search and Intelligent Optimization. Springer Verlag. ISBN 978-0-387-09623-0. Archived from the original on 2012-03-16.
  7. ^ Vereshchagin, A.F. (1989). « Modelling and control of motion of manipulation robots ». Soviet Journal of Computer and Systems Sciences. 27 (5): 29–38.
  8. ^ Haggag, S.; Desokey, F.; Ramadan, M. (2017). « A cosmological inflationary model using optimal control ». Gravitation and Cosmology. 23 (3): 236–239. Bibcode:2017GrCo…23..236H. doi:10.1134/S0202289317030069. ISSN 1995-0721. S2CID 125980981.
  9. ^ Lionel Robbins (1935, 2nd ed.) An Essay on the Nature and Significance of Economic Science, Macmillan, p. 16.
  10. ^ Dorfman, Robert (1969). « An Economic Interpretation of Optimal Control Theory ». American Economic Review. 59 (5): 817–831. JSTOR 1810679.
  11. ^ Sargent, Thomas J. (1987). « Search ». Dynamic Macroeconomic Theory. Harvard University Press. pp. 57–91. ISBN 9780674043084.
  12. ^ A.G. Malliaris (2008). « stochastic optimal control, » The New Palgrave Dictionary of Economics, 2nd Edition. Abstract Archived 2017-10-18 at the Wayback Machine.
  13. ^ Rotemberg, Julio; Woodford, Michael (1997). « An Optimization-based Econometric Framework for the Evaluation of Monetary Policy » (PDF). NBER Macroeconomics Annual. 12: 297–346. doi:10.2307/3585236. JSTOR 3585236.
  14. ^ From The New Palgrave Dictionary of Economics (2008), 2nd Edition with Abstract links:
    • « numerical optimization methods in economics » by Karl Schmedders
    • « convex programming » by Lawrence E. Blume
    • « Arrow–Debreu model of general equilibrium » by John Geanakoplos.
  15. ^ De, Bishnu Prasad; Kar, R.; Mandal, D.; Ghoshal, S.P. (2014-09-27). « Optimal selection of components value for analog active filter design using simplex particle swarm optimization ». International Journal of Machine Learning and Cybernetics. 6 (4): 621–636. doi:10.1007/s13042-014-0299-0. ISSN 1868-8071. S2CID 13071135.
  16. ^ Koziel, Slawomir; Bandler, John W. (January 2008). « Space Mapping With Multiple Coarse Models for Optimization of Microwave Components ». IEEE Microwave and Wireless Components Letters. 18 (1): 1–3. CiteSeerX 10.1.1.147.5407. doi:10.1109/LMWC.2007.911969. S2CID 11086218.
  17. ^ Tu, Sheng; Cheng, Qingsha S.; Zhang, Yifan; Bandler, John W.; Nikolova, Natalia K. (July 2013). « Space Mapping Optimization of Handset Antennas Exploiting Thin-Wire Models ». IEEE Transactions on Antennas and Propagation. 61 (7): 3797–3807. Bibcode:2013ITAP…61.3797T. doi:10.1109/TAP.2013.2254695.
  18. ^
  19. ^ Cervantes-González, Juan C.; Rayas-Sánchez, José E.; López, Carlos A.; Camacho-Pérez, José R.; Brito-Brito, Zabdiel; Chávez-Hurtado, José L. (February 2016). « Space mapping optimization of handset antennas considering EM effects of mobile phone components and human body ». International Journal of RF and Microwave Computer-Aided Engineering. 26 (2): 121–128. doi:10.1002/mmce.20945.
  20. ^ Bandler, J.W.; Biernacki, R.M.; Chen, Shao Hua; Grobelny, P.A.; Hemmers, R.H. (1994). « Space mapping technique for electromagnetic optimization ». IEEE Transactions on Microwave Theory and Techniques. 42 (12): 2536–2544. Bibcode:1994ITMTT..42.2536B. doi:10.1109/22.339794.
  21. ^ Bandler, J.W.; Biernacki, R.M.; Shao Hua Chen; Hemmers, R.H.; Madsen, K. (1995). « Electromagnetic optimization exploiting aggressive space mapping ». IEEE Transactions on Microwave Theory and Techniques. 43 (12): 2874–2882. Bibcode:1995ITMTT..43.2874B. doi:10.1109/22.475649.
  22. ^ Piryonesi, Sayed Madeh; Tavakolan, Mehdi (9 January 2017). « A mathematical programming model for solving cost-safety optimization (CSO) problems in the maintenance of structures ». KSCE Journal of Civil Engineering. 21 (6): 2226–2234. doi:10.1007/s12205-017-0531-z. S2CID 113616284.
  23. ^ Hegazy, Tarek (June 1999). « Optimization of Resource Allocation and Leveling Using Genetic Algorithms ». Journal of Construction Engineering and Management. 125 (3): 167–175. doi:10.1061/(ASCE)0733-9364(1999)125:3(167).
  24. ^ Canadian Journal of Civil Engineering. 46: 81–86. doi:10.1139/cjce-2017-0670. hdl:1807/93364.
  25. ^ Herty, M.; Klar, A. (2003-01-01). « Modeling, Simulation, and Optimization of Traffic Flow Networks ». SIAM Journal on Scientific Computing. 25 (3): 1066–1087. doi:10.1137/S106482750241459X. ISSN 1064-8275.
  26. ^ « New force on the political scene: the phonisten ». Archived from the original on 18 December 2014. Retrieved 14 September 2013.
  27. ^ une b Papoutsakis, Eleftherios Terry (February 1984). « Equations and calculations for fermentations of butyric acid bacteria ». Biotechnology and Bioengineering. 26 (2): 174–187. doi:10.1002/bit.260260210. ISSN 0006-3592. PMID 18551704. S2CID 25023799.
  28. ^ Wang, Yong; Joshi, Trupti; Zhang, Xiang-Sun; Xu, Dong; Chen, Luonan (2006-07-24). « Inferring gene regulatory networks from multiple microarray datasets ». Bioinformatics. 22 (19): 2413–2420. doi:10.1093/bioinformatics/btl396. ISSN 1460-2059. PMID 16864593.
  29. ^ Wang, Rui-Sheng; Wang, Yong; Zhang, Xiang-Sun; Chen, Luonan (2007-09-22). « Inferring transcriptional regulatory networks from high-throughput data ». Bioinformatics. 23 (22): 3056–3064. doi:10.1093/bioinformatics/btm465. ISSN 1460-2059. PMID 17890736.
  30. ^ Vo, Thuy D.; Paul Lee, W.N.; Palsson, Bernhard O. (May 2007). « Systems analysis of energy metabolism elucidates the affected respiratory chain complex in Leigh’s syndrome ». Molecular Genetics and Metabolism. 91 (1): 15–22. doi:10.1016/j.ymgme.2007.01.012. ISSN 1096-7192. PMID 17336115.
  31. ^ Mendes, P.; Kell, D. (1998). « Non-linear optimization of biochemical pathways: applications to metabolic engineering and parameter estimation ». Bioinformatics. 14 (10): 869–883. doi:10.1093/bioinformatics/14.10.869. ISSN 1367-4803. PMID 9927716.

Further reading[[[[edit]

  • Boyd, Stephen P.; Vandenberghe, Lieven (2004). Convex Optimization. Cambridge: Cambridge University Press. ISBN 0-521-83378-7.
  • Gill, P. E.; Murray, W.; Wright, M. H. (1982). Practical Optimization. London: Academic Press. ISBN 0-12-283952-8.
  • Lee, Jon (2004). A First Course in Combinatorial Optimization. Cambridge University Press. ISBN 0-521-01012-8.
  • Nocedal, Jorge; Wright, Stephen J. (2006). Numerical Optimization (2nd ed.). Berlin: Springer. ISBN 0-387-30303-0.
  • Snyman, J. A.; Wilke, D. N. (2018). Practical Mathematical Optimization : Basic Optimization Theory and Gradient-Based Algorithms (2nd ed.). Berlin: Springer. ISBN 978-3-319-77585-2.

External links[[[[edit]


#Optimisation #mathématique #Wikipédia