Démonstrations du théorème du minimax
Cet article ne fait que recenser des preuves du théorème du minimax de John von Neumann. L'énoncé du théorème ainsi qu'une présentation globale de la variété de ses démonstrations sont disponibles dans l'article principal Théorème du minimax de von Neumann auquel on se réfèrera donc.
Toutes les preuves commencent par la même remarque, selon laquelle l'inégalité max-min est satisfaite, information signalée dans l'article principal qu'on supposera donc connue ici.
Preuves par arguments de convexité
La preuve de Jean Ville
La preuve qui suit ci-dessous est une variante de celle de Jean Ville et n'utilise que des arguments de convexité élémentaires[Note 1].
Supposons que l'inégalité entre le maximin et le minimax soit stricte, et introduisons une constante strictement comprise entre ces deux réels. Si on retranche à tous les coefficients de , la quantité est diminuée de pour chaque . Quitte à modifier de cette façon, on peut donc supposer .
Il nous suffit ainsi de montrer qu'il est impossible que le maximin soit strictement négatif tandis que le minimax est strictement positif.
Dans l'espace des vecteurs-colonnes à entrées, notons () les colonnes de la matrice et () la base canonique. Introduisons K enveloppe convexe des et des : est un convexe compact. Soit enfin la projection de sur ce convexe fermé.
1er cas : . On va montrer que , ce qui impliquera via l'inégalité max-min que .
Si , ceci signifie que . Comme est convexe, cela signifie qu'il existe des réels positifs ou nuls et dont un au moins n'est pas nul et pour lesquels , ce qui se réécrit .
Dans cette égalité il n'est pas possible que tous les soient nuls (cela entraînerait la nullité de tous les ) et cela a donc un sens de considérer le vecteur . L'identité assure alors que est à coefficients négatifs ou nuls. Chaque vecteur étant à coefficients positifs ou nuls, le produit matriciel est donc négatif ou nul. Par conséquent le maximum est lui-même négatif ou nul, et enfin le minimax, qui est lui-même inférieur ou égal à , est lui aussi négatif ou nul.
2d cas : . On va montrer que , ce qui impliquera via l'inégalité max-min que .
Notons . Pour chaque , puisque est la projection de sur qui est convexe, et que est un élément de , on peut écrire l'inégalité dont on déduit : le vecteur est donc à coefficients strictement positifs. En exploitant de même pour chaque l'inégalité , on constate que chaque est un réel positif, et donc que le vecteur ligne est à coefficients positifs. Il n'y a plus qu'à introduire ; c'est un élément de pour lequel le vecteur ligne est à coefficients positifs. On finit alors comme au premier cas : on en déduit successivement que pour tout , est un réel positif, et donc que est un réel positif, et enfin que est positif.
Démonstration par la dualité en optimisation linéaire
On se référera à l'article Théorème du minimax de von Neumann pour de multiples informations sur le théorème et à l'article Optimisation linéaire pour les notations utilisées dans l'écriture des problèmes d'optimisation linéaire.
Notations :
- désigne un vecteur dont tous les éléments valent 1 et dont la dimension dépend du contexte,
- pour deux vecteurs et , l'écriture signifie que pour tout indice ,
- désigne le simplexe unité de ,
- est une matrice réelle de type .
Le théorème du minimax de von Neumann affirme que
On note [resp. ] le membre de gauche [resp. de droite] de cette identité que l'on va à présent démontrer.
Commençons par deux observations simples à démontrer :
- quitte à augmenter d'une même quantité tous les coefficients de , on peut supposer que et , ce que nous ferons,
- est le plus grand élément de et est le plus petit élément de .
Par ailleurs tous les problèmes d'optimisation dans l'identité de von Neumann ont une solution car on y minimise ou maximise des fonctions continues sur un simplexe (un compact non vide) ; pour le problème externe du membre de droite (le raisonnement est le même pour celui du membre de gauche), on utilise le fait que l'application est continue comme fonction convexe (enveloppe supérieure de fonctions convexes) ne prenant que des valeurs finies. L'utilisation des opérateurs et (au lieu de et ) est donc justifiée.
On peut alors écrire la suite d'équivalences suivantes :
Dès lors
Il s'agit bien d'un , car ce problème d'optimisation linéaire est réalisable (par les équivalences ci-dessus) et borné (sa valeur optimale est , qui est finie) ; il a donc une solution. Un calcul similaire montre que
Par le résultat de dualité forte en optimisation linéaire (les deux problèmes d'optimisation linéaire sont duaux l'un de l'autre et ont une solution ; il n'y a donc pas de saut de dualité, ce qui veut dire que les valeurs optimales sont égales), on obtient alors
Le résultat est démontré.
Notes
- On a privilégié la concision à l'intuition géométrique dans la rédaction de la preuve ; le lecteur intéressé pourra trouver une présentation du principe de cette preuve qui met davantage en relief les idées géométriques sous-jacentes dans (en) Jörg Bewersdorff et David Kramer, Luck, Logic, and White Lies, Wellesley, A K Peters, Ltd., , 486 p., poche (ISBN 978-1-56881-210-6), p. 369-372.
Bibliographie
- Michel Willem, Analyse convexe et optimisation, 136 pages, Bruxelles, Edition CIACO, 1989. (Contient une démonstration du théorème du minimax à partir du théorème de dualité en Optimisation linéaire ainsi que la démonstration de ce dernier ).