Inégalité de Kantorovitch

En mathématiques, l'inégalité de Kantorovitch est un cas particulier de l'inégalité de Cauchy-Schwarz, elle-même généralisation de l'inégalité triangulaire.

Elle a été découverte en 1948 par le mathématicien et économiste soviétique Leonid Kantorovitch[1], lauréat du « prix Nobel d'économie » et pionnier de la programmation linéaire.

L'inégalité triangulaire dit que la somme des longueurs de deux côtés d'un triangle est supérieure ou égale à la longueur du troisième côté. L'inégalité de Kantorovitch donne un résultat équivalent avec les termes et notations de la programmation linéaire.

Inégalité de Kantorovitch (version scalaire) — Soit p i 0 , 0 < a x i b {\displaystyle p_{i}\geq 0,\quad 0<a\leq x_{i}\leq b} pour i = 1,...,n.

Soient A n = { 1 , 2 , , n } . {\displaystyle A_{n}=\{1,2,\dots ,n\}.} Alors

( i = 1 n p i x i ) ( i = 1 n p i x i ) ( a + b ) 2 4 a b ( i = 1 n p i ) 2 ( a b ) 2 4 a b min { ( i X p i j Y p j ) 2 | X Y = A n , X Y = } . {\displaystyle \qquad \left(\sum _{i=1}^{n}p_{i}x_{i}\right)\left(\sum _{i=1}^{n}{\frac {p_{i}}{x_{i}}}\right)\leq {\frac {(a+b)^{2}}{4ab}}\left(\sum _{i=1}^{n}p_{i}\right)^{2}-{\frac {(a-b)^{2}}{4ab}}\min \left\{\left.\left(\sum _{i\in X}p_{i}-\sum _{j\in Y}p_{j}\right)^{2}\,\right|\,{X\cup Y=A_{n}},{X\cap Y=\varnothing }\right\}.}

Inégalité de Kantorovitch (version matricielle) — Soit A S n + + ( R ) {\displaystyle \mathbf {A} \in {\mathcal {S}}_{n}^{++}(\mathbb {R} )} , une matrice symétrique définie positive. Soit λ min , λ max {\displaystyle \lambda _{\min },\lambda _{\max }} , respectivement la valeur propre la plus petite et la plus grande de A.

Alors, pour tout vecteur x R n {\displaystyle x\in \mathbb {R} ^{n}}  :

A x , x A 1 x , x 1 4 ( λ min λ max + λ max λ min ) 2 x 4 . {\displaystyle \left\langle \mathbf {A} x,x\right\rangle \left\langle \mathbf {A} ^{-1}x,x\right\rangle \leqslant {\frac {1}{4}}\left({\sqrt {\frac {\lambda _{\min }}{\lambda _{\max }}}}+{\sqrt {\frac {\lambda _{\max }}{\lambda _{\min }}}}\right)^{2}\|x\|^{4}.}
Démonstration de la version matricielle

On supposera, sans perte de généralité, que la norme de x vaut 1.

Sachant que A S n + + ( R ) {\displaystyle \mathbf {A} \in {\mathcal {S}}_{n}^{++}(\mathbb {R} )} , il existe une matrice orthogonale P O n ( R ) {\displaystyle \mathbf {P} \in {\mathcal {O}}_{n}(\mathbb {R} )} telle que P 1 A P {\displaystyle \mathbf {P} ^{-1}\mathbf {A} \mathbf {P} } est diagonale :

A = P D P 1   ,   A 1 = P D 1 P 1 {\displaystyle \mathbf {A} =\mathbf {P} \mathbf {D} \mathbf {P} ^{-1}\ ,\ \mathbf {A} ^{-1}=\mathbf {P} \mathbf {D} ^{-1}\mathbf {P} ^{-1}}

avec

D = diag ( λ 1 , , λ n ) {\displaystyle \mathbf {D} ={\textrm {diag}}(\lambda _{1},\ldots ,\lambda _{n})} , où les { λ i } {\displaystyle \{\lambda _{i}\}} sont les valeurs propres de A.

On pose t = λ min λ max {\displaystyle t={\sqrt {\lambda _{\min }\lambda _{\max }}}} . Les valeurs propres de la matrice 1tA + t A−1 sont donc de la forme :

{ λ i t + t λ i } {\displaystyle \left\lbrace {\frac {\lambda _{i}}{t}}+{\frac {t}{\lambda _{i}}}\right\rbrace } .

On étudie la fonction θ : λ λ t + t λ {\displaystyle \theta :\lambda \mapsto {\frac {\lambda }{t}}+{\frac {t}{\lambda }}}  :

  • Elle est convexe sur R + {\displaystyle \mathbb {R} _{+}^{*}}  ;
  • Elle atteint son minimum en λ=t, où elle vaut 2 ;
  • θ ( λ min ) = θ ( λ max ) = λ min λ max + λ max λ min {\displaystyle \theta (\lambda _{\min })=\theta (\lambda _{\max })={\sqrt {\frac {\lambda _{\min }}{\lambda _{\max }}}}+{\sqrt {\frac {\lambda _{\max }}{\lambda _{\min }}}}} .

Ainsi, on a :

λ [ λ min , λ max ] , θ ( λ ) λ min λ max + λ max λ min {\displaystyle \forall \lambda \in [\lambda _{\min },\lambda _{\max }],\theta (\lambda )\leqslant {\sqrt {\frac {\lambda _{\min }}{\lambda _{\max }}}}+{\sqrt {\frac {\lambda _{\max }}{\lambda _{\min }}}}} .

Par l'inégalité arithmético-géométrique, on a :

A x , x A 1 x , x 1 2 [ A x , x t + t A 1 x , x ] = 1 2 ( A t + t A 1 ) x , x 1 2 ( λ min λ max + λ max λ min ) {\displaystyle {\sqrt {\left\langle \mathbf {A} x,x\right\rangle \left\langle \mathbf {A} ^{-1}x,x\right\rangle }}\leqslant {\frac {1}{2}}\left[{\frac {\left\langle \mathbf {A} x,x\right\rangle }{t}}+t\left\langle \mathbf {A} ^{-1}x,x\right\rangle \right]={\frac {1}{2}}\left\langle \left({\frac {\mathbf {A} }{t}}+t\mathbf {A} ^{-1}\right)x,x\right\rangle \leqslant {\frac {1}{2}}\left({\sqrt {\frac {\lambda _{\min }}{\lambda _{\max }}}}+{\sqrt {\frac {\lambda _{\max }}{\lambda _{\min }}}}\right)}

ce qui permet de conclure.

L'inégalité de Kantorovitch est utilisée en analyse de convergence ; elle permet notamment de majorer la vitesse de convergence de la méthode de descente de Cauchy.

Des équivalents de l'inégalité de Kantorovitch existent dans différents domaines. On citera l'inégalité de Wielandt et l'inégalité de Cauchy-Schwarz, elles-mêmes équivalentes à l'inégalité de Hölder.

Références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Kantorovich inequality » (voir la liste des auteurs).
  • (en) Eric W. Weisstein, « Kantorovich Inequality », sur MathWorld
  1. (ru) L. V. Kantorovič, Functional Analysis and Applied Mathematics, Uspekhi Mat. Nauk 3, , p. 89-185
  • icône décorative Portail de l'analyse