Disuguaglianza di Cauchy-Schwarz

In matematica, la disuguaglianza di Cauchy-Schwarz, nota anche come disuguaglianza di Schwarz o disuguaglianza di Bunyakovsky, è una disuguaglianza che compare in algebra lineare e si applica in molti altri settori, quali ad esempio l'analisi funzionale e la probabilità.

Proposta inizialmente da Augustin-Louis Cauchy, la formulazione integrale della disuguaglianza è dovuta a Viktor Bunyakovsky (1859), e si può trovare anche nei lavori di Hermann Amandus Schwarz a partire dal 1884.

Negli spazi Lp la disuguaglianza di Cauchy-Schwarz è un caso particolare della disuguaglianza di Hölder.

La disuguaglianza

Sia V {\displaystyle V} uno spazio prehilbertiano, cioè uno spazio vettoriale reale dotato di un prodotto scalare definito positivo, o uno spazio vettoriale complesso dotato di un prodotto hermitiano. La disuguaglianza asserisce che il valore assoluto del prodotto scalare di due elementi è minore o uguale al prodotto delle loro norme. Formalmente:

| x , y | x y x , y V , {\displaystyle |\langle \mathbf {x} ,\mathbf {y} \rangle |\leq \left\|\mathbf {x} \right\|\cdot \left\|\mathbf {y} \right\|\qquad \forall \mathbf {x} ,\mathbf {y} \in V,}

con l'uguaglianza che sussiste solo se x {\displaystyle \mathbf {x} } e y {\displaystyle \mathbf {y} } sono multipli (giacciono cioè sulla stessa retta).

In forma integrale:

| a b f ( x ) g ( x ) ¯   d x | 2 a b | f ( x ) | 2   d x a b | g ( x ) | 2   d x , {\displaystyle \left|\int _{a}^{b}f(x){\overline {g(x)}}\ dx\right|^{2}\leq \int _{a}^{b}|f(x)|^{2}\ dx\cdot \int _{a}^{b}|g(x)|^{2}\ dx,}

con f {\displaystyle f} e g {\displaystyle g} funzioni quadrato sommabile in C {\displaystyle \mathbb {C} } , che formano lo spazio di Hilbert L2. Una generalizzazione di questa disuguaglianza è la disuguaglianza di Hölder.

Nello spazio euclideo R n {\displaystyle \mathbb {R} ^{n}} si ha:

( i = 1 n x i y i ) 2 ( i = 1 n x i 2 ) ( i = 1 n y i 2 ) . {\displaystyle \left(\sum _{i=1}^{n}x_{i}y_{i}\right)^{2}\leq \left(\sum _{i=1}^{n}x_{i}^{2}\right)\left(\sum _{i=1}^{n}y_{i}^{2}\right).}

In dimensione 3, la disuguaglianza è conseguenza della seguente uguaglianza:

x , x y , y = | x , y | 2 + x × y 2 {\displaystyle \langle \mathbf {x} ,\mathbf {x} \rangle \cdot \langle \mathbf {y} ,\mathbf {y} \rangle =|\langle \mathbf {x} ,\mathbf {y} \rangle |^{2}+\left\|\mathbf {x} \times \mathbf {y} \right\|^{2}}

dove l'operazione binaria × : R 3 × R 3 R 3 {\displaystyle \times \colon \mathbb {R} ^{3}\times \mathbb {R} ^{3}\to \mathbb {R} ^{3}} indica il prodotto vettoriale.

Proprietà

La disuguaglianza vale quindi ad esempio nello spazio euclideo n {\displaystyle n} -dimensionale e negli spazi di Hilbert a dimensione infinita.

Nel piano, la disuguaglianza segue dalla relazione:

| x , y | = x y | cos θ | , {\displaystyle |\langle \mathbf {x} ,\mathbf {y} \rangle |=\left\|\mathbf {x} \right\|\cdot \left\|\mathbf {y} \right\|\cdot |\cos \theta |,}

dove θ = x y ^ {\displaystyle \theta ={\widehat {\mathbf {x} \mathbf {y} }}} è l'angolo fra i due vettori x {\displaystyle \mathbf {x} } e y {\displaystyle \mathbf {y} } . Si estende quindi questa relazione a un qualsiasi spazio vettoriale con prodotto scalare, usandola per definire l'angolo fra due vettori x {\displaystyle \mathbf {x} } e y {\displaystyle \mathbf {y} } come il θ [ 0 , π ] {\displaystyle \theta \in [0,\pi ]} che realizza l'uguaglianza.

Tra le conseguenze importanti della disuguaglianza si trovano:

Dimostrazione 1

Siano u {\displaystyle u} , v {\displaystyle v} vettori arbitrari in uno spazio vettoriale V {\displaystyle V} su un campo F {\displaystyle F} con un prodotto scalare (formando così uno spazio prodotto interno), e sia F {\displaystyle F} il campo reale o complesso. Dimostriamo la disuguaglianza

| u , v | u v , {\displaystyle {\big |}\langle u,v\rangle {\big |}\leq \left\|u\right\|\left\|v\right\|,}

dove l'identità vale se e solo se u {\displaystyle u} e v {\displaystyle v} sono multipli fra di loro.

Se v = 0 {\displaystyle v=0} è banalmente provata l'uguaglianza, ed in questo caso u {\displaystyle u} e v {\displaystyle v} sono linearmente dipendenti (multipli l'uno dell'altro) a prescindere da u {\displaystyle u} . Possiamo quindi assumere u {\displaystyle u} non nullo. Assumiamo anche u , v 0 {\displaystyle \langle u,v\rangle \neq 0} , altrimenti la disuguaglianza è ovviamente verificata, perché né u {\displaystyle \left\|u\right\|} v {\displaystyle \left\|v\right\|} possono essere negativi.

Sia z {\displaystyle z} il vettore ortogonale a v {\displaystyle v} (si veda ortogonalizzazione di Gram-Schmidt) così definito:

z = u u v = u u , v v , v v . {\displaystyle z=u-u_{v}=u-{\frac {\langle u,v\rangle }{\langle v,v\rangle }}v.}

Quindi

u = u , v v , v v + z . {\displaystyle u={\frac {\langle u,v\rangle }{\langle v,v\rangle }}v+z.}

Per bilinearità e simmetria del prodotto scalare e per ortogonalità di v {\displaystyle v} e z {\displaystyle z} si ha che

u 2 = u , u = u , v v , v v + z , u , v v , v v + z = | u , v v , v | 2 v 2 + z 2 + 2 R e z , u , v v , v v = | u , v | 2 v 2 + z 2 | u , v | 2 v 2 , {\displaystyle \left\|u\right\|^{2}=\langle u,u\rangle =\langle {\frac {\langle u,v\rangle }{\langle v,v\rangle }}v+z,{\frac {\langle u,v\rangle }{\langle v,v\rangle }}v+z\rangle =\left|{\frac {\langle u,v\rangle }{\langle v,v\rangle }}\right|^{2}\left\|v\right\|^{2}+\left\|z\right\|^{2}+2\mathrm {Re} \langle z,{\frac {\langle u,v\rangle }{\langle v,v\rangle }}v\rangle ={\frac {|\langle u,v\rangle |^{2}}{\left\|v\right\|^{2}}}+\left\|z\right\|^{2}\geq {\frac {|\langle u,v\rangle |^{2}}{\left\|v\right\|^{2}}},}

da cui, moltiplicando entrambi i membri per v 2 {\displaystyle \left\|v\right\|^{2}} ,

u 2 v 2   | u , v | 2 . {\displaystyle \left\|u\right\|^{2}\left\|v\right\|^{2}\geq \ |\langle u,v\rangle |^{2}.}

Poiché la norma e il valore assoluto sono non negativi (i quadrati di quantità non negative sono ordinati come le proprie basi), prendendo la radice quadrata di ambo i membri si ottiene

| u , v |   u v {\displaystyle |\langle u,v\rangle |\leq \ \left\|u\right\|\left\|v\right\|} QED.

Dimostrazione 2

La disuguaglianza risulta banalmente vera per y = 0 {\displaystyle \mathbf {y} \mathbf {=} \mathbf {0} } , quindi si assume y , y {\displaystyle \langle \mathbf {y} ,\mathbf {y} \rangle } diverso da zero. Sia λ {\displaystyle \lambda } un numero complesso. Si ha:

0 x λ y 2 = x λ y , x λ y {\displaystyle 0\leq \left\|\mathbf {x} -\lambda \mathbf {y} \right\|^{2}=\langle \mathbf {x} -\lambda \mathbf {y} ,\mathbf {x} -\lambda \mathbf {y} \rangle }
= x , x λ x , y λ ¯ y , x + | λ | 2 y , y . {\displaystyle =\langle \mathbf {x} ,\mathbf {x} \rangle -\lambda \langle \mathbf {x} ,\mathbf {y} \rangle -{\overline {\lambda }}\langle \mathbf {y} ,\mathbf {x} \rangle +|\lambda |^{2}\langle \mathbf {y} ,\mathbf {y} \rangle .}

Scegliendo

λ = y , x y , y 1 {\displaystyle \lambda =\langle \mathbf {y} ,\mathbf {x} \rangle \cdot \langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}} , e ricordando che | λ | 2 = λ ¯ λ , {\displaystyle |\lambda |^{2}={\overline {\lambda }}\lambda ,}

si ottiene:

0 x , x y , x y , y 1 x , y y , x y , y 1 ¯ y , x + y , x y , y 1 ¯ y , x y , y 1 y , y {\displaystyle 0\leq \langle \mathbf {x} ,\mathbf {x} \rangle -\langle \mathbf {y} ,\mathbf {x} \rangle \langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}\langle \mathbf {x} ,\mathbf {y} \rangle -{\overline {\langle \mathbf {y} ,\mathbf {x} \rangle \langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}}}\langle \mathbf {y} ,\mathbf {x} \rangle +{\overline {\langle \mathbf {y} ,\mathbf {x} \rangle \langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}}}\langle \mathbf {y} ,\mathbf {x} \rangle \langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}\langle \mathbf {y} ,\mathbf {y} \rangle }
= x , x x , y ¯ x , y y , y 1 y , x ¯ y , x y , y 1 + y , x ¯ y , x y , y 1 ( y , y 1 y , y ) {\displaystyle =\langle \mathbf {x} ,\mathbf {x} \rangle -{\overline {\langle \mathbf {x} ,\mathbf {y} \rangle }}\langle \mathbf {x} ,\mathbf {y} \rangle {\langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}}-{\overline {\langle \mathbf {y} ,\mathbf {x} \rangle }}\langle \mathbf {y} ,\mathbf {x} \rangle \langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}+{\overline {\langle \mathbf {y} ,\mathbf {x} \rangle }}\langle \mathbf {y} ,\mathbf {x} \rangle {\langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}}(\langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}\langle \mathbf {y} ,\mathbf {y} \rangle )}
= x , x | x , y | 2 y , y 1 | x , y | 2 y , y 1 + | x , y | 2 y , y 1 {\displaystyle =\langle \mathbf {x} ,\mathbf {x} \rangle -|\langle \mathbf {x} ,\mathbf {y} \rangle |^{2}{\langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}}-|\langle \mathbf {x} ,\mathbf {y} \rangle |^{2}\langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}+|\langle \mathbf {x} ,\mathbf {y} \rangle |^{2}{\langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}}}
= x , x | x , y | 2 y , y 1 {\displaystyle =\langle \mathbf {x} ,\mathbf {x} \rangle -|\langle \mathbf {x} ,\mathbf {y} \rangle |^{2}\cdot \langle \mathbf {y} ,\mathbf {y} \rangle ^{-1}}

che vale se e solo se

| x , y | 2 x , x y , y {\displaystyle |\langle \mathbf {x} ,\mathbf {y} \rangle |^{2}\leq \langle \mathbf {x} ,\mathbf {x} \rangle \cdot \langle \mathbf {y} ,\mathbf {y} \rangle }

o equivalentemente

| x , y | x y . {\displaystyle {\big |}\langle \mathbf {x} ,\mathbf {y} \rangle {\big |}\leq \left\|\mathbf {x} \right\|\left\|\mathbf {y} \right\|.}

Dimostrazione algebrica

Si consideri un polinomio di secondo grado in x {\displaystyle x} del tipo:

p ( x ) = ( a 1 + b 1 x ) 2 + + ( a n + b n x ) 2 , {\displaystyle p(x)=(a_{1}+b_{1}x)^{2}+\ldots +(a_{n}+b_{n}x)^{2},}

che non ha radici reali tranne nel caso in cui gli a i {\displaystyle a_{i}} e i b i {\displaystyle b_{i}} sono tutti uguali fra loro, o se data una coppia ( a i , b i ) {\displaystyle (a_{i},b_{i})} sussiste un legame di proporzionalità con tutte le coppie ( a j , b j ) {\displaystyle (a_{j},b_{j})} (cioè per ogni j { 1 , 2 , , n } {\displaystyle j\in \{1,2,\ldots ,n\}} esiste k j R {\displaystyle k_{j}\in \mathbb {R} } tale che a j = k j a i {\displaystyle a_{j}=k_{j}a_{i}} e b j = k j b i {\displaystyle b_{j}=k_{j}b_{i}} ). In tal caso la radice è:

x = a i b i = a j b j = m a i m b i . {\displaystyle x=-{\frac {a_{i}}{b_{i}}}=-{\frac {a_{j}}{b_{j}}}=-{\frac {ma_{i}}{mb_{i}}}.}

Sviluppando i quadrati si ottiene:

p ( x ) = a 1 2 + b 1 2 x 2 + 2 a 1 b 1 x + + a n 2 + b n 2 x 2 + 2 a n b n x = ( i = 1 n b i 2 ) x 2 + 2 ( i = 1 n a i b i ) x + ( i = 1 n a i 2 ) . {\displaystyle p(x)=a_{1}^{2}+b_{1}^{2}x^{2}+2a_{1}b_{1}x+\ldots +a_{n}^{2}+b_{n}^{2}x^{2}+2a_{n}b_{n}x=\left(\sum _{i=1}^{n}b_{i}^{2}\right)x^{2}+2\left(\sum _{i=1}^{n}a_{i}b_{i}\right)x+\left(\sum _{i=1}^{n}a_{i}^{2}\right).}

Poiché il polinomio ha una o nessuna radice, il discriminante dev'essere minore o uguale a 0. Quindi:

( i = 1 n a i b i ) 2 ( i = 1 n b i 2 ) ( i = 1 n a i 2 ) 0 , {\displaystyle \left(\sum _{i=1}^{n}a_{i}b_{i}\right)^{2}-\left(\sum _{i=1}^{n}b_{i}^{2}\right)\left(\sum _{i=1}^{n}a_{i}^{2}\right)\leq 0,}

da cui si ricava:

( i = 1 n a i b i ) 2 ( i = 1 n b i 2 ) ( i = 1 n a i 2 ) , {\displaystyle \left(\sum _{i=1}^{n}a_{i}b_{i}\right)^{2}\leq \left(\sum _{i=1}^{n}b_{i}^{2}\right)\left(\sum _{i=1}^{n}a_{i}^{2}\right),}

che è la disuguaglianza di Cauchy-Schwarz.

Bibliografia

  • Walter Rudin, Principi di analisi matematica, Milano, McGraw-Hill, 1991, ISBN 88-386-0647-1.

Voci correlate

Collegamenti esterni

  • (EN) Cauchy-Schwarz inequality, su Enciclopedia Britannica, Encyclopædia Britannica, Inc. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Disuguaglianza di Cauchy-Schwarz, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) V.I. Bityutskov, Bunyakovskii inequality, in Encyclopaedia of Mathematics, Springer e European Mathematical Society, 2002.


  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica