Macierze Pauliego

Wolfgang Pauli (1900–1958)

Macierze Pauliego (spinowe macierze Pauliego) – zbiór 3 zespolonych macierzy hermitowskich wymiaru 2×2 wprowadzony w 1927 roku przez Wolfganga Pauliego w celu opisu spinu elektronu w mechanice kwantowej[1]:

σ 1 = [ 0 1 1 0 ] , {\displaystyle \sigma _{1}=\left[{\begin{matrix}0&&1\\1&&0\end{matrix}}\right],}
σ 2 = [ 0 i i       0 ] , {\displaystyle \sigma _{2}=\left[{\begin{matrix}0&-i\\i&~~~0\end{matrix}}\right],}
σ 3 = [ 1       0 0 1 ] . {\displaystyle \sigma _{3}=\left[{\begin{matrix}1&~~~0\\0&-1\end{matrix}}\right].}

W fizyce niekiedy używa się oznaczeń σ x σ 1 , {\displaystyle \sigma _{x}\equiv \sigma _{1},} σ y σ 2 {\displaystyle \sigma _{y}\equiv \sigma _{2}} i σ z σ 3 . {\displaystyle \sigma _{z}\equiv \sigma _{3}.}

Czasem używa się również symbolu σ0 na oznaczenie macierzy jednostkowej wymiaru 2 × 2 , {\displaystyle 2{\times }2,} choć najczęściej macierz jednostkową oznacza się symbolem I , {\displaystyle I,} tj.

I = [ 1 0 0 1 ] . {\displaystyle I=\left[{\begin{matrix}1&&0\\0&&1\end{matrix}}\right].}

Macierze Pauliego wraz z macierzą jednostkową tworzą bazę, w rozumieniu Hilberta-Schmidta:

  • w zespolonej przestrzeni Hilberta macierzy zespolonych wymiaru 2×2 oraz
  • w rzeczywistej przestrzeni Hilberta zespolonych macierzy Hermitowskich o wymiarze 2 × 2. {\displaystyle 2{\times }2.}

Właściwości algebraiczne

Niech I {\displaystyle I} oznacza macierz jednostkową.

(1) Wyznaczniki i ślady macierzy Pauliego spełniają równania:

det ( σ i ) = 1 , Tr ( σ i ) = 0 , , {\displaystyle {\begin{matrix}\det(\sigma _{i})&=&\!\!\!\!-1,\\\operatorname {Tr} (\sigma _{i})&=&0,\end{matrix}},}

gdzie i = 1 , 2 , 3. {\displaystyle i=1,2,3.}

(2) Iloczyny macierzy Pauliego

a) Obliczając iloczyny macierzy Pauliego, otrzyma się:

σ 1 2 = I , σ 1 σ 2 = i σ 3 , σ 2 σ 1 = i σ 3 , σ 2 σ 3 = i σ 1 , {\displaystyle {\begin{aligned}\sigma _{1}^{2}&=I,\\\sigma _{1}\sigma _{2}&=i\sigma _{3},\\\sigma _{2}\sigma _{1}&=-i\sigma _{3},\\\sigma _{2}\sigma _{3}&=i\sigma _{1},\end{aligned}}}
itd.

b) Ogólnie mamy:

σ i σ j = I δ i j + i k ϵ i j k σ k , {\displaystyle {\begin{aligned}\sigma _{i}\sigma _{j}&=I\cdot \delta _{ij}+i\sum _{k}\epsilon _{ijk}\sigma _{k}\end{aligned}},}

gdzie i , j = 1 , 2 , 3. {\displaystyle i,j=1,2,3.}

(3) Z powyższych wzorów wynikają relacje komutacji oraz antykomutacji, np.

[ σ 1 , σ 2 ] = 2 i σ 3 , [ σ 2 , σ 3 ] = 2 i σ 1 , [ σ 3 , σ 1 ] = 2 i σ 2 , [ σ 1 , σ 1 ] = 0 , { σ 1 , σ 1 } = 2 I , { σ 1 , σ 2 } = 0 , {\displaystyle {\begin{aligned}\left[\sigma _{1},\sigma _{2}\right]&=2i\sigma _{3},\\\left[\sigma _{2},\sigma _{3}\right]&=2i\sigma _{1},\\\left[\sigma _{3},\sigma _{1}\right]&=2i\sigma _{2},\\\left[\sigma _{1},\sigma _{1}\right]&=0,\\\left\{\sigma _{1},\sigma _{1}\right\}&=2I,\\\left\{\sigma _{1},\sigma _{2}\right\}&=0,\end{aligned}}}

gdzie komutator i antykomutator zdefiniowane są następująco:

[ σ i , σ j ] = σ i σ j σ j σ i , {\displaystyle [\sigma _{i},\sigma _{j}]=\sigma _{i}\sigma _{j}-\sigma _{j}\sigma _{i},}
{ σ i , σ j } = σ i σ j + σ j σ i . {\displaystyle \{\sigma _{i},\sigma _{j}\}=\sigma _{i}\sigma _{j}+\sigma _{j}\sigma _{i}.}

Ogólnie mamy:

[ σ i , σ j ] = 2 i k ϵ i j k σ k , {\displaystyle [\sigma _{i},\sigma _{j}]=2i\sum _{k}\,\epsilon _{ijk}\,\sigma _{k},}
{ σ i , σ j } = 2 δ i j I , {\displaystyle \{\sigma _{i},\sigma _{j}\}=2\delta _{ij}I,}

gdzie:

ε i j k {\displaystyle \varepsilon _{ijk}} – symbol Leviego-Civity,
δ i j {\displaystyle \delta _{ij}} – delta Kroneckera.

(4) Inna własność macierzy Pauliego:

i σ 1 σ 2 σ 3 = I . {\displaystyle -i\sigma _{1}\sigma _{2}\sigma _{3}=I.}

Wartości i wektory własne

(1) Każda z macierzy Pauliego ma dwie wartości własne, +1 i −1.

(2) Wektory własne macierzy Pauliego (znormalizowane do 1):

– dla macierzy σ x σ 1 : {\displaystyle \sigma _{x}\equiv \sigma _{1}{:}}

ψ x + = 1 2 ( 1 1 ) , ψ x = 1 2 ( 1 1 ) , {\displaystyle \psi _{x+}={\frac {1}{\sqrt {2}}}{\binom {1}{1}},\quad \psi _{x-}={\frac {1}{\sqrt {2}}}{\binom {1}{-1}},}

– dla macierzy σ y σ 2 : {\displaystyle \sigma _{y}\equiv \sigma _{2}{:}}

ψ y + = 1 2 ( 1 i ) , ψ y = 1 2 ( 1 i ) , {\displaystyle \psi _{y+}={\frac {1}{\sqrt {2}}}{\binom {1}{i}},\quad \psi _{y-}={\frac {1}{\sqrt {2}}}{\binom {1}{-i}},}

– dla macierzy σ z σ 3 : {\displaystyle \sigma _{z}\equiv \sigma _{3}{:}}

ψ z + = ( 1 0 ) , ψ z = ( 0 1 ) . {\displaystyle \psi _{z+}={\binom {1}{0}},\quad \psi _{z-}={\binom {0}{1}}.}

Wektor macierzy Pauliego. Iloczyn skalarny

(1) Wektor macierzy Pauliego zdefiniowany jest następująco:

σ = σ 1 x ^ + σ 2 y ^ + σ 3 z ^ , {\displaystyle {\vec {\sigma }}=\sigma _{1}{\hat {x}}+\sigma _{2}{\hat {y}}+\sigma _{3}{\hat {z}},}

gdzie x ^ , y ^ , z ^ {\displaystyle {\hat {x}},{\hat {y}},{\hat {z}}} – wersory osi układu współrzędnych kartezjańskich.

(2) Niech dany będzie wektor a , {\displaystyle {\vec {a}},} taki że

a = a 1 x ^ + a 2 y ^ + a 3 z ^ . {\displaystyle {\vec {a}}=a_{1}{\hat {x}}+a_{2}{\hat {y}}+a_{3}{\hat {z}}.}

Wtedy iloczyn skalarny wektora macierzy Pauliego przez wektor a {\displaystyle {\vec {a}}} ma postać:

a σ = a 1 σ 1 + a 2 σ 2 + a 3 σ 3 . {\displaystyle {\vec {a}}\cdot {\vec {\sigma }}=a_{1}\sigma _{1}+a_{2}\sigma _{2}+a_{3}\sigma _{3}.}

(3) Tw. Dowolny wektor komutuje z wektorem macierzy Pauliego, gdyż mnożenie macierzy przez liczbę zawsze jest przemienne, np.

a 1 σ 1 = σ 1 a 1 = [ 0 a 1 a 1 0 ] . {\displaystyle a_{1}\sigma _{1}=\sigma _{1}a_{1}={\begin{bmatrix}0&a_{1}\\a_{1}&0\end{bmatrix}}.}

Twierdzenia

( a σ ) ( b σ ) = ( a b ) I + i σ ( a × b ) ( 1 ) {\displaystyle ({\vec {a}}\cdot {\vec {\sigma }})({\vec {b}}\cdot {\vec {\sigma }})=({\vec {a}}\cdot {\vec {b}})\,I+i{\vec {\sigma }}\cdot ({\vec {a}}\times {\vec {b}})\qquad \qquad (1)}

oraz

e i ( a σ ) = I cos a + i ( n ^ σ ) sin a , ( 2 ) {\displaystyle e^{i({\vec {a}}\cdot {\vec {\sigma }})}=I\cos {a}+i({\hat {n}}\cdot {\vec {\sigma }})\sin {a},\qquad \qquad \qquad (2)}

gdzie:

  • a = a n ^ , {\displaystyle {\vec {a}}=a{\hat {n}},}
  • n ^ {\displaystyle {\hat {n}}} – wektor jednostkowy skierowany w dowolnym kierunku.
Dowód (#1)
( a σ ) ( b σ ) = a i σ i b j σ j = a i b j σ i σ j = a i b j ( δ i j I + i ε i j k σ k ) = a i b j δ i j I + i σ k ε i j k a i b j = ( a b ) I + i σ ( a × b ) {\displaystyle {\begin{aligned}({\vec {a}}\cdot {\vec {\sigma }})({\vec {b}}\cdot {\vec {\sigma }})&=a_{i}\sigma _{i}b_{j}\sigma _{j}\\&=a_{i}b_{j}\sigma _{i}\sigma _{j}\\&=a_{i}b_{j}\left(\delta _{ij}\cdot I+i\varepsilon _{ijk}\sigma _{k}\right)\\&=a_{i}b_{j}\delta _{ij}\cdot I+i\sigma _{k}\varepsilon _{ijk}a_{i}b_{j}\\&=({\vec {a}}\cdot {\vec {b}})\cdot I+i{\vec {\sigma }}\cdot ({\vec {a}}\times {\vec {b}})\end{aligned}}}
Dowód (#2)

Najpierw zauważmy równość

( n ^ σ ) 2 n = I . {\displaystyle ({\hat {n}}\cdot {\vec {\sigma }})^{2n}=I.}

(Może być udowodniona dla n=1 z użyciem relacji antykomutacji).

Dla pozostałych:

( n ^ σ ) 2 n + 1 = n ^ σ . {\displaystyle ({\hat {n}}\cdot {\vec {\sigma }})^{2n+1}={\hat {n}}\cdot {\vec {\sigma }}.}

Połączenie tych dwóch faktów z wiedzą o relacjach eksponencjalnych z sin i cos:

e i x = n = 0 i n x n n ! = n = 0 ( 1 ) n x 2 n ( 2 n ) ! + i n = 0 ( 1 ) n x 2 n + 1 ( 2 n + 1 ) ! . {\displaystyle {\begin{aligned}e^{ix}&=\sum _{n=0}^{\infty }{\frac {i^{n}x^{n}}{n!}}\\&=\sum _{n=0}^{\infty }{\frac {(-1)^{n}x^{2n}}{(2n)!}}+i\sum _{n=0}^{\infty }{\frac {(-1)^{n}x^{2n+1}}{(2n+1)!}}.\end{aligned}}}

Kiedy podstawimy x = a ( n ^ σ ) , {\displaystyle x=a({\hat {n}}\cdot {\vec {\sigma }}),}

otrzymamy

= n = 0 ( 1 ) n ( a n ^ σ ) 2 n ( 2 n ) ! + i n = 0 ( 1 ) n ( a n ^ σ ) 2 n + 1 ( 2 n + 1 ) ! {\displaystyle =\sum _{n=0}^{\infty }{\frac {(-1)^{n}(a{\hat {n}}\cdot {\vec {\sigma }})^{2n}}{(2n)!}}+i\sum _{n=0}^{\infty }{\frac {(-1)^{n}(a{\hat {n}}\cdot {\vec {\sigma }})^{2n+1}}{(2n+1)!}}}
= I n = 0 ( 1 ) n a 2 n ( 2 n ) ! + i ( n ^ σ ) n = 0 ( 1 ) n a 2 n + 1 ( 2 n + 1 ) ! . {\displaystyle =I\sum _{n=0}^{\infty }{\frac {(-1)^{n}a^{2n}}{(2n)!}}+i({\hat {n}}\cdot {\vec {\sigma }})\sum _{n=0}^{\infty }{\frac {(-1)^{n}a^{2n+1}}{(2n+1)!}}.}

Suma cosinusów po lewej stronie i suma sinusów po prawej, więc ostatecznie,

e i a ( n ^ σ ) = I cos a + i ( n ^ σ ) sin a . {\displaystyle e^{ia({\hat {n}}\cdot {\vec {\sigma }})}=I\cos {a}+i({\hat {n}}\cdot {\vec {\sigma }})\sin {a}.}

Informatyka kwantowa

Macierze Pauliego mają wielkie znaczenie w informatyce kwantowej. Wykorzystywane są jako bramki jednokubitowe. Oznacza się je zwyczajowo jako X , Y , Z {\displaystyle X,Y,Z} kolejno dla σ 1 , σ 2 , σ 3 . {\displaystyle \sigma _{1},\sigma _{2},\sigma _{3}.}

Zobacz też

Inne:

Przypisy

  1. Wolfgang Pauli, Zur Quantenmechanik des magnetischen Elektrons, „Zeitschrift für Physik”, Bd. 43, 1927, s. 601.

Linki zewnętrzne

  • Eric W.E.W. Weisstein Eric W.E.W., Pauli Matrices, [w:] MathWorld, Wolfram Research [dostęp 2020-12-12]  (ang.).
  • Macierze Pauliego (ang.) w encyklopedii PlanetMath
Encyklopedia internetowa (pojęcie matematyczne):
  • Catalana: 0049501