Wolfgang Pauli (1900–1958) Macierze Pauliego (spinowe macierze Pauliego) – zbiór 3 zespolonych macierzy hermitowskich wymiaru 2×2 wprowadzony w 1927 roku przez Wolfganga Pauliego w celu opisu spinu elektronu w mechanice kwantowej[1] :
σ 1 = [ 0 1 1 0 ] , {\displaystyle \sigma _{1}=\left[{\begin{matrix}0&&1\\1&&0\end{matrix}}\right],} σ 2 = [ 0 − i i 0 ] , {\displaystyle \sigma _{2}=\left[{\begin{matrix}0&-i\\i&~~~0\end{matrix}}\right],} σ 3 = [ 1 0 0 − 1 ] . {\displaystyle \sigma _{3}=\left[{\begin{matrix}1&~~~0\\0&-1\end{matrix}}\right].} W fizyce niekiedy używa się oznaczeń σ x ≡ σ 1 , {\displaystyle \sigma _{x}\equiv \sigma _{1},} σ y ≡ σ 2 {\displaystyle \sigma _{y}\equiv \sigma _{2}} i σ z ≡ σ 3 . {\displaystyle \sigma _{z}\equiv \sigma _{3}.}
Czasem używa się również symbolu σ0 na oznaczenie macierzy jednostkowej wymiaru 2 × 2 , {\displaystyle 2{\times }2,} choć najczęściej macierz jednostkową oznacza się symbolem I , {\displaystyle I,} tj.
I = [ 1 0 0 1 ] . {\displaystyle I=\left[{\begin{matrix}1&&0\\0&&1\end{matrix}}\right].} Macierze Pauliego wraz z macierzą jednostkową tworzą bazę, w rozumieniu Hilberta-Schmidta:
w zespolonej przestrzeni Hilberta macierzy zespolonych wymiaru 2×2 oraz w rzeczywistej przestrzeni Hilberta zespolonych macierzy Hermitowskich o wymiarze 2 × 2. {\displaystyle 2{\times }2.} Właściwości algebraiczne Niech I {\displaystyle I} oznacza macierz jednostkową.
(1 ) Wyznaczniki i ślady macierzy Pauliego spełniają równania:
det ( σ i ) = − 1 , Tr ( σ i ) = 0 , , {\displaystyle {\begin{matrix}\det(\sigma _{i})&=&\!\!\!\!-1,\\\operatorname {Tr} (\sigma _{i})&=&0,\end{matrix}},} gdzie i = 1 , 2 , 3. {\displaystyle i=1,2,3.}
(2 ) Iloczyny macierzy Pauliego
a) Obliczając iloczyny macierzy Pauliego, otrzyma się:
σ 1 2 = I , σ 1 σ 2 = i σ 3 , σ 2 σ 1 = − i σ 3 , σ 2 σ 3 = i σ 1 , {\displaystyle {\begin{aligned}\sigma _{1}^{2}&=I,\\\sigma _{1}\sigma _{2}&=i\sigma _{3},\\\sigma _{2}\sigma _{1}&=-i\sigma _{3},\\\sigma _{2}\sigma _{3}&=i\sigma _{1},\end{aligned}}} itd. b) Ogólnie mamy:
σ i σ j = I ⋅ δ i j + i ∑ k ϵ i j k σ k , {\displaystyle {\begin{aligned}\sigma _{i}\sigma _{j}&=I\cdot \delta _{ij}+i\sum _{k}\epsilon _{ijk}\sigma _{k}\end{aligned}},} gdzie i , j = 1 , 2 , 3. {\displaystyle i,j=1,2,3.}
(3 ) Z powyższych wzorów wynikają relacje komutacji oraz antykomutacji, np.
[ σ 1 , σ 2 ] = 2 i σ 3 , [ σ 2 , σ 3 ] = 2 i σ 1 , [ σ 3 , σ 1 ] = 2 i σ 2 , [ σ 1 , σ 1 ] = 0 , { σ 1 , σ 1 } = 2 I , { σ 1 , σ 2 } = 0 , {\displaystyle {\begin{aligned}\left[\sigma _{1},\sigma _{2}\right]&=2i\sigma _{3},\\\left[\sigma _{2},\sigma _{3}\right]&=2i\sigma _{1},\\\left[\sigma _{3},\sigma _{1}\right]&=2i\sigma _{2},\\\left[\sigma _{1},\sigma _{1}\right]&=0,\\\left\{\sigma _{1},\sigma _{1}\right\}&=2I,\\\left\{\sigma _{1},\sigma _{2}\right\}&=0,\end{aligned}}} gdzie komutator i antykomutator zdefiniowane są następująco:
[ σ i , σ j ] = σ i σ j − σ j σ i , {\displaystyle [\sigma _{i},\sigma _{j}]=\sigma _{i}\sigma _{j}-\sigma _{j}\sigma _{i},} { σ i , σ j } = σ i σ j + σ j σ i . {\displaystyle \{\sigma _{i},\sigma _{j}\}=\sigma _{i}\sigma _{j}+\sigma _{j}\sigma _{i}.} Ogólnie mamy:
[ σ i , σ j ] = 2 i ∑ k ϵ i j k σ k , {\displaystyle [\sigma _{i},\sigma _{j}]=2i\sum _{k}\,\epsilon _{ijk}\,\sigma _{k},} { σ i , σ j } = 2 δ i j I , {\displaystyle \{\sigma _{i},\sigma _{j}\}=2\delta _{ij}I,} gdzie:
ε i j k {\displaystyle \varepsilon _{ijk}} – symbol Leviego-Civity, δ i j {\displaystyle \delta _{ij}} – delta Kroneckera. (4 ) Inna własność macierzy Pauliego:
− i σ 1 σ 2 σ 3 = I . {\displaystyle -i\sigma _{1}\sigma _{2}\sigma _{3}=I.} Wartości i wektory własne (1 ) Każda z macierzy Pauliego ma dwie wartości własne , +1 i −1.
(2 ) Wektory własne macierzy Pauliego (znormalizowane do 1):
– dla macierzy σ x ≡ σ 1 : {\displaystyle \sigma _{x}\equiv \sigma _{1}{:}}
ψ x + = 1 2 ( 1 1 ) , ψ x − = 1 2 ( 1 − 1 ) , {\displaystyle \psi _{x+}={\frac {1}{\sqrt {2}}}{\binom {1}{1}},\quad \psi _{x-}={\frac {1}{\sqrt {2}}}{\binom {1}{-1}},} – dla macierzy σ y ≡ σ 2 : {\displaystyle \sigma _{y}\equiv \sigma _{2}{:}}
ψ y + = 1 2 ( 1 i ) , ψ y − = 1 2 ( 1 − i ) , {\displaystyle \psi _{y+}={\frac {1}{\sqrt {2}}}{\binom {1}{i}},\quad \psi _{y-}={\frac {1}{\sqrt {2}}}{\binom {1}{-i}},} – dla macierzy σ z ≡ σ 3 : {\displaystyle \sigma _{z}\equiv \sigma _{3}{:}}
ψ z + = ( 1 0 ) , ψ z − = ( 0 1 ) . {\displaystyle \psi _{z+}={\binom {1}{0}},\quad \psi _{z-}={\binom {0}{1}}.} Wektor macierzy Pauliego. Iloczyn skalarny (1 ) Wektor macierzy Pauliego zdefiniowany jest następująco:
σ → = σ 1 x ^ + σ 2 y ^ + σ 3 z ^ , {\displaystyle {\vec {\sigma }}=\sigma _{1}{\hat {x}}+\sigma _{2}{\hat {y}}+\sigma _{3}{\hat {z}},} gdzie x ^ , y ^ , z ^ {\displaystyle {\hat {x}},{\hat {y}},{\hat {z}}} – wersory osi układu współrzędnych kartezjańskich .
(2 ) Niech dany będzie wektor a → , {\displaystyle {\vec {a}},} taki że
a → = a 1 x ^ + a 2 y ^ + a 3 z ^ . {\displaystyle {\vec {a}}=a_{1}{\hat {x}}+a_{2}{\hat {y}}+a_{3}{\hat {z}}.} Wtedy iloczyn skalarny wektora macierzy Pauliego przez wektor a → {\displaystyle {\vec {a}}} ma postać:
a → ⋅ σ → = a 1 σ 1 + a 2 σ 2 + a 3 σ 3 . {\displaystyle {\vec {a}}\cdot {\vec {\sigma }}=a_{1}\sigma _{1}+a_{2}\sigma _{2}+a_{3}\sigma _{3}.} (3 ) Tw. Dowolny wektor komutuje z wektorem macierzy Pauliego , gdyż mnożenie macierzy przez liczbę zawsze jest przemienne, np.
a 1 σ 1 = σ 1 a 1 = [ 0 a 1 a 1 0 ] . {\displaystyle a_{1}\sigma _{1}=\sigma _{1}a_{1}={\begin{bmatrix}0&a_{1}\\a_{1}&0\end{bmatrix}}.} Twierdzenia ( a → ⋅ σ → ) ( b → ⋅ σ → ) = ( a → ⋅ b → ) I + i σ → ⋅ ( a → × b → ) ( 1 ) {\displaystyle ({\vec {a}}\cdot {\vec {\sigma }})({\vec {b}}\cdot {\vec {\sigma }})=({\vec {a}}\cdot {\vec {b}})\,I+i{\vec {\sigma }}\cdot ({\vec {a}}\times {\vec {b}})\qquad \qquad (1)} oraz
e i ( a → ⋅ σ → ) = I cos a + i ( n ^ ⋅ σ → ) sin a , ( 2 ) {\displaystyle e^{i({\vec {a}}\cdot {\vec {\sigma }})}=I\cos {a}+i({\hat {n}}\cdot {\vec {\sigma }})\sin {a},\qquad \qquad \qquad (2)} gdzie:
a → = a n ^ , {\displaystyle {\vec {a}}=a{\hat {n}},} n ^ {\displaystyle {\hat {n}}} – wektor jednostkowy skierowany w dowolnym kierunku. Dowód (#1)
( a → ⋅ σ → ) ( b → ⋅ σ → ) = a i σ i b j σ j = a i b j σ i σ j = a i b j ( δ i j ⋅ I + i ε i j k σ k ) = a i b j δ i j ⋅ I + i σ k ε i j k a i b j = ( a → ⋅ b → ) ⋅ I + i σ → ⋅ ( a → × b → ) {\displaystyle {\begin{aligned}({\vec {a}}\cdot {\vec {\sigma }})({\vec {b}}\cdot {\vec {\sigma }})&=a_{i}\sigma _{i}b_{j}\sigma _{j}\\&=a_{i}b_{j}\sigma _{i}\sigma _{j}\\&=a_{i}b_{j}\left(\delta _{ij}\cdot I+i\varepsilon _{ijk}\sigma _{k}\right)\\&=a_{i}b_{j}\delta _{ij}\cdot I+i\sigma _{k}\varepsilon _{ijk}a_{i}b_{j}\\&=({\vec {a}}\cdot {\vec {b}})\cdot I+i{\vec {\sigma }}\cdot ({\vec {a}}\times {\vec {b}})\end{aligned}}} Dowód (#2)
Najpierw zauważmy równość
( n ^ ⋅ σ → ) 2 n = I . {\displaystyle ({\hat {n}}\cdot {\vec {\sigma }})^{2n}=I.} (Może być udowodniona dla n=1 z użyciem relacji antykomutacji).
Dla pozostałych:
( n ^ ⋅ σ → ) 2 n + 1 = n ^ ⋅ σ → . {\displaystyle ({\hat {n}}\cdot {\vec {\sigma }})^{2n+1}={\hat {n}}\cdot {\vec {\sigma }}.} Połączenie tych dwóch faktów z wiedzą o relacjach eksponencjalnych z sin i cos :
e i x = ∑ n = 0 ∞ i n x n n ! = ∑ n = 0 ∞ ( − 1 ) n x 2 n ( 2 n ) ! + i ∑ n = 0 ∞ ( − 1 ) n x 2 n + 1 ( 2 n + 1 ) ! . {\displaystyle {\begin{aligned}e^{ix}&=\sum _{n=0}^{\infty }{\frac {i^{n}x^{n}}{n!}}\\&=\sum _{n=0}^{\infty }{\frac {(-1)^{n}x^{2n}}{(2n)!}}+i\sum _{n=0}^{\infty }{\frac {(-1)^{n}x^{2n+1}}{(2n+1)!}}.\end{aligned}}} Kiedy podstawimy x = a ( n ^ ⋅ σ → ) , {\displaystyle x=a({\hat {n}}\cdot {\vec {\sigma }}),}
otrzymamy
= ∑ n = 0 ∞ ( − 1 ) n ( a n ^ ⋅ σ → ) 2 n ( 2 n ) ! + i ∑ n = 0 ∞ ( − 1 ) n ( a n ^ ⋅ σ → ) 2 n + 1 ( 2 n + 1 ) ! {\displaystyle =\sum _{n=0}^{\infty }{\frac {(-1)^{n}(a{\hat {n}}\cdot {\vec {\sigma }})^{2n}}{(2n)!}}+i\sum _{n=0}^{\infty }{\frac {(-1)^{n}(a{\hat {n}}\cdot {\vec {\sigma }})^{2n+1}}{(2n+1)!}}} = I ∑ n = 0 ∞ ( − 1 ) n a 2 n ( 2 n ) ! + i ( n ^ ⋅ σ → ) ∑ n = 0 ∞ ( − 1 ) n a 2 n + 1 ( 2 n + 1 ) ! . {\displaystyle =I\sum _{n=0}^{\infty }{\frac {(-1)^{n}a^{2n}}{(2n)!}}+i({\hat {n}}\cdot {\vec {\sigma }})\sum _{n=0}^{\infty }{\frac {(-1)^{n}a^{2n+1}}{(2n+1)!}}.} Suma cosinusów po lewej stronie i suma sinusów po prawej, więc ostatecznie,
e i a ( n ^ ⋅ σ → ) = I cos a + i ( n ^ ⋅ σ → ) sin a . {\displaystyle e^{ia({\hat {n}}\cdot {\vec {\sigma }})}=I\cos {a}+i({\hat {n}}\cdot {\vec {\sigma }})\sin {a}.} Informatyka kwantowa Macierze Pauliego mają wielkie znaczenie w informatyce kwantowej. Wykorzystywane są jako bramki jednokubitowe. Oznacza się je zwyczajowo jako X , Y , Z {\displaystyle X,Y,Z} kolejno dla σ 1 , σ 2 , σ 3 . {\displaystyle \sigma _{1},\sigma _{2},\sigma _{3}.}
Zobacz też Inne:
Przypisy ↑ Wolfgang Pauli, Zur Quantenmechanik des magnetischen Elektrons , „Zeitschrift für Physik”, Bd. 43, 1927, s. 601. Linki zewnętrzne Eric W. E.W. Weisstein Eric W. E.W. , Pauli Matrices , [w:] MathWorld , Wolfram Research [dostęp 2020-12-12] (ang. ) . Macierze Pauliego (ang. ) w encyklopedii PlanetMath