Hibaterjedés

Egy adott f ( x ) {\displaystyle f(x)} függvényen való hibaterjedés két változó esetén. A származtatott mennyiség σ f {\displaystyle \sigma _{f}} szórását alapvetően befolyásolja az f ( x ) {\displaystyle f(x)} függvény deriváltja a változó középértéke helyén. A lineáris közelítés akkor jogos, ha a f ( x ) {\displaystyle f(x)} (sárga) és a deriváltja (zöld szaggatott) nem térnek el egymástól számottevően a változó átlaga körüli σ x {\displaystyle \sigma _{x}} környezeten belül

A statisztikában hibaterjedésnek nevezik a származtatott mennyiségek hibájának az alapul szolgáló mennyiségek hibájától való függését, illetve magát a matematikai módszert, mellyel a származtatott mennyiségek hibáját becslik. A hibaterjedés figyelembe vétele a fizikában is gyakran használatos, ha például hibával terhelt mért mennyiségekből valamilyen összefüggés segítségével származtatott új mennyiség hibáját határozzák meg.

Például ha egy, az Ohm-törvénynek engedelmeskedő áramköri rendszeren mérjük az I {\displaystyle I} átfolyó áramot, és annak Δ I {\displaystyle \Delta I} bizonytalanságát, továbbá az első U {\displaystyle U} feszültséget, és annak Δ U {\displaystyle \Delta U} bizonytalanságát, akkor az ellenállás meghatározására szolgáló R = f ( U , I ) = U I {\textstyle R=f(U,I)={\frac {U}{I}}} összefüggés és a hibaterjedés figyelembe vételével a származtatott ellenállás Δ R {\displaystyle \Delta R} bizonytalansága jól közelíthető. Egyes esetekben, például f = A B {\displaystyle f=AB} alakú összefüggés esetén f {\displaystyle f} hibája egzakt módon is kifejezhető, de általában sorfejtésen alapuló, lineáris közelítést alkalmaznak.

A hibaterjedés jellegét alapvetően az alábbiak határozzák meg:

  • A kiinduló mennyiségek bizonytalanságának összefüggése illetve függetlensége befolyásolja a származtatott mennyiség hibájának számolását.
  • A származtatott mennyiség kifejezését megadó f {\displaystyle f} összefüggés jellege befolyásolja, hogy mely mért mennyiségek hibája milyen mértékben járul hozzá a származtatott hibához.

Számolási módja

Lineáris kombináció esetén

A hibaterjedés matematikai jellemzése abban az esetben egyszerűbb, ha a származtatott változót megadó f {\displaystyle f} összefüggés a kiindulási változóknak lineáris kombinációja. Ezért ezzel az esettel külön érdemes foglalkozni. Legyen { f k ( x 1 , x 2 , , x n ) } {\displaystyle \{f_{k}(x_{1},x_{2},\dots ,x_{n})\}} m elemű halmaz minden eleme olyan függvény, mely x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\dots ,x_{n}} változók lineáris kombinációjaként áll elő A k 1 , A k 2 , , A k n {\displaystyle A_{k1},A_{k2},\dots ,A_{kn}} együtthatókkal, ahol ( k = 1 , , m ) {\displaystyle (k=1,\dots ,m)} , azaz:

f k = i = 1 n A k i x i {\displaystyle f_{k}=\sum _{i=1}^{n}A_{ki}x_{i}} , illetve mátrixjelöléssel: f = A x {\displaystyle \mathrm {f} =\mathrm {Ax} }

Legyen Σ x {\displaystyle \Sigma ^{x}\,} a kovarianciamátrix az alábbi jelölésekkel, ahol x = ( x 1 , x 2 , , x n ) {\displaystyle x=(x_{1},x_{2},\dots ,x_{n})} :

Σ x = ( σ 1 2 σ 12 σ 13 σ 12 σ 2 2 σ 23 σ 13 σ 23 σ 3 2 ) = ( Σ 1 x Σ 12 x Σ 13 x Σ 12 x Σ 2 x Σ 23 x Σ 13 x Σ 23 x Σ 3 x ) {\displaystyle \Sigma ^{x}={\begin{pmatrix}\sigma _{1}^{2}&\sigma _{12}&\sigma _{13}&\cdots \\\sigma _{12}&\sigma _{2}^{2}&\sigma _{23}&\cdots \\\sigma _{13}&\sigma _{23}&\sigma _{3}^{2}&\cdots \\\vdots &\vdots &\vdots &\ddots \end{pmatrix}}={\begin{pmatrix}{\mathit {\Sigma }}_{1}^{x}&{\mathit {\Sigma }}_{12}^{x}&{\mathit {\Sigma }}_{13}^{x}&\cdots \\{\mathit {\Sigma }}_{12}^{x}&{\mathit {\Sigma }}_{2}^{x}&{\mathit {\Sigma }}_{23}^{x}&\cdots \\{\mathit {\Sigma }}_{13}^{x}&{\mathit {\Sigma }}_{23}^{x}&{\mathit {\Sigma }}_{3}^{x}&\cdots \\\vdots &\vdots &\vdots &\ddots \end{pmatrix}}} .

Az f {\displaystyle f} függvény Σ f {\displaystyle \Sigma ^{f}\,} kovarianciamátrixa ezzel úgy adható meg, hogy:

Σ i j f = k n n A i k Σ k x A j {\displaystyle {\mathit {\Sigma }}_{ij}^{f}=\sum _{k}^{n}\sum _{\ell }^{n}A_{ik}{\mathit {\Sigma }}_{k\ell }^{x}A_{j\ell }} , illetve mátrixjelöléssel: Σ f = A Σ x A {\displaystyle \Sigma ^{f}=\mathrm {A} \Sigma ^{x}\mathrm {A} ^{\top }} .

A fenti általános összefüggés megengedi a változók közti korrelációt is. Ha azonban az x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\dots ,x_{n}} változók hibája egymástól független, a fenti összefüggés egyszerűbb alakba írható:

Σ i j f = k n A i k Σ k x A j k {\displaystyle {\mathit {\Sigma }}_{ij}^{f}=\sum _{k}^{n}A_{ik}{\mathit {\Sigma }}_{k}^{x}A_{jk}} ,

ahol Σ k x = σ x k 2 {\displaystyle {\mathit {\Sigma }}_{k}^{x}=\sigma _{x_{k}}^{2}} az v vektor k-adik elemének szórásnégyzete.

Skalárértékű f {\displaystyle f} függvényre ismét egyszerűbb összefüggést kapunk:

f = i n a i x i : f = a x {\displaystyle f=\sum _{i}^{n}a_{i}x_{i}:f=\mathrm {a} x\,} ,
σ f 2 = i n j n a i Σ i j x a j = a Σ x a {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}\sum _{j}^{n}a_{i}{\mathit {\Sigma }}_{ij}^{x}a_{j}=\mathrm {a} \Sigma ^{x}\mathrm {a} ^{\top }} ,

ahol a sorvektor. A σ i j {\displaystyle \sigma _{ij}} kovarianciák kifejezhetők a szórásokkal és a megfelelő ρ i j {\displaystyle \rho _{ij}\,} Pearson-féle korrelációs együtthatóval: σ i j = ρ i j σ i σ j {\displaystyle \sigma _{ij}=\rho _{ij}\sigma _{i}\sigma _{j}\,} , melyből következik a származtatott szórásnégyzet egy másik kifejezése:

σ f 2 = i n a i 2 σ i 2 + i n j ( j i ) n a i a j ρ i j σ i σ j {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}+\sum _{i}^{n}\sum _{j(j\neq i)}^{n}a_{i}a_{j}\rho _{ij}\sigma _{i}\sigma _{j}} ,

mely független változók esetén:

σ f 2 = i n a i 2 σ i 2 . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}.}

Még speciálisabb esetet képvisel a több, megegyező szórású változó egyenlő együtthatójú kombinációja esetén megadható

σ f = n a σ {\displaystyle \sigma _{f}={\sqrt {n}}a\sigma } .

Nemlineáris összefüggéseknél

Ha az f az x változók nemlineáris függvénye, akkor csak egyes esetekben adható meg pontos hibaszámítási formula, de általában például úgy közelíthető a származtatott mennyiség hibája, hogy az f {\displaystyle f} függvényt az alábbiak szerint lineáris tagig Taylor-sorba fejtjük:

f k f k 0 + i n f k x i x i {\displaystyle f_{k}\approx f_{k}^{0}+\sum _{i}^{n}{\frac {\partial f_{k}}{\partial {x_{i}}}}x_{i}} ,

ahol f k / x i {\displaystyle \partial f_{k}/\partial x_{i}} az f k {\displaystyle f_{k}} függvény x i {\displaystyle x_{i}} szerinti parciális deriváltjának x i {\displaystyle x_{i}} átlagánál felvett értékét jelöli. Mátrixjelöléssel:

f f 0 + J x {\displaystyle \mathrm {f} \approx \mathrm {f} ^{0}+\mathrm {J} \mathrm {x} \,}

ahol J {\displaystyle \mathrm {J} } a Jacobi-mátrix. Mivel f 0 {\displaystyle f^{0}} konstans, ezért nem járul hozzá f {\displaystyle f} hibájához. Ezzel tehát a lineáris kombinációra levezetett hibaterjedést kapjuk vissza azzal a különbséggel, hogy az A i k , A j k {\displaystyle A_{ik},A_{jk}} együtthatók helyébe a parciális deriváltak áltagnál felvett f k x i , f k x j {\textstyle {\frac {\partial f_{k}}{\partial x_{i}}},{\frac {\partial f_{k}}{\partial x_{j}}}} értékei lépnek, így:[1]

Σ f = J Σ x J . {\displaystyle \mathrm {\Sigma } ^{\mathrm {f} }=\mathrm {J} \mathrm {\Sigma } ^{\mathrm {x} }\mathrm {J} ^{\top }.}

Tehát a függvény Jacobi-matrixával fejezhető ki az x i {\displaystyle x_{i}} -k kovarianciamátrixának transzformációja.

Gauss-hibaterjedési formula

A mérnöki gyakorlatban és az alkalmazott kutatásban gyakran élnek azzal a közelítéssel a nemlineáris f {\displaystyle f} hibájának becslésére, hogy x i {\displaystyle x_{i}} változók függetlenek. Ekkor ugyanis az alábbi, könnyen kezelhető hibaterjedési összefüggés írható fel:

s f i ( f x i ) 2 s x i 2 {\displaystyle s_{f}\approx {\sqrt {\sum _{i}\left({\frac {\partial f}{\partial x_{i}}}\right)^{2}s_{x_{i}}^{2}}}}

ahol s f {\displaystyle s_{f}} az f {\displaystyle f} szórása, s x i {\displaystyle s_{x_{i}}} pedig az x i {\displaystyle x_{i}} szórása. Mivel a fenti összefüggés a sorfejtés lineáris tagjának megtartásán, a többi tag elhagyásán alapul, ezért a származtatott hiba mértékét csak közelíti. Általában azt mondhatjuk, hogy a közelítés elég jó, ha az s x , s y , s z , {\displaystyle s_{x},s_{y},s_{z},\ldots } szórások nem olyan nagyok, hogy az f {\displaystyle f} lineáris közelítése egy s x , s y , s z , {\displaystyle s_{x},s_{y},s_{z},\ldots } sugarú környezetében nem tér el számottevően f {\displaystyle f} -től.[2]

Gyakori példák

Az alábbi táblázat a σ A , σ B {\displaystyle \sigma _{A},\sigma _{B}} relatív szórásokkal és σ A B {\displaystyle \sigma _{AB}} kovarianciával jellemzett A , B {\displaystyle A,B} valószínűségi változókra vonatkozó néhány egyszerű és tipikus összefüggés esetén levezetett hibaszámolást foglalja össze.

Összefüggés Szórásnégyzet Szórás
f = a A {\displaystyle f=aA\,} σ f 2 = a 2 σ A 2 {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}} σ f = | a | σ A {\displaystyle \sigma _{f}=|a|\sigma _{A}}
f = a A + b B {\displaystyle f=aA+bB\,} σ f 2 = a 2 σ A 2 + b 2 σ B 2 + 2 a b σ A B {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}+2ab\,\sigma _{AB}} σ f = a 2 σ A 2 + b 2 σ B 2 + 2 a b σ A B {\displaystyle \sigma _{f}={\sqrt {a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}+2ab\,\sigma _{AB}}}}
f = a A b B {\displaystyle f=aA-bB\,} σ f 2 = a 2 σ A 2 + b 2 σ B 2 2 a b σ A B {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}-2ab\,\sigma _{AB}} σ f = a 2 σ A 2 + b 2 σ B 2 2 a b σ A B {\displaystyle \sigma _{f}={\sqrt {a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}-2ab\,\sigma _{AB}}}}
f = A B {\displaystyle f=AB\,} σ f 2 f 2 [ ( σ A A ) 2 + ( σ B B ) 2 + 2 σ A B A B ] {\displaystyle \sigma _{f}^{2}\approx f^{2}\left[\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+2{\frac {\sigma _{AB}}{AB}}\right]} [3][4] σ f | f | ( σ A A ) 2 + ( σ B B ) 2 + 2 σ A B A B {\displaystyle \sigma _{f}\approx \left|f\right|{\sqrt {\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+2{\frac {\sigma _{AB}}{AB}}}}}
f = A B {\displaystyle f={\frac {A}{B}}\,} σ f 2 f 2 [ ( σ A A ) 2 + ( σ B B ) 2 2 σ A B A B ] {\displaystyle \sigma _{f}^{2}\approx f^{2}\left[\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}-2{\frac {\sigma _{AB}}{AB}}\right]} [5] σ f | f | ( σ A A ) 2 + ( σ B B ) 2 2 σ A B A B {\displaystyle \sigma _{f}\approx \left|f\right|{\sqrt {\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}-2{\frac {\sigma _{AB}}{AB}}}}}
f = a A b {\displaystyle f=aA^{b}\,} σ f 2 ( a b A b 1 σ A ) 2 = ( f b σ A A ) 2 {\displaystyle \sigma _{f}^{2}\approx \left({a}{b}{A}^{b-1}{\sigma _{A}}\right)^{2}=\left({\frac {{f}{b}{\sigma _{A}}}{A}}\right)^{2}} σ f | a b A b 1 σ A | = | f b σ A A | {\displaystyle \sigma _{f}\approx \left|{a}{b}{A}^{b-1}{\sigma _{A}}\right|=\left|{\frac {{f}{b}{\sigma _{A}}}{A}}\right|}
f = a ln ( b A ) {\displaystyle f=a\ln(bA)\,} σ f 2 ( a σ A A ) 2 {\displaystyle \sigma _{f}^{2}\approx \left(a{\frac {\sigma _{A}}{A}}\right)^{2}} [6] σ f | a σ A A | {\displaystyle \sigma _{f}\approx \left|a{\frac {\sigma _{A}}{A}}\right|}
f = a log 10 ( A ) {\displaystyle f=a\log _{10}(A)\,} σ f 2 ( a σ A A ln ( 10 ) ) 2 {\displaystyle \sigma _{f}^{2}\approx \left(a{\frac {\sigma _{A}}{A\ln(10)}}\right)^{2}} [6] σ f | a σ A A ln ( 10 ) | {\displaystyle \sigma _{f}\approx \left|a{\frac {\sigma _{A}}{A\ln(10)}}\right|}
f = a e b A {\displaystyle f=ae^{bA}\,} σ f 2 f 2 ( b σ A ) 2 {\displaystyle \sigma _{f}^{2}\approx f^{2}\left(b\sigma _{A}\right)^{2}} [7] σ f | f ( b σ A ) | {\displaystyle \sigma _{f}\approx \left|f\left(b\sigma _{A}\right)\right|}
f = a b A {\displaystyle f=a^{bA}\,} σ f 2 f 2 ( b ln ( a ) σ A ) 2 {\displaystyle \sigma _{f}^{2}\approx f^{2}(b\ln(a)\sigma _{A})^{2}} σ f | f ( b ln ( a ) σ A ) | {\displaystyle \sigma _{f}\approx \left|f(b\ln(a)\sigma _{A})\right|}
f = a sin ( b A ) {\displaystyle f=a\sin(bA)\,} σ f 2 [ a b cos ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\approx \left[ab\cos(bA)\sigma _{A}\right]^{2}} σ f | a b cos ( b A ) σ A | {\displaystyle \sigma _{f}\approx \left|ab\cos(bA)\sigma _{A}\right|}
f = a cos ( b A ) {\displaystyle f=a\cos \left(bA\right)\,} σ f 2 [ a b sin ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\approx \left[ab\sin(bA)\sigma _{A}\right]^{2}} σ f | a b sin ( b A ) σ A | {\displaystyle \sigma _{f}\approx \left|ab\sin(bA)\sigma _{A}\right|}
f = A B {\displaystyle f=A^{B}\,} σ f 2 f 2 [ ( B A σ A ) 2 + ( ln ( A ) σ B ) 2 + 2 B ln ( A ) A σ A B ] {\displaystyle \sigma _{f}^{2}\approx f^{2}\left[\left({\frac {B}{A}}\sigma _{A}\right)^{2}+\left(\ln(A)\sigma _{B}\right)^{2}+2{\frac {B\ln(A)}{A}}\sigma _{AB}\right]} σ f | f | ( B A σ A ) 2 + ( ln ( A ) σ B ) 2 + 2 B ln ( A ) A σ A B {\displaystyle \sigma _{f}\approx \left|f\right|{\sqrt {\left({\frac {B}{A}}\sigma _{A}\right)^{2}+\left(\ln(A)\sigma _{B}\right)^{2}+2{\frac {B\ln(A)}{A}}\sigma _{AB}}}}

Ha az A , B {\displaystyle A,B} változók függetlenek, azaz a korrelációs együtthatójuk nulla ( ρ A B = 0 {\displaystyle \rho _{AB}=0} ) akkor σ A B = ρ A B σ A σ B {\displaystyle \sigma _{AB}=\rho _{AB}\sigma _{A}\sigma _{B}} alapján a kovarianciájuk is nulla: σ A B = 0 {\displaystyle \sigma _{AB}=0} .

Függetlenségnél és az f = A B {\displaystyle f=AB} összefüggés esetén a szórásnégyzet kifejezésére a Goodman-formula is alkalmazható:[8]

V ( X Y ) = E ( X ) 2 V ( Y ) + E ( Y ) 2 V ( X ) + E ( ( X E ( X ) ) 2 ( Y E ( Y ) ) 2 ) {\displaystyle V(XY)=E(X)^{2}V(Y)+E(Y)^{2}V(X)+E((X-E(X))^{2}(Y-E(Y))^{2})} ,

melyből a származtatott mennyiség szórásnégyzete:

σ f 2 = A 2 σ B 2 + B 2 σ A 2 + σ A 2 σ B 2 {\displaystyle \sigma _{f}^{2}=A^{2}\sigma _{B}^{2}+B^{2}\sigma _{A}^{2}+\sigma _{A}^{2}\sigma _{B}^{2}}

Jegyzetek

  1. Ochoa1,Benjamin; Belongie, Serge "Covariance Propagation for Guided Matching" Archiválva 2011. július 20-i dátummal a Wayback Machine-ben
  2. Clifford, A. A.. Multivariate error analysis: a handbook of error propagation and calculation in many-parameter systems. John Wiley & Sons (1973). ISBN 0470160551 
  3. A Summary of Error Propagation. [2016. december 13-i dátummal az eredetiből archiválva]. (Hozzáférés: 2016. április 4.)
  4. Propagation of Uncertainty through Mathematical Operations. (Hozzáférés: 2016. április 4.)
  5. Strategies for Variance Estimation. (Hozzáférés: 2013. január 18.)
  6. a b Harris, Daniel C. (2003), Quantitative chemical analysis (6th ed.), Macmillan, p. 56, ISBN 0-7167-4464-3, <https://books.google.com/books?id=csTsQr-v0d0C&pg=PA56>
  7. Error Propagation tutorial. Foothill College, 2009. október 9. (Hozzáférés: 2012. március 1.)
  8. Goodman, Leo (1960). „On the Exact Variance of Products”. Journal of the American Statistical Association 55 (292), 708–713. o. DOI:10.2307/2281592.  

Fordítás

Ez a szócikk részben vagy egészben a Propagation of uncertainty című angol Wikipédia-szócikk ezen változatának fordításán alapul. Az eredeti cikk szerkesztőit annak laptörténete sorolja fel. Ez a jelzés csupán a megfogalmazás eredetét és a szerzői jogokat jelzi, nem szolgál a cikkben szereplő információk forrásmegjelöléseként.

Források

Szakkönyvek

  • Szatmáry Zoltán. Mérések kiértékelése – Egyetemi jegyzet [archivált változat] (PDF), Budapest: BME TTK (2010). Hozzáférés ideje: 2017. augusztus 31. [archiválás ideje: 2016. március 27.] 

Tananyagok, ismeretterjesztő weblapok

  • Error analysis (megoldott példák) (angol nyelven). http://lectureonline.cl.msu.edu. [2017. szeptember 8-i dátummal az eredetiből archiválva]. (Hozzáférés: 2017. szeptember 4.)
  • A fizikai mérések hibája (Egyetemi laboratóriumi segédanyag) (PDF). Fizipédia. BME. (Hozzáférés: 2017. szeptember 4.)

Kapcsolódó szócikkek

  • Mérési hiba
  • Kovariancia