Распространение неопределенности

Влияние неопределенности переменных на неопределенность функции, основанной на них

В статистике распространение неопределенности (или распространение ошибки ) — это влияние неопределенностей переменных (или ошибок , точнее случайных ошибок ) на неопределенность функции, основанной на них. Когда переменные являются значениями экспериментальных измерений, они имеют неопределенности из-за ограничений измерения (например, точности прибора ) , которые распространяются из-за комбинации переменных в функции.

Неопределенность u может быть выражена несколькими способами. Она может быть определена с помощью абсолютной погрешности Δ x . Неопределенности также могут быть определены с помощью относительной погрешности x )/ x , которая обычно записывается в процентах. Чаще всего неопределенность величины количественно определяется с помощью стандартного отклонения σ , которое является положительным квадратным корнем дисперсии . Значение величины и ее погрешность затем выражаются как интервал x ± u . Однако наиболее общий способ характеризовать неопределенность — это указать ее распределение вероятностей . Если распределение вероятностей переменной известно или может быть предположено, теоретически можно получить любую ее статистику. В частности, можно вывести доверительные пределы для описания области, в которой может быть найдено истинное значение переменной. Например, 68% доверительные пределы для одномерной переменной, принадлежащей нормальному распределению, составляют приблизительно ± одно стандартное отклонение σ от центрального значения x , что означает, что область x ± σ будет охватывать истинное значение примерно в 68% случаев.

Если неопределенности коррелируют, то необходимо учитывать ковариацию . Корреляция может возникнуть из двух разных источников. Во-первых, ошибки измерения могут быть коррелированы. Во-вторых, когда базовые значения коррелируют по всей популяции, неопределенности в средних значениях группы будут коррелированы. [1]

В общем контексте, где нелинейная функция изменяет неопределенные параметры (коррелированные или нет), стандартными инструментами для распространения неопределенности и вывода результирующего количественного распределения вероятностей/статистики являются методы выборки из семейства методов Монте-Карло . [2] Для очень больших наборов данных или сложных функций вычисление распространения ошибки может быть очень дорогим, поэтому может потребоваться суррогатная модель [3] или стратегия параллельных вычислений [4] [5] [6] .

В некоторых частных случаях расчет распространения неопределенности может быть выполнен с помощью упрощенных алгебраических процедур. Некоторые из этих сценариев описаны ниже.

Линейные комбинации

Пусть будет набором из m функций, которые являются линейными комбинациями переменных с коэффициентами комбинации : или в матричной записи, { ф к ( х 1 , х 2 , , х н ) } {\displaystyle \{f_{k}(x_{1},x_{2},\точки,x_{n})\}} н {\displaystyle n} х 1 , х 2 , , х н {\displaystyle x_{1},x_{2},\точки ,x_{n}} А к 1 , А к 2 , , А к н , ( к = 1 , , м ) {\displaystyle A_{k1},A_{k2},\dots ,A_{kn},(k=1,\dots ,m)} ф к = я = 1 н А к я х я , {\displaystyle f_{k}=\sum _{i=1}^{n}A_{ki}x_{i},} ф = А х . {\displaystyle \mathbf {f} =\mathbf {A} \mathbf {x} .}

Также пусть матрица дисперсии-ковариации x = ( x 1 , ..., x n ) обозначается как , а среднее значение обозначается как : — внешнее произведение . Σ х {\displaystyle {\boldsymbol {\Sigma}}^{x}} μ {\displaystyle {\boldsymbol {\mu }}} Σ х = Э [ ( х μ ) ( х μ ) ] = ( σ 1 2 σ 12 σ 13 σ 21 σ 2 2 σ 23 σ 31 σ 32 σ 3 2 ) = ( Σ 11 х Σ 12 х Σ 13 х Σ 21 х Σ 22 х Σ 23 х Σ 31 х Σ 32 х Σ 33 х ) . {\displaystyle {\boldsymbol {\Sigma }}^{x}=E[(\mathbf {x} -{\boldsymbol {\mu }})\otimes (\mathbf {x} -{\boldsymbol {\mu }})]={\begin{pmatrix}\sigma _{1}^{2}&\sigma _{12}&\sigma _{13}&\cdots \\\sigma _{21}&\sigma _{2}^{2}&\sigma _{23}&\cdots \\\sigma _{31}&\sigma _{32}&\sigma _{3}^{2}&\cdots \\\vdots &\vdots &\vdots &\ddots \end{pmatrix}}={\begin{pmatrix}{\Sigma }_{11}^{x}&{\Сигма }_{12}^{x}&{\Сигма }_{13}^{x}&\cdots \\{\Сигма }_{21}^{x}&{\Сигма }_{22}^{x}&{\Сигма }_{23}^{x}&\cdots \\{\Сигма }_{31}^{x}&{\Сигма }_{32}^{x}&{\Сигма }_{33}^{x}&\cdots \\\vdots &\vdots &\vdots &\ddots \end{pmatrix}}.} {\displaystyle \otimes}

Тогда матрица дисперсии-ковариации функции f определяется как Σ ф {\displaystyle {\boldsymbol {\Sigma}}^{f}} Σ ф = Э [ ( ф Э [ ф ] ) ( ф Э [ ф ] ) ] = Э [ А ( х μ ) А ( х μ ) ] = А Э [ ( х μ ) ( х μ ) ] А Т = А Σ х А Т . {\displaystyle {\boldsymbol {\Sigma }}^{f}=E[(\mathbf {f} -E[\mathbf {f} ])\otimes (\mathbf {f} -E[\mathbf {f} ])]=E[\mathbf {A} (\mathbf {x} -{\boldsymbol {\mu }})\otimes \mathbf {A} (\mathbf {x} -{\boldsymbol {\mu }})]=\mathbf {A} E[(\mathbf {x} -{\boldsymbol {\mu }})\otimes (\mathbf {x} -{\boldsymbol {\mu }})]\mathbf {A} ^{\mathrm {T} }=\mathbf {A} {\boldsymbol {\Sigma }}^{x}\mathbf {A} ^{\mathrm {T} }.}

В компонентной записи уравнение выглядит следующим образом: Σ f = A Σ x A T {\displaystyle {\boldsymbol {\Sigma }}^{f}=\mathbf {A} {\boldsymbol {\Sigma }}^{x}\mathbf {A} ^{\mathrm {T} }} Σ i j f = k n l n A i k Σ k l x A j l . {\displaystyle \Sigma _{ij}^{f}=\sum _{k}^{n}\sum _{l}^{n}A_{ik}{\Sigma }_{kl}^{x}A_{jl}.}

Это наиболее общее выражение для распространения ошибки из одного набора переменных в другой. Когда ошибки по x некоррелированы, общее выражение упрощается до , где - дисперсия k -го элемента вектора x . Обратите внимание, что даже если ошибки по x могут быть некоррелированными, ошибки по f в общем случае коррелированы; другими словами, даже если - диагональная матрица, - в общем случае полная матрица. Σ i j f = k n A i k Σ k x A j k , {\displaystyle \Sigma _{ij}^{f}=\sum _{k}^{n}A_{ik}\Sigma _{k}^{x}A_{jk},} Σ k x = σ x k 2 {\displaystyle \Sigma _{k}^{x}=\sigma _{x_{k}}^{2}} Σ x {\displaystyle {\boldsymbol {\Sigma }}^{x}} Σ f {\displaystyle {\boldsymbol {\Sigma }}^{f}}

Общие выражения для скалярной функции f немного проще (здесь a — вектор-строка): f = i n a i x i = a x , {\displaystyle f=\sum _{i}^{n}a_{i}x_{i}=\mathbf {ax} ,} σ f 2 = i n j n a i Σ i j x a j = a Σ x a T . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}\sum _{j}^{n}a_{i}\Sigma _{ij}^{x}a_{j}=\mathbf {a} {\boldsymbol {\Sigma }}^{x}\mathbf {a} ^{\mathrm {T} }.}

Каждый ковариационный член может быть выражен через коэффициент корреляции следующим образом : , так что альтернативное выражение для дисперсии f имеет вид σ i j {\displaystyle \sigma _{ij}} ρ i j {\displaystyle \rho _{ij}} σ i j = ρ i j σ i σ j {\displaystyle \sigma _{ij}=\rho _{ij}\sigma _{i}\sigma _{j}} σ f 2 = i n a i 2 σ i 2 + i n j ( j i ) n a i a j ρ i j σ i σ j . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}+\sum _{i}^{n}\sum _{j(j\neq i)}^{n}a_{i}a_{j}\rho _{ij}\sigma _{i}\sigma _{j}.}

В случае, если переменные в x не коррелируют, это упрощается еще больше: σ f 2 = i n a i 2 σ i 2 . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}.}

В простом случае одинаковых коэффициентов и дисперсий находим σ f = n | a | σ . {\displaystyle \sigma _{f}={\sqrt {n}}\,|a|\sigma .}

Для среднего арифметического результатом является стандартная ошибка среднего : a = 1 / n {\displaystyle a=1/n} σ f = σ n . {\displaystyle \sigma _{f}={\frac {\sigma }{\sqrt {n}}}.}

Нелинейные комбинации

Когда f представляет собой набор нелинейных комбинаций переменных x , можно выполнить интервальное распространение для вычисления интервалов, содержащих все согласованные значения переменных. В вероятностном подходе функция f обычно должна быть линеаризована путем приближения к разложению в ряд Тейлора первого порядка , хотя в некоторых случаях можно вывести точные формулы, которые не зависят от разложения, как в случае точной дисперсии произведений. [7] Разложение Тейлора будет выглядеть так: где обозначает частную производную f k по отношению к i -й переменной, вычисленную по среднему значению всех компонентов вектора x . Или в матричной записи , где J - матрица Якоби . Поскольку f 0 является константой, она не вносит вклад в ошибку в f. Следовательно, распространение ошибки следует линейному случаю, описанному выше, но заменяя линейные коэффициенты A ki и A kj частными производными и . В матричной записи [8] f k f k 0 + i n f k x i x i {\displaystyle f_{k}\approx f_{k}^{0}+\sum _{i}^{n}{\frac {\partial f_{k}}{\partial {x_{i}}}}x_{i}} f k / x i {\displaystyle \partial f_{k}/\partial x_{i}} f f 0 + J x {\displaystyle \mathrm {f} \approx \mathrm {f} ^{0}+\mathrm {J} \mathrm {x} \,} f k x i {\displaystyle {\frac {\partial f_{k}}{\partial x_{i}}}} f k x j {\displaystyle {\frac {\partial f_{k}}{\partial x_{j}}}} Σ f = J Σ x J . {\displaystyle \mathrm {\Sigma } ^{\mathrm {f} }=\mathrm {J} \mathrm {\Sigma } ^{\mathrm {x} }\mathrm {J} ^{\top }.}

То есть, якобиан функции используется для преобразования строк и столбцов матрицы дисперсии-ковариации аргумента. Обратите внимание, что это эквивалентно матричному выражению для линейного случая с . J = A {\displaystyle \mathrm {J=A} }

Упрощение

Пренебрежение корреляциями или предположение о независимости переменных приводит к общей формуле среди инженеров и ученых-экспериментаторов для расчета распространения ошибок — формуле дисперсии: [9] где представляет собой стандартное отклонение функции , представляет собой стандартное отклонение , представляет собой стандартное отклонение и т. д. s f = ( f x ) 2 s x 2 + ( f y ) 2 s y 2 + ( f z ) 2 s z 2 + {\displaystyle s_{f}={\sqrt {\left({\frac {\partial f}{\partial x}}\right)^{2}s_{x}^{2}+\left({\frac {\partial f}{\partial y}}\right)^{2}s_{y}^{2}+\left({\frac {\partial f}{\partial z}}\right)^{2}s_{z}^{2}+\cdots }}} s f {\displaystyle s_{f}} f {\displaystyle f} s x {\displaystyle s_{x}} x {\displaystyle x} s y {\displaystyle s_{y}} y {\displaystyle y}

Эта формула основана на линейных характеристиках градиента и, следовательно, является хорошей оценкой для стандартного отклонения, если они достаточно малы. В частности, линейная аппроксимация должна быть близка к внутри окрестности радиуса . [10] f {\displaystyle f} f {\displaystyle f} s x , s y , s z , {\displaystyle s_{x},s_{y},s_{z},\ldots } f {\displaystyle f} f {\displaystyle f} s x , s y , s z , {\displaystyle s_{x},s_{y},s_{z},\ldots }

Пример

Любая нелинейная дифференцируемая функция двух переменных и может быть разложена как Если мы возьмем дисперсию с обеих сторон и применим формулу [11] для дисперсии линейной комбинации переменных, то получим где — стандартное отклонение функции , — стандартное отклонение , — стандартное отклонение и — ковариация между и . f ( a , b ) {\displaystyle f(a,b)} a {\displaystyle a} b {\displaystyle b} f f 0 + f a a + f b b . {\displaystyle f\approx f^{0}+{\frac {\partial f}{\partial a}}a+{\frac {\partial f}{\partial b}}b.} Var ( a X + b Y ) = a 2 Var ( X ) + b 2 Var ( Y ) + 2 a b Cov ( X , Y ) , {\displaystyle \operatorname {Var} (aX+bY)=a^{2}\operatorname {Var} (X)+b^{2}\operatorname {Var} (Y)+2ab\operatorname {Cov} (X,Y),} σ f 2 | f a | 2 σ a 2 + | f b | 2 σ b 2 + 2 f a f b σ a b , {\displaystyle \sigma _{f}^{2}\approx \left|{\frac {\partial f}{\partial a}}\right|^{2}\sigma _{a}^{2}+\left|{\frac {\partial f}{\partial b}}\right|^{2}\sigma _{b}^{2}+2{\frac {\partial f}{\partial a}}{\frac {\partial f}{\partial b}}\sigma _{ab},} σ f {\displaystyle \sigma _{f}} f {\displaystyle f} σ a {\displaystyle \sigma _{a}} a {\displaystyle a} σ b {\displaystyle \sigma _{b}} b {\displaystyle b} σ a b = σ a σ b ρ a b {\displaystyle \sigma _{ab}=\sigma _{a}\sigma _{b}\rho _{ab}} a {\displaystyle a} b {\displaystyle b}

В частном случае, когда , , . Тогда или где есть корреляция между и . f = a b {\displaystyle f=ab} f a = b {\displaystyle {\frac {\partial f}{\partial a}}=b} f b = a {\displaystyle {\frac {\partial f}{\partial b}}=a} σ f 2 b 2 σ a 2 + a 2 σ b 2 + 2 a b σ a b {\displaystyle \sigma _{f}^{2}\approx b^{2}\sigma _{a}^{2}+a^{2}\sigma _{b}^{2}+2ab\,\sigma _{ab}} ( σ f f ) 2 ( σ a a ) 2 + ( σ b b ) 2 + 2 ( σ a a ) ( σ b b ) ρ a b {\displaystyle \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{a}}{a}}\right)^{2}+\left({\frac {\sigma _{b}}{b}}\right)^{2}+2\left({\frac {\sigma _{a}}{a}}\right)\left({\frac {\sigma _{b}}{b}}\right)\rho _{ab}} ρ a b {\displaystyle \rho _{ab}} a {\displaystyle a} b {\displaystyle b}

Когда переменные и некоррелированы, . Тогда a {\displaystyle a} b {\displaystyle b} ρ a b = 0 {\displaystyle \rho _{ab}=0} ( σ f f ) 2 ( σ a a ) 2 + ( σ b b ) 2 . {\displaystyle \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{a}}{a}}\right)^{2}+\left({\frac {\sigma _{b}}{b}}\right)^{2}.}

Предостережения и предупреждения

Оценки ошибок для нелинейных функций смещены из-за использования усеченного расширения ряда. Степень этого смещения зависит от природы функции. Например, смещение ошибки, вычисленной для log(1+ x ), увеличивается с ростом x , поскольку расширение до x является хорошим приближением только тогда, когда x близок к нулю.

Для сильно нелинейных функций существует пять категорий вероятностных подходов к распространению неопределенности; [12] подробности см . в разделе Количественная оценка неопределенности .

Взаимные и смещенные взаимные

В особом случае обратного или обратного распределения , когда следует стандартное нормальное распределение , результирующее распределение является обратным стандартным нормальным распределением, и не существует определяемой дисперсии. [13] 1 / B {\displaystyle 1/B} B = N ( 0 , 1 ) {\displaystyle B=N(0,1)}

Однако в несколько более общем случае смещенной обратной функции для следования общему нормальному распределению, тогда статистики среднего и дисперсии существуют в смысле главного значения , если разница между полюсом и средним значением является действительной. [14] 1 / ( p B ) {\displaystyle 1/(p-B)} B = N ( μ , σ ) {\displaystyle B=N(\mu ,\sigma )} p {\displaystyle p} μ {\displaystyle \mu }

Коэффициенты

Соотношения также проблематичны; при определенных условиях существуют нормальные приближения.

Примеры формул

В этой таблице показаны дисперсии и стандартные отклонения простых функций действительных переменных со стандартными отклонениями, ковариацией и корреляцией. Действительные коэффициенты и предполагаются точно известными (детерминированными), т.е. A , B {\displaystyle A,B} σ A , σ B , {\displaystyle \sigma _{A},\sigma _{B},} σ A B = ρ A B σ A σ B , {\displaystyle \sigma _{AB}=\rho _{AB}\sigma _{A}\sigma _{B},} ρ A B . {\displaystyle \rho _{AB}.} a {\displaystyle a} b {\displaystyle b} σ a = σ b = 0. {\displaystyle \sigma _{a}=\sigma _{b}=0.}

В правых столбцах таблицы и — это ожидаемые значения , а — значение функции, рассчитанное при этих значениях. A {\displaystyle A} B {\displaystyle B} f {\displaystyle f}

ФункцияДисперсияСтандартное отклонение
f = a A {\displaystyle f=aA\,} σ f 2 = a 2 σ A 2 {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}} σ f = | a | σ A {\displaystyle \sigma _{f}=|a|\sigma _{A}}
f = A + B {\displaystyle f=A+B} σ f 2 = σ A 2 + σ B 2 + 2 σ A B {\displaystyle \sigma _{f}^{2}=\sigma _{A}^{2}+\sigma _{B}^{2}+2\sigma _{AB}} σ f = σ A 2 + σ B 2 + 2 σ A B {\displaystyle \sigma _{f}={\sqrt {\sigma _{A}^{2}+\sigma _{B}^{2}+2\sigma _{AB}}}}
f = A B {\displaystyle f=A-B} σ f 2 = σ A 2 + σ B 2 2 σ A B {\displaystyle \sigma _{f}^{2}=\sigma _{A}^{2}+\sigma _{B}^{2}-2\sigma _{AB}} σ f = σ A 2 + σ B 2 2 σ A B {\displaystyle \sigma _{f}={\sqrt {\sigma _{A}^{2}+\sigma _{B}^{2}-2\sigma _{AB}}}}
f = a A + b B {\displaystyle f=aA+bB} σ f 2 = a 2 σ A 2 + b 2 σ B 2 + 2 a b σ A B {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}+2ab\,\sigma _{AB}} σ f = a 2 σ A 2 + b 2 σ B 2 + 2 a b σ A B {\displaystyle \sigma _{f}={\sqrt {a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}+2ab\,\sigma _{AB}}}}
f = a A b B {\displaystyle f=aA-bB} σ f 2 = a 2 σ A 2 + b 2 σ B 2 2 a b σ A B {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}-2ab\,\sigma _{AB}} σ f = a 2 σ A 2 + b 2 σ B 2 2 a b σ A B {\displaystyle \sigma _{f}={\sqrt {a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}-2ab\,\sigma _{AB}}}}
f = A B {\displaystyle f=AB} σ f 2 f 2 [ ( σ A A ) 2 + ( σ B B ) 2 + 2 σ A B A B ] {\displaystyle \sigma _{f}^{2}\approx f^{2}\left[\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+2{\frac {\sigma _{AB}}{AB}}\right]} [15] [16] σ f | f | ( σ A A ) 2 + ( σ B B ) 2 + 2 σ A B A B {\displaystyle \sigma _{f}\approx \left|f\right|{\sqrt {\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+2{\frac {\sigma _{AB}}{AB}}}}}
f = A B {\displaystyle f={\frac {A}{B}}} σ f 2 f 2 [ ( σ A A ) 2 + ( σ B B ) 2 2 σ A B A B ] {\displaystyle \sigma _{f}^{2}\approx f^{2}\left[\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}-2{\frac {\sigma _{AB}}{AB}}\right]} [17] σ f | f | ( σ A A ) 2 + ( σ B B ) 2 2 σ A B A B {\displaystyle \sigma _{f}\approx \left|f\right|{\sqrt {\left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}-2{\frac {\sigma _{AB}}{AB}}}}}
f = A A + B {\displaystyle f={\frac {A}{A+B}}} σ f 2 f 2 ( A + B ) 2 ( B 2 A 2 σ A 2 + σ B 2 2 B A σ A B ) {\displaystyle \sigma _{f}^{2}\approx {\frac {f^{2}}{\left(A+B\right)^{2}}}\left({\frac {B^{2}}{A^{2}}}\sigma _{A}^{2}+\sigma _{B}^{2}-2{\frac {B}{A}}\sigma _{AB}\right)} σ f | f A + B | B 2 A 2 σ A 2 + σ B 2 2 B A σ A B {\displaystyle \sigma _{f}\approx \left|{\frac {f}{A+B}}\right|{\sqrt {{\frac {B^{2}}{A^{2}}}\sigma _{A}^{2}+\sigma _{B}^{2}-2{\frac {B}{A}}\sigma _{AB}}}}
f = a A b {\displaystyle f=aA^{b}} σ f 2 ( a b A b 1 σ A ) 2 = ( f b σ A A ) 2 {\displaystyle \sigma _{f}^{2}\approx \left({a}{b}{A}^{b-1}{\sigma _{A}}\right)^{2}=\left({\frac {{f}{b}{\sigma _{A}}}{A}}\right)^{2}} σ f | a b A b 1 σ A | = | f b σ A A | {\displaystyle \sigma _{f}\approx \left|{a}{b}{A}^{b-1}{\sigma _{A}}\right|=\left|{\frac {{f}{b}{\sigma _{A}}}{A}}\right|}
f = a ln ( b A ) {\displaystyle f=a\ln(bA)} σ f 2 ( a σ A A ) 2 {\displaystyle \sigma _{f}^{2}\approx \left(a{\frac {\sigma _{A}}{A}}\right)^{2}} [18] σ f | a σ A A | {\displaystyle \sigma _{f}\approx \left|a{\frac {\sigma _{A}}{A}}\right|}
f = a log 10 ( b A ) {\displaystyle f=a\log _{10}(bA)} σ f 2 ( a σ A A ln ( 10 ) ) 2 {\displaystyle \sigma _{f}^{2}\approx \left(a{\frac {\sigma _{A}}{A\ln(10)}}\right)^{2}} [18] σ f | a σ A A ln ( 10 ) | {\displaystyle \sigma _{f}\approx \left|a{\frac {\sigma _{A}}{A\ln(10)}}\right|}
f = a e b A {\displaystyle f=ae^{bA}} σ f 2 f 2 ( b σ A ) 2 {\displaystyle \sigma _{f}^{2}\approx f^{2}\left(b\sigma _{A}\right)^{2}} [19] σ f | f | | ( b σ A ) | {\displaystyle \sigma _{f}\approx \left|f\right|\left|\left(b\sigma _{A}\right)\right|}
f = a b A {\displaystyle f=a^{bA}} σ f 2 f 2 ( b ln ( a ) σ A ) 2 {\displaystyle \sigma _{f}^{2}\approx f^{2}(b\ln(a)\sigma _{A})^{2}} σ f | f | | b ln ( a ) σ A | {\displaystyle \sigma _{f}\approx \left|f\right|\left|b\ln(a)\sigma _{A}\right|}
f = a sin ( b A ) {\displaystyle f=a\sin(bA)} σ f 2 [ a b cos ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\approx \left[ab\cos(bA)\sigma _{A}\right]^{2}} σ f | a b cos ( b A ) σ A | {\displaystyle \sigma _{f}\approx \left|ab\cos(bA)\sigma _{A}\right|}
f = a cos ( b A ) {\displaystyle f=a\cos \left(bA\right)\,} σ f 2 [ a b sin ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\approx \left[ab\sin(bA)\sigma _{A}\right]^{2}} σ f | a b sin ( b A ) σ A | {\displaystyle \sigma _{f}\approx \left|ab\sin(bA)\sigma _{A}\right|}
f = a tan ( b A ) {\displaystyle f=a\tan \left(bA\right)\,} σ f 2 [ a b sec 2 ( b A ) σ A ] 2 {\displaystyle \sigma _{f}^{2}\approx \left[ab\sec ^{2}(bA)\sigma _{A}\right]^{2}} σ f | a b sec 2 ( b A ) σ A | {\displaystyle \sigma _{f}\approx \left|ab\sec ^{2}(bA)\sigma _{A}\right|}
f = A B {\displaystyle f=A^{B}} σ f 2 f 2 [ ( B A σ A ) 2 + ( ln ( A ) σ B ) 2 + 2 B ln ( A ) A σ A B ] {\displaystyle \sigma _{f}^{2}\approx f^{2}\left[\left({\frac {B}{A}}\sigma _{A}\right)^{2}+\left(\ln(A)\sigma _{B}\right)^{2}+2{\frac {B\ln(A)}{A}}\sigma _{AB}\right]} σ f | f | ( B A σ A ) 2 + ( ln ( A ) σ B ) 2 + 2 B ln ( A ) A σ A B {\displaystyle \sigma _{f}\approx \left|f\right|{\sqrt {\left({\frac {B}{A}}\sigma _{A}\right)^{2}+\left(\ln(A)\sigma _{B}\right)^{2}+2{\frac {B\ln(A)}{A}}\sigma _{AB}}}}
f = a A 2 ± b B 2 {\displaystyle f={\sqrt {aA^{2}\pm bB^{2}}}} σ f 2 ( A f ) 2 a 2 σ A 2 + ( B f ) 2 b 2 σ B 2 ± 2 a b A B f 2 σ A B {\displaystyle \sigma _{f}^{2}\approx \left({\frac {A}{f}}\right)^{2}a^{2}\sigma _{A}^{2}+\left({\frac {B}{f}}\right)^{2}b^{2}\sigma _{B}^{2}\pm 2ab{\frac {AB}{f^{2}}}\,\sigma _{AB}} σ f ( A f ) 2 a 2 σ A 2 + ( B f ) 2 b 2 σ B 2 ± 2 a b A B f 2 σ A B {\displaystyle \sigma _{f}\approx {\sqrt {\left({\frac {A}{f}}\right)^{2}a^{2}\sigma _{A}^{2}+\left({\frac {B}{f}}\right)^{2}b^{2}\sigma _{B}^{2}\pm 2ab{\frac {AB}{f^{2}}}\,\sigma _{AB}}}}

Для некоррелированных переменных ( , ) выражения для более сложных функций могут быть получены путем объединения более простых функций. Например, повторное умножение, предполагающее отсутствие корреляции, дает ρ A B = 0 {\displaystyle \rho _{AB}=0} σ A B = 0 {\displaystyle \sigma _{AB}=0} f = A B C ; ( σ f f ) 2 ( σ A A ) 2 + ( σ B B ) 2 + ( σ C C ) 2 . {\displaystyle f=ABC;\qquad \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+\left({\frac {\sigma _{C}}{C}}\right)^{2}.}

Для этого случая у нас также есть выражение Гудмана [7] для точной дисперсии: для некоррелированного случая оно равно и поэтому мы имеем f = A B {\displaystyle f=AB} V ( X Y ) = E ( X ) 2 V ( Y ) + E ( Y ) 2 V ( X ) + E ( ( X E ( X ) ) 2 ( Y E ( Y ) ) 2 ) , {\displaystyle V(XY)=E(X)^{2}V(Y)+E(Y)^{2}V(X)+E((X-E(X))^{2}(Y-E(Y))^{2}),} σ f 2 = A 2 σ B 2 + B 2 σ A 2 + σ A 2 σ B 2 . {\displaystyle \sigma _{f}^{2}=A^{2}\sigma _{B}^{2}+B^{2}\sigma _{A}^{2}+\sigma _{A}^{2}\sigma _{B}^{2}.}

Влияние корреляции на различия

Если A и B не коррелируют, их разность AB будет иметь большую дисперсию, чем любая из них. Увеличивающаяся положительная корреляция ( ) уменьшит дисперсию разности, сходясь к нулевой дисперсии для идеально коррелированных переменных с той же дисперсией . С другой стороны, отрицательная корреляция ( ) еще больше увеличит дисперсию разности по сравнению с некоррелированным случаем. ρ A B 1 {\displaystyle \rho _{AB}\to 1} ρ A B 1 {\displaystyle \rho _{AB}\to -1}

Например, самовычитание f = AA имеет нулевую дисперсию только в том случае, если переменная полностью автокоррелирована ( ). Если A некоррелирована, то выходная дисперсия в два раза больше входной дисперсии, а если A полностью антикоррелирована, то входная дисперсия в четыре раза больше выходной (обратите внимание на f = aAaA в таблице выше). σ f 2 = 0 {\displaystyle \sigma _{f}^{2}=0} ρ A = 1 {\displaystyle \rho _{A}=1} ρ A = 0 , {\displaystyle \rho _{A}=0,} σ f 2 = 2 σ A 2 . {\displaystyle \sigma _{f}^{2}=2\sigma _{A}^{2}.} ρ A = 1 , {\displaystyle \rho _{A}=-1,} σ f 2 = 4 σ A 2 {\displaystyle \sigma _{f}^{2}=4\sigma _{A}^{2}} 1 ρ A = 2 {\displaystyle 1-\rho _{A}=2}

Примеры расчетов

Функция арктангенса

Мы можем рассчитать распространение неопределенности для функции арктангенса в качестве примера использования частных производных для распространения ошибки.

Определим , где абсолютная неопределенность нашего измерения x . Производная f ( x ) по x равна f ( x ) = arctan ( x ) , {\displaystyle f(x)=\arctan(x),} Δ x {\displaystyle \Delta _{x}} d f d x = 1 1 + x 2 . {\displaystyle {\frac {df}{dx}}={\frac {1}{1+x^{2}}}.}

Следовательно, наша распространенная неопределенность равна , где — абсолютная распространенная неопределенность. Δ f Δ x 1 + x 2 , {\displaystyle \Delta _{f}\approx {\frac {\Delta _{x}}{1+x^{2}}},} Δ f {\displaystyle \Delta _{f}}

Измерение сопротивления

Практическим применением является эксперимент , в котором измеряют ток I и напряжение V на резисторе , чтобы определить сопротивление R , используя закон Ома R = V / I.

Учитывая измеренные переменные с неопределенностями, I ± σ I и V ± σ V , и пренебрегая их возможной корреляцией, неопределенность вычисляемой величины, σ R , равна:

σ R σ V 2 ( 1 I ) 2 + σ I 2 ( V I 2 ) 2 = R ( σ V V ) 2 + ( σ I I ) 2 . {\displaystyle \sigma _{R}\approx {\sqrt {\sigma _{V}^{2}\left({\frac {1}{I}}\right)^{2}+\sigma _{I}^{2}\left({\frac {-V}{I^{2}}}\right)^{2}}}=R{\sqrt {\left({\frac {\sigma _{V}}{V}}\right)^{2}+\left({\frac {\sigma _{I}}{I}}\right)^{2}}}.}

Смотрите также

Ссылки

  1. ^ Киршнер, Джеймс. "Data Analysis Toolkit #5: Uncertainty Analysis and Error Propagation" (PDF) . Berkeley Seismology Laboratory . University of California . Получено 22 апреля 2016 г. .
  2. ^ Kroese, DP; Taimre, T.; Botev, ZI (2011). Справочник по методам Монте-Карло . John Wiley & Sons.
  3. ^ Ранфтл, Саша; фон дер Линден, Вольфганг (13.11.2021). «Байесовский суррогатный анализ и распространение неопределенности». Physical Sciences Forum . 3 (1): 6. arXiv : 2101.04038 . doi : 10.3390/psf2021003006 . ISSN  2673-9984.
  4. ^ Атанасова, Е.; Гуров, Т.; Караиванова, А.; Ивановска, С.; Дурхова, М.; Димитров, Д. (2016). «О подходах к распараллеливанию для архитектуры Intel MIC». Труды конференции AIP . 1773 (1): 070001. Bibcode : 2016AIPC.1773g0001A. doi : 10.1063/1.4964983.
  5. ^ Кунья младший, А.; Нассер, Р.; Сампайо, Р.; Лопес, Х.; Брейтман, К. (2014). «Количественная оценка неопределенности с помощью метода Монте-Карло в условиях облачных вычислений». Computer Physics Communications . 185 (5): 1355– 1363. arXiv : 2105.09512 . Bibcode : 2014CoPhC.185.1355C. doi : 10.1016/j.cpc.2014.01.006. S2CID  32376269.
  6. ^ Линь, И.; Ван, Ф.; Лю, Б. (2018). «Генератор случайных чисел для крупномасштабного параллельного моделирования Монте-Карло на ПЛИС». Журнал вычислительной физики . 360 : 93–103 . Bibcode : 2018JCoPh.360...93L. doi : 10.1016/j.jcp.2018.01.029.
  7. ^ ab Goodman, Leo (1960). «О точной дисперсии продуктов». Журнал Американской статистической ассоциации . 55 (292): 708– 713. doi :10.2307/2281592. JSTOR  2281592.
  8. ^ Ochoa1, Benjamin; Belongie, Serge "Распространение ковариации для управляемого сопоставления" Архивировано 20 июля 2011 г. на Wayback Machine
  9. ^ Ku, HH (октябрь 1966 г.). «Заметки об использовании распространения формул ошибок». Журнал исследований Национального бюро стандартов . 70C (4): 262. doi : 10.6028/jres.070c.025 . ISSN  0022-4316 . Получено 3 октября 2012 г.
  10. ^ Клиффорд, А.А. (1973). Многомерный анализ ошибок: справочник по распространению и вычислению ошибок в многопараметрических системах . John Wiley & Sons. ISBN 978-0470160558.[ нужна страница ]
  11. ^ Soch, Joram (2020-07-07). "Дисперсия линейной комбинации двух случайных величин". The Book of Statistical Proofs . Получено 29-01-2022 .
  12. ^ Ли, Ш.; Чен, В. (2009). «Сравнительное исследование методов распространения неопределенности для задач типа «черный ящик»». Structural and Multidisciplinary Optimization . 37 (3): 239– 253. doi :10.1007/s00158-008-0234-7. S2CID  119988015.
  13. ^ Джонсон, Норман Л.; Коц, Сэмюэл; Балакришнан, Нараянасвами (1994). Непрерывные одномерные распределения, том 1. Wiley. стр. 171. ISBN 0-471-58495-9.
  14. ^ Lecomte, Christophe (май 2013 г.). «Точная статистика систем с неопределенностями: аналитическая теория стохастических динамических систем ранга один». Journal of Sound and Vibration . 332 (11): 2750– 2776. doi :10.1016/j.jsv.2012.12.009.
  15. ^ "A Summary of Error Propagation" (PDF) . стр. 2. Архивировано из оригинала (PDF) 2016-12-13 . Получено 2016-04-04 .
  16. ^ "Распространение неопределенности посредством математических операций" (PDF) . стр. 5 . Получено 2016-04-04 .
  17. ^ "Стратегии оценки дисперсии" (PDF) . стр. 37 . Получено 2013-01-18 .
  18. ^ ab Harris, Daniel C. (2003), Количественный химический анализ (6-е изд.), Macmillan, стр. 56, ISBN 978-0-7167-4464-1
  19. ^ "Учебник по распространению ошибок" (PDF) . Foothill College . 9 октября 2009 г. . Получено 01.03.2012 .

Дальнейшее чтение

  • Бевингтон, Филип Р.; Робинсон, Д. Кит (2002), Обработка данных и анализ ошибок для физических наук (3-е изд.), McGraw-Hill, ISBN 978-0-07-119926-1
  • Форназини, Паоло (2008), Неопределенность физических измерений: введение в анализ данных в физической лаборатории, Springer, стр. 161, ISBN 978-0-387-78649-0
  • Мейер, Стюарт Л. (1975), Анализ данных для ученых и инженеров , Wiley, ISBN 978-0-471-59995-1
  • Перальта, М. (2012), Распространение ошибок: как математически предсказать ошибки измерения , CreateSpace
  • Руо, М. (2013), Вероятность, статистика и оценка: распространение неопределенностей в экспериментальных измерениях (PDF) (краткое изд.)
  • Тейлор, Дж. Р. (1997), Введение в анализ ошибок: изучение неопределенностей в физических измерениях (2-е изд.), University Science Books
  • Ван, CM; Айер, Хари К. (2005-09-07). «О поправках высшего порядка для распространяющихся неопределенностей». Metrologia . 42 (5): 406– 410. doi :10.1088/0026-1394/42/5/011. ISSN  0026-1394. S2CID  122841691.
  • Подробное обсуждение измерений и распространения неопределенности, объясняющее преимущества использования формул распространения ошибок и моделирования Монте-Карло вместо простой арифметики значимости.
  • GUM, Руководство по выражению неопределенности в измерениях
  • EPFL Введение в распространение ошибок, вывод, значение и примеры Cy = Fx Cx Fx'
  • пакет неопределенностей, программа/библиотека для прозрачного выполнения расчетов с неопределенностями (и корреляциями ошибок).
  • Пакет soerp, программа/библиотека Python для прозрачного выполнения вычислений *второго порядка* с неопределенностями (и корреляциями ошибок).
  • Объединенный комитет по руководствам по метрологии (2011). JCGM 102: Оценка данных измерений — Дополнение 2 к «Руководству по выражению неопределенности измерений» — Расширение на любое количество выходных величин (PDF) (Технический отчет). JCGM . Получено 13 февраля 2013 г.
  • Калькулятор неопределенности Распространить неопределенность для любого выражения
Retrieved from "https://en.wikipedia.org/w/index.php?title=Propagation_of_uncertainty&oldid=1260292643"