Модифицированная итерация Ричардсона

Итерационный метод, используемый для решения линейной системы уравнений

Модифицированная итерация Ричардсонаитерационный метод решения системы линейных уравнений . Итерация Ричардсона была предложена Льюисом Фраем Ричардсоном в его работе, датированной 1910 годом. Она похожа на метод Якоби и Гаусса–Зейделя .

Мы ищем решение системы линейных уравнений, выраженное в матричных терминах как

А х = б . {\displaystyle Ax=b.\,}

Итерация Ричардсона — это

х ( к + 1 ) = х ( к ) + ω ( б А х ( к ) ) , {\displaystyle x^{(k+1)}=x^{(k)}+\omega \left(b-Ax^{(k)}\right),}

где — скалярный параметр, который необходимо выбрать таким образом, чтобы последовательность сходилась. ω {\displaystyle \омега} х ( к ) {\displaystyle x^{(k)}}

Легко видеть, что метод имеет правильные неподвижные точки , поскольку если он сходится, то и должен приближать решение . х ( к + 1 ) х ( к ) {\displaystyle x^{(k+1)}\approx x^{(k)}} х ( к ) {\displaystyle x^{(k)}} А х = б {\displaystyle Ах=b}

Конвергенция

Вычитая точное решение и вводя обозначение для погрешности , получаем равенство для погрешностей х {\displaystyle x} е ( к ) = х ( к ) х {\displaystyle e^{(k)}=x^{(k)}-x}

е ( к + 1 ) = е ( к ) ω А е ( к ) = ( я ω А ) е ( к ) . {\displaystyle e^{(k+1)}=e^{(k)}-\omega Ae^{(k)}=(I-\omega A)e^{(k)}.}

Таким образом,

е ( к + 1 ) = ( я ω А ) е ( к ) я ω А е ( к ) , {\displaystyle \|e^{(k+1)}\|=\|(I-\omega A)e^{(k)}\|\leq \|I-\omega A\|\|e^{(k)}\|,}

для любой векторной нормы и соответствующей индуцированной матричной нормы. Таким образом, если , метод сходится. я ω А < 1 {\displaystyle \|I-\omega A\|<1}

Предположим, что симметрично положительно определено и что являются собственными значениями . Ошибка сходится к , если для всех собственных значений . Если, например, все собственные значения положительны, это может быть гарантировано, если выбрано таким образом, что . Оптимальным выбором, минимизирующим все , является , что дает простейшую итерацию Чебышева . Этот оптимальный выбор дает спектральный радиус А {\displaystyle А} ( λ дж ) дж {\displaystyle (\lambda _{j})_{j}} А {\displaystyle А} 0 {\displaystyle 0} | 1 ω λ дж | < 1 {\displaystyle |1-\omega \lambda _{j}|<1} λ дж {\displaystyle \lambda _{j}} ω {\displaystyle \омега} 0 < ω < ω макс ,   ω макс := 2 / λ макс ( А ) {\displaystyle 0<\omega <\omega _{\text{max}}\,,\ \omega _{\text{max}}:=2/\lambda _{\text{max}}(A)} | 1 ω λ дж | {\displaystyle |1-\omega \lambda _{j}|} ω выбрать := 2 / ( λ мин ( А ) + λ макс ( А ) ) {\displaystyle \omega _{\text{opt}}:=2/(\lambda _{\text{min}}(A)+\lambda _{\text{max}}(A))}

мин ω ( 0 , ω макс ) ρ ( я ω А ) = ρ ( я ω выбрать А ) = 1 2 к ( А ) + 1 , {\displaystyle \min _{\omega \in (0,\omega _{\text{max}})}\rho (I-\omega A)=\rho (I-\omega _{\text{opt}}A)=1-{\frac {2}{\kappa (A)+1}}\,,}

где - номер состояния . κ ( A ) {\displaystyle \kappa (A)}

Если имеются как положительные, так и отрицательные собственные значения, метод будет расходиться для любого, если начальная ошибка имеет ненулевые компоненты в соответствующих собственных векторах . ω {\displaystyle \omega } e ( 0 ) {\displaystyle e^{(0)}}

Эквивалентностьградиентный спуск

Рассмотрим минимизацию функции . Поскольку это выпуклая функция , достаточным условием оптимальности является равенство нулю градиента ( ), что приводит к уравнению F ( x ) = 1 2 A ~ x b ~ 2 2 {\displaystyle F(x)={\frac {1}{2}}\|{\tilde {A}}x-{\tilde {b}}\|_{2}^{2}} F ( x ) = 0 {\displaystyle \nabla F(x)=0}

A ~ T A ~ x = A ~ T b ~ . {\displaystyle {\tilde {A}}^{T}{\tilde {A}}x={\tilde {A}}^{T}{\tilde {b}}.}

Определим и . Из-за формы A это положительно полуопределенная матрица , поэтому она не имеет отрицательных собственных значений. A = A ~ T A ~ {\displaystyle A={\tilde {A}}^{T}{\tilde {A}}} b = A ~ T b ~ {\displaystyle b={\tilde {A}}^{T}{\tilde {b}}}

Шаг градиентного спуска - это

x ( k + 1 ) = x ( k ) t F ( x ( k ) ) = x ( k ) t ( A x ( k ) b ) {\displaystyle x^{(k+1)}=x^{(k)}-t\nabla F(x^{(k)})=x^{(k)}-t(Ax^{(k)}-b)}

что эквивалентно итерации Ричардсона путем создания . t = ω {\displaystyle t=\omega }

Смотрите также

Ссылки

Retrieved from "https://en.wikipedia.org/w/index.php?title=Modified_Richardson_iteration&oldid=1264242194"