Обратное уравнение Мура-Пенроуза

Наиболее широко известная обобщенная обратная матрица

В математике , и в частности в линейной алгебре , обратная матрица Мура–Пенроуза ⁠ матрицы ⁠ ⁠ , часто называемая псевдообратной матрицей , является наиболее широко известным обобщением обратной матрицы . [1] Она была независимо описана Э. Х. Муром в 1920 году, [2] Арне Бьерхаммаром в 1951 году, [3] и Роджером Пенроузом в 1955 году. [4] Ранее, в 1903 году, Эрик Ивар Фредхольм ввел понятие псевдообратной матрицы интегральных операторов. Термины псевдообратная и обобщенная обратная иногда используются как синонимы для обратной матрицы Мура–Пенроуза, но иногда применяются к другим элементам алгебраических структур, которые разделяют некоторые, но не все свойства, ожидаемые для обратного элемента . А + {\displaystyle А^{+}} А {\displaystyle A}

Распространенное использование псевдообратной матрицы — вычисление приближенного решения «наилучшего соответствия» ( наименьших квадратов ) для системы линейных уравнений , не имеющей точного решения (см. ниже в разделе «Приложения»). Другое использование — нахождение решения с минимальной ( евклидовой ) нормой для системы линейных уравнений с несколькими решениями. Псевдообратная матрица облегчает формулировку и доказательство результатов в линейной алгебре.

Псевдообратная матрица определена для всех прямоугольных матриц, элементы которых являются действительными или комплексными числами. Для прямоугольной матрицы с действительными или комплексными элементами ее псевдообратная матрица уникальна. Ее можно вычислить с помощью разложения по сингулярным значениям . В особом случае, когда ⁠ ⁠ A {\displaystyle A} нормальная матрица (например, эрмитова матрица), псевдообратная матрица ⁠ ⁠ A + {\displaystyle A^{+}} аннулирует ядро ​​⁠ и действует как традиционная обратная матрица ⁠ ⁠ на подпространстве , ортогональном ядру . A {\displaystyle A} A {\displaystyle A}

Обозначение

В ходе дальнейшего обсуждения приняты следующие условные обозначения.

  • ⁠ ⁠ K {\displaystyle \mathbb {K} } будет обозначать одно из полей действительных или комплексных чисел, обозначаемых ⁠ ⁠ R {\displaystyle \mathbb {R} } , ⁠ ⁠ C {\displaystyle \mathbb {C} } , соответственно. Вектор пространства ⁠ ⁠ m × n {\displaystyle m\times n} матриц над ⁠ ⁠ K {\displaystyle \mathbb {K} } обозначается ⁠ ⁠ K m × n {\displaystyle \mathbb {K} ^{m\times n}} .
  • Для ⁠ ⁠ A K m × n {\displaystyle A\in \mathbb {K} ^{m\times n}} транспонирование обозначается ⁠ ⁠ A T {\displaystyle A^{\mathsf {T}}} а эрмитово транспонирование (также называемое сопряженным транспонированием ) обозначается ⁠ ⁠ A {\displaystyle A^{*}} . Если , то . K = R {\displaystyle \mathbb {K} =\mathbb {R} } A = A T {\displaystyle A^{*}=A^{\mathsf {T}}}
  • Для ⁠ ⁠ A K m × n {\displaystyle A\in \mathbb {K} ^{m\times n}} , ⁠ ⁠ ran ( A ) {\displaystyle \operatorname {ran} (A)} (обозначает « диапазон ») обозначает пространство столбцов ( изображение ) ⁠ ⁠ A {\displaystyle A} (пространство, охватываемое векторами столбцов ⁠ ⁠ A {\displaystyle A} ), а ⁠ ⁠ ker ( A ) {\displaystyle \ker(A)} обозначает ядро ​​(нулевое пространство) ⁠ ⁠ A {\displaystyle A} .
  • Для любого положительного целого числа ⁠ ⁠ n {\displaystyle n} единичная n × n {\displaystyle n\times n} матрица обозначается . I n K n × n {\displaystyle I_{n}\in \mathbb {K} ^{n\times n}}

Определение

Для псевдообратная матрица A определяется как матрица , удовлетворяющая всем следующим четырем критериям, известным как условия Мура–Пенроуза: [4] [5] A K m × n {\displaystyle A\in \mathbb {K} ^{m\times n}} A + K n × m {\displaystyle A^{+}\in \mathbb {K} ^{n\times m}}

  1. ⁠ ⁠ A A + {\displaystyle AA^{+}} не обязательно должна быть общей единичной матрицей, но она отображает все векторы-столбцы матрицы A в самих себя: A A + A = A . {\displaystyle AA^{+}A=\;A.}
  2. ⁠ ⁠ A + {\displaystyle A^{+}} действует как слабая обратная матрица : A + A A + = A + . {\displaystyle A^{+}AA^{+}=\;A^{+}.}
  3. ⁠ ⁠ A A + {\displaystyle AA^{+}} является эрмитовым : ( A A + ) = A A + . {\displaystyle \left(AA^{+}\right)^{*}=\;AA^{+}.}
  4. ⁠ ⁠ A + A {\displaystyle A^{+}A} также является эрмитовым: ( A + A ) = A + A . {\displaystyle \left(A^{+}A\right)^{*}=\;A^{+}A.}

Обратите внимание, что и являются идемпотентными операторами, как следует из и . Более конкретно, проецирует на образ (эквивалентно, на промежуток строк ), а проецирует на образ (эквивалентно, на промежуток столбцов ). Фактически, приведенные выше четыре условия полностью эквивалентны и являясь такими ортогональными проекциями: проецирование на образ подразумевает , а проецирование на образ подразумевает . A + A {\displaystyle A^{+}A} A A + {\displaystyle AA^{+}} ( A A + ) 2 = A A + {\displaystyle (AA^{+})^{2}=AA^{+}} ( A + A ) 2 = A + A {\displaystyle (A^{+}A)^{2}=A^{+}A} A + A {\displaystyle A^{+}A} A T {\displaystyle A^{T}} A {\displaystyle A} A A + {\displaystyle AA^{+}} A {\displaystyle A} A {\displaystyle A} A + A {\displaystyle A^{+}A} A A + {\displaystyle AA^{+}} A A + {\displaystyle AA^{+}} A {\displaystyle A} ( A A + ) A = A {\displaystyle (AA^{+})A=A} A + A {\displaystyle A^{+}A} A T {\displaystyle A^{T}} ( A + A ) A T = A T {\displaystyle (A^{+}A)A^{T}=A^{T}}

Псевдообратная матрица существует для любой матрицы . Если при этом имеет полный ранг , то есть ее ранг равен , то можно задать особенно простое алгебраическое выражение. В частности: A + {\displaystyle A^{+}} A K m × n {\displaystyle A\in \mathbb {K} ^{m\times n}} A {\displaystyle A} min { m , n } {\displaystyle \min\{m,n\}} A + {\displaystyle A^{+}}

  • Когда ⁠ ⁠ A {\displaystyle A} имеет линейно независимые столбцы (эквивалентно, ⁠ ⁠ A {\displaystyle A} является инъективным и, следовательно , ⁠ ⁠ A A {\displaystyle A^{*}A} является обратимым), ⁠ ⁠ A + {\displaystyle A^{+}} можно вычислить как Этот конкретный псевдообратный является левым обратным , то есть, . A + = ( A A ) 1 A . {\displaystyle A^{+}=\left(A^{*}A\right)^{-1}A^{*}.} A + A = I {\displaystyle A^{+}A=I}
  • Если, с другой стороны, имеет линейно независимые строки (что эквивалентно, является сюръективным и, таким образом , ⁠ является обратимым), можно вычислить как Это правый обратный , так как . A {\displaystyle A} A {\displaystyle A} A A {\displaystyle AA^{*}} A + {\displaystyle A^{+}} A + = A ( A A ) 1 . {\displaystyle A^{+}=A^{*}\left(AA^{*}\right)^{-1}.} A A + = I {\displaystyle AA^{+}=I}

В более общем случае псевдообратная матрица может быть выражена с использованием разложения по сингулярным значениям . Любая матрица может быть разложена как для некоторых изометрий и диагональной неотрицательной вещественной матрицы . Затем псевдообратная матрица может быть записана как , где — псевдообратная матрица и может быть получена путем транспонирования матрицы и замены ненулевых значений их мультипликативными обратными. [6] То, что эта матрица удовлетворяет вышеуказанному требованию, напрямую проверяется наблюдением того, что и , которые являются проекциями на изображение и носитель , соответственно. A = U D V {\displaystyle A=UDV^{*}} U , V {\displaystyle U,V} D {\displaystyle D} A + = V D + U {\displaystyle A^{+}=VD^{+}U^{*}} D + {\displaystyle D^{+}} D {\displaystyle D} A A + = U U {\displaystyle AA^{+}=UU^{*}} A + A = V V {\displaystyle A^{+}A=VV^{*}} A {\displaystyle A}

Характеристики

Существование и уникальность

Как обсуждалось выше, для любой матрицы ⁠ ⁠ A {\displaystyle A} существует одна и только одна псевдообратная матрица ⁠ ⁠ A + {\displaystyle A^{+}} . [5]

Матрица, удовлетворяющая только первому из условий, приведенных выше, а именно , называется обобщенной обратной. Если матрица также удовлетворяет второму условию, а именно , она называется обобщенной рефлексивной обратной . Обобщенные обратные матрицы всегда существуют, но в общем случае не являются уникальными. Уникальность является следствием последних двух условий. A A + A = A {\textstyle AA^{+}A=A} A + A A + = A + {\textstyle A^{+}AA^{+}=A^{+}}

Основные свойства

Доказательства приведенных ниже свойств можно найти на странице b:Topics in Абстрактная алгебра/Линейная алгебра.

  • Если ⁠ ⁠ A {\displaystyle A} есть реальные записи, то и ⁠ ⁠ A + {\displaystyle A^{+}} тоже .
  • Если ⁠ ⁠ A {\displaystyle A} обратим , его псевдообратный является его обратным. То есть, . [7] : 243  A + = A 1 {\displaystyle A^{+}=A^{-1}}
  • Псевдообратная матрица псевдообратной матрицы — это исходная матрица: . [7] : 245  ( A + ) + = A {\displaystyle \left(A^{+}\right)^{+}=A}
  • Псевдоинверсия коммутирует с транспозицией, комплексным сопряжением и сопряженным транспонированием: [7] : 245  ( A T ) + = ( A + ) T , ( A ¯ ) + = A + ¯ , ( A ) + = ( A + ) . {\displaystyle \left(A^{\mathsf {T}}\right)^{+}=\left(A^{+}\right)^{\mathsf {T}},\quad \left({\overline {A}}\right)^{+}={\overline {A^{+}}},\quad \left(A^{*}\right)^{+}=\left(A^{+}\right)^{*}.}
  • Псевдообратное значение скалярного кратного ⁠ ⁠ A {\displaystyle A} является обратным кратным ⁠ ⁠ A + {\displaystyle A^{+}} : для ; в противном случае, , или . ( α A ) + = α 1 A + {\displaystyle \left(\alpha A\right)^{+}=\alpha ^{-1}A^{+}} α 0 {\displaystyle \alpha \neq 0} ( 0 A ) + = 0 A + = 0 A T {\displaystyle \left(0A\right)^{+}=0A^{+}=0A^{\mathsf {T}}} 0 + = 0 T {\displaystyle 0^{+}=0^{\mathsf {T}}}
  • Ядро и образ псевдообратного элемента совпадают с ядром и образом сопряженного транспонированного элемента: и . ker ( A + ) = ker ( A ) {\displaystyle \ker \left(A^{+}\right)=\ker \left(A^{*}\right)} ran ( A + ) = ran ( A ) {\displaystyle \operatorname {ran} \left(A^{+}\right)=\operatorname {ran} \left(A^{*}\right)}

Идентичности

Следующая формула тождества может быть использована для отмены или расширения определенных подвыражений, включающих псевдообратные выражения: Эквивалентно, замена на дает , в то время как замена на дает A = A A A + = A + A A . {\displaystyle A={}A{}A^{*}{}A^{+*}{}={}A^{+*}{}A^{*}{}A.} A + {\displaystyle A^{+}} A {\displaystyle A} A + = A + A + A = A A + A + , {\displaystyle A^{+}={}A^{+}{}A^{+*}{}A^{*}{}={}A^{*}{}A^{+*}{}A^{+},} A {\displaystyle A^{*}} A {\displaystyle A} A = A A A + = A + A A . {\displaystyle A^{*}={}A^{*}{}A{}A^{+}{}={}A^{+}{}A{}A^{*}.}

Редукция к эрмитову случаю

Вычисление псевдообратного сводится к его построению в эрмитовом случае. Это возможно благодаря эквивалентностям: A + = ( A A ) + A , {\displaystyle A^{+}=\left(A^{*}A\right)^{+}A^{*},} A + = A ( A A ) + , {\displaystyle A^{+}=A^{*}\left(AA^{*}\right)^{+},}

поскольку ⁠ ⁠ A A {\displaystyle A^{*}A} и ⁠ ⁠ A A {\displaystyle AA^{*}} являются эрмитовыми.

Псевдообратные произведения

Равенство ⁠ ⁠ ( A B ) + = B + A + {\displaystyle (AB)^{+}=B^{+}A^{+}} в общем случае не выполняется. Скорее, предположим ⁠ ⁠ A K m × n ,   B K n × p {\displaystyle A\in \mathbb {K} ^{m\times n},\ B\in \mathbb {K} ^{n\times p}} . Тогда следующие условия эквивалентны: [8]

  1. ( A B ) + = B + A + {\textstyle (AB)^{+}=B^{+}A^{+}}
  2. A + A B B A = B B A {\displaystyle A^{+}ABB^{*}A^{*}=BB^{*}A^{*}} и B B + A A B = A A B {\displaystyle BB^{+}A^{*}AB=A^{*}AB}
  3. ( A + A B B ) = A + A B B {\textstyle \left(A^{+}ABB^{*}\right)^{*}=A^{+}ABB^{*}} и ( A A B B + ) = A A B B + {\displaystyle \left(A^{*}ABB^{+}\right)^{*}=A^{*}ABB^{+}}
  4. A + A B B A A B B + = B B A A {\textstyle A^{+}ABB^{*}A^{*}ABB^{+}=BB^{*}A^{*}A}
  5. A + A B = B ( A B ) + A B {\textstyle A^{+}AB=B(AB)^{+}AB} и . B B + A = A A B ( A B ) + {\displaystyle BB^{+}A^{*}=A^{*}AB(AB)^{+}}

Достаточными условиями для этого ( A B ) + = B + A + {\displaystyle (AB)^{+}=B^{+}A^{+}} являются следующие :

  1. ⁠ ⁠ A {\displaystyle A} имеет ортонормальные столбцы (тогда ), или A A = A + A = I n {\displaystyle A^{*}A=A^{+}A=I_{n}}
  2. ⁠ ⁠ B {\displaystyle B} имеет ортонормальные строки (тогда ), или B B = B B + = I n {\displaystyle BB^{*}=BB^{+}=I_{n}}
  3. ⁠ ⁠ A {\displaystyle A} имеет линейно независимые столбцы (тогда ) и имеет линейно независимые строки (тогда ), или A + A = I {\displaystyle A^{+}A=I} B {\displaystyle B} B B + = I {\displaystyle BB^{+}=I}
  4. B = A {\displaystyle B=A^{*}} , или
  5. B = A + {\displaystyle B=A^{+}} .

Необходимое условие для этого ( A B ) + = B + A + {\displaystyle (AB)^{+}=B^{+}A^{+}} следующее :

  1. ( A + A ) ( B B + ) = ( B B + ) ( A + A ) {\displaystyle (A^{+}A)(BB^{+})=(BB^{+})(A^{+}A)}

Четвертое достаточное условие приводит к равенствам ( A A ) + = A + A + , ( A A ) + = A + A + . {\displaystyle {\begin{aligned}\left(AA^{*}\right)^{+}&=A^{+*}A^{+},\\\left(A^{*}A\right)^{+}&=A^{+}A^{+*}.\end{aligned}}}

Вот контрпример, где ⁠ ⁠ ( A B ) + B + A + {\displaystyle (AB)^{+}\neq B^{+}A^{+}} :

( ( 1 1 0 0 ) ( 0 0 1 1 ) ) + = ( 1 1 0 0 ) + = ( 1 2 0 1 2 0 ) ( 1 4 0 1 4 0 ) = ( 0 1 2 0 1 2 ) ( 1 2 0 1 2 0 ) = ( 0 0 1 1 ) + ( 1 1 0 0 ) + {\displaystyle {\Biggl (}{\begin{pmatrix}1&1\\0&0\end{pmatrix}}{\begin{pmatrix}0&0\\1&1\end{pmatrix}}{\Biggr )}^{+}={\begin{pmatrix}1&1\\0&0\end{pmatrix}}^{+}={\begin{pmatrix}{\tfrac {1}{2}}&0\\{\tfrac {1}{2}}&0\end{pmatrix}}\quad \neq \quad {\begin{pmatrix}{\tfrac {1}{4}}&0\\{\tfrac {1}{4}}&0\end{pmatrix}}={\begin{pmatrix}0&{\tfrac {1}{2}}\\0&{\tfrac {1}{2}}\end{pmatrix}}{\begin{pmatrix}{\tfrac {1}{2}}&0\\{\tfrac {1}{2}}&0\end{pmatrix}}={\begin{pmatrix}0&0\\1&1\end{pmatrix}}^{+}{\begin{pmatrix}1&1\\0&0\end{pmatrix}}^{+}}

Проекторы

P = A A + {\displaystyle P=AA^{+}} и являются ортогональными проекционными операторами , то есть они эрмитовы ( , ) и идемпотентны ( и ). Справедливо следующее: Q = A + A {\displaystyle Q=A^{+}A} P = P {\displaystyle P=P^{*}} Q = Q {\displaystyle Q=Q^{*}} P 2 = P {\displaystyle P^{2}=P} Q 2 = Q {\displaystyle Q^{2}=Q}

  • P A = A Q = A {\displaystyle PA=AQ=A} и A + P = Q A + = A + {\displaystyle A^{+}P=QA^{+}=A^{+}}
  • ⁠ ⁠ P {\displaystyle P} ортогональный проектор на область значений ⁠ ⁠ A {\displaystyle A} (которая равна ортогональному дополнению ядра ⁠ ⁠ A {\displaystyle A^{*}} ).
  • ⁠ ⁠ Q {\displaystyle Q} — ортогональный проектор на область значений ⁠ ⁠ A {\displaystyle A^{*}} (которая равна ортогональному дополнению ядра ⁠ ⁠ A {\displaystyle A} ).
  • I Q = I A + A {\displaystyle I-Q=I-A^{+}A} является ортогональным проектором на ядро ​​⁠ ⁠ A {\displaystyle A} .
  • I P = I A A + {\displaystyle I-P=I-AA^{+}} является ортогональным проектором на ядро ​​⁠ ⁠ A {\displaystyle A^{*}} . [5]

Последние два свойства подразумевают следующие тождества:

  • A   ( I A + A ) = ( I A A + ) A     = 0 {\displaystyle A\,\ \left(I-A^{+}A\right)=\left(I-AA^{+}\right)A\ \ =0}
  • A ( I A A + ) = ( I A + A ) A = 0 {\displaystyle A^{*}\left(I-AA^{+}\right)=\left(I-A^{+}A\right)A^{*}=0}

Другое свойство следующее: если ⁠ ⁠ A K n × n {\displaystyle A\in \mathbb {K} ^{n\times n}} является эрмитовым и идемпотентным (истинно тогда и только тогда, когда оно представляет собой ортогональную проекцию), то для любой матрицы ⁠ ⁠ B K m × n {\displaystyle B\in \mathbb {K} ^{m\times n}} справедливо следующее уравнение: [9] A ( B A ) + = ( B A ) + {\displaystyle A(BA)^{+}=(BA)^{+}}

Это можно доказать, определив матрицы , и проверив, что действительно является псевдообратной для ⁠, проверив, что определяющие свойства псевдообратной матрицы выполняются, когда является эрмитовым и идемпотентным. C = B A {\displaystyle C=BA} D = A ( B A ) + {\displaystyle D=A(BA)^{+}} D {\displaystyle D} C {\displaystyle C} A {\displaystyle A}

Из последнего свойства следует, что если ⁠ ⁠ A K n × n {\displaystyle A\in \mathbb {K} ^{n\times n}} эрмитово и идемпотентно, то для любой матрицы ⁠ ⁠ B K n × m {\displaystyle B\in \mathbb {K} ^{n\times m}} ( A B ) + A = ( A B ) + {\displaystyle (AB)^{+}A=(AB)^{+}}

Наконец, если ⁠ ⁠ A {\displaystyle A} — ортогональная проекционная матрица, то ее псевдообратная матрица тривиально совпадает с самой матрицей, то есть . A + = A {\displaystyle A^{+}=A}

Геометрическое построение

Если рассматривать матрицу как линейное отображение ⁠ ⁠ A : K n K m {\displaystyle A:\mathbb {K} ^{n}\to \mathbb {K} ^{m}} над полем ⁠ ⁠ , K {\displaystyle \mathbb {K} } то ⁠ ⁠ A + : K m K n {\displaystyle A^{+}:\mathbb {K} ^{m}\to \mathbb {K} ^{n}} можно разложить следующим образом. Запишем ⁠ ⁠ {\displaystyle \oplus } для прямой суммы , ⁠ ⁠ {\displaystyle \perp } для ортогонального дополнения , ⁠ ⁠ ker {\displaystyle \ker } для ядра отображения и ⁠ ⁠ ran {\displaystyle \operatorname {ran} } для образа отображения. Обратите внимание, что и . Ограничение тогда является изоморфизмом. Это означает, что на является обратным к этому изоморфизму и равен нулю на K n = ( ker A ) ker A {\displaystyle \mathbb {K} ^{n}=\left(\ker A\right)^{\perp }\oplus \ker A} K m = ran A ( ran A ) {\displaystyle \mathbb {K} ^{m}=\operatorname {ran} A\oplus \left(\operatorname {ran} A\right)^{\perp }} A : ( ker A ) ran A {\displaystyle A:\left(\ker A\right)^{\perp }\to \operatorname {ran} A} A + {\displaystyle A^{+}} ran A {\displaystyle \operatorname {ran} A} ( ran A ) . {\displaystyle \left(\operatorname {ran} A\right)^{\perp }.}

Другими словами: чтобы найти ⁠ ⁠ A + b {\displaystyle A^{+}b} для заданного ⁠ ⁠ b {\displaystyle b} в ⁠ ⁠ K m {\displaystyle \mathbb {K} ^{m}} , сначала спроецируйте ⁠ ⁠ b {\displaystyle b} ортогонально на область значений ⁠ ⁠ A {\displaystyle A} , найдя точку ⁠ ⁠ p ( b ) {\displaystyle p(b)} в области значений. Затем сформируйте ⁠ ⁠ A 1 ( { p ( b ) } ) {\displaystyle A^{-1}(\{p(b)\})} , то есть найдите те векторы в ⁠ ⁠ , K n {\displaystyle \mathbb {K} ^{n}} которые ⁠ ⁠ A {\displaystyle A} отправляются в ⁠ ⁠ p ( b ) {\displaystyle p(b)} . Это будет аффинное подпространство ⁠ ⁠ , K n {\displaystyle \mathbb {K} ^{n}} параллельное ядру ⁠ ⁠ A {\displaystyle A} . Элемент этого подпространства, который имеет наименьшую длину (то есть находится ближе всего к началу координат), и есть ответ ⁠ ⁠ , A + b {\displaystyle A^{+}b} который мы ищем. Его можно найти, взяв произвольный член ⁠ ⁠ A 1 ( { p ( b ) } ) {\displaystyle A^{-1}(\{p(b)\})} и спроецировав его ортогонально на ортогональное дополнение ядра ⁠ ⁠ A {\displaystyle A} .

Это описание тесно связано с решением линейной системы с минимальной нормой.

Предельные отношения

Псевдообратные матрицы — это пределы: (см. регуляризацию Тихонова ). Эти пределы существуют, даже если или не существуют. [5] : 263  A + = lim δ 0 ( A A + δ I ) 1 A = lim δ 0 A ( A A + δ I ) 1 {\displaystyle A^{+}=\lim _{\delta \searrow 0}\left(A^{*}A+\delta I\right)^{-1}A^{*}=\lim _{\delta \searrow 0}A^{*}\left(AA^{*}+\delta I\right)^{-1}} ( A A ) 1 {\displaystyle \left(AA^{*}\right)^{-1}} ( A A ) 1 {\displaystyle \left(A^{*}A\right)^{-1}}

Непрерывность

В отличие от обычного обращения матрицы, процесс взятия псевдообратных матриц не является непрерывным : если последовательность ⁠ ⁠ ( A n ) {\displaystyle \left(A_{n}\right)} сходится к матрице ⁠ ⁠ A {\displaystyle A} (скажем, в максимальной норме или норме Фробениуса ), то ⁠ ⁠ ( A n ) + {\displaystyle (A_{n})^{+}} не обязательно сходится к ⁠ ⁠ A + {\displaystyle A^{+}} . Однако, если все матрицы ⁠ ⁠ A n {\displaystyle A_{n}} имеют тот же ранг, что и ⁠ ⁠ A {\displaystyle A} , ⁠ ⁠ ( A n ) + {\displaystyle (A_{n})^{+}} будет сходиться к ⁠ ⁠ A + {\displaystyle A^{+}} . [10]

Производный

Пусть будет вещественнозначной дифференцируемой матричной функцией с постоянным рангом в точке . Производная от при может быть вычислена через производную от при : [11] где функции , и производные в правой части вычисляются при (то есть, , и т.д.). Для комплексной матрицы транспонирование заменяется сопряженным транспонированием. [12] Для вещественнозначной симметричной матрицы устанавливается производная Магнуса-Нойдекера. [13] x A ( x ) {\displaystyle x\mapsto A(x)} x 0 {\displaystyle x_{0}} x A + ( x ) {\displaystyle x\mapsto A^{+}(x)} x 0 {\displaystyle x_{0}} A {\displaystyle A} x 0 {\displaystyle x_{0}} d d x | x = x 0 A + = A + ( d A d x ) A +   +   A + A + ( d A d x ) ( I A A + )   +   ( I A + A ) ( d A d x ) A + A + , {\displaystyle \left.{\frac {\mathrm {d} }{\mathrm {d} x}}\right|_{x=x_{0}\!\!\!\!\!\!\!}A^{+}=-A^{+}\left({\frac {\mathrm {d} A}{\mathrm {d} x}}\right)A^{+}~+~A^{+}A^{+\top }\left({\frac {\mathrm {d} A^{\top }}{\mathrm {d} x}}\right)\left(I-AA^{+}\right)~+~\left(I-A^{+}A\right)\left({\frac {\mathrm {d} A^{\top }}{\mathrm {d} x}}\right)A^{+\top }A^{+},} A {\displaystyle A} A + {\displaystyle A^{+}} x 0 {\displaystyle x_{0}} A := A ( x 0 ) {\displaystyle A:=A(x_{0})} A + := A + ( x 0 ) {\displaystyle A^{+}:=A^{+}(x_{0})}

Примеры

Поскольку для обратимых матриц псевдообратная матрица равна обычной обратной, ниже рассматриваются только примеры необратимых матриц.

  • Для псевдообратной матрицы это Уникальность этой псевдообратной матрицы можно увидеть из требования , поскольку умножение на нулевую матрицу всегда даст нулевую матрицу. A = ( 0 0 0 0 ) , {\displaystyle A={\begin{pmatrix}0&0\\0&0\end{pmatrix}},} A + = ( 0 0 0 0 ) . {\displaystyle A^{+}={\begin{pmatrix}0&0\\0&0\end{pmatrix}}.} A + = A + A A + {\displaystyle A^{+}=A^{+}AA^{+}}
  • Для псевдообратного значения это . A = ( 1 0 1 0 ) , {\displaystyle A={\begin{pmatrix}1&0\\1&0\end{pmatrix}},} A + = ( 1 2 1 2 0 0 ) {\displaystyle A^{+}={\begin{pmatrix}{\frac {1}{2}}&{\frac {1}{2}}\\0&0\end{pmatrix}}}
Действительно, , и таким образом . Аналогично, , и таким образом . A A + = ( 1 2 1 2 1 2 1 2 ) {\displaystyle A\,A^{+}={\begin{pmatrix}{\frac {1}{2}}&{\frac {1}{2}}\\{\frac {1}{2}}&{\frac {1}{2}}\end{pmatrix}}} A A + A = ( 1 0 1 0 ) = A {\displaystyle A\,A^{+}A={\begin{pmatrix}1&0\\1&0\end{pmatrix}}=A} A + A = ( 1 0 0 0 ) {\displaystyle A^{+}A={\begin{pmatrix}1&0\\0&0\end{pmatrix}}} A + A A + = ( 1 2 1 2 0 0 ) = A + {\displaystyle A^{+}A\,A^{+}={\begin{pmatrix}{\frac {1}{2}}&{\frac {1}{2}}\\0&0\end{pmatrix}}=A^{+}}
Обратите внимание, что ⁠ ⁠ A {\displaystyle A} не является ни инъективным, ни сюръективным, и, таким образом, псевдообратный элемент не может быть вычислен с помощью или , так как и являются сингулярными, и, кроме того, не является ни левым, ни правым обратным элементом. A + = ( A A ) 1 A {\displaystyle A^{+}=\left(A^{*}A\right)^{-1}A^{*}} A + = A ( A A ) 1 {\displaystyle A^{+}=A^{*}\left(AA^{*}\right)^{-1}} A A {\displaystyle A^{*}A} A A {\displaystyle AA^{*}} A + {\displaystyle A^{+}}
Тем не менее, псевдообратное можно вычислить с помощью SVD, наблюдая, что , и, таким образом , . A = 2 ( e 1 + e 2 2 ) e 1 {\displaystyle A={\sqrt {2}}\left({\frac {\mathbf {e} _{1}+\mathbf {e} _{2}}{\sqrt {2}}}\right)\mathbf {e} _{1}^{*}} A + = 1 2 e 1 ( e 1 + e 2 2 ) {\displaystyle A^{+}={\frac {1}{\sqrt {2}}}\,\mathbf {e} _{1}\left({\frac {\mathbf {e} _{1}+\mathbf {e} _{2}}{\sqrt {2}}}\right)^{*}}
  • Для A = ( 1 0 1 0 ) , {\displaystyle A={\begin{pmatrix}1&0\\-1&0\end{pmatrix}},} A + = ( 1 2 1 2 0 0 ) . {\displaystyle A^{+}={\begin{pmatrix}{\frac {1}{2}}&-{\frac {1}{2}}\\0&0\end{pmatrix}}.}
  • Для . Знаменатели здесь . A = ( 1 0 2 0 ) , {\displaystyle A={\begin{pmatrix}1&0\\2&0\end{pmatrix}},} A + = ( 1 5 2 5 0 0 ) {\displaystyle A^{+}={\begin{pmatrix}{\frac {1}{5}}&{\frac {2}{5}}\\0&0\end{pmatrix}}} 5 = 1 2 + 2 2 {\displaystyle 5=1^{2}+2^{2}}
  • Для A = ( 1 1 1 1 ) , {\displaystyle A={\begin{pmatrix}1&1\\1&1\end{pmatrix}},} A + = ( 1 4 1 4 1 4 1 4 ) . {\displaystyle A^{+}={\begin{pmatrix}{\frac {1}{4}}&{\frac {1}{4}}\\{\frac {1}{4}}&{\frac {1}{4}}\end{pmatrix}}.}
  • Для псевдообратного значения это . A = ( 1 0 0 1 0 1 ) , {\displaystyle A={\begin{pmatrix}1&0\\0&1\\0&1\end{pmatrix}},} A + = ( 1 0 0 0 1 2 1 2 ) {\displaystyle A^{+}={\begin{pmatrix}1&0&0\\0&{\frac {1}{2}}&{\frac {1}{2}}\end{pmatrix}}}
Для этой матрицы левая обратная существует и, таким образом, равна , действительно, A + {\displaystyle A^{+}} A + A = ( 1 0 0 1 ) . {\displaystyle A^{+}A={\begin{pmatrix}1&0\\0&1\end{pmatrix}}.}


Особые случаи

Скаляры

Также возможно определить псевдообратные значения для скаляров и векторов. Это равносильно тому, чтобы рассматривать их как матрицы. Псевдообратный элемент скаляра ⁠ ⁠ x {\displaystyle x} равен нулю, если ⁠ ⁠ x {\displaystyle x} равен нулю, и обратный элемент ⁠ ⁠ x {\displaystyle x} в противном случае: x + = { 0 , if  x = 0 ; x 1 , otherwise . {\displaystyle x^{+}={\begin{cases}0,&{\mbox{if }}x=0;\\x^{-1},&{\mbox{otherwise}}.\end{cases}}}

Векторы

Псевдообратный вектор нулевого (все нули) вектора — это транспонированный нулевой вектор. Псевдообратный вектор ненулевого вектора — это сопряженный транспонированный вектор, деленный на его квадрат величины:

x + = { 0 T , if  x = 0 ; x ( x x ) , otherwise . {\displaystyle {\vec {x}}^{+}={\begin{cases}{\vec {0}}^{\mathsf {T}},&{\text{if }}{\vec {x}}={\vec {0}};\\[4pt]{\dfrac {{\vec {x}}^{*}}{({\vec {x}}^{*}{\vec {x}})}},&{\text{otherwise}}.\end{cases}}}

Диагональные матрицы

Псевдообратная матрица квадрата диагонали получается путем взятия обратной величины ненулевых диагональных элементов. Формально, если — квадрат диагональной матрицы с и , то . В более общем случае, если — любая прямоугольная матрица, единственные ненулевые элементы которой находятся на диагонали, то есть , , то — прямоугольная матрица, диагональные элементы которой являются обратной величиной исходных, то есть . D {\displaystyle D} D = D ~ 0 k × k {\displaystyle D={\tilde {D}}\oplus \mathbf {0} _{k\times k}} D ~ > 0 {\displaystyle {\tilde {D}}>0} D + = D ~ 1 0 k × k {\displaystyle D^{+}={\tilde {D}}^{-1}\oplus \mathbf {0} _{k\times k}} A {\displaystyle A} m × n {\displaystyle m\times n} A i j = δ i j a i {\displaystyle A_{ij}=\delta _{ij}a_{i}} a i K {\displaystyle a_{i}\in \mathbb {K} } A + {\displaystyle A^{+}} n × m {\displaystyle n\times m} A i i 0 A i i + = 1 A i i {\displaystyle A_{ii}\neq 0\implies A_{ii}^{+}={\frac {1}{A_{ii}}}}

Линейно независимые столбцы

Если ранг ⁠ ⁠ A {\displaystyle A} совпадает с числом столбцов, ⁠ ⁠ n {\displaystyle n} , (для ⁠ ⁠ n m {\displaystyle n\leq m} ,) есть ⁠ ⁠ n {\displaystyle n} линейно независимые столбцы, и ⁠ ⁠ A A {\displaystyle A^{*}A} обратим. В этом случае явная формула имеет вид: [14] A + = ( A A ) 1 A . {\displaystyle A^{+}=\left(A^{*}A\right)^{-1}A^{*}.}

Из этого следует, что ⁠ ⁠ A + {\displaystyle A^{+}} тогда является левым обратным к ⁠ ⁠ A {\displaystyle A} :   . A + A = I n {\displaystyle A^{+}A=I_{n}}

Линейно независимые строки

Если ранг ⁠ ⁠ A {\displaystyle A} совпадает с числом строк, ⁠ ⁠ m {\displaystyle m} , (для ⁠ ⁠ m n {\displaystyle m\leq n} ,) есть ⁠ ⁠ m {\displaystyle m} линейно независимые строки, и ⁠ ⁠ A A {\displaystyle AA^{*}} обратим. В этом случае явная формула имеет вид: A + = A ( A A ) 1 . {\displaystyle A^{+}=A^{*}\left(AA^{*}\right)^{-1}.}

Отсюда следует, что ⁠ ⁠ A + {\displaystyle A^{+}} является правым обратным к ⁠ ⁠ A {\displaystyle A} :   . A A + = I m {\displaystyle AA^{+}=I_{m}}

Ортонормальные столбцы или строки

Это особый случай либо полного ранга столбцов, либо полного ранга строк (рассмотренного выше). Если ⁠ ⁠ A {\displaystyle A} имеет ортонормальные столбцы ( ) или ортонормальные строки ( ), то: A A = I n {\displaystyle A^{*}A=I_{n}} A A = I m {\displaystyle AA^{*}=I_{m}} A + = A . {\displaystyle A^{+}=A^{*}.}

Нормальные матрицы

Если ⁠ ⁠ A {\displaystyle A} является нормальным , то есть он коммутирует со своим сопряженным транспонированием, то его псевдообратный элемент можно вычислить, диагонализируя его, отображая все ненулевые собственные значения в их обратные и отображая нулевые собственные значения в ноль. Следствием является то, что ⁠ ⁠ A {\displaystyle A} коммутирование со своим транспонированием подразумевает, что он коммутирует со своим псевдообратным элементом.

Матрицы ЭП

(Квадратная) матрица ⁠ ⁠ A {\displaystyle A} называется матрицей EP, если она коммутирует со своей псевдообратной. В таких случаях (и только в таких случаях) можно получить псевдообратную матрицу как полином от ⁠ ⁠ A {\displaystyle A} . Полином такой, что может быть легко получен из характеристического полинома или, в более общем случае, из любого аннулирующего полинома . [15] p ( t ) {\displaystyle p(t)} A + = p ( A ) {\displaystyle A^{+}=p(A)} A {\displaystyle A} A {\displaystyle A}

Матрицы ортогональной проекции

Это частный случай нормальной матрицы с собственными значениями 0 и 1. Если ⁠ ⁠ A {\displaystyle A} — ортогональная проекционная матрица, то есть и , то псевдообратная матрица тривиально совпадает с самой матрицей: A = A {\displaystyle A=A^{*}} A 2 = A {\displaystyle A^{2}=A} A + = A . {\displaystyle A^{+}=A.}

Циркулярные матрицы

Для циркулянтной матрицы ⁠ ⁠ C {\displaystyle C} разложение сингулярных значений задается преобразованием Фурье , то есть сингулярные значения являются коэффициентами Фурье. Пусть ⁠ ⁠ F {\displaystyle {\mathcal {F}}} будет матрицей дискретного преобразования Фурье (DFT) ; тогда [16] C = F Σ F , C + = F Σ + F . {\displaystyle {\begin{aligned}C&={\mathcal {F}}\cdot \Sigma \cdot {\mathcal {F}}^{*},\\C^{+}&={\mathcal {F}}\cdot \Sigma ^{+}\cdot {\mathcal {F}}^{*}.\end{aligned}}}

Строительство

Ранговое разложение

Пусть ⁠ ⁠ r min ( m , n ) {\displaystyle r\leq \min(m,n)} обозначает ранг⁠ . A K m × n {\displaystyle A\in \mathbb {K} ^{m\times n}} Тогда ⁠ ⁠ A {\displaystyle A} можно разложить (по рангу) следующим образом: где и имеют ранг . Тогда . A = B C {\displaystyle A=BC} B K m × r {\displaystyle B\in \mathbb {K} ^{m\times r}} C K r × n {\displaystyle C\in \mathbb {K} ^{r\times n}} r {\displaystyle r} A + = C + B + = C ( C C ) 1 ( B B ) 1 B {\displaystyle A^{+}=C^{+}B^{+}=C^{*}\left(CC^{*}\right)^{-1}\left(B^{*}B\right)^{-1}B^{*}}

Метод QR

Для вычисления продукта или и их обратных в явном виде часто является источником числовых ошибок округления и вычислительных затрат на практике. Вместо этого может быть использован альтернативный подход с использованием QR-разложения . K { R , C } {\displaystyle \mathbb {K} \in \{\mathbb {R} ,\mathbb {C} \}} A A {\displaystyle AA^{*}} A A {\displaystyle A^{*}A} A {\displaystyle A}

Рассмотрим случай, когда ⁠ ⁠ A {\displaystyle A} имеет полный ранг столбца, так что . Тогда можно использовать разложение Холецкого , где верхняя треугольная матрица . Умножение на обратную матрицу тогда легко выполняется путем решения системы с несколькими правыми частями, A + = ( A A ) 1 A {\displaystyle A^{+}=\left(A^{*}A\right)^{-1}A^{*}} A A = R R {\displaystyle A^{*}A=R^{*}R} R {\displaystyle R} A + = ( A A ) 1 A ( A A ) A + = A R R A + = A {\displaystyle A^{+}=\left(A^{*}A\right)^{-1}A^{*}\quad \Leftrightarrow \quad \left(A^{*}A\right)A^{+}=A^{*}\quad \Leftrightarrow \quad R^{*}RA^{+}=A^{*}}

которая может быть решена прямой заменой с последующей обратной заменой .

Разложение Холецкого можно вычислить без явного формирования ⁠ ⁠ A A {\displaystyle A^{*}A} , альтернативно используя QR-разложение , где имеет ортонормальные столбцы, , и является верхним треугольным. Тогда A = Q R {\displaystyle A=QR} Q {\displaystyle Q} Q Q = I {\displaystyle Q^{*}Q=I} R {\displaystyle R} A A = ( Q R ) ( Q R ) = R Q Q R = R R , {\displaystyle A^{*}A\,=\,(QR)^{*}(QR)\,=\,R^{*}Q^{*}QR\,=\,R^{*}R,}

Итак , ⁠ ⁠ R {\displaystyle R} — фактор Холецкого ⁠ ⁠ A A {\displaystyle A^{*}A} .

Случай полного ранга строки рассматривается аналогично с использованием формулы и аналогичного аргумента, меняя роли и . A + = A ( A A ) 1 {\displaystyle A^{+}=A^{*}\left(AA^{*}\right)^{-1}} A {\displaystyle A} A {\displaystyle A^{*}}

Использование многочленов в матрицах

Для произвольного ⁠ ⁠ A K m × n {\displaystyle A\in \mathbb {K} ^{m\times n}} , имеем , что является нормальным и, как следствие, матрицей EP. Тогда можно найти полином такой, что . В этом случае имеем , что псевдообратный задается как [15] A A {\displaystyle A^{*}A} p ( t ) {\displaystyle p(t)} ( A A ) + = p ( A A ) {\displaystyle (A^{*}A)^{+}=p(A^{*}A)} A {\displaystyle A} A + = p ( A A ) A = A p ( A A ) . {\displaystyle A^{+}=p(A^{*}A)A^{*}=A^{*}p(AA^{*}).}

Сингулярное разложение (SVD)

Вычислительно простой и точный способ вычисления псевдообратной матрицы — использование разложения по сингулярным значениям . [14] [5] [17] Если — разложение по сингулярным значениям , то . Для прямоугольной диагональной матрицы, такой как , мы получаем псевдообратную матрицу, взяв обратную величину каждого ненулевого элемента на диагонали, оставляя нули на месте. В численных вычислениях только элементы, большие некоторого малого допуска, считаются ненулевыми, а остальные заменяются нулями. Например, в функции MATLAB или GNU Octave pinv допуск принимается равным t = ε⋅max( m , n )⋅max(Σ) , где ε — машинный эпсилон . A = U Σ V {\displaystyle A=U\Sigma V^{*}} A {\displaystyle A} A + = V Σ + U {\displaystyle A^{+}=V\Sigma ^{+}U^{*}} Σ {\displaystyle \Sigma }

Вычислительная стоимость этого метода определяется в основном стоимостью вычисления SVD, которая в несколько раз выше, чем умножение матрицы на матрицу, даже если используется современная реализация (например, LAPACK ).

Вышеприведенная процедура показывает, почему взятие псевдообратной матрицы не является непрерывной операцией: если исходная матрица ⁠ ⁠ A {\displaystyle A} имеет сингулярное значение 0 (диагональный элемент матрицы ⁠ ⁠ Σ {\displaystyle \Sigma } выше), то небольшое изменение ⁠ ⁠ A {\displaystyle A} может превратить этот ноль в крошечное положительное число, тем самым кардинально влияя на псевдообратную матрицу, поскольку теперь нам придется взять обратную величину крошечного числа.

Блочные матрицы

Существуют оптимизированные подходы для вычисления псевдообратных матриц блочно-структурированных.

Итеративный метод Бен-Исраэля и Коэна

Другой метод вычисления псевдообратной матрицы (ср. обратную матрицу Дрейзина ) использует рекурсию A i + 1 = 2 A i A i A A i , {\displaystyle A_{i+1}=2A_{i}-A_{i}AA_{i},}

который иногда называют гиперстепенной последовательностью. Эта рекурсия производит последовательность, сходящуюся квадратично к псевдообратной матрице ⁠ ⁠ , A {\displaystyle A} если она начинается с подходящего ⁠ ⁠ A 0 {\displaystyle A_{0}} удовлетворяющего . Выбор (где , с обозначающим наибольшее сингулярное значение ) [18] был признан неконкурентоспособным по сравнению с методом, использующим SVD, упомянутым выше, потому что даже для умеренно плохо обусловленных матриц требуется много времени, прежде чем войдет в область квадратичной сходимости. [19] Однако, если начать с уже близкой к обратной матрице Мура–Пенроуза и , например , сходимость будет быстрой (квадратичной). A 0 A = ( A 0 A ) {\displaystyle A_{0}A=\left(A_{0}A\right)^{*}} A 0 = α A {\displaystyle A_{0}=\alpha A^{*}} 0 < α < 2 / σ 1 2 ( A ) {\displaystyle 0<\alpha <2/\sigma _{1}^{2}(A)} σ 1 ( A ) {\displaystyle \sigma _{1}(A)} A {\displaystyle A} A i {\displaystyle A_{i}} A 0 {\displaystyle A_{0}} A 0 A = ( A 0 A ) {\displaystyle A_{0}A=\left(A_{0}A\right)^{*}} A 0 := ( A A + δ I ) 1 A {\displaystyle A_{0}:=\left(A^{*}A+\delta I\right)^{-1}A^{*}}

Обновление псевдообратного

Для случаев, когда ⁠ ⁠ A {\displaystyle A} имеет полный ранг строки или столбца, а обратная матрица корреляции ( ⁠ ⁠ A A {\displaystyle AA^{*}} для ⁠ ⁠ A {\displaystyle A} с полным рангом строки или ⁠ ⁠ A A {\displaystyle A^{*}A} для полного ранга столбца) уже известна, псевдообратная матрица для матриц, связанных с ⁠ ⁠, A {\displaystyle A} может быть вычислена путем применения формулы Шермана–Моррисона–Вудбери для обновления обратной матрицы корреляции, что может потребовать меньше работы. В частности, если связанная матрица отличается от исходной только измененной, добавленной или удаленной строкой или столбцом, существуют инкрементные алгоритмы, которые используют эту связь. [20] [21]

Аналогично, можно обновить фактор Холецкого при добавлении строки или столбца, не создавая явно обратную матрицу корреляции. Однако обновление псевдообратной матрицы в общем случае с дефицитом ранга гораздо сложнее. [22] [23]

Библиотеки программного обеспечения

Высококачественные реализации SVD, QR и обратной подстановки доступны в стандартных библиотеках, таких как LAPACK . Написание собственной реализации SVD является крупным проектом программирования, который требует значительных числовых знаний . Однако в особых обстоятельствах, таких как параллельные вычисления или встроенные вычисления , альтернативные реализации с помощью QR или даже использование явной инверсии могут быть предпочтительными, а пользовательские реализации могут быть неизбежны.

Пакет Python NumPy обеспечивает псевдообратный расчет через свои функции matrix.Iи linalg.pinv; он pinvиспользует алгоритм на основе SVD. SciPy добавляет функцию scipy.linalg.pinv, которая использует решатель наименьших квадратов.

Пакет MASS для R обеспечивает вычисление обратной матрицы Мура–Пенроуза с помощью ginvфункции. [24] Функция ginvвычисляет псевдообратную матрицу, используя разложение сингулярных значений, предоставляемое функцией svdв базовом пакете R. Альтернативой является использование pinvфункции, доступной в пакете pracma.

Язык программирования Octave обеспечивает псевдообратное преобразование с помощью стандартной функции пакета pinvи pseudo_inverse()метода.

В Julia (язык программирования) пакет LinearAlgebra стандартной библиотеки обеспечивает реализацию обратной матрицы Мура-Пенроуза, pinv()реализованную с помощью сингулярного разложения. [25]

Приложения

Линейный метод наименьших квадратов

Псевдообратная матрица обеспечивает решение системы линейных уравнений методом наименьших квадратов . [26] Для , заданной системой линейных уравнений A K m × n {\displaystyle A\in \mathbb {K} ^{m\times n}} A x = b , {\displaystyle Ax=b,}

в общем случае вектор ⁠ ⁠, x {\displaystyle x} который решает систему, может не существовать, или если существует, он может быть не единственным. Более конкретно, решение существует тогда и только тогда, когда находится в образе , и является единственным тогда и только тогда, когда является инъективным. Псевдообратный решает задачу «наименьших квадратов» следующим образом: b {\displaystyle b} A {\displaystyle A} A {\displaystyle A}

  • ⁠ ⁠ x K n {\displaystyle \forall x\in \mathbb {K} ^{n}} , имеем где и обозначает евклидову норму . Это слабое неравенство выполняется с равенством тогда и только тогда, когда для любого вектора ; это обеспечивает бесконечность минимизирующих решений, если только не имеет полного ранга столбца, в этом случае является нулевой матрицей. [27] Решение с минимальной евклидовой нормой [27] A x b 2 A z b 2 {\displaystyle \left\|Ax-b\right\|_{2}\geq \left\|Az-b\right\|_{2}} z = A + b {\displaystyle z=A^{+}b} 2 {\displaystyle \|\cdot \|_{2}} x = A + b + ( I A + A ) w {\displaystyle x=A^{+}b+\left(I-A^{+}A\right)w} w {\displaystyle w} A {\displaystyle A} ( I A + A ) {\displaystyle \left(I-A^{+}A\right)} z . {\displaystyle z.}

Этот результат легко распространяется на системы с несколькими правыми частями, когда евклидова норма заменяется нормой Фробениуса. Пусть ⁠ ⁠ B K m × p {\displaystyle B\in \mathbb {K} ^{m\times p}} .

  • ⁠ ⁠ X K n × p {\displaystyle \forall X\in \mathbb {K} ^{n\times p}} , имеем где и обозначает норму Фробениуса . A X B F A Z B F {\displaystyle \|AX-B\|_{\mathrm {F} }\geq \|AZ-B\|_{\mathrm {F} }} Z = A + B {\displaystyle Z=A^{+}B} F {\displaystyle \|\cdot \|_{\mathrm {F} }}

Получение всех решений линейной системы

Если линейная система

A x = b {\displaystyle Ax=b}

имеет какие-либо решения, все они даны [28]

x = A + b + [ I A + A ] w {\displaystyle x=A^{+}b+\left[I-A^{+}A\right]w}

для произвольного вектора ⁠ ⁠ w {\displaystyle w} . Решение(я) существуют тогда и только тогда, когда . [28] Если последнее выполняется, то решение является единственным тогда и только тогда, когда имеет полный ранг столбца, в этом случае является нулевой матрицей. Если решения существуют, но не имеет полного ранга столбца, то мы имеем неопределенную систему , вся бесконечность решений которой задается этим последним уравнением. A A + b = b {\displaystyle AA^{+}b=b} A {\displaystyle A} I A + A {\displaystyle I-A^{+}A} A {\displaystyle A}

Минимально-нормальное решение линейной системы

Для линейных систем с неединственными решениями (например, недоопределенных систем) псевдообратная матрица может быть использована для построения решения с минимальной евклидовой нормой среди всех решений. A x = b , {\displaystyle Ax=b,} x 2 {\displaystyle \|x\|_{2}}

  • Если выполнимо, то вектор является решением и удовлетворяет всем решениям. A x = b {\displaystyle Ax=b} z = A + b {\displaystyle z=A^{+}b} z 2 x 2 {\displaystyle \|z\|_{2}\leq \|x\|_{2}}

Этот результат легко распространяется на системы с несколькими правыми частями, когда евклидова норма заменяется нормой Фробениуса. Пусть ⁠ ⁠ B K m × p {\displaystyle B\in \mathbb {K} ^{m\times p}} .

  • Если выполнимо, то матрица является решением и удовлетворяет всем решениям. A X = B {\displaystyle AX=B} Z = A + B {\displaystyle Z=A^{+}B} Z F X F {\displaystyle \|Z\|_{\mathrm {F} }\leq \|X\|_{\mathrm {F} }}

Номер состояния

Используя псевдообратную матрицу и матричную норму , можно определить число обусловленности для любой матрицы: cond ( A ) = A A + . {\displaystyle {\mbox{cond}}(A)=\|A\|\left\|A^{+}\right\|.}

Большое число обусловленности подразумевает, что задача нахождения решений методом наименьших квадратов для соответствующей системы линейных уравнений является плохо обусловленной в том смысле, что небольшие ошибки в записях ⁠ ⁠ A {\displaystyle A} могут привести к огромным ошибкам в записях решения. [29]

Обобщения

Взвешенная псевдообратная матрица [30] обобщает обратную матрицу Мура-Пенроуза между метрическими пространствами с весовыми матрицами в области и диапазоне. Эти веса являются тождественными для стандартной обратной матрицы Мура-Пенроуза, которая предполагает ортонормированный базис в обоих пространствах.

Для решения более общих задач наименьших квадратов можно определить обратные операторы Мура–Пенроуза для всех непрерывных линейных операторов ⁠ ⁠ A : H 1 H 2 {\displaystyle A:H_{1}\rightarrow H_{2}} между двумя гильбертовыми пространствами ⁠ ⁠ H 1 {\displaystyle H_{1}} и ⁠ ⁠ H 2 {\displaystyle H_{2}} , используя те же четыре условия, что и в нашем определении выше. Оказывается, не каждый непрерывный линейный оператор имеет непрерывный линейный псевдообратный оператор в этом смысле. [29] Те, которые имеют, — это как раз те, область значений которых замкнута в ⁠ ⁠ H 2 {\displaystyle H_{2}} .

Понятие псевдообратной матрицы существует для матриц над произвольным полем, снабженным произвольным инволютивным автоморфизмом . В этой более общей ситуации заданная матрица не всегда имеет псевдообратную матрицу. Необходимым и достаточным условием для существования псевдообратной матрицы является то, что , где обозначает результат применения операции инволюции к транспонированию . Когда она существует, она уникальна. [31] Пример : Рассмотрим поле комплексных чисел, снабженное тождественной инволюцией (в отличие от инволюции, рассматриваемой в другом месте статьи); существуют ли матрицы, которые не имеют псевдообратных матриц в этом смысле? Рассмотрим матрицу . Заметим, что при . Таким образом, эта матрица не имеет псевдообратной матрицы в этом смысле. rank ( A ) = rank ( A A ) = rank ( A A ) {\displaystyle \operatorname {rank} (A)=\operatorname {rank} \left(A^{*}A\right)=\operatorname {rank} \left(AA^{*}\right)} A {\displaystyle A^{*}} A {\displaystyle A} A = [ 1 i ] T {\displaystyle A={\begin{bmatrix}1&i\end{bmatrix}}^{\mathsf {T}}} rank ( A A T ) = 1 {\displaystyle \operatorname {rank} \left(AA^{\mathsf {T}}\right)=1} rank ( A T A ) = 0 {\displaystyle \operatorname {rank} \left(A^{\mathsf {T}}A\right)=0}

В абстрактной алгебре обратный Мура–Пенроуза может быть определен на *-регулярной полугруппе . Это абстрактное определение совпадает с определением в линейной алгебре.

Смотрите также

Примечания

  1. ^
    • Бен-Исраэль и Гревилл 2003, стр. 7
    • Кэмпбелл и Мейер 1991, стр. 10
    • Накамура 1991, стр. 42
    • Рао и Митра 1971, стр. 50–51
  2. ^ Мур, Э. Х. (1920). «О обратной величине общей алгебраической матрицы». Бюллетень Американского математического общества . 26 (9): 394–95 . doi : 10.1090/S0002-9904-1920-03322-7 .
  3. ^ Бьерхаммар, Арне (1951). «Применение исчисления матриц к методу наименьших квадратов; со специальными ссылками на геодезические вычисления». Trans. Roy. Inst. Tech. Stockholm . 49 .
  4. ^ ab Пенроуз, Роджер (1955). "Обобщенная обратная матрица для матриц". Труды Кембриджского философского общества . 51 (3): 406– 13. Bibcode :1955PCPS...51..406P. doi : 10.1017/S0305004100030401 .
  5. ^ abcde Голуб, Джин Х.; Чарльз Ф. Ван Лоан (1996). Матричные вычисления (3-е изд.). Балтимор: Университет Джонса Хопкинса. С. 257–258. ISBN 978-0-8018-5414-9.
  6. ^ Кэмпбелл и Мейер 1991.
  7. ^ abc Stoer, Josef; Bulirsch, Roland (2002). Введение в численный анализ (3-е изд.). Берлин, Нью-Йорк: Springer-Verlag . ISBN 978-0-387-95452-3..
  8. ^ Гревилл, TNE (1966-10-01). «Заметка об обобщенной обратной матрице матричного произведения». SIAM Review . 8 (4): 518– 521. Bibcode : 1966SIAMR...8..518G. doi : 10.1137/1008107. ISSN  0036-1445.
  9. ^ Мациевский, Энтони А.; Кляйн, Чарльз А. (1985). «Избегание препятствий для кинематически избыточных манипуляторов в динамически изменяющихся средах». Международный журнал исследований робототехники . 4 (3): 109– 117. doi : 10.1177/027836498500400308. hdl : 10217/536 . S2CID  17660144.
  10. ^ Ракочевич, Владимир (1997). «О непрерывности обратных Мура – ​​Пенроуза и Дрейзина» (PDF) . Математический весник . 49 : 163–72 .
  11. ^ Голуб, ГХ; Перейра, В. (апрель 1973 г.). «Дифференциация псевдообратных матриц и нелинейные задачи наименьших квадратов, переменные которых разделяются». Журнал SIAM по численному анализу . 10 (2): 413–32 . Bibcode : 1973SJNA...10..413G. doi : 10.1137/0710036. JSTOR  2156365.
  12. ^ Hjørungnes, Are (2011). Комплекснозначные матричные производные: с приложениями в обработке сигналов и коммуникациях . Нью-Йорк: Cambridge university press. стр. 52. ISBN 9780521192644.
  13. ^ Лю, Шуанчжэ; Тренклер, Гетц; Колло, Тыну; фон Розен, Дитрих; Баксалари, Оскар Мария (2023). «Профессор Хайнц Нойдекер и матричное дифференциальное исчисление». Статистические документы . 65 (4): 2605–2639 . doi :10.1007/s00362-023-01499-w.
  14. ^ ab Ben-Israel & Greville 2003.
  15. ^ ab Bajo, I. (2021). «Вычисление обратных матриц Мура–Пенроуза с помощью полиномов в матрицах». American Mathematical Monthly . 128 (5): 446– 456. doi : 10.1080/00029890.2021.1886840. hdl : 11093/6146 .
  16. ^ Stallings, WT; Boullion, TL (1972). "Псевдообратная матрица r -циркулянта". Труды Американского математического общества . 34 (2): 385–88 . doi :10.2307/2038377. JSTOR  2038377.
  17. ^ Линейные системы и псевдообратные системы
  18. ^ Бен-Исраэль, Ади; Коэн, Дэн (1966). «Об итеративном вычислении обобщенных обратных матриц и связанных проекций». Журнал SIAM по численному анализу . 3 (3): 410– 19. Bibcode : 1966SJNA....3..410B. doi : 10.1137/0703035. JSTOR  2949637.pdf
  19. ^ Söderström, Torsten; Stewart, GW (1974). «О числовых свойствах итерационного метода вычисления обобщенной обратной матрицы Мура–Пенроуза». Журнал SIAM по численному анализу . 11 (1): 61– 74. Bibcode : 1974SJNA...11...61S. doi : 10.1137/0711008. JSTOR  2156431.
  20. ^ Грамс, Тино (1992). Worterkennung mit einem künstlichen Neuronalen Netzwerk (докторская диссертация). Университет Георга Августа в Геттингене. ОСЛК  841706164.
  21. ^ Эмтияз, Мохаммад (27 февраля 2008 г.). «Обновление обратной матрицы при добавлении/удалении столбца» (PDF) .
  22. ^ Мейер, Карл Д. младший (1973). «Обобщенные обратные матрицы и ранги блочных матриц». SIAM J. Appl. Math . 25 (4): 597– 602. doi :10.1137/0125057.
  23. ^ Мейер, Карл Д. младший (1973). «Обобщенное обращение модифицированных матриц». SIAM J. Appl. Math . 24 (3): 315– 23. doi :10.1137/0124033.
  24. ^ "R: Обобщенная обратная матрица".
  25. ^ "ЛинейнаяАлгебра.pinv".
  26. ^ Пенроуз, Роджер (1956). «О наилучшем приближенном решении линейных матричных уравнений». Труды Кембриджского философского общества . 52 (1): 17– 19. Bibcode :1956PCPS...52...17P. doi :10.1017/S0305004100030929. S2CID  122260851.
  27. ^ ab Planitz, M. (октябрь 1979). «Несовместные системы линейных уравнений». Mathematical Gazette . 63 (425): 181– 85. doi :10.2307/3617890. JSTOR  3617890. S2CID  125601192.
  28. ^ ab Джеймс, М. (июнь 1978 г.). «Обобщенная обратная величина». Mathematical Gazette . 62 (420): 109– 14. doi :10.1017/S0025557200086460. S2CID  126385532.
  29. ^ ab Хаген, Роланд; Рох, Штеффен; Зильберманн, Бернд (2001). "Раздел 2.1.2". C*-алгебры и численный анализ . CRC Press.
  30. ^ Прайс, Чарльз М. (1963-03-15). «Псевдообратная матрица и оценки минимальной дисперсии». Обзор SIAM . 6 (2): 115– 120. doi :10.1137/1006029. ISSN  1095-7200.
  31. ^ Pearl, Martin H. (1968-10-01). "Обобщенные обратные матрицы с элементами, взятыми из произвольного поля". Линейная алгебра и ее приложения . 1 (4): 571– 587. doi : 10.1016/0024-3795(68)90028-1 . ISSN  0024-3795.

Ссылки

  • Бен-Исраэль, Ади ; Гревилл, Томас NE (2003). Обобщенные обратные: Теория и приложения (2-е изд.). Нью-Йорк, Нью-Йорк: Springer. doi :10.1007/b97366. ISBN 978-0-387-00293-4.
  • Кэмпбелл, С. Л.; Мейер, К. Д. Младший (1991). Обобщенные обратные линейные преобразования . Довер. ISBN 978-0-486-66693-8.
  • Накамура, Ёсихико (1991). Advanced Robotics: Redundancy and Optimization . Addison-Wesley. ISBN 978-0201151985.
  • Рао, С. Радхакришна; Митра, Суджит Кумар (1971). Обобщенная обратная матрица и ее применение . Нью-Йорк: John Wiley & Sons. стр. 240. ISBN 978-0-471-70821-6.
  • Псевдообратная функция в PlanetMath .
  • Интерактивная программа и учебник по псевдообратной теореме Мура–Пенроуза
  • Обобщенная обратная матрица Мура–Пенроуза на PlanetMath .
  • Вайсштейн, Эрик В. «Псевдообратная». Математический мир .
  • Вайсштейн, Эрик В. «Обратная функция Мура–Пенроуза». MathWorld .
  • Псевдообратная Мура-Пенроуза. Учебный обзор теории
  • Онлайн-калькулятор обратной формулы Мура-Пенроуза
Retrieved from "https://en.wikipedia.org/w/index.php?title=Moore–Penrose_inverse&oldid=1272460595"