Эта статья может быть слишком технической для понимания большинства читателей . ( Август 2024 ) |
В линейной алгебре собственное разложение — это факторизация матрицы в каноническую форму , при которой матрица представляется в терминах ее собственных значений и собственных векторов . Только диагонализуемые матрицы могут быть факторизованы таким образом. Когда факторизуемая матрица является нормальной или действительной симметричной матрицей , разложение называется «спектральным разложением», выведенным из спектральной теоремы .
Вектор v (ненулевой) размерности N является собственным вектором квадратной матрицы A размером N × N , если он удовлетворяет линейному уравнению вида для некоторого скаляра λ . Тогда λ называется собственным значением, соответствующим v . Геометрически говоря, собственные векторы матрицы A — это векторы, которые A просто удлиняет или сжимает, а величина, на которую они удлиняются/сжимаются, является собственным значением. Приведенное выше уравнение называется уравнением собственных значений или задачей собственных значений.
Это дает уравнение для собственных значений. Мы называем p ( λ ) характеристическим многочленом , а уравнение, называемое характеристическим уравнением, является уравнением полинома N -го порядка относительно неизвестного λ . Это уравнение будет иметь N λ различных решений, где 1 ≤ N λ ≤ N . Набор решений, то есть собственных значений, называется спектром A . [ 1] [ 2] [3]
Если поле скаляров алгебраически замкнуто , то мы можем разложить p на множители: Целое число n i называется алгебраической кратностью собственного значения λ i . Сумма алгебраических кратностей равна N :
Для каждого собственного значения λ i у нас есть определенное уравнение собственных значений . Будет 1 ≤ m i ≤ n i линейно независимых решений для каждого уравнения собственных значений. Линейные комбинации решений m i (за исключением того, которое дает нулевой вектор) являются собственными векторами, связанными с собственным значением λ i . Целое число m i называется геометрической кратностью λ i . Важно помнить , что алгебраическая кратность n i и геометрическая кратность m i могут быть равны или не равны, но мы всегда имеем m i ≤ n i . Самый простой случай, конечно, когда m i = n i = 1 . Общее количество линейно независимых собственных векторов, N v , можно вычислить, суммируя геометрические кратности
Собственные векторы могут быть проиндексированы собственными значениями, используя двойной индекс, где v ij является j -м собственным вектором для i -го собственного значения. Собственные векторы также могут быть проиндексированы с использованием более простой записи одного индекса v k , где k = 1, 2, ..., N v .
Пусть A — квадратная матрица n × n с n линейно независимыми собственными векторами q i (где i = 1, ..., n ). Тогда A можно разложить на множители следующим образом: где Q — квадратная матрица n × n , i -й столбец которой является собственным вектором q i матрицы A , а Λ — диагональная матрица , диагональные элементы которой являются соответствующими собственными значениями, Λ ii = λ i . Обратите внимание, что только диагонализуемые матрицы могут быть разложены на множители таким образом. Например, дефектная матрица (которая является матрицей сдвига ) не может быть диагонализирована.
Собственные векторы n q i обычно нормализованы, но это не обязательно. Ненормализованный набор из n собственных векторов v i также может использоваться в качестве столбцов Q . Это можно понять, заметив, что величина собственных векторов в Q сокращается при разложении из-за присутствия Q −1 . Если одно из собственных значений λ i имеет несколько линейно независимых собственных векторов (то есть геометрическая кратность λ i больше 1), то эти собственные векторы для этого собственного значения λ i могут быть выбраны взаимно ортогональными ; однако, если два собственных вектора принадлежат двум различным собственным значениям, то они могут быть не ортогональны друг другу (см. пример ниже). Одним из особых случаев является то, что если A является нормальной матрицей, то по спектральной теореме всегда можно диагонализировать A в ортонормированном базисе {q i } .
Разложение можно вывести из фундаментального свойства собственных векторов: линейно независимые собственные векторы q i с ненулевыми собственными значениями образуют базис (не обязательно ортонормированный) для всех возможных произведений A x , для x ∈ C n , который совпадает с образом (или диапазоном ) соответствующего матричного преобразования , а также с пространством столбцов матрицы A . Число линейно независимых собственных векторов q i с ненулевыми собственными значениями равно рангу матрицы A , а также размерности образа (или диапазона) соответствующего матричного преобразования , а также его пространству столбцов.
Линейно независимые собственные векторы q i с собственным значением, равным нулю , образуют базис (который можно выбрать ортонормальным) для нулевого пространства (также известного как ядро) матричного преобразования A.
Действительную матрицу A размером 2 × 2 можно разложить в диагональную матрицу путем умножения невырожденной матрицы Q
Тогда для некоторой действительной диагональной матрицы .
Умножая обе части уравнения слева на Q : Уравнение выше можно разложить на два уравнения одновременно : Вынося за множители собственные значения x и y : Это дает нам два векторных уравнения: И может быть представлено одним векторным уравнением, включающим два решения в качестве собственных значений: где λ представляет два собственных значения x и y , а u представляет векторы a и b .
Сдвигая λ u в левую часть и вынося u за скобки Поскольку Q невырожден, существенно, что u не равно нулю. Следовательно, Таким образом , давая нам решения собственных значений для матрицы A как λ = 1 или λ = 3 , и результирующая диагональная матрица из собственного разложения A , таким образом, равна .
Подставляем решения обратно в приведенные выше уравнения
Решая уравнения, имеем Таким образом, матрица Q, необходимая для собственного разложения A, равна :
Если матрица A может быть разложена на собственные значения и если ни одно из ее собственных значений не равно нулю, то A обратима , а ее обратная матрица задается формулой Если является симметричной матрицей, то поскольку образована из собственных векторов , то гарантированно является ортогональной матрицей , следовательно . Кроме того, поскольку Λ является диагональной матрицей , ее обратную матрицу легко вычислить:
Когда собственное разложение используется на матрице измеренных, реальных данных , обратное может быть менее допустимым, когда все собственные значения используются без изменений в форме выше. Это происходит потому, что по мере того, как собственные значения становятся относительно малыми, их вклад в инверсию становится большим. Те, которые близки к нулю или находятся на уровне «шума» измерительной системы, будут иметь ненадлежащее влияние и могут затруднить решения (обнаружение) с использованием обратного. [4]
Было предложено два способа смягчения: усечение малых или нулевых собственных значений и расширение самого низкого надежного собственного значения до тех, которые ниже него. См. также регуляризацию Тихонова как статистически мотивированный, но смещенный метод скатывания собственных значений, когда они становятся захваченными шумом.
Первый метод смягчения похож на разреженную выборку исходной матрицы, удаляющую компоненты, которые не считаются ценными. Однако, если решение или процесс обнаружения близки к уровню шума, усечение может удалить компоненты, которые влияют на желаемое решение.
Второе смягчение расширяет собственное значение таким образом, что более низкие значения оказывают гораздо меньшее влияние на инверсию, но все равно вносят вклад, так что решения вблизи шума все равно будут найдены.
Надежное собственное значение можно найти, предположив, что собственные значения с очень близкими и низкими значениями являются хорошим представлением шума измерения (который предполагается низким для большинства систем).
Если собственные значения ранжированы по значению, то надежное собственное значение может быть найдено путем минимизации лапласиана отсортированных собственных значений: [5] где собственные значения индексируются с помощью s , чтобы обозначить сортировку. Позиция минимизации — это наименьшее надежное собственное значение. В измерительных системах квадратный корень этого надежного собственного значения — это средний шум по компонентам системы.
Собственное разложение позволяет значительно упростить вычисление степенных рядов матриц. Если f ( x ) задано как , то мы знаем, что Поскольку Λ является диагональной матрицей , функции Λ очень легко вычислить:
Недиагональные элементы f ( Λ ) равны нулю; то есть f ( Λ ) также является диагональной матрицей. Поэтому вычисление f ( A ) сводится к простому вычислению функции для каждого из собственных значений.
Подобный метод работает более широко с голоморфным функциональным исчислением , используя сверху. Еще раз, мы обнаруживаем, что
которые являются примерами для функций . Кроме того, является матрицей экспоненциальной .
This section needs expansion. You can help by adding to it. (June 2008) |
Спектральные матрицы — это матрицы, которые обладают различными собственными значениями и полным набором собственных векторов. Эта характеристика позволяет спектральным матрицам быть полностью диагонализируемыми, то есть их можно разложить на более простые формы с помощью разложения собственных значений. Этот процесс разложения раскрывает фундаментальные знания о структуре и поведении матрицы, особенно в таких областях, как квантовая механика, обработка сигналов и численный анализ. [6]
Комплекснозначная квадратная матрица является нормальной (то есть , , где — сопряженная транспонированная матрица ) тогда и только тогда, когда ее можно разложить как , где — унитарная матрица (то есть ), а diag( ) — диагональная матрица . [7] Столбцы образуют ортонормированный базис и являются собственными векторами с соответствующими собственными значениями . [8]
Например, рассмотрим нормальную матрицу 2 x 2 .
Собственные значения равны и .
(Нормализованные) собственные векторы, соответствующие этим собственным значениям, равны и .
Диагонализация имеет вид , где , и .
Проверка проводится .
В этом примере иллюстрируется процесс диагонализации нормальной матрицы путем нахождения ее собственных значений и собственных векторов, формирования унитарной матрицы , диагональной матрицы и проверки разложения.
В качестве особого случая, для каждой n × n вещественной симметричной матрицы собственные значения вещественны, а собственные векторы могут быть выбраны вещественными и ортонормированными . Таким образом, вещественная симметричная матрица A может быть разложена как , где Q — ортогональная матрица , столбцы которой являются вещественными ортонормированными собственными векторами A , а Λ — диагональная матрица, элементы которой являются собственными значениями A . [9]
Диагонализуемые матрицы могут быть разложены с помощью собственного разложения, при условии, что они имеют полный набор линейно независимых собственных векторов. Они могут быть выражены как , где — матрица, столбцы которой являются собственными векторами , а — диагональная матрица, состоящая из соответствующих собственных значений . [8]
Положительно определенные матрицы — это матрицы, у которых все собственные значения положительны. Их можно разложить как с помощью разложения Холецкого , где — нижняя треугольная матрица. [10]
Унитарные матрицы удовлетворяют (вещественный случай) или (комплексный случай), где обозначает сопряженное транспонирование , а обозначает сопряженное транспонирование. Они диагонализируются с помощью унитарных преобразований . [8]
Эрмитовы матрицы удовлетворяют , где обозначает сопряженное транспонирование. Их можно диагонализировать с помощью унитарных или ортогональных матриц . [8]
Предположим, что мы хотим вычислить собственные значения заданной матрицы. Если матрица мала, мы можем вычислить их символически, используя характеристический полином . Однако для больших матриц это часто невозможно, и в этом случае мы должны использовать численный метод .
На практике собственные значения больших матриц не вычисляются с использованием характеристического полинома. Вычисление полинома само по себе становится дорогим, а точные (символические) корни полинома высокой степени могут быть трудно вычислены и выражены: теорема Абеля–Руффини подразумевает, что корни полиномов высокой степени (5 или выше) в общем случае не могут быть выражены просто с использованием n- ных корней. Поэтому общие алгоритмы для нахождения собственных векторов и собственных значений являются итеративными .
Существуют итерационные численные алгоритмы для аппроксимации корней многочленов, такие как метод Ньютона , но в целом непрактично вычислять характеристический многочлен, а затем применять эти методы. Одна из причин заключается в том, что небольшие ошибки округления в коэффициентах характеристического многочлена могут привести к большим ошибкам в собственных значениях и собственных векторах: корни являются крайне плохо обусловленной функцией коэффициентов. [11]
Простым и точным итеративным методом является степенной метод : выбирается случайный вектор v и вычисляется последовательность единичных векторов как
Эта последовательность почти всегда будет сходиться к собственному вектору, соответствующему собственному значению наибольшей величины, при условии, что v имеет ненулевой компонент этого собственного вектора в базисе собственных векторов (а также при условии, что есть только одно собственное значение наибольшей величины). Этот простой алгоритм полезен в некоторых практических приложениях; например, Google использует его для вычисления ранга страницы документов в своей поисковой системе. [12] Кроме того, степенной метод является отправной точкой для многих более сложных алгоритмов. Например, сохраняя не только последний вектор в последовательности, но вместо этого рассматривая диапазон всех векторов в последовательности, можно получить лучшее (более быстро сходящееся) приближение для собственного вектора, и эта идея является основой итерации Арнольди . [11] В качестве альтернативы , важный алгоритм QR также основан на тонком преобразовании степенного метода. [11]
После вычисления собственных значений собственные векторы можно вычислить, решив уравнение с помощью метода исключения Гаусса или любого другого метода решения матричных уравнений .
Однако в практических методах собственных значений большого масштаба собственные векторы обычно вычисляются другими способами, как побочный продукт вычисления собственного значения. Например, в степенной итерации собственный вектор фактически вычисляется до собственного значения (которое обычно вычисляется с помощью отношения Рэлея собственного вектора). [11] В алгоритме QR для эрмитовой матрицы (или любой нормальной матрицы) ортонормированные собственные векторы получаются как произведение матриц Q из шагов алгоритма. [11] (Для более общих матриц алгоритм QR сначала дает разложение Шура , из которого собственные векторы могут быть получены с помощью процедуры обратной подстановки . [13] ) Для эрмитовых матриц алгоритм собственного значения «разделяй и властвуй» более эффективен, чем алгоритм QR, если требуются как собственные векторы, так и собственные значения. [11]
Напомним, что геометрическая кратность собственного значения может быть описана как размерность соответствующего собственного пространства, нулевого пространства λ I − A . Алгебраическая кратность также может рассматриваться как размерность: это размерность соответствующего обобщенного собственного пространства (1-й смысл), которое является нулевым пространством матрицы ( λ I − A ) k для любого достаточно большого k . То есть, это пространство обобщенных собственных векторов (первый смысл), где обобщенный собственный вектор — это любой вектор, который в конечном итоге становится 0, если λ I − A применяется к нему достаточно много раз подряд. Любой собственный вектор является обобщенным собственным вектором, и поэтому каждое собственное пространство содержится в связанном обобщенном собственном пространстве. Это дает простое доказательство того, что геометрическая кратность всегда меньше или равна алгебраической кратности.
Это использование не следует путать с обобщенной задачей на собственные значения, описанной ниже.
Сопряженный собственный вектор или coneigenvector — это вектор, отправленный после преобразования в скаляр, кратный его сопряженному, где скаляр называется сопряженным собственным значением или coneigenvalue линейного преобразования. Coneigenvectors и coneigenvalues представляют по существу ту же информацию и значение, что и обычные собственные векторы и собственные значения, но возникают при использовании альтернативной системы координат. Соответствующее уравнение имеет вид Например, в теории когерентного электромагнитного рассеяния линейное преобразование A представляет собой действие, выполняемое рассеивающим объектом, а собственные векторы представляют собой состояния поляризации электромагнитной волны. В оптике система координат определяется с точки зрения волны, известной как выравнивание прямого рассеяния (FSA), и приводит к регулярному уравнению собственных значений, тогда как в радаре система координат определяется с точки зрения радара, известной как выравнивание обратного рассеяния (BSA), и приводит к уравнению псевдособственных значений.
Обобщенная задача собственных значений (во втором смысле) — это задача нахождения (ненулевого) вектора v , который подчиняется уравнению где A и B — матрицы. Если v подчиняется этому уравнению с некоторым λ , то мы называем v обобщенным собственным вектором A и B (во втором смысле), а λ называется обобщенным собственным значением A и B ( во втором смысле), которое соответствует обобщенному собственному вектору v . Возможные значения λ должны подчиняться следующему уравнению
Если можно найти n линейно независимых векторов { v 1 , …, v n } , таких, что для каждого i ∈ {1, …, n } , Av i = λ i Bv i , то мы определим матрицы P и D такие, что Тогда выполняется следующее равенство. И доказательство таково:
А поскольку P обратим, то умножаем уравнение справа на его обратное, завершая доказательство.
Набор матриц вида A − λ B , где λ — комплексное число, называется пучком ; термин «матричний пучок» может также относиться к паре матриц ( A , B ) . [14]
Если B обратим, то исходную задачу можно записать в форме , которая является стандартной задачей на собственные значения. Однако в большинстве ситуаций предпочтительнее не выполнять обращение, а решать обобщенную задачу на собственные значения, как это было изначально сформулировано. Это особенно важно, если A и B являются эрмитовыми матрицами , поскольку в этом случае B −1 A в общем случае не является эрмитовой, и важные свойства решения больше не очевидны.
Если A и B являются симметричными или эрмитовыми, а B также является положительно определенной матрицей , собственные значения λ i являются действительными, а собственные векторы v 1 и v 2 с различными собственными значениями являются B -ортогональными ( v 1 * Bv 2 = 0 ). [15] В этом случае собственные векторы могут быть выбраны так, что матрица P, определенная выше, удовлетворяет или и существует базис обобщенных собственных векторов (это не дефектная задача). [14] Этот случай иногда называют эрмитово определенным пучком или определенным пучком . [14]