Низкоранговое приближение

Математическая концепция

В математике приближение низкого ранга относится к процессу приближения заданной матрицы матрицей более низкого ранга. Точнее, это задача минимизации , в которой функция стоимости измеряет соответствие между заданной матрицей (данными) и приближающей матрицей (переменной оптимизации) при условии ограничения, что приближающая матрица имеет пониженный ранг . Задача используется для математического моделирования и сжатия данных . Ограничение ранга связано с ограничением на сложность модели, которая подходит к данным. В приложениях часто существуют другие ограничения на приближающую матрицу помимо ограничения ранга, например, неотрицательность и структура Ганкеля .

Низкоранговая аппроксимация тесно связана с многочисленными другими методами, включая анализ главных компонент , факторный анализ , метод наименьших квадратов , латентный семантический анализ , ортогональную регрессию и динамическую модовую декомпозицию .

Определение

Данный

  • спецификация структуры , С : Р н п Р м × н {\displaystyle {\mathcal {S}}:\mathbb {R} ^{n_{p}}\to \mathbb {R} ^{m\times n}}
  • вектор параметров структуры , п Р н п {\displaystyle p\in \mathbb {R} ^{n_{p}}}
  • норма , и {\displaystyle \|\cdot \|}
  • желаемый ранг , г {\displaystyle r}
минимизировать над  п ^ п п ^ при условии классифицировать ( С ( п ^ ) ) г . {\displaystyle {\text{minimize}}\quad {\text{over}}{\widehat {p}}\quad \|p-{\widehat {p}}\|\quad {\text{subject to}}\quad \operatorname {rank} {\big (}{\mathcal {S}}({\widehat {p}}){\big )}\leq r.}

Приложения

Основная задача аппроксимации низкого ранга

Неструктурированная задача с соответствием, измеряемым нормой Фробениуса , т.е.

минимизировать над  Д ^ Д Д ^ Ф при условии классифицировать ( Д ^ ) г {\displaystyle {\text{minimize}}\quad {\text{over}}{\widehat {D}}\quad \|D-{\widehat {D}}\|_{\text{F}}\quad {\text{subject to}}\quad \operatorname {rank} {\big (}{\widehat {D}}{\big )}\leq r}

имеет аналитическое решение в терминах сингулярного разложения матрицы данных. Результат называется леммой аппроксимации матриц или теоремой Эккарта–Янга–Мирского . Эта проблема была первоначально решена Эрхардом Шмидтом [1] в бесконечномерном контексте интегральных операторов (хотя его методы легко обобщаются на произвольные компактные операторы в гильбертовых пространствах) и позднее переоткрыта К. Эккартом и Г. Янгом . [2] Л. Мирский обобщил результат на произвольные унитарно инвариантные нормы. [3] Пусть

Д = У Σ В Р м × н , м н {\displaystyle D=U\Sigma V^{\top }\in \mathbb {R} ^{m\times n},\quad m\geq n}

будет разложением сингулярных значений , где — прямоугольная диагональная матрица с сингулярными значениями . Для заданного , разбиения , , и следующим образом: Д {\displaystyle D} Σ =: диаг ( σ 1 , , σ м ) {\displaystyle \Sigma =:\operatorname {diag} (\sigma _{1},\ldots ,\sigma _{m})} м × м {\displaystyle m\times m} σ 1 σ м {\displaystyle \sigma _{1}\geq \ldots \geq \sigma _{m}} г { 1 , , м 1 } {\displaystyle r\in \{1,\dots ,m-1\}} У {\displaystyle U} Σ {\displaystyle \Сигма} В {\displaystyle V}

У =: [ У 1 У 2 ] , Σ =: [ Σ 1 0 0 Σ 2 ] , и В =: [ В 1 В 2 ] , {\displaystyle U=:{\begin{bmatrix}U_{1}&U_{2}\end{bmatrix}},\quad \Sigma =:{\begin{bmatrix}\Sigma _{1}&0\\0&\Sigma _{2}\end{bmatrix}},\quad {\text{и}}\quad V=:{\begin{bmatrix}V_{1}&V_{2}\end{bmatrix}},}

где есть , есть и есть . Тогда ранговая матрица, полученная из усеченного сингулярного разложения У 1 {\displaystyle U_{1}} м × г {\displaystyle m\times r} Σ 1 {\displaystyle \Sigma _{1}} r × r {\displaystyle r\times r} V 1 {\displaystyle V_{1}} r × n {\displaystyle r\times n} r {\displaystyle r}

D ^ = U 1 Σ 1 V 1 , {\displaystyle {\widehat {D}}^{*}=U_{1}\Sigma _{1}V_{1}^{\top },}

таково, что

D D ^ F = min rank ( D ^ ) r D D ^ F = σ r + 1 2 + + σ m 2 . {\displaystyle \|D-{\widehat {D}}^{*}\|_{\text{F}}=\min _{\operatorname {rank} ({\widehat {D}})\leq r}\|D-{\widehat {D}}\|_{\text{F}}={\sqrt {\sigma _{r+1}^{2}+\cdots +\sigma _{m}^{2}}}.}

Минимизатор уникален тогда и только тогда, когда . D ^ {\displaystyle {\widehat {D}}^{*}} σ r + 1 σ r {\displaystyle \sigma _{r+1}\neq \sigma _{r}}

Доказательство теоремы Эккарта–Юнга–Мирского (дляспектральная норма)

Пусть будет вещественной (возможно, прямоугольной) матрицей с . Предположим, что A R m × n {\displaystyle A\in \mathbb {R} ^{m\times n}} m n {\displaystyle m\leq n}

A = U Σ V {\displaystyle A=U\Sigma V^{\top }}

разложение по сингулярным значениям . Напомним, что и — ортогональные матрицы, а — диагональная матрица с элементами, такими что . A {\displaystyle A} U {\displaystyle U} V {\displaystyle V} Σ {\displaystyle \Sigma } m × n {\displaystyle m\times n} ( σ 1 , σ 2 , , σ m ) {\displaystyle (\sigma _{1},\sigma _{2},\cdots ,\sigma _{m})} σ 1 σ 2 σ m 0 {\displaystyle \sigma _{1}\geq \sigma _{2}\geq \cdots \geq \sigma _{m}\geq 0}

Мы утверждаем, что наилучшее ранговое приближение к в спектральной норме, обозначенной как , дается выражением k {\displaystyle k} A {\displaystyle A} 2 {\displaystyle \|\cdot \|_{2}}

A k := i = 1 k σ i u i v i {\displaystyle A_{k}:=\sum _{i=1}^{k}\sigma _{i}u_{i}v_{i}^{\top }}

где и обозначают -й столбец и , соответственно. u i {\displaystyle u_{i}} v i {\displaystyle v_{i}} i {\displaystyle i} U {\displaystyle U} V {\displaystyle V}

Во-первых, обратите внимание, что у нас есть

A A k 2 = i = 1 n σ i u i v i i = 1 k σ i u i v i 2 = i = k + 1 n σ i u i v i 2 = σ k + 1 {\displaystyle \|A-A_{k}\|_{2}=\left\|\sum _{i=1}^{\color {red}{n}}\sigma _{i}u_{i}v_{i}^{\top }-\sum _{i=1}^{\color {red}{k}}\sigma _{i}u_{i}v_{i}^{\top }\right\|_{2}=\left\|\sum _{i=\color {red}{k+1}}^{n}\sigma _{i}u_{i}v_{i}^{\top }\right\|_{2}=\sigma _{k+1}}

Поэтому нам нужно показать, что если , где и имеют столбцы, то . B k = X Y {\displaystyle B_{k}=XY^{\top }} X {\displaystyle X} Y {\displaystyle Y} k {\displaystyle k} A A k 2 = σ k + 1 A B k 2 {\displaystyle \|A-A_{k}\|_{2}=\sigma _{k+1}\leq \|A-B_{k}\|_{2}}

Так как имеет столбцы, то должна быть нетривиальная линейная комбинация первых столбцов , т.е. Y {\displaystyle Y} k {\displaystyle k} k + 1 {\displaystyle k+1} V {\displaystyle V}

w = γ 1 v 1 + + γ k + 1 v k + 1 , {\displaystyle w=\gamma _{1}v_{1}+\cdots +\gamma _{k+1}v_{k+1},}

такой, что . Без потери общности, мы можем масштабировать так, что или (эквивалентно) . Следовательно, Y w = 0 {\displaystyle Y^{\top }w=0} w {\displaystyle w} w 2 = 1 {\displaystyle \|w\|_{2}=1} γ 1 2 + + γ k + 1 2 = 1 {\displaystyle \gamma _{1}^{2}+\cdots +\gamma _{k+1}^{2}=1}

A B k 2 2 ( A B k ) w 2 2 = A w 2 2 = γ 1 2 σ 1 2 + + γ k + 1 2 σ k + 1 2 σ k + 1 2 . {\displaystyle \|A-B_{k}\|_{2}^{2}\geq \|(A-B_{k})w\|_{2}^{2}=\|Aw\|_{2}^{2}=\gamma _{1}^{2}\sigma _{1}^{2}+\cdots +\gamma _{k+1}^{2}\sigma _{k+1}^{2}\geq \sigma _{k+1}^{2}.}

Результат получается путем извлечения квадратного корня из обеих частей приведенного выше неравенства.

Доказательство теоремы Эккарта–Юнга–Мирского (длянорма Фробениуса)

Пусть будет вещественной (возможно, прямоугольной) матрицей с . Предположим, что A R m × n {\displaystyle A\in \mathbb {R} ^{m\times n}} m n {\displaystyle m\leq n}

A = U Σ V {\displaystyle A=U\Sigma V^{\top }}

является разложением по сингулярным значениям . A {\displaystyle A}

Мы утверждаем, что наилучшее ранговое приближение к в норме Фробениуса, обозначаемое как , определяется выражением k {\displaystyle k} A {\displaystyle A} F {\displaystyle \|\cdot \|_{F}}

A k = i = 1 k σ i u i v i {\displaystyle A_{k}=\sum _{i=1}^{k}\sigma _{i}u_{i}v_{i}^{\top }}

где и обозначают -й столбец и , соответственно. u i {\displaystyle u_{i}} v i {\displaystyle v_{i}} i {\displaystyle i} U {\displaystyle U} V {\displaystyle V}

Во-первых, обратите внимание, что у нас есть

A A k F 2 = i = k + 1 n σ i u i v i F 2 = i = k + 1 n σ i 2 {\displaystyle \|A-A_{k}\|_{F}^{2}=\left\|\sum _{i=k+1}^{n}\sigma _{i}u_{i}v_{i}^{\top }\right\|_{F}^{2}=\sum _{i=k+1}^{n}\sigma _{i}^{2}}

Поэтому нам нужно показать, что если , где и имеют столбцы, то B k = X Y {\displaystyle B_{k}=XY^{\top }} X {\displaystyle X} Y {\displaystyle Y} k {\displaystyle k}

A A k F 2 = i = k + 1 n σ i 2 A B k F 2 . {\displaystyle \|A-A_{k}\|_{F}^{2}=\sum _{i=k+1}^{n}\sigma _{i}^{2}\leq \|A-B_{k}\|_{F}^{2}.}

По неравенству треугольника со спектральной нормой, если то . Предположим и соответственно обозначают ранговое приближение к и методом SVD, описанным выше. Тогда для любого A = A + A {\displaystyle A=A'+A''} σ 1 ( A ) σ 1 ( A ) + σ 1 ( A ) {\displaystyle \sigma _{1}(A)\leq \sigma _{1}(A')+\sigma _{1}(A'')} A k {\displaystyle A'_{k}} A k {\displaystyle A''_{k}} k {\displaystyle k} A {\displaystyle A'} A {\displaystyle A''} i , j 1 {\displaystyle i,j\geq 1}

σ i ( A ) + σ j ( A ) = σ 1 ( A A i 1 ) + σ 1 ( A A j 1 ) σ 1 ( A A i 1 A j 1 ) σ 1 ( A A i + j 2 ) ( since  r a n k ( A i 1 + A j 1 ) i + j 2 ) ) = σ i + j 1 ( A ) . {\displaystyle {\begin{aligned}\sigma _{i}(A')+\sigma _{j}(A'')&=\sigma _{1}(A'-A'_{i-1})+\sigma _{1}(A''-A''_{j-1})\\&\geq \sigma _{1}(A-A'_{i-1}-A''_{j-1})\\&\geq \sigma _{1}(A-A_{i+j-2})\qquad ({\text{since }}{\rm {rank}}(A'_{i-1}+A''_{j-1})\leq i+j-2))\\&=\sigma _{i+j-1}(A).\end{aligned}}}

Так как , когда и заключаем, что для σ k + 1 ( B k ) = 0 {\displaystyle \sigma _{k+1}(B_{k})=0} A = A B k {\displaystyle A'=A-B_{k}} A = B k {\displaystyle A''=B_{k}} i 1 , j = k + 1 {\displaystyle i\geq 1,j=k+1}

σ i ( A B k ) σ k + i ( A ) . {\displaystyle \sigma _{i}(A-B_{k})\geq \sigma _{k+i}(A).}

Поэтому,

A B k F 2 = i = 1 n σ i ( A B k ) 2 i = k + 1 n σ i ( A ) 2 = A A k F 2 , {\displaystyle \|A-B_{k}\|_{F}^{2}=\sum _{i=1}^{n}\sigma _{i}(A-B_{k})^{2}\geq \sum _{i=k+1}^{n}\sigma _{i}(A)^{2}=\|A-A_{k}\|_{F}^{2},}

по мере необходимости.

Взвешенные задачи аппроксимации низкого ранга

Норма Фробениуса равномерно взвешивает все элементы ошибки аппроксимации . Априорные знания о распределении ошибок могут быть учтены путем рассмотрения задачи взвешенной аппроксимации низкого ранга D D ^ {\displaystyle D-{\widehat {D}}}

minimize over  D ^ vec ( D D ^ ) W vec ( D D ^ ) subject to rank ( D ^ ) r , {\displaystyle {\text{minimize}}\quad {\text{over }}{\widehat {D}}\quad \operatorname {vec} (D-{\widehat {D}})^{\top }W\operatorname {vec} (D-{\widehat {D}})\quad {\text{subject to}}\quad \operatorname {rank} ({\widehat {D}})\leq r,}

где векторизует матрицу по столбцам, а — заданная положительно (полу)определенная весовая матрица. vec ( A ) {\displaystyle {\text{vec}}(A)} A {\displaystyle A} W {\displaystyle W}

Общая задача взвешенной аппроксимации низкого ранга не допускает аналитического решения в терминах разложения сингулярных значений и решается методами локальной оптимизации, которые не дают никаких гарантий нахождения глобально оптимального решения.

В случае некоррелированных весов задача взвешенной аппроксимации низкого ранга также может быть сформулирована следующим образом: [4] [5] для неотрицательной матрицы и матрицы мы хотим минимизировать по матрицам, , ранга которых не превышает . W {\displaystyle W} A {\displaystyle A} i , j ( W i , j ( A i , j B i , j ) ) 2 {\displaystyle \sum _{i,j}(W_{i,j}(A_{i,j}-B_{i,j}))^{2}} B {\displaystyle B} r {\displaystyle r}

ВходнойЛппроблемы аппроксимации низкого ранга

Пусть . Для , самый быстрый алгоритм работает за время. [6] [7] Одна из важных использованных идей называется Oblivious Subspace Embedding (OSE), она впервые предложена Сарлосом. [8] A p = ( i , j | A i , j p | ) 1 / p {\displaystyle \|A\|_{p}=\left(\sum _{i,j}|A_{i,j}^{p}|\right)^{1/p}} p = 2 {\displaystyle p=2} n n z ( A ) + n p o l y ( k / ϵ ) {\displaystyle nnz(A)+n\cdot poly(k/\epsilon )}

Для известно, что эта норма L1 по входу более надежна, чем норма Фробениуса при наличии выбросов и указывается в моделях, где гауссовские предположения о шуме могут не применяться. Естественно стремиться минимизировать . [9] Для и существуют некоторые алгоритмы с доказуемыми гарантиями. [10] [11] p = 1 {\displaystyle p=1} B A 1 {\displaystyle \|B-A\|_{1}} p = 0 {\displaystyle p=0} p 1 {\displaystyle p\geq 1}

Задача аппроксимации расстояния низкого ранга

Пусть и будут двумя точечными множествами в произвольном метрическом пространстве. Пусть представляют матрицу, где . Такие матрицы расстояний обычно вычисляются в программных пакетах и ​​имеют приложения к изучению многообразий изображений, распознаванию рукописного ввода и многомерной развертке. В попытке уменьшить размер их описания [12] [13] можно изучить низкоранговую аппроксимацию таких матриц. P = { p 1 , , p m } {\displaystyle P=\{p_{1},\ldots ,p_{m}\}} Q = { q 1 , , q n } {\displaystyle Q=\{q_{1},\ldots ,q_{n}\}} A {\displaystyle A} m × n {\displaystyle m\times n} A i , j = d i s t ( p i , q i ) {\displaystyle A_{i,j}=dist(p_{i},q_{i})}

Распределенная/потоковая задача аппроксимации низкого ранга

Задачи аппроксимации низкого ранга в распределенной и потоковой среде рассматривались в [14] .

Представления изображений и ядер ограничений ранга

Используя эквивалентности

rank ( D ^ ) r there are  P R m × r  and  L R r × n  such that  D ^ = P L {\displaystyle \operatorname {rank} ({\widehat {D}})\leq r\quad \iff \quad {\text{there are }}P\in \mathbb {R} ^{m\times r}{\text{ and }}L\in \mathbb {R} ^{r\times n}{\text{ such that }}{\widehat {D}}=PL}

и

rank ( D ^ ) r there is full row rank  R R m r × m  such that  R D ^ = 0 {\displaystyle \operatorname {rank} ({\widehat {D}})\leq r\quad \iff \quad {\text{there is full row rank }}R\in \mathbb {R} ^{m-r\times m}{\text{ such that }}R{\widehat {D}}=0}

задача взвешенной аппроксимации низкого ранга становится эквивалентной задачам оптимизации параметров

minimize over  D ^ , P  and  L vec ( D D ^ ) W vec ( D D ^ ) subject to D ^ = P L {\displaystyle {\text{minimize}}\quad {\text{over }}{\widehat {D}},P{\text{ and }}L\quad \operatorname {vec} ^{\top }(D-{\widehat {D}})W\operatorname {vec} (D-{\widehat {D}})\quad {\text{subject to}}\quad {\widehat {D}}=PL}

и

minimize over  D ^  and  R vec ( D D ^ ) W vec ( D D ^ ) subject to R D ^ = 0 and R R = I r , {\displaystyle {\text{minimize}}\quad {\text{over }}{\widehat {D}}{\text{ and }}R\quad \operatorname {vec} ^{\top }(D-{\widehat {D}})W\operatorname {vec} (D-{\widehat {D}})\quad {\text{subject to}}\quad R{\widehat {D}}=0\quad {\text{and}}\quad RR^{\top }=I_{r},}

где — единичная матрица размера . I r {\displaystyle I_{r}} r {\displaystyle r}

Алгоритм чередующихся проекций

Представление изображения ограничения ранга предполагает метод оптимизации параметров, в котором функция стоимости минимизируется поочередно по одной из переменных ( или ) при фиксированной другой. Хотя одновременная минимизация по обеим и является сложной двояковыпуклой задачей оптимизации, минимизация по одной из переменных является линейной задачей наименьших квадратов и может быть решена глобально и эффективно. P {\displaystyle P} L {\displaystyle L} P {\displaystyle P} L {\displaystyle L}

Полученный алгоритм оптимизации (называемый чередующимися проекциями) глобально сходится с линейной скоростью сходимости к локально оптимальному решению задачи взвешенной аппроксимации низкого ранга. Начальное значение для параметра (или ) должно быть указано. Итерация останавливается, когда выполняется определенное пользователем условие сходимости. P {\displaystyle P} L {\displaystyle L}

Реализация алгоритма чередующихся проекций для взвешенной аппроксимации низкого ранга в Matlab :

function [dh, f] = wlra_ap ( d, w, p, tol, maxiter ) [ m , n ] = size ( d ); r = size ( p , 2 ); f = inf ; for i = 2 : maxiter % минимизация по L bp = kron ( eye ( n ), p ); vl = ( bp ' * w * bp ) \ bp ' * w * d (:); l = reshape ( vl , r , n ); % минимизация по P bl = kron ( l ' , eye ( m )); vp = ( bl ' * w * bl ) \ bl ' * w * d (:); p = reshape ( vp , m , r ); % проверка условия выхода dh = p * l ; dd = d - dh ; f ( i ) = dd (:) ' * w * dd (:); если abs ( f ( i - 1 ) - f ( i )) < tol , break , end endfor                                                                                        

Алгоритм переменных проекций

Алгоритм чередующихся проекций использует тот факт, что задача аппроксимации низкого ранга, параметризованная в форме изображения, является билинейной по переменным или . Билинейная природа задачи эффективно используется в альтернативном подходе, называемом переменными проекциями. [15] P {\displaystyle P} L {\displaystyle L}

Рассмотрим снова задачу взвешенной аппроксимации низкого ранга, параметризованную в форме изображения. Минимизация по переменной (линейная задача наименьших квадратов) приводит к замкнутому выражению ошибки аппроксимации как функции L {\displaystyle L} P {\displaystyle P}

f ( P ) = vec ( D ) ( W W ( I n P ) ( ( I n P ) W ( I n P ) ) 1 ( I n P ) W ) vec ( D ) . {\displaystyle f(P)={\sqrt {\operatorname {vec} ^{\top }(D){\Big (}W-W(I_{n}\otimes P){\big (}(I_{n}\otimes P)^{\top }W(I_{n}\otimes P){\big )}^{-1}(I_{n}\otimes P)^{\top }W{\Big )}\operatorname {vec} (D)}}.}

Исходная задача, таким образом, эквивалентна нелинейной задаче наименьших квадратов минимизации относительно . Для этой цели могут быть использованы стандартные методы оптимизации, например, алгоритм Левенберга-Марквардта . f ( P ) {\displaystyle f(P)} P {\displaystyle P}

Реализация алгоритма переменных проекций для взвешенной аппроксимации низкого ранга в Matlab :

function [dh, f] = wlra_varpro ( d, w, p, tol, maxiter ) prob = optimset(); prob.solver = ' lsqnonlin ' ; prob.options = optimset ( ' MaxIter ' , maxiter , ' TolFun ' , tol ) ; prob.x0 = p ; prob.objection = @ ( p ) cost_fun ( p , d , w ) ; [ p , f ] = lsqnonlin ( prob ) ; [ f , vl ] = cost_fun ( p , d , w ); dh = p * reshape ( vl , size ( p , 2 ) , size ( d , 2 ) ) ;                                       функция [f, vl] = cost_fun ( p, d, w ) bp = kron ( eye ( size ( d , 2 )), p ); vl = ( bp ' * w * bp ) \ bp ' * w * d (:); f = d (:) ' * w * ( d (:) - bp * vl );                           

Метод проекций переменных может быть применен также к задачам аппроксимации низкого ранга, параметризованным в форме ядра. Метод эффективен, когда число исключенных переменных намного больше числа переменных оптимизации, оставшихся на этапе минимизации нелинейного метода наименьших квадратов. Такие задачи возникают при идентификации систем, параметризованных в форме ядра, где исключенные переменные являются аппроксимирующей траекторией, а оставшиеся переменные являются параметрами модели. В контексте линейных стационарных систем шаг исключения эквивалентен сглаживанию Калмана .

Вариант: выпукло-ограниченная аппроксимация низкого ранга

Обычно мы хотим, чтобы наше новое решение не только имело низкий ранг, но и удовлетворяло другим выпуклым ограничениям из-за требований приложения. Наша интересующая нас проблема будет выглядеть следующим образом:

minimize over  p ^ p p ^ subject to rank ( S ( p ^ ) ) r  and  g ( p ^ ) 0 {\displaystyle {\text{minimize}}\quad {\text{over }}{\widehat {p}}\quad \|p-{\widehat {p}}\|\quad {\text{subject to}}\quad \operatorname {rank} {\big (}{\mathcal {S}}({\widehat {p}}){\big )}\leq r{\text{ and }}g({\widehat {p}})\leq 0}

Эта проблема имеет множество приложений в реальном мире, включая восстановление хорошего решения из неточной (полуопределенного программирования) релаксации. Если дополнительное ограничение линейно, например, мы требуем, чтобы все элементы были неотрицательными, то проблема называется структурированной аппроксимацией низкого ранга. [16] Более общая форма называется выпукло-ограниченной аппроксимацией низкого ранга. g ( p ^ ) 0 {\displaystyle g({\widehat {p}})\leq 0}

Эта задача полезна при решении многих задач. Однако она сложна из-за сочетания выпуклых и невыпуклых (низкого ранга) ограничений. Были разработаны различные методы на основе различных реализаций . Однако метод переменного направления множителей (ADMM) может быть применен для решения невыпуклой задачи с выпуклой целевой функцией, ограничениями ранга и другими выпуклыми ограничениями [17] и, таким образом, подходит для решения нашей вышеуказанной задачи. Более того, в отличие от общих невыпуклых задач, ADMM гарантирует сходимость допустимого решения, пока его двойственная переменная сходится в итерациях. g ( p ^ ) 0 {\displaystyle g({\widehat {p}})\leq 0}

Смотрите также

Ссылки

  1. ^ Э. Шмидт, Zur Theorie der Linearen und Nichtlinearen Integralgleichungen, Math. Аннален 63 (1907), 433–476. дои : 10.1007/BF01449770
  2. ^ C. Eckart, G. Young, Аппроксимация одной матрицы другой более низкого ранга. Psychometrika, том 1, 1936, страницы 211–218. doi :10.1007/BF02288367
  3. ^ Л. Мирский, Симметричные калибровочные функции и унитарно инвариантные нормы, QJ Math. 11 (1960), 50-59. doi :10.1093/qmath/11.1.50
  4. ^ Сребро, Натан; Яаккола, Томми (2003). Взвешенные низкоранговые аппроксимации (PDF) . ICML'03.
  5. ^ Разенштейн, Илья; Сонг, Чжао; Вудрафф, Дэвид П. (2016). Взвешенные низкоранговые приближения с доказуемыми гарантиями. Труды STOC '16 сорок восьмого ежегодного симпозиума ACM по теории вычислений.
  6. ^ Кларксон, Кеннет Л.; Вудрафф, Дэвид П. (2013). Низкоранговая аппроксимация и регрессия во времени разреженности входных данных . Труды сорок пятого ежегодного симпозиума ACM по теории вычислений STOC '13. arXiv : 1207.6365 .
  7. ^ Нельсон, Джелани; Нгуен, Хуй Л. (2013). OSNAP: Более быстрые алгоритмы числовой линейной алгебры с помощью вложений разреженных подпространств . FOCS '13. arXiv : 1211.1002 .
  8. ^ Сарлос, Тамас (2006). Улучшенные алгоритмы аппроксимации для больших матриц с помощью случайных проекций . FOCS'06.
  9. ^ Сонг, Чжао; Вудрафф, Дэвид П.; Чжун, Пейлинь (2017). Низкоранговая аппроксимация с ошибкой по норме L1 на уровне входов . Труды сорок девятого ежегодного симпозиума ACM по теории вычислений STOC '17. arXiv : 1611.00898 .
  10. ^ Брингманн, Карл; Колев, Павел; Вудрафф, Дэвид П. (2017). Алгоритмы аппроксимации для аппроксимации L0-низкого ранга . NIPS'17. arXiv : 1710.11253 .
  11. ^ Кьерикетти, Флавио; Голлапуди, Шринивас; Кумар, Рави; Латтанци, Сильвио; Паниграхи, Рина; Вудрафф, Дэвид П. (2017). Алгоритмы Lp-аппроксимации низкого ранга . ICML'17. arXiv : 1705.06730 .
  12. ^ Бакши, Айнеш Л.; Вудрафф, Дэвид П. (2018). Низкоранговая аппроксимация матриц расстояний в сублинейном времени . NeurIPS. arXiv : 1809.06986 .
  13. ^ Индик, Петр; Вакилиан, Али; Вагнер, Тал; Вудрафф, Дэвид П. (2019). Оптимальная для выборки низкоранговая аппроксимация матриц расстояний . COLT.
  14. ^ Бутсидис, Христос; Вудрафф, Дэвид П.; Чжун, Пейлин (2016). Оптимальный главный компонентный анализ в распределенных и потоковых моделях . STOC. arXiv : 1504.06729 .
  15. ^ Г. Голуб и В. Перейра, Разделимые нелинейные наименьшие квадраты: метод проекции переменной и его приложения, Институт физики, Обратные задачи, том 19, 2003, страницы 1-26.
  16. ^ Чу, Муди Т.; Фандерлик, Роберт Э.; Племмонс, Роберт Дж. (2003). «структурированная аппроксимация низкого ранга». Линейная алгебра и ее приложения . 366 : 157–172. doi : 10.1016/S0024-3795(02)00505-0 .
  17. ^ «Общая система эвристического решения выпуклых задач над невыпуклыми множествами» (PDF) .
  • MT Chu, RE Funderlic, RJ Plemmons, Структурированная аппроксимация низкого ранга, Линейная алгебра и ее приложения, том 366, 1 июня 2003 г., страницы 157–172 doi :10.1016/S0024-3795(02)00505-0
  • Пакет C++ для структурированной аппроксимации низкого ранга
Retrieved from "https://en.wikipedia.org/w/index.php?title=Low-rank_approximation&oldid=1239207268"