MVU создает отображение из входных векторов высокой размерности в некоторое евклидово векторное пространство низкой размерности за следующие шаги: [5]
Создается граф соседства . Каждый вход соединен с его k-ближайшими входными векторами (согласно евклидовой метрике расстояния), и все k-ближайшие соседи соединены друг с другом. Если данные достаточно хорошо отобраны, то полученный граф является дискретным приближением базового многообразия.
Граф соседства «разворачивается» с помощью полуопределенного программирования. Вместо того, чтобы изучать выходные векторы напрямую, полуопределенное программирование стремится найти матрицу внутреннего произведения, которая максимизирует попарные расстояния между любыми двумя входами, которые не связаны в графе соседства, сохраняя при этом расстояния до ближайших соседей.
Низкоразмерное вложение в конечном итоге получается путем применения многомерного масштабирования к изученной матрице внутреннего произведения.
Шаги применения полуопределенного программирования с последующим шагом линейного снижения размерности для восстановления низкоразмерного вложения в евклидово пространство были впервые предложены Линиалом , Лондоном и Рабиновичем. [6]
Формулировка оптимизации
Пусть будет исходным входом, а будет вложением. Если есть два соседа, то локальное изометрическое ограничение, которое должно быть удовлетворено, равно: [7] [8] [9]
Пусть будут матрицами Грама и (т.е.: ). Мы можем выразить указанное выше ограничение для каждой соседней точки в терминах : [10] [11]
Кроме того, мы также хотим ограничить встраивание центром в начале координат: [12] [13] [14]
Как описано выше, за исключением того, что расстояния соседних точек сохраняются, алгоритм стремится максимизировать попарное расстояние каждой пары точек. Целевая функция, которая должна быть максимизирована, это: [15] [16] [17]
Интуитивно, максимизация функции выше эквивалентна вытягиванию точек как можно дальше друг от друга и, следовательно, «разворачиванию» многообразия. Ограничение локальной изометрии [18]
Пусть где
предотвращает расхождение целевой функции (стремление к бесконечности).
Поскольку график имеет N точек, расстояние между любыми двумя точками . Тогда мы можем ограничить целевую функцию следующим образом: [19] [20]
Целевую функцию можно переписать исключительно в виде матрицы Грама: [21] [22] [23]
Наконец, оптимизацию можно сформулировать следующим образом: [24] [25] [26]
После того, как матрица Грама изучена с помощью полуопределенного программирования, выходные данные можно получить с помощью разложения Холецкого .
В частности, матрицу Грама можно записать как , где — i-й элемент собственного вектора собственного значения . [27] [28]
Из этого следует, что -й элемент вывода равен . [29] [30]
^ Вайнбергер, Ша и Саул 2004a, стр. 3, уравнение 8
^ Вайнбергер и Саул 2004b, стр. 3, уравнение 2
^ Вайнбергер и Саул 2006, стр. 4, уравнение 2
^ Вайнбергер, Ша и Саул 2004a, стр. 3, уравнение 9
^ Вайнбергер и Саул 2004b, стр. 3, уравнение 3
^ Вайнбергер, Ша и Саул 2004a, стр. 3, уравнение 6
^ Вайнбергер и Саул 2004b, стр. 3, уравнение 5
^ Вайнбергер и Саул 2006, стр. 5, уравнение 8
^ Вайнбергер, Ша и Саул 2004a, стр. 4, уравнение 10
^ Вайнбергер и Саул 2004b, стр. 4, уравнение 6
^ Вайнбергер и Саул 2006, стр. 5, уравнение 4
^ Вайнбергер и Саул 2004b, стр. 4, уравнение 7
^ Вайнбергер и Саул 2004b, стр. 4, уравнение 8
^ Вайнбергер и Саул 2006, стр. 5, уравнение 6
^ Вайнбергер, Ша и Саул 2004a, стр. 4, уравнение 11
^ Вайнбергер и Саул 2004b, стр. 4, уравнение 9
^ Вайнбергер и Саул 2006, стр. 6, уравнения 10–13
^ Вайнбергер, Ша и Саул 2004a, стр. 4, раздел 3.3
^ Вайнбергер и Саул 2004b, стр. 4, уравнение 9
^ Вайнбергер и Саул 2006, стр. 6, уравнения 10–13
^ Вайнбергер и Саул 2004b, стр. 4, уравнение 10
^ Вайнбергер и Саул 2006, стр. 7, уравнения 14
^ Вайнбергер и Саул 2004b, стр. 4, уравнение 11
^ Вайнбергер и Саул 2006, стр. 7, уравнения 15
Ссылки
Линиал, Лондон и Рабинович, Натан, Эран и Юрий (1995). «Геометрия графов и некоторые ее алгоритмические приложения». Combinatorica . 15 (2): 215– 245. doi :10.1007/BF01200757. S2CID 5071936.{{cite journal}}: CS1 maint: multiple names: authors list (link)
Вайнбергер, Ша и Саул, Килиан К., Фей и Лоуренс К. (4 июля 2004a). Изучение матрицы ядра для нелинейного снижения размерности. Труды Двадцать первой международной конференции по машинному обучению (ICML 2004). Банф, Альберта , Канада.{{cite conference}}: CS1 maint: multiple names: authors list (link)
Вайнбергер и Сол, Килиан К. и Лоуренс К. (27 июня 2004 г.). Неконтролируемое обучение многообразий изображений с помощью полуопределенного программирования. Конференция компьютерного общества IEEE 2004 года по компьютерному зрению и распознаванию образов. Том 2.
Вайнбергер и Сол, Килиан К. и Лоуренс К. (1 мая 2006 г.). "Неконтролируемое обучение многообразий изображений с помощью полуопределенного программирования" (PDF) . International Journal of Computer Vision . 70 : 77–90 . doi :10.1007/s11263-005-4939-z. S2CID 291166.
Лоуренс, Нил Д. (2012). «Унифицированная вероятностная перспектива снижения спектральной размерности: идеи и новые модели». Журнал исследований машинного обучения . 13 (май): 1612. arXiv : 1010.4830 . Bibcode : 2010arXiv1010.4830L.