Традиционные методы глубокого обучения часто работают в предположении, что набор данных находится в высокоструктурированном пространстве (например, изображениях , где сверточные нейронные сети демонстрируют выдающуюся производительность по сравнению с альтернативными методами) или в евклидовом пространстве . Распространенность новых типов данных, в частности графов , сеток и молекул , привела к разработке новых методов, достигших кульминации в области геометрического глубокого обучения , которое изначально предложило перспективу обработки сигналов для обработки таких типов данных. [15] Хотя изначально они ограничивались графами, где связность определяется на основе узлов и ребер, последующая работа расширила концепции до большего разнообразия типов данных, включая симплициальные комплексы [16] [3] и комплексы CW , [8] [17] с недавней работой, предлагающей единую перспективу передачи сообщений на общих комбинаторных комплексах. [1]
Независимая точка зрения на различные типы данных возникла из топологического анализа данных , который предложил новую структуру для описания структурной информации данных, т. е. их «формы», которая по своей сути знает о множественных масштабах в данных, от локальной информации до глобальной информации. [18] Хотя сначала она была ограничена небольшими наборами данных, последующая работа разработала новые дескрипторы, которые эффективно суммировали топологическую информацию наборов данных, чтобы сделать их доступными для традиционных методов машинного обучения, таких как машины опорных векторов или случайные леса . Такие дескрипторы варьировались от новых методов проектирования признаков до новых способов предоставления подходящих координат для топологических дескрипторов, [19] [20] [21] или создания более эффективных мер различия . [22] [23] [24] [25]
Современные исследования в этой области в основном направлены либо на интеграцию информации о базовой топологии данных в существующие модели глубокого обучения , либо на получение новых способов обучения в топологических областях.
Изучение топологических пространств
Сосредоточившись на топологии в смысле топологии множеств точек , активное направление TDL занимается изучением топологических пространств, то есть различных топологических областей.
Введение в топологические домены
Одной из основных концепций топологического глубокого обучения является домен, на котором определяются и поддерживаются эти данные. В случае евклидовых данных, таких как изображения, этот домен представляет собой сетку, на которой поддерживается значение пикселя изображения. В более общей ситуации этот домен может быть топологическим доменом . Далее мы представляем наиболее распространенные топологические домены, которые встречаются в условиях глубокого обучения. Эти домены включают, помимо прочего, графы, симплициальные комплексы, клеточные комплексы, комбинаторные комплексы и гиперграфы.
При наличии конечного множества S абстрактных сущностей функция соседства на S является назначением, которое прикрепляет к каждой точке в S подмножество S или отношение. Такая функция может быть вызвана путем оснащения S вспомогательной структурой . Ребра предоставляют один из способов определения отношений между сущностями S. Более конкретно, ребра в графе позволяют определить понятие соседства, используя, например, понятие односкачкового соседства. Однако ребра ограничены в своих возможностях моделирования, поскольку их можно использовать только для моделирования бинарных отношений между сущностями S , поскольку каждое ребро обычно связано с двумя сущностями. Во многих приложениях желательно разрешить отношения, которые включают более двух сущностей. Идея использования отношений, которые включают более двух сущностей, является центральной для топологических доменов. Такие отношения более высокого порядка позволяют определить более широкий диапазон функций соседства на S для захвата многосторонних взаимодействий между сущностями S.
Далее мы рассмотрим основные свойства, преимущества и недостатки некоторых обычно изучаемых топологических областей в контексте глубокого обучения, включая (абстрактные) симплициальные комплексы, регулярные клеточные комплексы, гиперграфы и комбинаторные комплексы.
Сравнения между топологическими доменами
Каждая из перечисленных топологических областей имеет свои особенности, преимущества и ограничения:
Разрешить произвольные отношения между сущностями.
Отношения не навязываются другими отношениями, что обеспечивает большую гибкость.
Не кодируйте явно размерность ячеек или отношений.
Полезно, когда отношения в данных не соответствуют ограничениям, налагаемым другими моделями, такими как симплициальные и клеточные комплексы.
Комбинаторные комплексы [1] :
Обобщить и устранить пробелы между симплициальными комплексами, клеточными комплексами и гиперграфами.
Разрешить иерархические структуры и отношения типа множеств.
Объединить особенности других комплексов, обеспечивая при этом большую гибкость в моделировании отношений.
Может быть представлено комбинаторно, подобно клеточным комплексам.
Иерархическая структура и отношения типа множества
Свойства симплициальных комплексов, клеточных комплексов и гиперграфов порождают две основные особенности отношений в доменах более высокого порядка, а именно иерархии отношений и отношения типа множеств. [1]
Ранговая функция
Ранговая функция на домене более высокого порядка X — это функция сохранения порядка rk : X → Z , где rk ( x ) присваивает неотрицательное целое значение каждому отношению x в X , сохраняя включение множеств в X . Клеточные и симплициальные комплексы являются распространенными примерами доменов более высокого порядка, снабженных ранговыми функциями и, следовательно, иерархиями отношений. [1]
Отношения типа «множество»
Отношения в домене более высокого порядка называются отношениями типа множества, если существование отношения не подразумевается другим отношением в домене. Гиперграфы представляют собой примеры доменов более высокого порядка, снабженных отношениями типа множества. Учитывая ограничения моделирования симплициальных комплексов, клеточных комплексов и гиперграфов, мы разрабатываем комбинаторный комплекс, домен более высокого порядка, который включает как иерархии отношений, так и отношения типа множества. [1]
Учебные задачи в TDL можно условно разделить на три категории: [1]
Классификация ячеек : Прогнозирование целей для каждой ячейки в комплексе. Примерами являются сегментация треугольной сетки, где задача состоит в прогнозировании класса каждой грани или ребра в данной сетке.
Комплексная классификация : Прогнозирование целей для всего комплекса. Например, прогнозирование класса каждой входной сетки.
Прогнозирование ячеек : прогнозирование свойств взаимодействий между ячейками в комплексе, а в некоторых случаях прогнозирование наличия ячейки в комплексе. Примером может служить прогнозирование связей между сущностями в гиперребрах гиперграфа.
На практике для выполнения вышеупомянутых задач необходимо построить и реализовать модели глубокого обучения, разработанные для определенных топологических пространств. Эти модели, известные как топологические нейронные сети, адаптированы для эффективной работы в этих пространствах.
Топологические нейронные сети
Центральными элементами TDL являются топологические нейронные сети (TNN) , специализированные архитектуры, предназначенные для работы с данными, структурированными в топологических доменах. [2] [1] В отличие от традиционных нейронных сетей, предназначенных для структур, подобных сетке, TNN способны обрабатывать более сложные представления данных, такие как графы, симплициальные комплексы и комплексы ячеек. Используя внутреннюю топологию данных, TNN могут захватывать как локальные, так и глобальные отношения, обеспечивая детальный анализ и интерпретацию.
Топологические нейронные сети передачи сообщений
В общей топологической области передача сообщений более высокого порядка включает обмен сообщениями между сущностями и ячейками с использованием набора функций соседства.
Определение: Передача сообщений высшего порядка в общем топологическом домене.
Пусть будет топологическим доменом. Определим набор функций соседства на . Рассмотрим ячейку и пусть для некоторого . Сообщение между ячейками и является вычислением, зависящим от этих двух ячеек или данных, поддерживаемых в них. Обозначим как мультимножество , и пусть представляет некоторые данные, поддерживаемые в ячейке на уровне . Передача сообщений более высокого порядка на , [1] [8] индуцированная , определяется следующими четырьмя правилами обновления:
, где — функция агрегации внутри соседства.
, где — функция агрегации между соседями.
, где — дифференцируемые функции.
Некоторые замечания по приведенному выше определению заключаются в следующем.
Во-первых, уравнение 1 описывает, как вычисляются сообщения между ячейками и . На сообщение влияют как данные , так и , связанные с ячейками и , соответственно. Кроме того, оно включает характеристики, характерные для самих ячеек, такие как ориентация в случае комплексов ячеек. Это позволяет получить более полное представление пространственных отношений по сравнению с традиционными фреймворками передачи сообщений на основе графов.
Во-вторых, уравнение 2 определяет, как сообщения из соседних ячеек агрегируются в каждом соседстве. Функция агрегирует эти сообщения, позволяя эффективно обмениваться информацией между соседними ячейками в пределах одного соседства.
В-третьих, уравнение 3 описывает процесс объединения сообщений из разных соседств. Функция объединяет сообщения из разных соседств, облегчая коммуникацию между ячейками, которые могут быть не связаны напрямую, но имеют общие соседские отношения.
В-четвертых, уравнение 4 определяет, как агрегированные сообщения влияют на состояние ячейки в следующем слое. Здесь функция обновляет состояние ячейки на основе ее текущего состояния и агрегированного сообщения, полученного от соседних ячеек.
Топологические нейронные сети без передачи сообщений
В то время как большинство TNN следуют парадигме передачи сообщений из обучения графов , было предложено несколько моделей, которые не следуют этому подходу. Например, Мэггс и др. [26] используют геометрическую информацию из встроенных симплициальных комплексов, т. е. симплициальных комплексов с высокоразмерными признаками, прикрепленными к их вершинам. Это обеспечивает интерпретируемость и геометрическую согласованность без опоры на передачу сообщений. Кроме того, в [27] был предложен метод на основе контрастных потерь для изучения симплициального представления.
Изучение топологических дескрипторов
Мотивированная модульной природой глубоких нейронных сетей , первоначальная работа в TDL черпала вдохновение из топологического анализа данных и была направлена на то, чтобы сделать полученные дескрипторы поддающимися интеграции в модели глубокого обучения . Это привело к работе по определению новых слоев для глубоких нейронных сетей. Новаторская работа Хофера и др. [28] , например, представила слой, который позволял интегрировать топологические дескрипторы, такие как диаграммы устойчивости или штрихкоды устойчивости , в глубокую нейронную сеть. Это было достигнуто с помощью сквозных обучаемых проекционных функций, что позволило использовать топологические признаки для решения задач классификации форм, например. Последующая работа еще больше расширила теоретические свойства таких дескрипторов и интегрировала их в область обучения представлениям . [29] Другие такие топологические слои включают слои, основанные на расширенных дескрипторах устойчивой гомологии, [30] ландшафтах устойчивости [31] или функциях координат. [32] Параллельно устойчивая гомология также нашла применение в задачах обучения графам. Примечательными примерами являются новые алгоритмы для обучения специфическим для задач функциям фильтрации для задач классификации графов или классификации узлов. [33] [34] [35]
Приложения
TDL быстро находит новые приложения в различных областях, включая сжатие данных, [36] повышение выразительности и предсказательной способности графовых нейронных сетей , [16] [17] [33] распознавание действий, [37] и прогнозирование траектории. [38]
Ссылки
^ abcdefghijkl Хаджидж, М.; Замзми, Г.; Папамарку, Т.; Миолане, Н.; Гусман-Саенс, А.; Рамамурти, КНЦ; Шауб, М.Т. (2022), Топологическое глубокое обучение: выход за рамки графических данных , arXiv : 2206.00606
^ ab Papillon, M.; Sanborn, S.; Hajij, M.; Miolane, N. (2023). «Архитектуры топологического глубокого обучения: обзор топологических нейронных сетей». arXiv : 2304.10031 [cs.LG].
^ ab Эбли, С.; Дефферрард, М.; Шпрееманн, Г. (2020), Симплициальные нейронные сети , arXiv : 2010.03633
^ Баттилоро, К.; Теста, Л.; Джусти, Л.; Сарделлитти, С.; Ди Лоренцо, П.; Барбаросса, С. (2023), Обобщенные симплициальные нейронные сети внимания , arXiv : 2309.02138
^ Янг, М.; Исуфи, Э. (2023), Сверточное обучение на симплициальных комплексах , arXiv : 2301.11163
^ Чен, Y.; Гель, YR; Пур, HV (2022), «BScNets: блочные симплициальные комплексные нейронные сети», Труды конференции AAAI по искусственному интеллекту , 36 (6): 6333– 6341, arXiv : 2112.06826 , doi : 10.1609/aaai.v36i6.20583
^ Урай, Мартин; Джунти, Барбара; Кербер, Майкл; Хубер, Стефан (2024-10-01). «Топологический анализ данных в интеллектуальном производстве: современное состояние и будущие направления». Журнал производственных систем . 76 : 75–91 . arXiv : 2310.09319 . doi :10.1016/j.jmsy.2024.07.006. ISSN 0278-6125.
^ abc Хаджидж, М.; Иштван, К.; Замзми, Г. (2020), Клеточные сложные нейронные сети , arXiv : 2010.00743
^ Бьянкини, Моника; Скарселли, Франко (2014). «О сложности классификаторов нейронных сетей: сравнение неглубоких и глубоких архитектур». Труды IEEE по нейронным сетям и системам обучения . 25 (8): 1553– 1565. doi :10.1109/TNNLS.2013.2293637. ISSN 2162-237X. PMID 25050951.
^ Найцат, Грегори; Житников, Андрей; Лим, Лек-Хенг (2020). «Топология глубоких нейронных сетей» (PDF) . Журнал исследований машинного обучения . 21 (1): 184:7503–184:7542. ISSN 1532-4435.
^ Бирдал, Толга; Лу, Аарон; Гибас, Леонидас Дж; Симсекли, Умут (2021). «Внутреннее измерение, постоянная гомология и обобщение в нейронных сетях». Достижения в области нейронных систем обработки информации . 34. Curran Associates, Inc.: 6776– 6789. arXiv : 2111.13171 .
^ Баллестер, Рубен; Клементе, Ксавье Арнал; Касакуберта, Карлес; Мадади, Мейсам; Корняну, Чиприан А.; Эскалера, Серджио (2024). «Прогнозирование разрыва в обобщении в нейронных сетях с использованием топологического анализа данных». Нейрокомпьютинг . 596 : 127787. arXiv : 2203.12330 . doi : 10.1016/j.neucom.2024.127787.
^ Рик, Бастиан; Тониналли, Маттео; Бок, Кристиан; Мур, Майкл; Хорн, Макс; Гумбш, Томас; Боргвардт, Карстен (2018-09-27). "Нейронная устойчивость: мера сложности для глубоких нейронных сетей с использованием алгебраической топологии". Международная конференция по представлениям обучения . 8 : 6215–6239 . arXiv : 1812.09764 . doi : 10.3929/ethz-b-000327207. ISBN978-1-7138-7273-3.
^ Дюпюи, Бенджамин; Делигианнидис, Джордж; Симсекли, Умут (2023-07-03). «Границы обобщения с использованием фрактальных размерностей, зависящих от данных». Труды 40-й Международной конференции по машинному обучению . PMLR: 8922– 8968.
^ Бронштейн, Майкл М.; Бруна, Джоан; ЛеКун, Янн; Шлам, Артур; Вандергейнст, Пьер (2017). «Геометрическое глубокое обучение: выход за рамки евклидовых данных». Журнал обработки сигналов IEEE . 34 (4): 18–42 . arXiv : 1611.08097 . Бибкод : 2017ISPM...34...18B. дои : 10.1109/MSP.2017.2693418. ISSN 1053-5888.
^ ab Bodnar, Cristian; Frasca, Fabrizio; Wang, Yuguang; Otter, Nina; Montufar, Guido F.; Lió, Pietro; Bronstein, Michael (2021-07-01). "Weisfeiler and Lehman Go Topological: Message Passing Simplicial Networks". Труды 38-й Международной конференции по машинному обучению . PMLR: 1026–1037 . arXiv : 2103.03212 .
^ ab Bodnar, Cristian; Frasca, Fabrizio; Otter, Nina; Wang, Yuguang; Liò, Pietro; Montufar, Guido F; Bronstein, Michael (2021). «Weisfeiler and Lehman Go Cellular: CW Networks». Достижения в области нейронных систем обработки информации . 34. Curran Associates, Inc.: 2625– 2640. arXiv : 2106.12575 .
^ Карлссон, Гуннар (29.01.2009). «Топология и данные». Бюллетень Американского математического общества . 46 (2): 255– 308. doi : 10.1090/S0273-0979-09-01249-X . ISSN 0273-0979.
^ Эдкок, Аарон; Карлссон, Эрик; Карлссон, Гуннар (2016). «Кольцо алгебраических функций на штрих-кодах с сохранением». Гомология, гомотопия и приложения . 18 (1): 381– 402. arXiv : 1304.0530 . doi : 10.4310/HHA.2016.v18.n1.a21.
^ Адамс, Генри; Эмерсон, Теган; Кирби, Майкл; Невилл, Рэйчел; Петерсон, Крис; Шипман, Патрик; Чепуштанова, Софья; Хансон, Эрик; Мотта, Фрэнсис; Цигельмейер, Лори (2017). «Изображения персистентности: стабильное векторное представление персистентной гомологии». Журнал исследований машинного обучения . 18 (8): 1– 35. ISSN 1533-7928.
^ Бубеник, Питер (2015). «Статистический топологический анализ данных с использованием ландшафтов персистентности». Журнал исследований машинного обучения . 16 (3): 77– 102. ISSN 1533-7928.
^ Квитт, Роланд; Хубер, Стефан; Нитхаммер, Марк; Лин, Вейли; Бауэр, Ульрих (2015). «Статистический топологический анализ данных — перспектива ядра». Достижения в области нейронных систем обработки информации . 28. Curran Associates, Inc.
^ Каррьер, Матье; Кутури, Марко; Удо, Стив (17 июля 2017 г.). «Срезанное ядро Вассерштейна для диаграмм персистентности». Труды 34-й Международной конференции по машинному обучению . PMLR: 664–673 . arXiv : 1706.03358 .
^ Кусано, Генки; Фукумидзу, Кендзи; Хираока, Ясуаки (2018). «Метод ядра для диаграмм постоянства посредством встраивания ядра и весового коэффициента». Журнал исследований машинного обучения . 18 (189): 1–41 . arXiv : 1706.03472 . ISSN 1533-7928.
^ Le, Tam; Yamada, Makoto (2018). "Persistence Fisher Kernel: A Riemannian Manifold Kernel for Persistence Diagrams". Достижения в области нейронных систем обработки информации . 31. Curran Associates, Inc. arXiv : 1802.03569 .
^ Мэггс, Келли; Хакер, Селия; Рик, Бастиан (2023-10-13). "Обучение симплициальным представлениям с помощью нейронных k-форм". Международная конференция по обучению представлениям . arXiv : 2312.08515 .
^ Рамамурти, КН; Гусман-Саенс, А.; Хаджидж, М. (2023), Topo-mlp: симплициальная сеть без передачи сообщений , стр. 1–5 .
^ Хофер, Кристоф; Квитт, Роланд; Нитхаммер, Марк; Уль, Андреас (2017). «Глубокое обучение с топологическими сигнатурами». Достижения в области нейронных систем обработки информации . 30. Curran Associates, Inc. arXiv : 1707.04041 .
^ Хофер, Кристоф Д.; Квитт, Роланд; Нитхаммер, Марк (2019). «Изучение представлений штрихкодов стойкости». Журнал исследований машинного обучения . 20 (126): 1– 45. ISSN 1533-7928.
^ Каррьер, Матье; Шазаль, Фредерик; Айк, Юичи; Лакомб, Тео; Ройер, Мартин; Умеда, Юхэй (2020-06-03). «PersLay: слой нейронной сети для диаграмм персистентности и новых топологических сигнатур графов». Труды Двадцать третьей международной конференции по искусственному интеллекту и статистике . PMLR: 2786– 2796. arXiv : 1904.09378 .
^ Ким, Кванхо; Ким, Джису; Захир, Манзил; Ким, Джун; Чазал, Фредерик; Вассерман, Ларри (2020). «PLLay: эффективный топологический слой на основе постоянных ландшафтов». Достижения в области нейронных систем обработки информации . 33. Curran Associates, Inc.: 15965– 15977. arXiv : 2002.02778 .
^ Габриэльссон, Рикард Брюль; Нельсон, Брэдли Дж.; Дваракнат, Анджан; Скраба, Примоз (2020-06-03). «Топологический слой для машинного обучения». Труды Двадцать третьей международной конференции по искусственному интеллекту и статистике . PMLR: 1553–1563 .
^ ab Хорн, Макс; Брауэр, Эдвард Де; Мур, Майкл; Моро, Ив; Рик, Бастиан; Боргвардт, Карстен (2021-10-06). "Топологические графовые нейронные сети". Международная конференция по представлениям обучения .
^ Хофер, Кристоф; Граф, Флориан; Рик, Бастиан; Нитхаммер, Марк; Квитт, Роланд (2020-11-21). «Обучение с помощью фильтрации графов». Труды 37-й Международной конференции по машинному обучению . PMLR: 4314– 4323. arXiv : 1905.10996 .
^ Иммонен, Йоханна; Соуза, Амаури; Гарг, Викас (2023-12-15). «Выход за рамки устойчивой гомологии с использованием устойчивой гомологии». Достижения в области нейронных систем обработки информации . 36 : 63150– 63173. arXiv : 2311.06152 .
^ Баттилоро, К.; Ди Лоренцо, П.; Рибейро, А. (сентябрь 2023 г.), Параметрическое обучение словарю для топологического представления сигнала , IEEE, стр. 1958–1962
^ Ван, Ч.; Ма, Н.; У , З.; Чжан, Дж.; Яо, И. (август 2022 г.), Обзор гиперграфовых нейронных сетей и их применение для распознавания действий , Springer Nature Switzerland, стр. 387–398
^ Родденберри, ТМ; Глейз, Н.; Сегарра, С. (июль 2021 г.), Принципиальные симплициальные нейронные сети для прогнозирования траектории , PMLR, стр. 9020–9029 , arXiv : 2102.10058