В сетевой науке сетевая энтропия — это мера беспорядка, полученная из теории информации для описания уровня случайности и количества информации, закодированной в графе. [1] Это релевантная метрика для количественной характеристики реальных сложных сетей , а также может использоваться для количественной оценки сложности сети [1] [2]
Формулировки
Согласно публикации Зенила и др. 2018 года , существует несколько формул, с помощью которых можно вычислить энтропию сети, и, как правило, все они требуют, чтобы для фокусировки использовалось определенное свойство графа, например, матрица смежности, последовательность степеней, распределение степеней или число бифуркаций, что может привести к значениям энтропии, которые не являются инвариантными относительно выбранного описания сети. [3]
Распределение степеней энтропии Шеннона
Энтропию Шеннона можно измерить для распределения вероятностей степеней сети как среднюю меру неоднородности сети.
Эта формулировка имеет ограниченное применение в отношении сложности, информационного содержания, причинности и временной информации. Как бы то ни было, алгоритмическая сложность имеет возможность характеризовать любое общее или универсальное свойство графа или сети, и доказано, что графы с низкой энтропией имеют низкую алгоритмическую сложность, поскольку статистические закономерности, обнаруженные в графе, полезны для компьютерных программ, чтобы воссоздать его. Однако то же самое нельзя сказать о сетях с высокой энтропией, поскольку они могут иметь какое-либо значение для алгоритмической сложности. [3]
Энтропия случайного блуждания Шеннона
Из-за ограничений предыдущей формулировки можно использовать другой подход, сохраняя при этом использование исходного уравнения энтропии Шеннона.
Рассмотрим случайного блуждающего, который путешествует по графу, переходя от узла к любому соседнему узлу с равной вероятностью. Распределение вероятностей , описывающее поведение этого случайного блуждающего, будет, таким образом,
,
где — матрица смежности графа, — степень узла .
Исходя из этого, энтропию Шеннона для каждого узла можно определить как
и, поскольку , нормализованная энтропия узла вычисляется
Это приводит к нормализованной энтропии сети , вычисляемой путем усреднения нормализованной энтропии узлов по всей сети: [4]
Нормализованная энтропия сети максимальна, когда сеть полностью связана, и уменьшается по мере того, как сеть становится более разреженной . Обратите внимание, что изолированные узлы не имеют определенной вероятности и, следовательно, не учитываются при измерении энтропии сети. Эта формулировка энтропии сети имеет низкую чувствительность к концентраторам из-за логарифмического фактора и более значима для взвешенных сетей., [4] что в конечном итоге затрудняет дифференциацию безмасштабных сетей с использованием только этой меры. [2]
Случайный блуждающий энтропия Колмогорова – Синая
Ограничения случайной энтропии Шеннона можно преодолеть, адаптировав ее для использования энтропии Колмогорова–Синая . В этом контексте сетевая энтропия — это энтропия стохастической матрицы, связанной с матрицей смежности графа , а случайная энтропия Шеннона называется динамической энтропией сети. Исходя из этого, пусть будет доминирующим собственным значением . Доказано, что удовлетворяет вариационному принципу [5] , который эквивалентен динамической энтропии для невзвешенных сетей, т. е. матрица смежности состоит исключительно из булевых значений. Следовательно, топологическая энтропия определяется как
Эта формулировка важна для изучения устойчивости сети , т. е. способности сети выдерживать случайные структурные изменения. На самом деле устойчивость трудно измерить численно, тогда как энтропию можно легко вычислить для любой сети, что особенно важно в контексте нестационарных сетей. Теорема об энтропийной флуктуации показывает, что эта энтропия положительно коррелирует с устойчивостью и, следовательно, с большей нечувствительностью наблюдаемого к динамическим или структурным возмущениям сети. Более того, собственные значения по своей сути связаны с множественностью внутренних путей, что приводит к отрицательной корреляции между топологической энтропией и кратчайшей средней длиной пути. [6]
Помимо этого, энтропия Колмогорова связана с кривизной Риччи сети [7], метрикой, которая использовалась для дифференциации стадий рака от сетей коэкспрессии генов [8] , а также для определения признаков финансовых крахов на основе сетей корреляции акций [9].
Энтропия фон Неймана
Энтропия фон Неймана является расширением классической энтропии Гиббса в квантовом контексте. Эта энтропия строится из матрицы плотности : исторически первым предложенным кандидатом на такую матрицу плотности было выражение матрицы Лапласа L, связанной с сетью. Средняя энтропия фон Неймана ансамбля вычисляется как: [10]
Для случайного сетевого ансамбля связь между и является немонотонной, когда средняя связность изменяется.
Для канонических степенных сетевых ансамблей две энтропии линейно связаны. [11]
Сети с заданными ожидаемыми последовательностями степеней предполагают, что неоднородность в ожидаемом распределении степеней подразумевает эквивалентность между квантовым и классическим описанием сетей, что соответственно соответствует энтропии фон Неймана и Шеннона. [12]
Это определение энтропии фон Неймана может быть также распространено на многослойные сети с тензорным подходом [13] и успешно использовалось для уменьшения их размерности со структурной точки зрения. [14]
Однако было показано, что это определение энтропии не удовлетворяет свойству субаддитивности (см. субаддитивность энтропии фон Неймана ), которое теоретически должно выполняться. Более обоснованное определение, удовлетворяющее этому фундаментальному свойству, было введено Манлио Де Доменико и Биамонте [15] как квантовоподобное состояние Гиббса
где — нормирующий фактор, который играет роль функции распределения, и — настраиваемый параметр, который позволяет проводить многоуровневый анализ. Если интерпретируется как временной параметр, эта матрица плотности формально пропорциональна пропагатору диффузионного процесса на вершине сети.
Эта функция была использована для построения статистической полевой теории сложной информационной динамики, где матрица плотности может быть интерпретирована в терминах суперпозиции операторов потоков, действие которых заключается в активации информационных потоков между узлами. [16] Структура была успешно применена для анализа сетей взаимодействия белок-белок интерактомов вирус-человек, включая SARS-CoV-2 , для раскрытия системных особенностей заражения последнего в микроскопических, мезоскопических и макроскопических масштабах, [17] а также для оценки важности узлов для интеграции информационных потоков в сети и роли, которую они играют в надежности сети. [18]
Этот подход был обобщен для работы с другими типами динамики, такими как случайные блуждания, на вершине многослойных сетей, обеспечивая эффективный способ уменьшения размерности таких систем без изменения их структуры. [19] Используя как классические, так и максимально-энтропийные случайные блуждания, соответствующие матрицы плотности были использованы для кодирования сетевых состояний человеческого мозга и для оценки, в нескольких масштабах, информационной емкости коннектома на разных стадиях деменции. [20]
Принцип максимальной энтропии
Принцип максимальной энтропии — это вариационный принцип, утверждающий, что распределение вероятностей, наилучшим образом представляющее текущее состояние системы, — это распределение, которое максимизирует энтропию Шеннона. [21]
Эта концепция может быть использована для генерации ансамбля случайных графов с заданными структурными свойствами, полученными из подхода максимальной энтропии, который, в свою очередь, описывает наиболее вероятную конфигурацию сети: принцип максимальной энтропии допускает максимально непредвзятую информацию при отсутствии полных знаний (микроскопическая конфигурация недоступна, например: мы не знаем матрицу смежности). С другой стороны, этот ансамбль служит нулевой моделью, когда известна фактическая микроскопическая конфигурация сети, что позволяет оценить значимость эмпирических закономерностей, обнаруженных в сети [22]
Сетевые ансамбли
Можно расширить формулировки сетевой энтропии, чтобы вместо этого измерять энтропию ансамбля. Набор сетей, который удовлетворяет заданным структурным характеристикам, можно рассматривать как сетевой ансамбль. [23] Выдвинутая Джинестрой Бьянкони в 2007 году, энтропия сетевого ансамбля измеряет уровень порядка или неопределенности сетевого ансамбля. [24]
Энтропия — это логарифм числа графов. [25] Энтропия также может быть определена в одной сети. Энтропия бассейна — это логарифм аттракторов в одной булевой сети . [26]
Используя подходы статистической механики , сложность, неопределенность и случайность сетей можно описать с помощью сетевых ансамблей с различными типами ограничений. [27]
где — ограничение, а ( ) — элементы матрицы смежности , тогда и только тогда, когда между узлом i и узлом j существует связь. — ступенчатая функция с , если , и если . Вспомогательные поля и были введены как аналог ванны в классической механике.
Для простых ненаправленных сетей функцию разделения можно упростить следующим образом [11]
где , — индекс веса, а для простой сети .
Микроканонические ансамбли и канонические ансамбли демонстрируются на простых неориентированных сетях.
Для микроканонического ансамбля энтропия Гиббса определяется как:
где указывает мощность ансамбля, т. е. общее число сетей в ансамбле.
Вероятность наличия связи между узлами i и j с весом определяется по формуле:
Для канонического ансамбля энтропия представляется в виде энтропии Шеннона :
Связь между энтропией Гиббса и Шеннона
Сетевой ансамбль с заданным числом узлов и связей и его сопряженно-канонический ансамбль характеризуются как микроканонический и канонический ансамбли и имеют энтропию Гиббса и энтропию Шеннона S соответственно. Энтропия Гиббса в ансамбле определяется как: [28]
Для ансамбля,
Вставка в энтропию Шеннона: [11]
Соотношение показывает, что энтропия Гиббса и энтропия Шеннона на узел S/N случайных графов равны в термодинамическом пределе .
^ ab Ананд, Картик; Крюков, Дмитрий; Бьянкони, Джинестра (2014). «Распределение энтропии и конденсация в случайных сетях с заданным распределением степеней». Physical Review E. 89 ( 6): 062807. arXiv : 1403.5884 . Bibcode : 2014PhRvE..89f2807A. doi : 10.1103/PhysRevE.89.062807. PMID 25019833. S2CID 761765.
^ ab Фрейтас, Кристофер GS; Акино, Андре LL; Рамос, Эйтор S; Фрери, Алехандро C; Россо, Освальдо A (2019). «Подробная характеристика сложных сетей с использованием теории информации». Scientific Reports . 9 (1): 16689. Bibcode :2019NatSR...916689F. doi :10.1038/s41598-019-53167-5. PMC 6853913 . PMID 31723172. S2CID 207987035.
^ ab Zenil, Hector; Kiani, Narsis A; Tegnér, Jesper (2018). «Обзор сложности графов и сетей с точки зрения алгоритмической информации». Entropy . 20 (8): 551. Bibcode :2018Entrp..20..551Z. doi : 10.3390/e20080551 . PMC 7513075 . PMID 33265640.
^ ab Small, Michael (2013). "Сложные сети из временных рядов: захват динамики". 2013 IEEE Международный симпозиум по схемам и системам (ISCAS2013) . стр. 2509–2512 . doi :10.1109/ISCAS.2013.6572389. ISBN978-1-4673-5762-3. S2CID 9275909.
^ Арнольд, Людвиг; Гундлах, Фолькер Маттиас; Деметриус, Ллойд (1994). «Эволюционный формализм для произведений положительных случайных матриц». Анналы прикладной вероятности . 4 (3): 859–901 . doi : 10.1214/aoap/1177004975 . JSTOR 2245067.
^ Деметриус, Ллойд; Манке, Томас (2005). «Надежность и эволюция сетей — принцип энтропии». Physica A: Статистическая механика и ее приложения . 346 (3): 682– 696. Bibcode : 2005PhyA..346..682D. doi : 10.1016/j.physa.2004.07.011.
^ Лотт, Дж.; Виллани, К. (2009). «Кривизна Риччи для пространств с метрической мерой через оптимальный транспорт». Annals of Mathematics . 169 (3): 903–991 . arXiv : math/0412127 . doi :10.4007/annals.2009.169.903. S2CID 15556613.
^ Sandhu, R.; Georgiou, T.; Reznik, E.; Zhu, L.; Kolesov, I.; Senbabaoglu, Y.; Tannenbaum, A. (2015). "Graph Curvature for Differentiating cancer Networks". Scientific Reports . 5 : 12323. Bibcode :2015NatSR...512323S. doi :10.1038/srep12323. PMC 4500997 . PMID 26169480.
^ Sandhu, Romeil S; Georgiou, Tryphon T; Tannenbaum, Allen R (2016). «Кривизна Риччи: экономический индикатор рыночной хрупкости и системного риска». Science Advances . 2 (5): e1501495. Bibcode : 2016SciA....2E1495S. doi : 10.1126/sciadv.1501495. PMC 4928924. PMID 27386522 .
^ Ду, Вэньсюэ; Ли, Сюэлян; Ли, Иян; Северини, Симоне (30 декабря 2010 г.). «Заметка об энтропии фон Неймана случайных графов». Линейная алгебра и ее приложения . 433 (11): 1722– 1725. doi : 10.1016/j.laa.2010.06.040 . ISSN 0024-3795.
^ abc Ананд, Картик; Бьянкони, Джинестра (13 октября 2009 г.). "Меры энтропии для сетей: к информационной теории сложных топологий". Physical Review E . 80 (4): 045102. arXiv : 0907.1514 . Bibcode :2009PhRvE..80d5102A. doi :10.1103/PhysRevE.80.045102. PMID 19905379. S2CID 27419558.
^ Ананд, Картик; Бьянкони, Джинестра; Северини, Симоне (18 марта 2011 г.). «Энтропия Шеннона и фон Неймана случайных сетей с гетерогенной ожидаемой степенью». Physical Review E. 83 ( 3): 036109. arXiv : 1011.1565 . Bibcode : 2011PhRvE..83c6109A. doi : 10.1103/PhysRevE.83.036109. PMID 21517560. S2CID 1482301.
^ Де Доменико, Манлио; Соле-Рибальта, Альберт; Коццо, Эмануэле; Кивеля, Микко; Морено, Ямир; Портер, Мейсон А.; Гомес, Серхио; Аренас, Алекс (4 декабря 2013 г.). «Математическая формулировка многослойных сетей». Физический обзор X . 3 (4): 041022. arXiv : 1307.4977 . Бибкод : 2013PhRvX...3d1022D. doi : 10.1103/PhysRevX.3.041022. S2CID 16611157.
^ Де Доменико, Манлио; Никосия, Винченцо; Аренас, Алекс; Латора, Вито (23 апреля 2015 г.). «Структурная редуцируемость многослойных сетей» (PDF) . Nature Communications . 6 : 6864. Bibcode : 2015NatCo...6.6864D. doi : 10.1038/ncomms7864. PMID 25904309. S2CID 16776349.
^ Де Доменико, Манлио; Биамонте, Якоб (21 декабря 2016 г.). «Спектральные энтропии как информационно-теоретические инструменты для сравнения сложных сетей». Physical Review X. 6 ( 4): 041062. arXiv : 1609.01214 . Bibcode : 2016PhRvX...6d1062D. doi : 10.1103/PhysRevX.6.041062. S2CID 51786781.
^ Гаваси, Аршам; Николини, Карло; Де Доменико, Манлио (10 ноября 2020 г.). «Статистическая физика сложной информационной динамики». Physical Review E. 102 ( 5): 052304. arXiv : 2010.04014 . Bibcode : 2020PhRvE.102e2304G. doi : 10.1103/PhysRevE.102.052304. PMID 33327131. S2CID 222208856.
^ Ghavasieh, Arsham; Bontorin, Sebastiano; Artime, Oriol; Verstraete, Nina; De Domenico, Manlio (23 апреля 2021 г.). «Многомасштабная статистическая физика панвирусного интерактома раскрывает системную природу инфекций SARS-CoV-2». Communications Physics . 4 (1): 83. arXiv : 2008.09649 . Bibcode :2021CmPhy...4...83G. doi : 10.1038/s42005-021-00582-8 .
^ Гаваси, Аршам; Стелла, Массимо; Биамонте, Якоб; Де Доменико, Манлио (10 июня 2021 г.). «Раскрытие эффектов многомасштабной сетевой запутанности в эмпирических системах». Communications Physics . 4 (1): 129. arXiv : 2008.05368 . Bibcode : 2021CmPhy...4..129G. doi : 10.1038/s42005-021-00633-0. S2CID 221104066.
^ Ghavasieh, Arsham; De Domenico, Manlio (13 февраля 2020 г.). «Улучшение транспортных свойств во взаимосвязанных системах без изменения их структуры». Physical Review Research . 2 (1): 13– 15. arXiv : 2001.04450 . Bibcode : 2020PhRvR...2a3155G. doi : 10.1103/PhysRevResearch.2.013155. S2CID 210165034.
^ Бениньи, Барбара; Гаваси, Аршам; Корсо, Алессандра; Д'Андреа, Валерия; Де Доменико, Манлио (22 июня 2021 г.). «Постоянство информационного потока: многомасштабная характеристика человеческого мозга». Network Neuroscience . 5 (3): 831– 850. doi : 10.1162/netn_a_00203 . PMC 8567833 . PMID 34746629.
^ Jaynes, ET (1957). «Теория информации и статистическая механика» (PDF) . Physical Review . Серия II. 106 (4): 620– 630. Bibcode : 1957PhRv..106..620J. doi : 10.1103/PhysRev.106.620. MR 0087305. S2CID 17870175.
^ Левин, Э.; Тишби, Н.; Солла, СА (октябрь 1990 г.). «Статистический подход к обучению и обобщению в многоуровневых нейронных сетях». Труды IEEE . 78 (10): 1568– 1574. doi :10.1109/5.58339. ISSN 1558-2256. S2CID 5254307.