Сетевая энтропия

В сетевой науке сетевая энтропия — это мера беспорядка, полученная из теории информации для описания уровня случайности и количества информации, закодированной в графе. [1] Это релевантная метрика для количественной характеристики реальных сложных сетей , а также может использоваться для количественной оценки сложности сети [1] [2]

Формулировки

Согласно публикации Зенила и др. 2018 года , существует несколько формул, с помощью которых можно вычислить энтропию сети, и, как правило, все они требуют, чтобы для фокусировки использовалось определенное свойство графа, например, матрица смежности, последовательность степеней, распределение степеней или число бифуркаций, что может привести к значениям энтропии, которые не являются инвариантными относительно выбранного описания сети. [3]

Распределение степеней энтропии Шеннона

Энтропию Шеннона можно измерить для распределения вероятностей степеней сети как среднюю меру неоднородности сети.

ЧАС = к = 1 Н 1 П ( к ) вн П ( к ) {\displaystyle {\mathcal {H}}=-\sum _{k=1}^{N-1}P(k)\ln {P(k)}}

Эта формулировка имеет ограниченное применение в отношении сложности, информационного содержания, причинности и временной информации. Как бы то ни было, алгоритмическая сложность имеет возможность характеризовать любое общее или универсальное свойство графа или сети, и доказано, что графы с низкой энтропией имеют низкую алгоритмическую сложность, поскольку статистические закономерности, обнаруженные в графе, полезны для компьютерных программ, чтобы воссоздать его. Однако то же самое нельзя сказать о сетях с высокой энтропией, поскольку они могут иметь какое-либо значение для алгоритмической сложности. [3]

Энтропия случайного блуждания Шеннона

Из-за ограничений предыдущей формулировки можно использовать другой подход, сохраняя при этом использование исходного уравнения энтропии Шеннона.

Рассмотрим случайного блуждающего, который путешествует по графу, переходя от узла к любому соседнему узлу с равной вероятностью. Распределение вероятностей , описывающее поведение этого случайного блуждающего, будет, таким образом, я {\displaystyle я} дж {\displaystyle j} я {\displaystyle я} п я дж {\displaystyle p_{ij}}

п я дж = { 1 к я , если  А я дж = 1 0 , если  А я дж = 0 {\displaystyle p_{ij}={\begin{cases}{\frac {1}{k_{i}}},&{\text{if }}A_{ij}=1\\0,&{\text{if }}A_{ij}=0\\\end{cases}}} ,

где — матрица смежности графа, — степень узла . ( А я дж ) {\displaystyle (A_{ij})} к я {\displaystyle k_{i}} я {\displaystyle я}

Исходя из этого, энтропию Шеннона для каждого узла можно определить как С я {\displaystyle {\mathcal {S}}_{i}}

С я = дж = 1 Н 1 п я дж вн п я дж = вн к я {\displaystyle {\mathcal {S}}_{i}=-\sum _{j=1}^{N-1}p_{ij}\ln {p_{ij}}=\ln {k_{i} }}

и, поскольку , нормализованная энтропия узла вычисляется м а х ( к я ) = Н 1 {\displaystyle макс(k_{i})=N-1} ЧАС я {\displaystyle {\mathcal {H}}_{i}}

ЧАС я = С я м а х ( С я ) = вн к я вн ( м а х ( к я ) ) = вн к я вн ( Н 1 ) {\displaystyle {\mathcal {H}}_{i}={\frac {{\mathcal {S}}_{i}}{max({\mathcal {S}}_{i})}}={\frac {\ln {k_{i}}}{\ln(max(k_{i}))}}={\frac {\ln {k_{i}}}{\ln(N-1)}}}

Это приводит к нормализованной энтропии сети , вычисляемой путем усреднения нормализованной энтропии узлов по всей сети: [4] ЧАС {\displaystyle {\mathcal {H}}}

ЧАС = 1 Н я = 1 Н ЧАС я = 1 Н вн ( Н 1 ) я = 1 Н вн к я {\displaystyle {\mathcal {H}}={\frac {1}{N}}\sum _{i=1}^{N}{\mathcal {H}}_{i}={\frac {1}{N\ln(N-1)}}\sum _{i=1}^{N}\ln {k_{i}}}

Нормализованная энтропия сети максимальна, когда сеть полностью связана, и уменьшается по мере того, как сеть становится более разреженной . Обратите внимание, что изолированные узлы не имеют определенной вероятности и, следовательно, не учитываются при измерении энтропии сети. Эта формулировка энтропии сети имеет низкую чувствительность к концентраторам из-за логарифмического фактора и более значима для взвешенных сетей., [4] что в конечном итоге затрудняет дифференциацию безмасштабных сетей с использованием только этой меры. [2] H = 1 {\displaystyle {\mathcal {H}}=1} H = 0 {\displaystyle {\mathcal {H}}=0} k i = 0 {\displaystyle k_{i}=0} p i j {\displaystyle p_{ij}}

Случайный блуждающий энтропия Колмогорова – Синая

Ограничения случайной энтропии Шеннона можно преодолеть, адаптировав ее для использования энтропии Колмогорова–Синая . В этом контексте сетевая энтропия — это энтропия стохастической матрицы, связанной с матрицей смежности графа , а случайная энтропия Шеннона называется динамической энтропией сети. Исходя из этого, пусть будет доминирующим собственным значением . Доказано, что удовлетворяет вариационному принципу [5] , который эквивалентен динамической энтропии для невзвешенных сетей, т. е. матрица смежности состоит исключительно из булевых значений. Следовательно, топологическая энтропия определяется как ( A i j ) {\displaystyle (A_{ij})} λ {\displaystyle \lambda } ( A i j ) {\displaystyle (A_{ij})} ln λ {\displaystyle \ln \lambda }

H = ln λ {\displaystyle {\mathcal {H}}=\ln \lambda }

Эта формулировка важна для изучения устойчивости сети , т. е. способности сети выдерживать случайные структурные изменения. На самом деле устойчивость трудно измерить численно, тогда как энтропию можно легко вычислить для любой сети, что особенно важно в контексте нестационарных сетей. Теорема об энтропийной флуктуации показывает, что эта энтропия положительно коррелирует с устойчивостью и, следовательно, с большей нечувствительностью наблюдаемого к динамическим или структурным возмущениям сети. Более того, собственные значения по своей сути связаны с множественностью внутренних путей, что приводит к отрицательной корреляции между топологической энтропией и кратчайшей средней длиной пути. [6]

Помимо этого, энтропия Колмогорова связана с кривизной Риччи сети [7], метрикой, которая использовалась для дифференциации стадий рака от сетей коэкспрессии генов [8] , а также для определения признаков финансовых крахов на основе сетей корреляции акций [9].

Энтропия фон Неймана

Энтропия фон Неймана является расширением классической энтропии Гиббса в квантовом контексте. Эта энтропия строится из матрицы плотности : исторически первым предложенным кандидатом на такую ​​матрицу плотности было выражение матрицы Лапласа L, связанной с сетью. Средняя энтропия фон Неймана ансамбля вычисляется как: [10] ρ {\displaystyle \rho }

S V N = T r ρ log ( ρ ) {\displaystyle {S}_{VN}=-\langle \mathrm {Tr} \rho \log(\rho )\rangle }

Для случайного сетевого ансамбля связь между и является немонотонной, когда средняя связность изменяется. G ( N , p ) {\displaystyle G(N,p)} S V N {\displaystyle S_{VN}} S {\displaystyle S} p ( N 1 ) {\displaystyle p(N-1)}

Для канонических степенных сетевых ансамблей две энтропии линейно связаны. [11]

S V N = η S / N + β {\displaystyle {S}_{VN}=\eta {S/N}+\beta }

Сети с заданными ожидаемыми последовательностями степеней предполагают, что неоднородность в ожидаемом распределении степеней подразумевает эквивалентность между квантовым и классическим описанием сетей, что соответственно соответствует энтропии фон Неймана и Шеннона. [12]

Это определение энтропии фон Неймана может быть также распространено на многослойные сети с тензорным подходом [13] и успешно использовалось для уменьшения их размерности со структурной точки зрения. [14]

Однако было показано, что это определение энтропии не удовлетворяет свойству субаддитивности (см. субаддитивность энтропии фон Неймана ), которое теоретически должно выполняться. Более обоснованное определение, удовлетворяющее этому фундаментальному свойству, было введено Манлио Де Доменико и Биамонте [15] как квантовоподобное состояние Гиббса

ρ ( β ) = e β L Z ( β ) {\displaystyle \rho (\beta )={\frac {e^{-\beta L}}{Z(\beta )}}}

где — нормирующий фактор, который играет роль функции распределения, и — настраиваемый параметр, который позволяет проводить многоуровневый анализ. Если интерпретируется как временной параметр, эта матрица плотности формально пропорциональна пропагатору диффузионного процесса на вершине сети. Z ( β ) = T r [ e β L ] {\displaystyle Z(\beta )=Tr[e^{-\beta L}]} β {\displaystyle \beta } β {\displaystyle \beta }

Эта функция была использована для построения статистической полевой теории сложной информационной динамики, где матрица плотности может быть интерпретирована в терминах суперпозиции операторов потоков, действие которых заключается в активации информационных потоков между узлами. [16] Структура была успешно применена для анализа сетей взаимодействия белок-белок интерактомов вирус-человек, включая SARS-CoV-2 , для раскрытия системных особенностей заражения последнего в микроскопических, мезоскопических и макроскопических масштабах, [17] а также для оценки важности узлов для интеграции информационных потоков в сети и роли, которую они играют в надежности сети. [18]

Этот подход был обобщен для работы с другими типами динамики, такими как случайные блуждания, на вершине многослойных сетей, обеспечивая эффективный способ уменьшения размерности таких систем без изменения их структуры. [19] Используя как классические, так и максимально-энтропийные случайные блуждания, соответствующие матрицы плотности были использованы для кодирования сетевых состояний человеческого мозга и для оценки, в нескольких масштабах, информационной емкости коннектома на разных стадиях деменции. [20]

Принцип максимальной энтропии

Принцип максимальной энтропии — это вариационный принцип, утверждающий, что распределение вероятностей, наилучшим образом представляющее текущее состояние системы, — это распределение, которое максимизирует энтропию Шеннона. [21] Эта концепция может быть использована для генерации ансамбля случайных графов с заданными структурными свойствами, полученными из подхода максимальной энтропии, который, в свою очередь, описывает наиболее вероятную конфигурацию сети: принцип максимальной энтропии допускает максимально непредвзятую информацию при отсутствии полных знаний (микроскопическая конфигурация недоступна, например: мы не знаем матрицу смежности). С другой стороны, этот ансамбль служит нулевой моделью, когда известна фактическая микроскопическая конфигурация сети, что позволяет оценить значимость эмпирических закономерностей, обнаруженных в сети [22]

Сетевые ансамбли

Можно расширить формулировки сетевой энтропии, чтобы вместо этого измерять энтропию ансамбля. Набор сетей, который удовлетворяет заданным структурным характеристикам, можно рассматривать как сетевой ансамбль. [23] Выдвинутая Джинестрой Бьянкони в 2007 году, энтропия сетевого ансамбля измеряет уровень порядка или неопределенности сетевого ансамбля. [24]

Энтропия — это логарифм числа графов. [25] Энтропия также может быть определена в одной сети. Энтропия бассейна — это логарифм аттракторов в одной булевой сети . [26]

Используя подходы статистической механики , сложность, неопределенность и случайность сетей можно описать с помощью сетевых ансамблей с различными типами ограничений. [27]

Энтропия Гиббса и Шеннона

По аналогии со статистической механикой для реализации вводятся микроканонические ансамбли и канонические ансамбли сетей. Статистическая сумма Z ансамбля может быть определена как: Z = a δ [ F ( a ) C ] exp ( i j h i j Θ ( a i j ) + r i j a i j ) {\displaystyle Z=\sum _{\mathbf {a} }\delta \left[{\vec {F}}(\mathbf {a} )-{\vec {C}}\right]\exp \left(\sum _{ij}h_{ij}\Theta (a_{ij})+r_{ij}a_{ij}\right)}

где — ограничение, а ( ) — элементы матрицы смежности , тогда и только тогда, когда между узлом i и узлом j существует связь. — ступенчатая функция с , если , и если . Вспомогательные поля и были введены как аналог ванны в классической механике. F ( a ) = C {\displaystyle {\vec {F}}(\mathbf {a} )={\vec {C}}} a i j {\displaystyle a_{ij}} a i j 0 {\displaystyle a_{ij}\geq {0}} a i j > 0 {\displaystyle a_{ij}>0} Θ ( a i j ) {\displaystyle \Theta (a_{ij})} Θ ( a i j ) = 1 {\displaystyle \Theta (a_{ij})=1} x > 0 {\displaystyle x>0} Θ ( a i j ) = 0 {\displaystyle \Theta (a_{ij})=0} x = 0 {\displaystyle x=0} h i j {\displaystyle h_{ij}} r i j {\displaystyle r_{ij}}

Для простых ненаправленных сетей функцию разделения можно упростить следующим образом [11]

Z = { a i j } k δ ( constraint k ( { a i j } ) ) exp ( i < j α h i j ( α ) δ a i j , α ) {\displaystyle Z=\sum _{\{a_{ij}\}}\prod _{k}\delta ({\textrm {constraint}}_{k}(\{a_{ij}\}))\exp \left(\sum _{i<j}\sum _{\alpha }h_{ij}(\alpha )\delta _{a_{ij},\alpha }\right)}

где , — индекс веса, а для простой сети . a i j α {\displaystyle a_{ij}\in \alpha } α {\displaystyle \alpha } α = { 0 , 1 } {\displaystyle \alpha =\{0,1\}}

Микроканонические ансамбли и канонические ансамбли демонстрируются на простых неориентированных сетях.

Для микроканонического ансамбля энтропия Гиббса определяется как: Σ {\displaystyle \Sigma }

Σ = 1 N log N = 1 N log Z | h i j ( α ) = 0 ( i , j , α ) {\displaystyle {\begin{aligned}\Sigma &={\frac {1}{N}}\log {\mathcal {N}}\\&={\frac {1}{N}}\log Z|_{h_{ij}(\alpha )=0\forall (i,j,\alpha )}\end{aligned}}}

где указывает мощность ансамбля, т. е. общее число сетей в ансамбле. N {\displaystyle {\mathcal {N}}}

Вероятность наличия связи между узлами i и j с весом определяется по формуле: α {\displaystyle \alpha }

π i j ( α ) = log Z h i j ( α ) {\displaystyle \pi _{ij}(\alpha )={\frac {\partial \log Z}{\partial {h_{ij}}(\alpha )}}}

Для канонического ансамбля энтропия представляется в виде энтропии Шеннона :

S = i < j α π i j ( α ) log π i j ( α ) {\displaystyle {S}=-\sum _{i<j}\sum _{\alpha }\pi _{ij}(\alpha )\log \pi _{ij}(\alpha )}

Связь между энтропией Гиббса и Шеннона

Сетевой ансамбль с заданным числом узлов и связей и его сопряженно-канонический ансамбль характеризуются как микроканонический и канонический ансамбли и имеют энтропию Гиббса и энтропию Шеннона S соответственно. Энтропия Гиббса в ансамбле определяется как: [28] G ( N , L ) {\displaystyle G(N,L)} N {\displaystyle N} L {\displaystyle L} G ( N , p ) {\displaystyle G(N,p)} Σ {\displaystyle \Sigma } G ( N , p ) {\displaystyle G(N,p)}

N Σ = log ( N ( N 1 ) 2 L ) {\displaystyle {N}\Sigma =\log \left({\begin{matrix}{\cfrac {N(N-1)}{2}}\\L\end{matrix}}\right)}

Для ансамбля, G ( N , p ) {\displaystyle G(N,p)}

p i j = p = 2 L N ( N 1 ) {\displaystyle {p}_{ij}=p={\cfrac {2L}{N(N-1)}}}

Вставка в энтропию Шеннона: [11] p i j {\displaystyle p_{ij}}

Σ = S / N + 1 2 N [ log ( N ( N 1 ) 2 L ) log ( N ( N 1 ) 2 L ) ] {\displaystyle \Sigma =S/N+{\cfrac {1}{2N}}\left[\log \left({\cfrac {N(N-1)}{2L}}\right)-\log \left({\cfrac {N(N-1)}{2}}-L\right)\right]}

Соотношение показывает, что энтропия Гиббса и энтропия Шеннона на узел S/N случайных графов равны в термодинамическом пределе . Σ {\displaystyle \Sigma } N {\displaystyle N\to \infty }

Смотрите также

Ссылки

  1. ^ ab Ананд, Картик; Крюков, Дмитрий; Бьянкони, Джинестра (2014). «Распределение энтропии и конденсация в случайных сетях с заданным распределением степеней». Physical Review E. 89 ( 6): 062807. arXiv : 1403.5884 . Bibcode : 2014PhRvE..89f2807A. doi : 10.1103/PhysRevE.89.062807. PMID  25019833. S2CID  761765.
  2. ^ ab Фрейтас, Кристофер GS; Акино, Андре LL; Рамос, Эйтор S; Фрери, Алехандро C; Россо, Освальдо A (2019). «Подробная характеристика сложных сетей с использованием теории информации». Scientific Reports . 9 (1): 16689. Bibcode :2019NatSR...916689F. doi :10.1038/s41598-019-53167-5. PMC 6853913 . PMID  31723172. S2CID  207987035. 
  3. ^ ab Zenil, Hector; Kiani, Narsis A; Tegnér, Jesper (2018). «Обзор сложности графов и сетей с точки зрения алгоритмической информации». Entropy . 20 (8): 551. Bibcode :2018Entrp..20..551Z. doi : 10.3390/e20080551 . PMC 7513075 . PMID  33265640. 
  4. ^ ab Small, Michael (2013). "Сложные сети из временных рядов: захват динамики". 2013 IEEE Международный симпозиум по схемам и системам (ISCAS2013) . стр.  2509–2512 . doi :10.1109/ISCAS.2013.6572389. ISBN 978-1-4673-5762-3. S2CID  9275909.
  5. ^ Арнольд, Людвиг; Гундлах, Фолькер Маттиас; Деметриус, Ллойд (1994). «Эволюционный формализм для произведений положительных случайных матриц». Анналы прикладной вероятности . 4 (3): 859–901 . doi : 10.1214/aoap/1177004975 . JSTOR  2245067.
  6. ^ Деметриус, Ллойд; Манке, Томас (2005). «Надежность и эволюция сетей — принцип энтропии». Physica A: Статистическая механика и ее приложения . 346 (3): 682– 696. Bibcode : 2005PhyA..346..682D. doi : 10.1016/j.physa.2004.07.011.
  7. ^ Лотт, Дж.; Виллани, К. (2009). «Кривизна Риччи для пространств с метрической мерой через оптимальный транспорт». Annals of Mathematics . 169 (3): 903–991 . arXiv : math/0412127 . doi :10.4007/annals.2009.169.903. S2CID  15556613.
  8. ^ Sandhu, R.; Georgiou, T.; Reznik, E.; Zhu, L.; Kolesov, I.; Senbabaoglu, Y.; Tannenbaum, A. (2015). "Graph Curvature for Differentiating cancer Networks". Scientific Reports . 5 : 12323. Bibcode :2015NatSR...512323S. doi :10.1038/srep12323. PMC 4500997 . PMID  26169480. 
  9. ^ Sandhu, Romeil S; Georgiou, Tryphon T; Tannenbaum, Allen R (2016). «Кривизна Риччи: экономический индикатор рыночной хрупкости и системного риска». Science Advances . 2 (5): e1501495. Bibcode : 2016SciA....2E1495S. doi : 10.1126/sciadv.1501495. PMC 4928924. PMID  27386522 . 
  10. ^ Ду, Вэньсюэ; Ли, Сюэлян; Ли, Иян; Северини, Симоне (30 декабря 2010 г.). «Заметка об энтропии фон Неймана случайных графов». Линейная алгебра и ее приложения . 433 (11): 1722– 1725. doi : 10.1016/j.laa.2010.06.040 . ISSN  0024-3795.
  11. ^ abc Ананд, Картик; Бьянкони, Джинестра (13 октября 2009 г.). "Меры энтропии для сетей: к информационной теории сложных топологий". Physical Review E . 80 (4): 045102. arXiv : 0907.1514 . Bibcode :2009PhRvE..80d5102A. doi :10.1103/PhysRevE.80.045102. PMID  19905379. S2CID  27419558.
  12. ^ Ананд, Картик; Бьянкони, Джинестра; Северини, Симоне (18 марта 2011 г.). «Энтропия Шеннона и фон Неймана случайных сетей с гетерогенной ожидаемой степенью». Physical Review E. 83 ( 3): 036109. arXiv : 1011.1565 . Bibcode : 2011PhRvE..83c6109A. doi : 10.1103/PhysRevE.83.036109. PMID  21517560. S2CID  1482301.
  13. ^ Де Доменико, Манлио; Соле-Рибальта, Альберт; Коццо, Эмануэле; Кивеля, Микко; Морено, Ямир; Портер, Мейсон А.; Гомес, Серхио; Аренас, Алекс (4 декабря 2013 г.). «Математическая формулировка многослойных сетей». Физический обзор X . 3 (4): 041022. arXiv : 1307.4977 . Бибкод : 2013PhRvX...3d1022D. doi : 10.1103/PhysRevX.3.041022. S2CID  16611157.
  14. ^ Де Доменико, Манлио; Никосия, Винченцо; Аренас, Алекс; Латора, Вито (23 апреля 2015 г.). «Структурная редуцируемость многослойных сетей» (PDF) . Nature Communications . 6 : 6864. Bibcode : 2015NatCo...6.6864D. doi : 10.1038/ncomms7864. PMID  25904309. S2CID  16776349.
  15. ^ Де Доменико, Манлио; Биамонте, Якоб (21 декабря 2016 г.). «Спектральные энтропии как информационно-теоретические инструменты для сравнения сложных сетей». Physical Review X. 6 ( 4): 041062. arXiv : 1609.01214 . Bibcode : 2016PhRvX...6d1062D. doi : 10.1103/PhysRevX.6.041062. S2CID  51786781.
  16. ^ Гаваси, Аршам; Николини, Карло; Де Доменико, Манлио (10 ноября 2020 г.). «Статистическая физика сложной информационной динамики». Physical Review E. 102 ( 5): 052304. arXiv : 2010.04014 . Bibcode : 2020PhRvE.102e2304G. doi : 10.1103/PhysRevE.102.052304. PMID  33327131. S2CID  222208856.
  17. ^ Ghavasieh, Arsham; Bontorin, Sebastiano; Artime, Oriol; Verstraete, Nina; De Domenico, Manlio (23 апреля 2021 г.). «Многомасштабная статистическая физика панвирусного интерактома раскрывает системную природу инфекций SARS-CoV-2». Communications Physics . 4 (1): 83. arXiv : 2008.09649 . Bibcode :2021CmPhy...4...83G. doi : 10.1038/s42005-021-00582-8 .
  18. ^ Гаваси, Аршам; Стелла, Массимо; Биамонте, Якоб; Де Доменико, Манлио (10 июня 2021 г.). «Раскрытие эффектов многомасштабной сетевой запутанности в эмпирических системах». Communications Physics . 4 (1): 129. arXiv : 2008.05368 . Bibcode : 2021CmPhy...4..129G. doi : 10.1038/s42005-021-00633-0. S2CID  221104066.
  19. ^ Ghavasieh, Arsham; De Domenico, Manlio (13 февраля 2020 г.). «Улучшение транспортных свойств во взаимосвязанных системах без изменения их структуры». Physical Review Research . 2 (1): 13– 15. arXiv : 2001.04450 . Bibcode : 2020PhRvR...2a3155G. doi : 10.1103/PhysRevResearch.2.013155. S2CID  210165034.
  20. ^ Бениньи, Барбара; Гаваси, Аршам; Корсо, Алессандра; Д'Андреа, Валерия; Де Доменико, Манлио (22 июня 2021 г.). «Постоянство информационного потока: многомасштабная характеристика человеческого мозга». Network Neuroscience . 5 (3): 831– 850. doi : 10.1162/netn_a_00203 . PMC 8567833 . PMID  34746629. 
  21. ^ Jaynes, ET (1957). «Теория информации и статистическая механика» (PDF) . Physical Review . Серия II. 106 (4): 620– 630. Bibcode : 1957PhRv..106..620J. doi : 10.1103/PhysRev.106.620. MR  0087305. S2CID  17870175.
  22. ^ Чимини, Джулио; Сквартини, Тициано; Саракко, Фабио; Гарлашелли, Диего; Габриэлли, Андреа; Кальдарелли, Гвидо (2019). «Статистическая физика реальных сетей». Обзоры природы Физика . 1 (1): 58–71 . arXiv : 1810.05095 . Бибкод : 2019НатРП...1...58С. дои : 10.1038/s42254-018-0002-6. S2CID  52963395.
  23. ^ Левин, Э.; Тишби, Н.; Солла, СА (октябрь 1990 г.). «Статистический подход к обучению и обобщению в многоуровневых нейронных сетях». Труды IEEE . 78 (10): 1568– 1574. doi :10.1109/5.58339. ISSN  1558-2256. S2CID  5254307.
  24. ^ Бьянкони, Джинестра (2008). «Энтропия рандомизированных сетевых ансамблей». EPL (Europhysics Letters) . 81 (2): 28005. arXiv : 0708.0153 . Bibcode : 2008EL.....8128005B. doi : 10.1209/0295-5075/81/28005. ISSN  0295-5075. S2CID  17269886.
  25. ^ Меникетти, Джулия; Ремондини, Даниэль (2014). «Энтропия сетевого ансамбля: определения и приложения к геномным данным». Форум теоретической биологии . 107 ( 1– 2): 77– 87. ISSN  0035-6050. PMID  25936214.
  26. ^ Кравиц, Питер; Шмулевич, Илья (27 сентября 2007 г.). «Энтропия сложных релевантных компонентов булевых сетей». Physical Review E. 76 ( 3): 036115. arXiv : 0708.1538 . Bibcode : 2007PhRvE..76c6115K. doi : 10.1103/PhysRevE.76.036115. PMID  17930314. S2CID  6192682.
  27. ^ Бьянкони, Джинестра (27 марта 2009 г.). «Энтропия сетевых ансамблей». Physical Review E. 79 ( 3): 036114. arXiv : 0802.2888 . Bibcode : 2009PhRvE..79c6114B. doi : 10.1103/PhysRevE.79.036114. PMID  19392025. S2CID  26082469.
  28. ^ Богач, Лешек; Бурда, Здислав; Вацлав, Бартломей (1 июля 2006 г.). «Однородные сложные сети». Физика А: Статистическая механика и ее приложения . 366 : 587–607 . arXiv : cond-mat/0502124 . Бибкод : 2006PhyA..366..587B. doi :10.1016/j.physa.2005.10.024. ISSN  0378-4371. S2CID  119428248.
Retrieved from "https://en.wikipedia.org/w/index.php?title=Network_entropy&oldid=1242147024"