В этой статье есть несколько проблем. Помогите улучшить ее или обсудите эти проблемы на странице обсуждения . ( Узнайте, как и когда удалять эти сообщения )
|
Синтетическая нервная система ( SNS ) — это вычислительная нейробиологическая модель, которая может быть разработана с помощью функционального подсетевого подхода (FSA) для создания биологически правдоподобных моделей цепей в нервной системе. [1] FSA позволяет осуществлять прямую аналитическую настройку динамических сетей, которые выполняют определенные операции в нервной системе, без необходимости использования глобальных методов оптимизации, таких как генетические алгоритмы и обучение с подкреплением . Основным вариантом использования SNS является управление системой, где система чаще всего представляет собой смоделированную биомеханическую модель или физическую роботизированную платформу. [2] [3] [4] [5] [6] [7] [8] SNS — это форма нейронной сети, очень похожая на искусственные нейронные сети (ИНС), сверточные нейронные сети (CNN) и рекуррентные нейронные сети (RNN). Строительными блоками для каждой из этих нейронных сетей является ряд узлов и соединений, обозначаемых как нейроны и синапсы. Более традиционные искусственные нейронные сети полагаются на фазы обучения , где они используют большие наборы данных для формирования корреляций и, таким образом, «учатся» идентифицировать заданный объект или шаблон. При правильном выполнении такое обучение приводит к системам, которые могут производить желаемый результат, иногда с впечатляющей точностью. Однако сами системы, как правило, являются « черными ящиками », что означает, что нет легко различимого сопоставления между структурой и функцией сети. Это затрудняет изменение функции, не начав сначала, или извлечение биологического смысла, за исключением особых случаев. [9] [10] Метод SNS отличается тем, что использует детали как структуры, так и функции биологических нервных систем. Нейроны и синаптические связи намеренно проектируются, а не итеративно изменяются как часть алгоритма обучения .
Как и во многих других моделях вычислительной нейронауки (Рыбак, [11] Элиасмит [12] ), детали нейронной модели по возможности основаны на экспериментальных данных. Не каждое исследование может измерить каждый параметр исследуемой сети, требуя от разработчика модели делать предположения относительно правдоподобных значений параметров. Рыбак использует метод выборки, где каждый узел состоит из множества нейронов, а параметры каждого конкретного нейрона извлекаются из распределения вероятностей. [11] Элиасмит использует то, что они называют Neural Engineering Framework (NEF), в котором пользователь указывает функции сети, а синаптические и нейронные свойства изучаются с течением времени. [12] SNS следует аналогичному подходу с помощью подхода функциональных подсетей (FSA). FSA позволяет аналитически проектировать параметры внутри сети (например, проводимости мембраны, синаптические проводимости) на основе их предполагаемой функции. В результате можно использовать этот подход для прямой сборки сетей, которые выполняют основные функции, такие как сложение или вычитание, а также динамические операции, такие как дифференциация и интеграция.
Детали базовых сетей управления для многих биологических систем не очень хорошо изучены. Однако недавние достижения в области инструментов и методов нейронауки прояснили клеточные и биофизические механизмы этих сетей и их работу во время поведения в сложных средах. [13] [14] [15] [16] Хотя существует давний интерес к биологически вдохновленным роботам и роботизированным платформам, в последнее время появился интерес к включению особенностей биомеханики и нейронного управления, например, биомимикрии . Метод SNS использует данные из нейронауки в системах управления для нейромеханических симуляций и роботов. Проектирование как механики робота, так и контроллера для захвата ключевых аспектов конкретного животного может привести к более гибкой функциональности, предлагая новые гипотезы о том, как работает нервная система животного. [1] [17] [18]
Сохранение простоты нейронных моделей облегчает анализ, работу в реальном времени и настройку. С этой целью СНС в первую очередь моделируют нейроны как протекающие интеграторы , которые являются разумными приближениями пассивной динамики мембраны ниже порога. Утечка интегратора также моделирует не-пиковые интернейроны, которые способствуют управлению движением у некоторых беспозвоночных (саранча, [19] палочник, [20] C. elegans [21] ). Если в модель необходимо включить пиковые сигналы, узлы могут быть представлены с помощью протекающих моделей интеграции и активации. [2] [22] Кроме того, в модель могут быть включены другие проводимости, такие как проводимости модели Ходжкина-Хаксли . [3] Модель может быть инициализирована с помощью простых компонентов (например, протекающих интеграторов), а затем детали добавляются для включения дополнительных биологических деталей. Затем разработчик модели может увеличивать или уменьшать уровень биологической детализации в зависимости от предполагаемого применения. Сохранение простоты моделей таким образом обеспечивает:
Хотя нейробиологические модели обычно упрощаются для SNS, метод достаточно гибок, чтобы можно было включить больше функций. Следовательно, метод SNS может приспосабливаться к сложности, обусловленной спросом, добавляя функции только там, где они нужны. Например, постоянные натриевые каналы можно добавить всего к двум нейронам в нейронной цепи, чтобы создать генератор шаблонов осциллятора с половиной центра , не изменяя другие нейроны в цепи. Хотя эти дополнения могут увеличить вычислительные затраты, они предоставляют системе возможность выполнять более широкий спектр интересных поведений.
Термин «синтетическая нервная система» (СНС) появился в литературе с 2000 года для описания нескольких различных вычислительных фреймворков для имитации функциональности биологических нервных систем.
Синтия Бризил разработала социального робота под названием «Kismet» во время работы в Массачусетском технологическом институте в начале 2000-х годов. [23] Она использовала термин SNS для обозначения своей биологически вдохновленной иерархической модели познания, которая включала системы для извлечения низкоуровневых сенсорных признаков, внимания, восприятия, мотивации, поведения и двигательного вывода. Используя эту структуру, Kismet мог реагировать на людей, абстрагируя свою сенсорную информацию в мотивацию для ответного поведения и соответствующего двигательного вывода.
В 2005 году Инман Харви использовал этот термин в обзорной статье по своей теме «Эволюционная робототехника». [24] В своей статье Харви использует термин SNS для обозначения эволюционировавшего нейронного контроллера для моделируемого агента. Он не дает явного определения термину SNS; вместо этого он использует этот термин для различения эволюционировавшего нейронного контроллера от контроллера, созданного с помощью альтернативных подходов, например, сетей многослойного персептрона (MLP) .
В 2008 году Томас Р. Инсел, доктор медицины, директор Национального института психического здоровья, был процитирован в интервью Американской академии неврологии, призывая к «чистому лунному выстрелу… [чтобы мотивировать] десятилетие новых открытий [и] фундаментальных исследований анатомии мозга». [25] В рамках этого интервью доктор Инсел предложил построить «синтетическую нервную систему» как один из таких мотивационных лунных выстрелов для стимулирования текущих и будущих исследований. Технические детали того, что повлечет за собой такая СНС, не были описаны.
Статья, опубликованная в рамках Международной рабочей конференции по искусственным нейронным сетям (IWANN), предлагает «синтетическую нервную систему» в качестве альтернативы искусственным нейронным сетям (ИНС), основанным на машинном обучении. В частности, СНС должна иметь возможность включать или изучать новую информацию, не забывая то, что она уже узнала. [26] Однако авторы не предлагают вычислительную нейробиологическую структуру для построения таких сетей. Вместо этого они предлагают гомеостатическую сеть «потребностей» робота, в которой робот предпринимает действия для удовлетворения своих потребностей и возвращения к гомеостазу. Со временем робот узнает, какие действия следует предпринимать в ответ на свои потребности.
Диссертация из лаборатории профессора Джозефа Айера в Северо-Восточном университете использует похожий термин в своем названии, но никогда не дает его явного определения. Тема диссертации — «RoboLobster, биомиметический робот, управляемый электронной симуляцией нервной системы». [27] Другие публикации профессора Айерса используют термин «электронная нервная система» (ENS) для описания похожей работы. [28] [29] [30] В каждом из этих исследований профессор Айерс использует робота, который управляется сетью упрощенных динамических нейронных моделей, структура которых имитирует определенные сети из модельного организма. [31] Выбор нейронной модели отражает баланс между симуляцией динамики нервной системы, что мотивирует математическую сложность, и обеспечением того, чтобы симуляция выполнялась в реальном времени, что мотивирует математическую простоту.
В исследовательской статье 2017 года профессора Александра Ханта, доктора Николаса Щецинского и профессора Роджера Куинна термин SNS используется и неявно определяется как «нейронные [или] нейромеханические модели… состоящие из непиковых моделей интегрирующих нейронов с утечкой». [5] Подобно работе Айерса и др., Хант и др. применяют термин SNS для обозначения упрощенной динамической симуляции нейронов и синапсов, используемых в замкнутом контуре управления роботизированным оборудованием. Последующие статьи этих авторов представляют функциональный подход подсети для настройки SNS, построенной из этих и других упрощенных динамических нейронных моделей [1] [2] (т. е., утечка, интеграция и срабатывание), а также дополнительные модели SNS нервной системы [7] [32] [33] [34]
Сравнение разнообразия работ, использующих термин SNS, дает неявное определение SNS:
SNS имеют некоторые общие черты с сетями машинного обучения, такими как искусственные нейронные сети (ИНС), сверточные нейронные сети (СНС) и рекуррентные нейронные сети (РНС). Все эти сети состоят из нейронов и синапсов, в некотором роде вдохновленных биологическими нервными системами. Эти компоненты используются для построения нейронных цепей с явной целью выполнения определенной задачи. ИНС просто относится к набору узлов (нейронов), соединенных таким образом, что они свободно моделируют биологический мозг. Это довольно широкое определение, и, как следствие, существует много подкатегорий ИНС, две из которых — СНС и РНС. СНС в основном используются для распознавания и классификации изображений. Их послойные соединения реализуют сверточные ядра на небольших участках изображения, которые отображают входные данные в систему (обычно изображение) на набор признаков. ИНС и СНС лишь слабо связаны с СНС, поскольку они используют одни и те же общие строительные блоки нейронов и синапсов, хотя методы, используемые для моделирования каждого компонента, различаются в разных сетях. Из этих трех RNN наиболее тесно связаны с SNS. SNS используют те же модели нейронов с утечкой-интегратором, что и в RNN. Это выгодно, поскольку нейроны по своей сути действуют как фильтры нижних частот , что полезно для робототехнических приложений, где такая фильтрация часто применяется для снижения шума как для целей зондирования, так и для целей управления. Обе модели также демонстрируют динамические реакции на входные данные. Хотя прогнозирование реакций сложной сети может быть сложным, динамика каждого узла относительно проста, поскольку каждый из них представляет собой систему дифференциальных уравнений первого порядка (в отличие от дробных производных). Ключевое отличие, которое отличает SNS от этих нейронных сетей, заключается в синаптических связях и общей архитектуре нейронной цепи.
Структуры RNN обычно представляют собой большие, сильно связанные или даже все-со-всеми связанные слои нейронов. Вместо этих слоев SNS полагается на функциональные подсети, которые настроены на выполнение определенных операций, а затем собираются в более крупные сети с объяснимыми функциями. Они значительно более податливы, чем типичная сеть машинного обучения. Компромисс SNS заключается в том, что обычно требуется больше времени для проектирования и настройки сети, но она не требует фазы обучения, включающей большие объемы вычислительной мощности и обучающих данных. Другое ключевое отличие заключается в том, что синапсы SNS основаны на проводимости, а не на токе, что делает динамику нелинейной, в отличие от RNN. Это позволяет моделировать модуляторные нейронные пути, поскольку синапсы могут изменять чистую проводимость мембраны постсинаптического нейрона без подачи тока. Это также позволяет функциональному подходу подсети охватывать операции сложения, вычитания, умножения, деления, дифференциации и интеграции с использованием того же семейства функций.
Сети SNS в основном состоят из не-шипящих дырявых интеграторных узлов, к которым при необходимости можно добавить сложность. Такая динамика моделирует не-шипящие нейроны, подобные тем, которые широко изучались у беспозвоночных (например, нематода, [35] саранча, [19] таракан [36] ) или может представлять среднюю активность популяции шипящих нейронов. [37] Динамика мембранного напряжения не-шипящего нейрона регулируется дифференциальным уравнением
где - емкость мембраны, - произвольный ток, вводимый в клетку, например, через токовый зажим, а и - токи утечки и синаптические токи соответственно. Ток утечки
где - проводимость клеточной мембраны, а - потенциал покоя через клеточную мембрану. Синаптический ток
где — число синапсов, воздействующих на клетку, — мгновенная синаптическая проводимость входящего синапса, — потенциал реверсии входящего синапса.
Неимпульсные нейроны взаимодействуют через градуированные химические синапсы: [38] Обычно синаптическая проводимость моделируется непрерывной функцией, например сигмоидой, но в СНС эта проводимость аппроксимируется следующей кусочно-линейной функцией [1]
Как показано на соответствующем рисунке, это позволяет проводимости изменяться от 0 до заданного или спроектированного максимального значения ( ) в зависимости от пресинаптического потенциала ( ). Кусочный подход используется для обеспечения точно нулевой проводимости и, следовательно, тока при низких потенциалах активации. Это аппроксимирует особенность активности нейрона с пиками, заключающуюся в том, что никакая информация не передается, когда нейрон не пикает/не активен. Кроме того, это аппроксимация устраняет трансцендентные функции, позволяющие проводить аналитические вычисления динамических свойств. Хотя это и препятствует дифференцируемости сетевой активности, поскольку не используются методы обучения на основе градиента (например, обратное распространение ), это не является недостатком.
Ранее упоминалось, что можно включить дополнительные ионные каналы, чтобы вызвать более интересное поведение не-пиковых нейронных моделей. Постоянный натриевый ток является одним из таких дополнений. Постоянный натриевый ток может деполяризовать мембрану достаточно, чтобы вызвать срабатывание потенциала действия при субпороговых мембранных потенциалах, при этом инактивируясь медленно. В контексте нейробиологических моделей это полезно для таких приложений, как генераторы паттернов, где желательно, чтобы потенциал нейрона мог быстро увеличиваться и оставаться повышенным до тех пор, пока не будет подавлен другим нейронным сигналом или приложенным током. [3] [4]
Модель поведения этого канала основана на m и h-затворах, присутствующих в полной модели Ходжкина-Хаксли. Главное отличие состоит в том, что эта модель использует только один m-затвор вместо трех. Уравнения, управляющие этим поведением, можно найти здесь и в этой статье. [3]
Если модель Ходжкина-Хаксли явно не изучается или не используется для потенциалов действия, спайковые нейроны можно моделировать с помощью метода интеграции и срабатывания. Это значительно более эффективно с точки зрения вычислений, чем метод Ходжкина-Хаксли, что упрощает моделирование гораздо более крупных сетей. В частности, для СНС используются нейроны с утечкой интеграции и срабатывания (LIF). [2] Как следует из названия, эта модель учитывает поведение утечки мембранного потенциала, представляющее диффузию ионов через мембрану. Эта модель интеграции и срабатывания очень похожа на не спайковый нейрон, описанный выше, с ключевым добавлением параметра порога срабатывания. Когда потенциал нейрона деполяризуется до этого порога, нейрон «срабатывает», мгновенно сбрасываясь до своего потенциала покоя [2]
Хотя они не обеспечивают такого же разнообразия динамических ответов, как Ходжкин-Хаксли, они обычно достаточны для приложений SNS и могут быть проанализированы математически, что имеет решающее значение для управляемости сети. Пожалуйста, обратитесь к связанной статье Википедии и документу для уравнений, связанных с моделью нейрона LIF.
Спайковые нейроны также могут быть смоделированы вычислительно эффективным способом, не жертвуя богатым поведением, демонстрируемым в биологической нейронной активности. [39] Модель Ижикевича может производить спайковое поведение, приблизительно такое же правдоподобное, как Ходжкин-Хаксли, но с сопоставимой вычислительной эффективностью с методом интеграции и срабатывания. Чтобы достичь этого, Ижикевич сводит модель Ходжкина-Хаксли к двумерному набору обыкновенных дифференциальных уравнений с помощью методов бифуркации. [40] Их можно увидеть здесь:
Где мембранный потенциал восстанавливается после скачка, как описано:
— безразмерная переменная, представляющая мембранный потенциал. — безразмерная переменная, представляющая восстановление мембраны, которая учитывает поведение ионного тока, в частности, и . , , , и — безразмерные параметры, которые можно изменять для формирования сигнала в различные паттерны нейронного ответа. Это позволяет создавать дребезжание, всплески и непрерывные спайки с адаптацией частоты, которые составляют более богатый набор поведений, чем может создать базовый метод интеграции и запуска.
Коэффициенты в уравнении были получены путем подгонки данных под конкретные паттерны спайков нейрона (в данном случае кортикального нейрона) для получения потенциалов в диапазоне мВ и времени в масштабе мс. Можно использовать другие нейроны для подгонки динамики инициации спайков, они просто дадут другие коэффициенты.
Более подробную информацию о модели Ижикевича и методах бифуркации, использованных для ее разработки, можно найти здесь. [39] [40]
Карта Рулкова отказывается от сложных моделей на основе ионных каналов, состоящих из множества нелинейных дифференциальных уравнений, в пользу двумерной карты. [31] Эта карта выражает медленную и быструю динамику, что жизненно важно для представления как медленных колебаний, так и быстрых всплесков и выбросов. Модель показана ниже:
является быстрой динамической переменной и представляет мембранный потенциал, в то время как является медленной динамической переменной и не имеет явного биологического смысла. и используются для описания внешних воздействий и помогают моделировать динамику стимулов, таких как инъецированные/синаптические и тонические/смещающие токи. Малые значения приводят к медленным изменениям в , что объясняет его более медленное поведение. Предполагая постоянное внешнее воздействие ( ), функция может быть записана как следующая разрывная функция:
В этом случае является параметром управления картой и может использоваться вместе с для формирования выходного поведения нейрона.
Подробнее о карте Рулькова можно прочитать на странице Википедии, гиперссылки на которую есть здесь и здесь. [31]
Функциональные подсети являются строительными блоками СНС. [1] Они состоят из нейронов и синапсов, смоделированных на основе уравнений, описанных выше, а также других моделей нейронауки. При правильной настройке, как показано в следующем разделе, они способны выполнять математические вычисления, а также динамические операции. Этот процесс отличается от других искусственных нейронных сетей тем, что настройка использует структуру сети. Искусственные нейронные сети, упомянутые ранее, используют связь «все-со-всеми» между слоями, но в СНС нет отдельных слоев. Скорее, синаптические соединения методично проектируются с учетом определенной функции. Это приводит к меньшему количеству синаптических соединений без ущерба для эффективности сети. Настроенные подсети могут быть собраны в более крупные сети, чтобы сформировать саму СНС. Сборка может выполняться последовательно или параллельно, во многом как добавление компонентов в электрическую цепь. Полученная нейронная сеть напоминает периферическую нервную систему , а не мозгоподобную сеть (ИНС).
Модель интегратора с утечкой, представленную выше, можно преобразовать в уравнение, удобное для настройки, нормализуя мембранный потенциал до значения 0 в состоянии покоя ( ) и вводя параметр. — это рабочий диапазон потенциала градуированного химического синапса, который равен . Внесение этих изменений и последующее решение для стационарной активации ( ) нейрона (когда ) дает следующее уравнение: [1]
определяется разницей между потенциалом покоя клетки ( ) и потенциалом синаптической реверсии ( ). Это уравнение можно использовать для настройки синаптических проводимостей для определенных точек в работе сети, где нейроны находятся в устойчивом состоянии или имеют известный/запроектированный мембранный потенциал ( ). Таким образом, можно намеренно и напрямую устанавливать состояние сети в ключевые моменты в последовательности ее работы, чтобы она производила желаемое действие или поведение.
Настройка подсети требует использования путей передачи сигнала и/или модуляции. Пути передачи сигнала делают потенциал постсинаптического нейрона пропорциональным потенциалу пресинаптического нейрона(ов). Коэффициент синаптической пропорциональности обозначается как . Это можно использовать для расчета максимального значения проводимости для синапса ( ) с помощью уравнения: [1]
используется в модели градуированного химического синапса, обсуждавшейся ранее. Настройка синапса с использованием вместо уравнения активации стационарного состояния практична, когда требуется определенная связь между небольшим подмножеством нейронов. Например, если сеть требует, чтобы потенциал постсинаптической нейронной мембраны был вдвое меньше, чем у пресинаптического нейрона, можно установить и включить в уравнение.
Путь модуляции сигнала используется для модуляции чувствительности нейрона. Это позволяет адаптивно реагировать на различные входы. В этом пути используется вместо . Технически оба определяются как стационарный постсинаптический потенциал ( ), деленный на пресинаптический потенциал ( ), отношение, упомянутое выше, для заданного приложенного тока. Буква используется для модуляции, чтобы указать, что чувствительность нейрона изменяется и, следовательно, не совпадает с , которая представляет собой статическую связь. Для пути модуляции можно рассчитать как: [1]
Чтобы минимизировать гиперполяризацию постсинаптического нейрона, его следует поддерживать отрицательным и максимально близким к 0 (или полностью обнулить).
Все методы настройки арифметической подсети были взяты из [1] .
Подсети сложения состоят из одного постсинаптического нейрона, соединенного с пресинаптическими нейронами через возбуждающие пути передачи. Цель сети — обеспечить приближение линейного сложения входящих пресинаптических сигналов. Подсеть можно настроить с помощью любого из методов, описанных ранее. Поведение сложения можно взвесить с помощью . Этот тип сети может представлять механизмы положительной обратной связи в биологии. Для правильного захвата сложения должно быть небольшим, но оно не может быть равным 0, иначе синапс будет эффективно разорван. Вместо этого максимизируется, что приводит к небольшим значениям .
Подсети вычитания похожи на сети сложения, за исключением того, что вычитаемые пресинаптические потенциалы перемещаются в постсинаптическую клетку через пути торможения . Это может приближать механизмы отрицательной обратной связи в нервной системе. В отличие от деполяризующих ионов, гиперполяризующие ионные потенциалы, как правило, гораздо ближе к потенциалу покоя мембраны. Это приводит к меньшим значениям, поэтому их трудно минимизировать, как в подсети сложения. Самый простой способ правильно настроить сеть вычитания — это разработать параметры, соответствующие определенному сценарию. Этот процесс уже был описан с использованием уравнения активации стационарного состояния. также может использоваться как в подсети сложения, но поскольку не может быть минимизирован в той же степени, эффект не такой точный. Уравнение для решения торможения таким образом выглядит следующим образом:
Сначала необходимо определить синаптический потенциал пути возбуждения ( ). Для ингибирующего пути жизненно важно, чтобы он был отрицательным, иначе решение уравнения даст отрицательную проводимость, что биологически невозможно.
Физическая структура подсети деления такая же, как и у подсети вычитания, за исключением того, что ингибирующий синапс является модуляторным, а не передаточным. Деление, выполняемое в этой сети, следует форме ниже, где передаваемый сигнал делится модулирующим сигналом :
Возбуждающий синапс передачи настраивается, как описано ранее. Потенциал модулирующего реверсирования находится примерно около 0, поэтому from before отменяется (устанавливается в 0). Установка равным и применение их к уравнению активации стационарного состояния дает приведенное выше уравнение деления после упрощения. Отсюда уравнение можно использовать как и раньше и настроить так, чтобы сеть производила желаемое поведение деления. Например, если бы было желательно, чтобы when then можно было установить в (пример из [1] ). значения, близкие к 0, сильнее снижают чувствительность постсинаптического нейрона к входам.
Сети умножения в некоторой степени похожи на сети деления, но вместо модуляторной синаптической связи непосредственно между пресинаптическим и постсинаптическим нейроном на пути есть интернейрон . Пресинаптический нейрон соединяется с интернейроном через модуляторный путь, а интернейрон соединяется с постсинаптическим нейроном с помощью другого модуляторного синапса (см. рисунок в этом разделе для пояснения). Эта последовательная модуляция приводит к сети, которая по сути делит на обратную величину, которая оказывается умножением. Параметр между интернейроном и постсинаптическим нейроном равен 0. Это гарантирует, что когда его потенциал ( ) находится на максимально допустимом значении ( ), потенциал постсинаптического нейрона ( ) равен 0 независимо от приложенного тока. Это имеет смысл, поскольку деление на максимально допустимое число для системы должно приводить к минимально возможному выходу. Подстановка этого в уравнение активации стационарного состояния дает следующее решение для синаптической проводимости:
не может быть больше или равно 0 здесь, так как деление на ноль не определено , а деление на положительное число дает отрицательную проводимость, что невозможно. Чем меньше отрицательно , тем больше . Это означает, что необходимо определить так, чтобы оставаться в пределах биологического правдоподобия. При такой конструкции синапса остальное можно определить с помощью методов, описанных в [1] . Процесс довольно сложный и лучше подходит для углубленного чтения.
Все методы динамической настройки подсети были взяты из [1] .
Дифференциационные сети почти такие же, как и вычитательные сети с добавленным динамическим компонентом. Пресинаптический нейрон, который подавляет постсинаптический нейрон, моделируется как физически более крупный нейрон, что означает, что он имеет большую емкость , чем возбуждающий синаптический нейрон. Эта увеличенная емкость приводит к тому, что нейрон медленнее достигает своего полностью возбужденного состояния (т. е. ). Вычитание сигнала медленно реагирующего нейрона (с ингибирующим синапсом) из быстро реагирующего сигнала по сути является биологической версией численного дифференцирования , при котором предыдущий временной «шаг» вычитается из текущего временного «шага». Эта сеть хороша для определения изменений в приложенном токе к сети или приложенном стимуле к сенсорному нейрону. Уравнения, которые подробно описывают это поведение, представлены в. [1]
Нейронная модель, используемая для СНС, имеет динамику утечки , означающую, что ток всегда вытекает из нейрона, чтобы вернуть его к потенциалу покоя. Это означает, что один нейрон, смоделированный таким образом, не способен хранить данные. Однако система из двух нейронов способна на это, если связана через взаимно ингибирующие синапсы передачи с предельно стабильной кривой равновесия. Взаимное ингибирование означает, что уровни активации поддерживаются, а не утекают, и состояние системы непрерывно изменяется в течение всего времени применения стимула ( интеграции ). Интеграционные подсети, хотя и не обязательно сложны по структуре, являются наиболее сложными для определения и доказательства. Таким образом, вывод и доказательство предельной устойчивости заслуживают подробного прочтения здесь [1], поскольку беглого обзора было бы недостаточно.
Как упоминалось ранее, основное применение метода синтетической нервной системы — управление роботами. В этой области СНС в основном использовались для управления движением шагающих роботов. В литературе имеется множество примеров как моделируемых, так и физических роботов, включающих СНС:
Синтетические нервные системы также использовались для моделирования более высоких функций в нервной системе, чем периферические сети, отвечающие за локомоцию. Некоторые примеры таких видов СНС перечислены здесь:
This article needs additional or more specific categories. (November 2023) |