Эта статья имеет рейтинг C-класса по шкале оценки контента Википедии . Она представляет интерес для следующих WikiProjects : | ||||||||||||||||||||||||||||||||||||||
|
Большая часть раздела обучения, похоже, не имеет прямого отношения к автокодировщикам в частности, а касается нейронных сетей в целом. Нет? B roken S egue 09:17, 29 августа 2011 (UTC)
Я не понимаю, что означает "имеет то же значение, что и во входном слое" в определении выходного слоя в статье. Может ли кто-нибудь объяснить или прояснить в статье, пожалуйста. Большое спасибо, prnewman ( talk ) 09:53, 10 октября 2012 (UTC)
==Ответ: Выходы такие же, как и входы, т. е. y_i = x_i. Автоэнкодер пытается узнать функцию идентичности. Хотя может показаться, что если количество скрытых единиц >= количеству входных единиц (/выходных единиц), то результирующие веса будут тривиальной идентичностью, на практике это оказывается не так (вероятно, из-за того, что веса изначально такие маленькие). Разреженные автоэнкодеры, где ограниченное количество скрытых единиц может быть активировано одновременно, избегают этой проблемы даже в теории. 216.169.216.1 ( talk ) 16:47, 17 сентября 2013 (UTC) Dave Rimshnick
Мне было интересно, есть ли какие-либо источники книг, которые можно было бы добавить в качестве ссылок, где используется аналогичный подход к описанию автокодировщика. Кроме того, что означают термины W и b? Не очень понятно, какую роль W и b играют в процессе декодирования и кодирования.
Привет, для тех, кто пытается получить правильную научную цитату для Autoencoder и где можно найти материал об argmin, источник, который вы ищете, «Поточные ансамбли контролируемых и неконтролируемых нейронных сетей для потокового обучения» и любой, кто, в отличие от меня, достаточно заботится, может добавить эту цитату в статью, glhf — Предыдущий неподписанный комментарий добавлен 2003:EB:6724:3F08:B8F2:3F33:F768:C858 (обсуждение) 16:46, 9 ноября 2019 (UTC)
Я думаю, что имело бы смысл выделить раздел «вариационный автоэнкодер», учитывая, что это генеративные модели и их назначение существенно отличается от классических автоэнкодеров. Мысли? Skjn ( talk ) 15:48, 19 мая 2020 (UTC)
Уравнение, которое дает параметризацию автокодера и его сопряженного автодекодера, по-видимому, неверно. Минимум распространяется на все x в X и все выборочные параметризации phi и psi, а "arg", реализующий минимум, дает оптимизированную параметризацию phi и psi. RutiWinkler ( talk ) 14:37, 3 декабря 2021 (UTC)
Эта статья была предметом образовательного задания в Колледже инженерии Пуны, поддержанного Послами Википедии через Индийскую образовательную программу в течение семестра Q3 2011 года. Более подробная информация доступна на странице курса .
Сообщение выше было заменено {{IEP assignment}}
PrimeBOT ( talk ) в 20:09, 1 февраля 2023 (UTC)