Эта статья находится в рамках WikiProject Statistics , совместных усилий по улучшению охвата статистики в Википедии. Если вы хотите принять участие, посетите страницу проекта, где вы можете присоединиться к обсуждению и увидеть список открытых задач.Статистика Wikipedia:WikiProject Статистика Шаблон:WikiProject Статистика Статистика
Эта статья находится в рамках WikiProject Robotics , совместных усилий по улучшению освещения Robotics в Wikipedia. Если вы хотите принять участие, посетите страницу проекта, где вы можете присоединиться к обсуждению и увидеть список открытых задач.Робототехника Википедия: WikiProject Робототехника Шаблон: WikiProject Робототехника Робототехника
На рисунке есть пара неточностей (хотя они все равно достаточно хороши, чтобы дать общее представление о упаковке)
1) На график нанесено гораздо меньше 100 сглаживателей.
2) Красная кривая, по-видимому, не является средним значением серых кривых.
3) Нет единиц измерения для осей (например, Цельсия/Фаренгейта) — Предыдущий неподписанный комментарий добавлен 78.142.185.12 (обсуждение) 10:48, 25 августа 2015 (UTC) [ ответить ]
(2) может быть из-за (1)
Согласен. В дополнение к этому, я бы отметил, что совсем не очевидно, что красная кривая более гладкая, чем (все) серые. Более толстая кривая может заставить ее выглядеть более гладкой, хотя это не так. В любом случае, кривая, подобранная ко всем данным, была бы интереснее для сравнения. Элиас ( обсуждение ) 10:29, 30 сентября 2020 (UTC) [ ответить ]
Извините, я не очень разбираюсь в редактировании статей Википедии и ничего не знаю о «бутстраповском агрегировании». Однако я немного разбираюсь в бутстраповском агрегировании в целом, и, как я понимаю, наилучшей оценкой среднего является исходное выборочное среднее, а не бутстраповское среднее. Весь смысл бутстраповского агрегирования заключается в создании доверительного интервала вокруг этого среднего. Так что в этом случае, похоже, весь смысл заключается в создании доверительных интервалов (или эквивалента) из 100 сглаживателей, тогда как среднее значение этих сглаживателей само по себе менее важно. Мне это не ясно из статьи, так что, возможно, требуется либо лучшее объяснение, либо объяснение того, чем оно отличается от стандартной теории бутстраповского агрегирования? 128.218.42.15 (обсуждение) 22:47, 17 ноября 2017 (UTC) [ ответить ]
Слияние
Должны ли эта страница и Bootstrapping_(machine_learning) возможно быть объединены вместе? Кажется, что они охватывают очень похожий контент, хотя другая статья довольно короткая. Xekno (обсуждение) 04:52, 20 мая 2011 (UTC) [ ответить ]
Согласен, он описывает ту же технику. Давайте заменим эту статью на перенаправление. Мне кажется, нам не нужно ничего объединять. Единственный новый факт, упомянутый там, это "Ошибка затем оценивается как err = 0,632×err_test + 0,368×err_training". Неясно, откуда взялась эта формула. Ссылки мне не кажутся полезными: 1) статья Эфрона о бутстрэппинге в статистике, а не о бэггинге, 2) в статье Виолы и Джонса нет ничего о бэггинге, 3) внешняя ссылка мертва. -- X7q ( обсуждение ) 11:02, 20 мая 2011 (UTC) [ ответ ]
Линейные модели
На этой странице утверждается, что «Одним из интересных моментов в бэггинге является то, что, поскольку метод усредняет несколько предикторов, он бесполезен для улучшения линейных моделей». Есть ли ссылка на это? 88.211.7.22 12:10, 7 сентября 2007 (UTC) [ ответить ]
Я почти уверен, что если вы усредните несколько бутстрепированных (линейных?) моделей, то в итоге получите то же самое, что и при подгонке одной модели ко всему набору данных. —Предыдущий комментарий без знака , добавленный 99.232.36.40 (обсуждение) 22:18, 7 ноября 2007 (UTC)[ отвечать ]
Я совсем не уверен, но я хотел бы увидеть кривую, подобранную по полным данным на рисунке! Может быть, смоделированный набор данных также даст лучшее представление о преимуществах бэггинга? Jeroenemans (обсуждение) 15:11, 6 марта 2008 (UTC) [ ответить ]
Каков контекст утверждения? Бэггинг не используется в традиционных линейных моделях, а используется в подходах машинного обучения (случайные леса и т. п.). Так в чем же смысл?
Я не уверен, что анонимный автор имел в виду именно это, но у меня такой вопрос. Если я создаю модель GLM со многими свободными параметрами (например, мне интересно подобрать первые 10 членов в разложении Тейлора некоторой сложной функции), выиграю ли я от пакетирования своих моделей? -- IlyaV ( обсуждение ) 05:19, 1 апреля 2009 (UTC) [ ответить ]
Хех, кажется, я сам ответил на свой вопрос. Я провел несколько симуляций, и похоже, что пакетирование модели GLM дало большую ошибку относительно данных без шума, чем исходная GLM. Мои примеры были получены с использованием гауссовского шума, добавленного к нелинейной модели. Я пробовал GLM очень высокого порядка (10+ коэффициентов), и пакетирование так и не улучшило прогноз (измеряемый с помощью MSE относительно исходного распределения без шума). Похоже, что при n->Inf пакетирование дает прогноз, который начинает приближаться к исходной GLM -- IlyaV ( talk ) 18:57, 2 апреля 2009 (UTC) [ ответить ]
63,2%
Пожалуйста, объясните это: «Если n'=n, то для больших n набор Di, как ожидается, будет иметь 63,2% уникальных примеров D, остальные — дубликаты». Как выводятся загадочные 63,2%? Если n' (размер каждого Di равен n (размеру исходного обучающего набора данных), то Di содержит 100% обучающего набора данных! Кроме того, вместо слова «примеры» мы могли бы использовать какой-то стандартный язык, такой как случаи или наблюдения? — Предыдущий комментарий без знака добавлен 70.231.152.119 (обсуждение) 06:13, 20 марта 2009 (UTC) [ ответить ]
Нет, если Di взято из D с заменой (где n=size(D)), то вероятность дубликатов составляет 1/n^2, трипликатов — 1/n^3 (это слово?) и т. д. На самом деле это не зависит от размера ni. Если у вас ni>>n, то у вас должны быть все элементы Di из D, однако для ni<=n было бы невероятно маловероятно, что Di будет иметь все элементы из D. Кроме того, примеры — это стандартный язык, когда вы говорите об обучении; бэггинг — это, если уж на то пошло, алгоритм обучения. — IlyaV ( talk ) 16:43, 2 апреля 2009 (UTC) [ reply ]
Согласен с первым комментарием. Как может n'=n? --Zumerjud (обс.) 12:55, 24 февраля 2021 (UTC) [ ответить ]
@Zumerjud: Выборка делается с заменой. В чем проблема с n'=n? Burritok ( обсуждение ) 06:08, 27 февраля 2021 (UTC) [ ответить ]
@ Burritok : Извините, проблем нет. --Zumerjud (обс.) 14:29, 27 февраля 2021 (UTC) [ ответить ]
Реализации
Стоит ли приводить список реализаций? AndrewHZ ( обсуждение ) 18:44, 4 декабря 2012 (UTC) [ ответить ]
Вот начало списка
Нейронные сети с выпадением («Выпадение можно рассматривать как крайнюю форму бэггинга, в которой каждая модель обучается на одном случае, и каждый параметр модели очень сильно регуляризируется путем совместного использования его с соответствующим параметром во всех других моделях». Улучшение нейронных сетей путем предотвращения совместной адаптации детекторов признаков
bagEarth в пакете R каретка
Пакет R ipred Улучшенные предикторы
Пакет R adabag Применяет мультикласс AdaBoost.M1, AdaBoost-SAMME и Bagging
Проблема формулировки
"Это хорошо известно" кем? Вы сделали предположения и о читателе, и о населении в целом. Я бы сказал, что придаточное предложение "Это хорошо известно, что" можно вообще опустить, а предложение можно начать с "Риск 1..." — Предшествующий неподписанный комментарий добавлен 134.197.105.161 ( обсуждение ) 21:24, 25 апреля 2015 (UTC) [ ответить ]
Согласен. Я убрал оскорбительную фразу и добавил ссылку, подтверждающую утверждение. -- Марк Викинг ( обсуждение ) 23:04, 25 апреля 2015 (UTC) [ ответить ]