Talk: Повышение эффективности (машинное обучение)

Смещение против дисперсии

Первое предложение статьи определяет бустинг как метод снижения смещения. Разве это не неверно? Если бустинг обеспечивает обобщение, а дисперсия относится к дисперсии модели для разных обучающих наборов (т. е. высокая дисперсия означает переобучение), то бустинг должен снижать дисперсию и тем самым увеличивать смещение. Я в замешательстве, может кто-нибудь прокомментировать?

--EmanueleLM (обс.) 07:43, 1 июня 2016 (UTC) Нет, в принципе верно, так как в зависимости от количества слабых учеников вы можете получить смещение (их слишком мало) или переобучение (их слишком много). Это лучшая статья, которую вы можете прочитать о Boosting: http://rob.schapire.net/papers/explaining-adaboost.pdf [ ответить ]

В любом случае бустинг почти всегда снижает смещение и на практике, если вы не используете много обучающихся алгоритмов, не увеличивает дисперсию значительно.

Сильный против слабого

Объяснение сильного против слабого ученика немного запутанное. К сожалению, я не тот человек, который сможет объяснить это лучше. —Предыдущий неподписанный комментарий добавлен 193.171.142.61 ( обсуждение ) 08:42, 7 декабря 2010 (UTC) [ ответить ]

Повышение

Усиление также является методом увеличения мощности атомной бомбы ( Усиленное атомное оружие ). Это то, на что следует ссылаться в этой статье? Или, может быть, поместить на страницу disambig. для усиления ? --81.233.75.23 12:53, 1 июня 2006 (UTC) [ ответить ]

Это должно быть на странице disambug. Grokmenow 16:27, 10 июля 2007 (UTC) [ ответить ]

Ой, не увидел дату. Извините. Grokmenow 16:27, 10 июля 2007 (UTC) [ ответить ]

Категория компьютерного зрения

Я удалил эту статью из категории компьютерное зрение . Бустинг, вероятно, используется некоторыми людьми для решения задач CV, но

  1. Это не методология, разработанная в рамках CV или специально для CV.
  2. Бустинг уже включен в категорию ансамблевого обучения , которая связана с категорией CV через машинное обучение.

-- КИН 22:36, 27 июля 2007 г. (UTC) [ ответ ]

Последние статьи

Я удалил две статьи из раздела ссылок. Возможно, следует начать другой раздел ссылок, чтобы включить некоторые дополнительные исследования по бустингу.

-- AaronArvey — Предыдущий неподписанный комментарий добавлен AaronArvey ( обсуждениевклад ) 01:15, 3 сентября 2007 (UTC) [ ответить ]

"ускорители на основе ветвящихся программ"

В статье, цитируемой в отношении «выпуклых потенциальных усилителей, [не способных] противостоять случайному шуму классификации», утверждается, что «усилители на основе ветвящихся программ» могут противостоять шуму.

Было бы здорово, если бы кто-нибудь знающий мог объяснить, что такое «ускорители на основе ветвящихся программ». (Извините, но я не могу) — Предыдущий неподписанный комментарий добавлен 194.103.189.41 ( обсуждение ) 14:14, 23 марта 2011 (UTC) [ ответить ]

Согласен! -- 149.148.237.120 (обсуждение) 09:30, 27 августа 2014 (UTC) [ ответить ]

Объединение статьи

Я думаю, что эта статья: http://en.wikipedia.org/wiki/Boosting_methods_for_object_categorization

следует объединить с этим. Кто-нибудь согласен? — Предыдущий неподписанный комментарий добавлен 207.139.190.179 (обсуждение) 20:21, 4 декабря 2012 (UTC) [ ответить ]

Да (хотя и с некоторым опозданием). Klbrain ( обсуждение ) 14:23, 26 июля 2016 (UTC) [ ответить ]

Повышение многоклассовой категоризации

Boosting for multi-class categorization во втором абзаце заявляет, что основной поток алгоритма похож на двоичный случай . Возможно, автор имел в виду слово «недостаток»? В любом случае в двоичном случае нет упоминания о его основном потоке или недостатке. Поэтому это нужно прояснить и, возможно, переписать.-- Gciriani ( talk ) 01:57, 3 июня 2017 (UTC) [ ответить ]


Я думаю, он имел в виду алгоритм под потоком, потому что нет упоминания об ошибке. — Предыдущий неподписанный комментарий добавлен 2402:4000:2080:1FDC:15CB:7F3F:641:48B5 (обсуждение) 05:28, 23 июля 2020 (UTC) [ ответить ]

первое предложение противоречит своей собственной цитате

Первое предложение:

«Бустинг — это метаалгоритм ансамбля машинного обучения, предназначенный в первую очередь для снижения смещения, а также дисперсии[1]»

и эта цитата приводит к:

https://web.archive.org/web/20150119081741/http://oz.berkeley.edu/~breiman/arcall96.pdf

Я не могу найти в этой статье ничего, что бы говорило о том, что бустинг "в первую очередь направлен на снижение предвзятости". На самом деле, похоже, все наоборот:

«Хотя и бэггинг, и дугообразование [=усиление] немного уменьшают смещение, их основной вклад в точность заключается в значительном снижении дисперсии. Дугообразование лучше, чем бэггинг, потому что оно лучше справляется с уменьшением дисперсии».

31.220.221.120 (обсуждение) 14:04, 14 декабря 2017 (UTC) [ ответить ]

Retrieved from "https://en.wikipedia.org/w/index.php?title=Talk:Boosting_(machine_learning)&oldid=1200262725"