Эта статья имеет рейтинг C-класса по шкале оценки контента Википедии . Она представляет интерес для следующих WikiProjects : | |||||||||||||||||||||
|
Предлагаю объединить эту статью по этому адресу с Таблицей путаницы . Проблема та же самая, и статья должна быть только одна, чтобы избежать путаницы //конец неудачной шутки//. -- Ben T / C 15:46, 21 мая 2007 (UTC)
Я не поддерживаю это изменение названия. «Матрица путаницы» всегда использовалась в распознавании речи и в некоторых других задачах распознавания образов, хотя я не могу проследить происхождение этого использования. Например, некоторые довольно стандартные наборы инструментов распознавания последовательностей, такие как HTK, имеют инструменты, специально разработанные для получения этой «матрицы путаницы».
Я согласен с тем, что в большинстве случаев мы видим таблицу (особенно если читаем ее с бумаги), и полагаю, что вся эта «таблица неточностей» возникла из статистики и людей, которые развивали свою область еще до появления компьютеров.
В коммуникациях мы называем связанную диаграмму ROC ( Receiver_operating_characteristic ), каждая из рабочих точек которой является таблицей путаницы. Я предлагаю ввести туда "таблицу путаницы" и улучшить "матрицу путаницы". --FJValverde 09:24, 14 июня 2007 (UTC)
Идея в том, чтобы иметь как можно больше информации для максимально широкой аудитории. Поскольку эти 2 — одно и то же с разными терминами — имеет смысл объединить их, перенаправляя поисковые запросы на одну страницу. — пользователь AOberai, 14 августа 2007 г.
Чтобы еще больше запутать ситуацию, матрицы путаницы используются не только в ИИ (как предполагается в этой статье). Матрица путаницы также используется в наблюдении за Землей при проверке тематических классификаций.
Да, я считаю, что ИИ слишком узок в этом обсуждении. Я предлагаю "Распознавание образов" - это реальный контекст, в котором матрицы путаницы имеют смысл. FJValverde 09:01, 14 июня 2007 (UTC)
Я думаю, что они используются в статистике в целом, будь то для распознавания образов или наблюдения за Землей. -- Ben T / C 07:41, 20 июня 2007 (UTC)
Э-э... В моем очень ограниченном историческом взгляде на статистику и PR, последний фактически возник из первого, но с тех пор обрел некоторую независимость: не все методы в PR являются статистическими (или даже вероятностными). Однако я думаю, что матрица путаницы является собственно концепцией PR в том смысле, что классификатор n-to-m является очень базовой задачей PR. В этом смысле наблюдение за Землей и "тематическая классификация" (имеется в виду классификация типа почвы и т. п. на основе изображений, полученных со спутников, верно?) являются строго типом задачи PR. --FJValverde 08:47, 22 июня 2007 (UTC)
Пожалуйста, добавьте метки к матрице, какие из них являются фактическими значениями, а какие — прогнозируемыми. Читая текст, становится ясно, но, пожалуйста, обратите внимание, что статья о Receiver Operating Characteristic ссылается здесь и там, матрица путаницы транспонирована (но помечена). Stevemiller 04:30, 9 октября 2007 (UTC)
Нам крайне необходимо разъяснение определения точности производителя и пользователя, которая тесно связана с матрицей путаницы. Комментарий добавлен Ctzcheng ( обсуждение • вклад ) 17:26, 10 марта 2008 (UTC)
Строка "Каждый столбец матрицы представляет экземпляры в предсказанном классе" не соответствует рисункам, которые, кажется, имеют истинные классы в строках и предсказанные классы в столбцах. Это кажется немного вводящим в заблуждение.. —Предыдущий неподписанный комментарий, добавленный 128.40.231.243 (обсуждение) 12:15, 1 июля 2009 (UTC)
Множество цветов в матрице непредвиденных обстоятельств очень отвлекают. («Таблицы в безумных цветах трудно читать». [1] Форматирование таблицы следует упростить, чтобы 4 ячейки на пересечении «Истинное состояние» и «Прогнозируемое состояние» были преобладающими и выделялись на фоне дополнительной информации в других ячейках, особенно тех, где есть формулы. Уменьшите или исключите множество цветов. AEnw (обсуждение) 08:18, 27 декабря 2015 (UTC)Aenw
Ссылки
Абзац, который начинается со слов: «Когда набор данных не сбалансирован...», вероятно, следует удалить. Я считаю, что это скорее общее свойство алгоритмов классификации, а не свойство этого метода визуализации. BAxelrod ( talk ) 19:23, 16 мая 2011 (UTC)
Разве это не то же самое, что и Таблица сопряженности ? Я понимаю, что разные поля имеют разный жаргон, но я все равно считаю, что сходство следует признать. 82.181.42.45 (обсуждение) 18:58, 1 ноября 2011 (UTC)
Введение гласит, что столбцы — это предсказанный класс, а строки — фактический класс. В разделе «Пример» это соглашение изменено без подтверждения. В разделе «Таблица путаницы» используется изначально заявленное соглашение. Я предлагаю ввести замечание о том, что существует несколько соглашений, но затем в статье используется единое соглашение. Doug Paul (обсуждение) 04:07, 29 апреля 2012 (UTC)
Нормализация матрицы путаницы также должна быть объяснена. — Предыдущий неподписанный комментарий добавлен Scls19fr ( обсуждение • вклад ) 12:52, 26 апреля 2015 (UTC)
Я бы ожидал, что в результате таблицы путаницы будет 14 истинно отрицательных результатов, потому что указано, что это правильно предсказанные не кошки. Итак, (3 собаки + 11 кроликов), которые правильно предсказаны как не кошки. Однако я вижу аргумент в пользу простого сложения всех ((TP+FP+FN) - остальные случаи). Потому что это животные, которые не являются кошками fn, fp или tp. Есть ли у нас какая-то ссылка на формулу, как TN определяется более точно?
(Jogoe12 (обс.) 18:46, 19 декабря 2016 (UTC)).
Ссылка https://link.springer.com/content/pdf/10.1023%2FA%3A1017181826899.pdf (https://doi.org/10.1023/A:1017181826899) от 1998 года определяет матрицу путаницы, в которой строки являются истинными данными, а столбцы — прогнозируемыми значениями. Сбивает с толку то, что Википедия использует противоположное соглашение, как здесь, так и в ROC. Matlab также использует противоположное соглашение. Lenhamey (обсуждение) 02:31, 2 мая 2019 (UTC)
Я согласен, что было бы лучше использовать соглашение с истинными значениями в строках. Оно не только лучше согласуется с литературой, но и принято в широко используемой библиотеке Python scikit-learn, поэтому оно обязательно будет появляться все чаще и чаще везде, от научных публикаций до сообщений в блогах и деловых встреч. Ниже приведен пример книг по машинному обучению и статистике, которые принимают соглашение с истинными значениями в строках (третья — известная книга по статистике):
Danilosilva128 ( обсуждение ) 14:31, 5 мая 2021 (UTC)
Что вы думаете Пользователь:cmglee ? Danilosilva128 ( обсуждение ) 14:41, 5 мая 2021 (UTC)
Матрица, показывающая прогнозируемую и фактическую классификации. Матрица путаницы имеет размер l × l , где l — количество различных значений меток. Следующая матрица путаницы относится к l = 2:
Удалил это
Двойная левая фигурная скобка Термины матрицы путаницы|recall= Двойная правая фигурная скобка
из статьи сегодня, так как я понятия не имею, что он должен делать, и это приводит к беспорядку в начале статьи - Сразу после заголовка и перед «условие положительное(P)» на странице я вижу этот мусор
"Вставьте здесь неформатированный текст{| class="wikitable" width=35% style="float:right;font-size:98%; margin-left:0.5em; padding:0.25em; background:#f1f5fc;" |+ Терминология и производные из матрицы путаницы |- style="vertical-align:top;" | " — Предыдущий неподписанный комментарий добавлен Thinkadoodle ( обсуждение • вклад ) 15:06, 8 июня 2020 (UTC)
Можете ли вы отменить это изменение? Эта таблица была одним из лучших справочников по матрице путаницы и ее производным метрикам. Раньше она была в сером поле рядом со статьей. --Marvmind (обсуждение) 21:23, 8 июня 2020 (UTC)
83.83.238.65 (обсуждение) 11:46, 7 апреля 2021 (UTC)Я бы хотел найти на этой странице следующую формулу:
FN = (1-чувствительность) * N * распространенность
TP = чувствительность * распространенность * N
TN = (1-распространенность) * N * специфичность
FP = (1-распространенность) * N - TN
Поскольку я не смог их нигде найти, мне пришлось вывести их самостоятельно. (Я проверил правильность по калькулятору на: https://statpages.info/ctab2x2.html )
Они полезны, если кто-то другой сообщает данные о чувствительности, специфичности и распространенности, но не о самой матрице неточностей.
83.83.238.65 (обсуждение) 11:46, 7 апреля 2021 (UTC)
Я тоже это заметил: обозначения переоценки/недооценки в таблице не совпадают с обозначениями на боковой панели уравнения. Те, что на боковой панели, перевернуты и нуждаются в редактировании (я бы сам внес свой вклад, но не знаю, как это сделать); ложные положительные результаты — это переоценка значений (подсчет данных как 1, когда они должны быть 0), а ложные отрицательные результаты — это недооценка значений (просмотр данных как 0, когда они на самом деле 1). -- Jafonte01 ( обсуждение ) 15:50, 2 ноября 2021 (UTC)
Друзья-википедисты: Я предложил некоторые изменения в инфобоксе формулы, включенном в эту статью, с целью урезать его подавляющую (если не чрезмерную) ширину. Мое оригинальное сообщение с некоторыми пояснительными примечаниями находится на Template talk:Confusion matrix terms#Template_width , и вы можете увидеть измененную компоновку шаблона, которую я предложил, просмотрев его версию sandbox .
Там не было никаких ответов уже более двух месяцев, и поскольку предлагаемые мной изменения достаточно значительны, чтобы быть спорными, я хотел бы пригласить всех заинтересованных википедистов обсудить их на странице обсуждения шаблона . Спасибо! FeRDNYC ( обсуждение ) 00:12, 5 января 2022 (UTC)
Уважаемые коллеги!
Недавно я прочитал статью об общем показателе производительности для задач классификации. Это действительно обобщенный показатель производительности, определяемый как гармоническое среднее выбранных и желаемых классических показателей производительности (например, отзыва, специфичности и т. д.). Он полностью адаптируем, и классические показатели производительности являются его частным случаем. Я создал следующий черновик, чтобы включить его в Википедию с целью включения его позже в страницу матрицы путаницы и шаблон:
Проект:Общая оценка эффективности (GPS): общая метрика для оценки проблем классификации
RanchoLancho ( обсуждение ) 17:32, 26 января 2023 (UTC)