Эта статья имеет рейтинг Start-class по шкале оценки контента Википедии . Она представляет интерес для следующих WikiProjects : | |||||||||||||||||||||||||||||||||
|
Это не парадокс , поскольку существует только один возможный результат, основанный на определении проблемы. Bensaccount 03:48, 25 марта 2004 (UTC)
Парадокс логически приводит к внутреннему противоречию. Это не так. Только нелогичный спор с самой проблемой приведет к противоречию. Проблема приводит только к одному конечному результату. Bensaccount 04:04, 25 марта 2004 (UTC)
Это действительно парадокс, поскольку два широко распространенных принципа принятия решений (ожидаемая полезность и доминирование) противоречат друг другу относительно того, какое решение является наилучшим.
Kaikaapro 00:18, 13 сентября 2006 г. (UTC)
Это не парадокс в логическом смысле, хотя многим людям это может показаться противоречащим интуиции, что заставит их предположить, что здесь замешан парадокс, а не ошибочные предположения. Точность предсказаний изложена в задаче и должна предполагаться. Фактически сделанный выбор — это сделанное предсказание. Даже допуская некоторую ошибку (почти всегда правильную), все равно было бы выгодно предположить 100% точность в любом случае. Ninahexan ( talk ) 02:25, 11 января 2011 (UTC)
Вот проблема, сформулированная правильно. Сверхсущество Омега провело этот эксперимент и до сих пор точно предсказало выбор каждого человека. Вам показывают две коробки. Одна прозрачная, и в ней 1000 долларов. Другая непрозрачная. Омега говорит вам это. «Вы можете выбрать обе коробки или только коробку B. Я сделал прогноз о том, что вы выберете. Если я предсказал, что вы возьмете обе коробки, то коробка B пуста. Если я предсказал, что вы возьмете только коробку B, то в коробке B лежит 1 миллион долларов. Мое решение принято, и содержимое коробки B установлено. В этой камере нет случайности . Примите решение сейчас». Один аргумент: «Каждый человек, который выбрал только B, получил 1 миллион, а каждый человек, который выбрал оба, получил 1000, поэтому выбор очевиден. Я должен быть одним из тех, кто выбрал B». Другой аргумент: «Независимо от того, каково было предсказание Омеги, я получу больше денег, если выберу обе коробки, поэтому я должен выбрать обе». Обратите внимание, что непогрешимость Omega не является предположением проблемы, но до сих пор не было ни одного сбоя. 74.211.60.216 (обсуждение) 04:21, 15 октября 2018 (UTC)
Mcslinky Есть ли конкретное изменение в предлагаемой статье? Rolf H Nelson ( обсуждение ) 19:02, 13 июня 2020 (UTC)
После нескольких дней исследований и размышлений я твердо убежден, что 1) это парадокс с нетривиальным анализом и 2) что первоначальная версия (хотя и несовершенная) была ближе к NPOV, чем текущая версия.
Основная претензия Bensaccount, похоже, заключается в том, что поскольку «обратная причинно-следственная связь определена в проблеме», существует только одно решение. Однако свободная воля также «определена в проблеме» — в противном случае Chooser на самом деле не делает выбора. Используя структуру Bensaccount, мы имеем два взаимно несовместимых вывода, но ни одну из предпосылок (свободную волю и способность предсказывать будущее) нельзя легко или очевидно отвергнуть как неверную.
Разве не логично предположить, что предсказатель — это тот, у кого нет свободной воли, и его выбор продиктован свободной волей будущего выбирающего? Ninahexan ( обсуждение ) 02:29, 11 января 2011 (UTC)
Вот парадоксальные факты проблемы, изложенные правильно. 1. Каждый человек, выбравший ящик B, получил 1 миллион долларов. 2. Каждый человек, выбравший оба, получил 1000 долларов. 3. Выбор обоих вариантов дает на 1000 долларов больше, чем выбор B, независимо от прогноза. 4. Прогноз уже был сделан. Оба аргумента одинаково убедительны и дают противоположные советы, и любой, кто верит в один аргумент, считает другой глупым. Этот парадокс вряд ли будет решен. Мы не можем на самом деле предположить, что есть хотя бы один человек, который выбрал только ящик B, если этот факт не был указан в задаче. Сочетание отсутствия обратной причинности и его прошлой непогрешимости создает парадокс. — Предыдущий неподписанный комментарий добавлен 74.211.60.216 (обсуждение) 18:24, 15 октября 2018 (UTC)
Длинная статья и посты, я искал, но не читал полностью. Следующее может быть излишним.
Я слышал о вариации этой проблемы. Предположим, что у вас есть друг, стоящий по другую сторону стола. Ящик B также прозрачен (со стороны друга — вы все равно не видите его содержимое). Ваш друг ХОЧЕТ, чтобы вы взяли обе коробки.
Чем вы занимаетесь? 67.172.122.167 (обсуждение) 05:47, 31 июля 2011 (UTC)
Этот вариант не является парадоксом. Предположим, что ваш друг заботится о ваших интересах. Это разумное предположение. Ваш друг советует вам выбрать оба варианта, потому что он/она знает, что такой выбор принесет вам больше денег. 74.211.60.216 (обсуждение) 04:54, 15 октября 2018 (UTC)
Упс. Aaaronsmith ( обсуждение ) 05:49, 31 июля 2011 (UTC)
Просто отвечая на этот абзац статьи:
Если игрок верит, что предсказатель может правильно предсказать любые его или ее мысли, но имеет доступ к некоторому источнику случайных чисел, которые предсказатель не может предсказать (например, подбрасывание монеты или квантовый процесс), то игра зависит от того, как предсказатель отреагирует (правильно) на знание того, что игрок будет использовать такой процесс. Если предсказатель предсказывает, воспроизводя процесс игрока, то игрок должен открыть обе коробки с вероятностью 1/2 и получит в среднем $251 000; если предсказатель предсказывает наиболее вероятное действие игрока, то игрок должен открыть обе с вероятностью 1/2 - эпсилон и получит в среднем ~$500 999,99 ; и если предсказатель помещает $0 всякий раз, когда он верит, что игрок будет использовать случайный процесс, то традиционный «парадокс» остается неизменным.
Все это немного запутанно. Во-первых, разговор о «монете» вводит в заблуждение, поскольку (идеальная) монета всегда имеет вероятность 1/2, но автор говорит о том, что игрок должен делать, если у него есть доступ к случайному устройству, которое может быть настроено на выбор между двумя результатами с любой желаемой вероятностью. (Это надолго сбило меня с толку!)
В случае 1 (предсказатель воспроизводит процесс), если вы выбираете вероятность 50/50, ожидаемое значение выплаты представляет собой прямое среднее арифметическое всех четырех возможностей ($500 500). (Цифра автора в $251 000 была бы верной, если бы вы выбрали Ящик A или оба ящика. Это Ящик B или оба.) Однако это вовсе не обходит парадокс: выбор открытия обоих ящиков лучше, чем использование случайного устройства по той же причине, что и раньше (что бы ни находилось в Ящике B, вы получите больше, если возьмете оба, чем если не возьмете) , а выбор открытия одного ящика лучше, чем использование случайного устройства, поскольку он дает более высокую ожидаемую выплату.
Случай 2 написан неясно, но я думаю, что автор говорит «что если» предиктор реагирует на случайность, всегда выбирая более вероятный результат. В этом случае настройка устройства на выбор обоих ящиков с вероятностью 0,5 минус эпсилон (где эпсилон — очень малое количество) означает, что в ящике B всегда будет миллион. Средняя выплата составит чуть меньше 1 000 500 долларов. (Опять же, указанная цифра была бы верной, если бы выбор был между ящиком A или обоими ящиками.) Это была бы явно оптимальная стратегия, и поэтому не было бы никакого парадокса, если бы предиктор действительно работал таким образом.
Но я не вижу, почему мы должны иметь право предполагать, что предсказатель может предсказывать мысли, но не результат случайного устройства. Если мы просто условимся , что предсказатель способен предсказать РЕАЛЬНОЕ решение неопределенными способами, то даже упоминание случайного устройства ничего не даст. Парадокс остается: «У вас есть два возможных решения, каждое из которых может быть показано с помощью, казалось бы, разумного аргумента как превосходящее другое».
Я прав? 2.25.135.6 (обсуждение) 18:34, 18 декабря 2011 (UTC)
Крис Ланган также предложил решение проблемы. Это было опубликовано в Noesis (номер 44, декабрь 1989 - январь 1990). Noesis был журналом Noetic Society. — Предыдущий неподписанный комментарий добавлен 89.9.208.63 (обсуждение) 21:46, 18 декабря 2012 (UTC)
Представьте себе мир, в котором у всех пар четверо детей. После того, как мать (genX) достигает менопаузы, правительство арестовывает троих из ее (genX+1) детей и либо тайно убивает их, либо нет. Затем оно сообщает родителям (genX), что предсказало, убьют ли они своего четвертого (genX+1) ребенка: если их родители (genX-1) убили одного из своих братьев и сестер (genX), то правительство предсказало, что пара (genX) будет вести себя как их родители и убьет своего четвертого (genX+1) ребенка, и поэтому правительство освободит остальных троих. И наоборот, если их родители (genX-1) не убили одного из своих братьев и сестер (genX), то правительство предсказало, что пара (genX) будет вести себя как их родители и не убьет своего четвертого (genX+1) ребенка, и поэтому правительство уже убило остальных троих.
Если предположить, что пара хочет сохранить свои гены, то для них вполне логично убить четвертого ребенка. Если правительство отпустит остальных троих детей, оно, следовательно, воспользуется этим выбором для прогнозирования поведения их детей и не убьет детей поколения X+2. Каждое поколение будет содержать 150% генов предыдущего.
Если пара откажется убить четвертого ребенка, правительство убьет всех его детей, кроме одного, и их гены постепенно вымрут.
Джон Блэквелл ( обсуждение ) 17:06, 25 июня 2013 (UTC)
Дает ли Ньюкомб четкое определение «оптимального»? Ясно, что мы стремимся определить, какая из двух стратегий является оптимальной, но существует несколько допустимых определений «оптимального»:
87.113.40.254 (обсуждение) 18:55, 5 июля 2013 (UTC)
Я вижу здесь что-то вроде парадокса, но он не между двумя перечисленными стратегиями. Скорее, первая стратегия ошибочна:
То есть, если прогноз заключается в том, что будут взяты и A, и B, то решение игрока становится вопросом выбора между 1000 $ (взяв A и B) и 0 $ (взяв только B), в этом случае взятие обеих коробок, очевидно, предпочтительнее. Но даже если прогноз заключается в том, что игрок возьмет только B, то взятие обеих коробок принесет 1 001 000 $, а взятие только B принесет только 1 000 000 $ — взятие обеих коробок все равно лучше, независимо от того, какой прогноз был сделан.
Эта стратегия не учитывает две важные детали:
На самом деле, принимая во внимание последний пункт, кажется, что проблема Ньюкомба немного похожа на одностороннюю версию дилеммы заключенного .
Рассмотрим, является ли предиктор демоном Лапласа . В этом случае:
В этом случае вторая стратегия (всегда выбирать B) явно лучше.
Однако это поднимает два вопроса:
Большая часть беспокойства о «свободе воли» на самом деле не является проблемой: рациональный игрок часто жертвует частью или всей своей свободной волей, чтобы максимизировать ожидаемую ценность. Например, рассмотрим задачу Монти Холла : рациональный игрок всегда будет переключаться (независимо от того, что он считает максимальным).
Во вселенных, подобных нашей, все становится сложнее, поскольку идеального предсказателя не существует.
Давайте рассмотрим еще один предсказатель, который всегда неверен (ангел Лапласа?). В этом случае:
В этом случае первая стратегия (всегда выбирать обе) явно лучше.
К настоящему моменту должно быть очевидно, что наилучшая стратегия зависит от точности предиктора.
Пусть P(C|B) представляет вероятность того, что предиктор был верным, учитывая, что игрок выбрал только ящик B. Пусть P(C|AB) представляет вероятность того, что предиктор был верным, учитывая, что игрок выбрал оба ящика.
Если игрок выбирает ящик B, ожидаемый результат составляет P(C|B) * $1 000 000. Если игрок выбирает ящики A+B, ожидаемый результат составляет (1 - P(C|AB)) * $1 000 000 + $1 000.
Должно быть очевидно, что «идеальный предиктор» — это особый случай, когда P(C) = 1.
Поэтому лучшей метастратегией будет одна из этих двух:
Какой из этих двух вариантов лучше, зависит от максимально достижимого P(C|B) и минимально достижимого P(C|AB).
На самом деле ни одна из предложенных стратегий не является по-настоящему оптимальной. Они слишком просты.
Например, если точность предиктора очень высока, отличной стратегией будет следующая:
Единственный «парадокс», который я вижу, заключается в том, что, если не считать подобных уловок, как выше:
Раздел под названием «Проблема» в настоящее время начинается со следующего абзаца:
Человек играет в игру, которой управляет Предсказатель, сущность, которая каким-то образом представлена как исключительно искусная в предсказании действий людей. Точная природа Предсказателя различается в зависимости от пересказа парадокса. Некоторые предполагают, что персонаж всегда имеет репутацию абсолютно непогрешимого и неспособного на ошибку; другие предполагают, что у Предсказателя очень низкий уровень ошибок. Предсказатель может быть представлен как экстрасенс, сверхразумный инопланетянин, божество, сканирующий мозг компьютер и т. д. Однако в оригинальном обсуждении Нозика говорится только о том, что предсказания Предсказателя «почти наверняка» верны, а также указывается, что «то, что вы на самом деле решили сделать, не является частью объяснения того, почему он сделал предсказание, которое он сделал». В этой оригинальной версии проблемы часть обсуждения ниже неприменима.
Действительно ли это первые 130 слов, которые мы хотим, чтобы люди прочитали по этой теме? Может ли большая часть этой педантичности подождать несколько абзацев, после того как мы объясним, в чем на самом деле заключается парадокс? -- Doradus ( обсуждение ) 14:19, 4 апреля 2015 (UTC)
Текущий текст:
«Дополнительное условие Нозика в сноске в оригинальной статье пытается устранить эту проблему, оговаривая, что любое предсказанное использование случайного выбора или случайного события будет рассматриваться предсказателем как эквивалентное предсказанию выбора обоих ящиков. Однако это предполагает, что изначально непредсказуемые квантовые события (например, в мозге людей) не будут играть никакой роли в процессе размышлений о том, какой выбор сделать,[12] что является недоказанным предположением. Действительно, некоторые предполагали, что квантовые эффекты в мозге могут быть существенными для полного объяснения сознания (см. Организованная объективная редукция), или — возможно, даже более уместно для проблемы Ньюкомба — для объяснения свободной воли.[13]»
Но изначальное положение Нозика явно касается консультаций с внешними лицами, принимающими решения, случайности вне разума, т. е. это запрет на «отказ». Он вовсе не «предполагает», что квантовые события «не вступят в игру», потому что важна не внутренняя случайность, а внешняя. Цитаты даже не оспаривают этот момент, (12) касается вычислительной модели проблемы и признает, что «Вы можете быть смоделированы как детерминированный или недетерминированный преобразователь», статья, похоже, не заботится о том, является ли ваш разум случайным или нет. Так что, возможно, самый простой способ рассматривать это как оригинальное исследование. -- Thomas B ♘ talk 21:12, 22 мая 2015 (UTC)
Я думаю, что ссылка Guardian сенсационна и не должна считаться надежным источником в данном случае; основной принцип «парадокса» был определен, и оба решения представлены очень кратко. Действительно ли философы «разделены» по этому поводу, или они просто обсуждают разные решения и понимают, что каждое из них справедливо для игры с разными вероятностями? Или я слишком доверяю философам в понимании вероятности? Bright☀ 09:53, 13 апреля 2018 (UTC)
Извините, если это было указано, но правильный расчет ожидаемой полезности требует знания вероятности того, что ящик B содержит 1 000 000 долларов, а НЕ вероятности того, что предсказание «Предсказателя» верно. Поэтому правильный расчет ожидаемой полезности будет поддерживать выбор обоих ящиков (даже если у нас нет информации для расчета точной ожидаемой полезности). Это похоже на простой случай, когда философы не сильны в математике. Кто-нибудь возражает против раздела, указывающего на это, с использованием источников, цитируемых в статье об ожидаемой полезности ? Blue Eyes Cryin ( обсуждение ) 05:38, 22 июля 2019 (UTC)
Когда я ищу в сети, я вижу описания проблемы, подчеркивающие, что предиктор идеален или почти идеален в своих предсказаниях. Это, кажется, отсутствует в разделе определения проблемы и упоминается только (неоднозначно) кратко во введении. Если эта информация имеет отношение к проблеме, то она должна появиться в описании проблемы. 2001:44B8:233:200:2CBA:8688:FA10:5812 (обсуждение) 12:02, 28 марта 2020 (UTC)
Почему особое внимание уделяется ложной концепции «свободной воли»? Идея «свободной воли» определяется как человеческая мысль, не подпадающая под юрисдикцию молекулярных и атомных процессов человеческой биохимии и биологии. Извините, но человеческая мысль на 100% зависит от биохимии нейронов и других активирующихся клеток, и эти нейронные действия контролируются законами химии и физики.
Единственный способ существования «свободной воли» — это если человеческая мысль сама по себе сможет преодолеть законы физики... что является чушь. 50.239.107.122 (обсуждение) 18:32, 10 ноября 2020 (UTC)
Если есть предсказатель, который, как говорят, «почти всегда прав», этот человек должен был каким-то образом дойти до этой точки. Таким образом, вывод становится таким, что под ящиком B никогда не бывает денег. Как? Просто путем добавления утверждения о том, что случайный выбор приведет к тому, что ящик B будет пустым. Случайный выбор был бы единственным способом уничтожить идеальный счет предсказателя и всегда оставлять его с результатом 50/50 (или статистически незначимым отклонением). Если человек выбирает A+B, он получает 1000$, а предсказатель сохраняет свою работу. Если человек выбирает только ящик B, предсказатель заявляет о случайности, выбирающий ничего не получает, предсказатель сохраняет свою работу.
Парадокс неожиданного повешения также касается знаний и рассуждений о будущем.
Фокус (теория игр) имеет дело с «привлекательными» стратегиями (не очень формально). Элиас ( обсуждение ) 13:22, 7 июня 2023 (UTC)
Что может изменить игру, так это количество раз, когда в нее играют. 188.80.215.136 (обсуждение) 22:06, 1 марта 2024 (UTC)