Парадокс Полани

Философская теория
Профессор Майкл Полани во время похода в Англии

Парадокс Полани , названный в честь британо-венгерского философа Михаэля Полани , — это теория о том, что человеческие знания о том, как функционирует мир, и о наших собственных возможностях в значительной степени находятся за пределами нашего явного понимания. Теория была сформулирована Майклом Полани в его книге «The Tacit Dimension» в 1966 году, а экономист Дэвид Аутор дал ей название в своей исследовательской работе 2014 года «Парадокс Полани и форма роста занятости». [1]

Парадокс Поланьи, обобщенный в лозунге «Мы можем знать больше, чем можем сказать», в основном призван объяснить когнитивный феномен, заключающийся в том, что существует множество задач, которые мы, люди, интуитивно понимаем, как выполнять, но не можем выразить словами их правила или процедуры. [2]

Это «самонезнание» свойственно многим видам человеческой деятельности, от вождения автомобиля в пробке до распознавания лиц. [3] Как утверждает Полани, при выполнении этих задач люди полагаются на свои неявные знания , которые трудно адекватно выразить вербальными средствами. [2] Парадокс Полани широко рассматривается как одно из основных препятствий в области ИИ и автоматизации, поскольку программирование автоматизированной задачи или системы затруднено, если нет полного и полностью конкретного описания процедуры. [4]

Происхождение

Британско-венгерский философ Майкл Полани регулярно изучал причины, лежащие в основе человеческой способности приобретать знания, которые они не могут объяснить посредством логической дедукции. В своей работе «Тацитное измерение» (1966) Полани исследовал «тацитное» измерение человеческого знания и разработал концепцию «тацитного знания» в противовес термину « явное знание ». [2]

Неявные знания можно определить как знания, которые люди усваивают из опыта и усваивают бессознательно, поэтому их трудно сформулировать и кодифицировать в осязаемой форме. Явные знания, противоположность неявным знаниям, — это знания, которые можно легко выразить словами и формализовать. [2] Неявные знания в значительной степени приобретаются посредством неявного обучения , процесса, посредством которого информация усваивается независимо от сознания субъектов. Например, носители языка неявно усваивают свой язык в раннем детстве, не изучая осознанно определенные правила грамматики (явные знания), но с обширным воздействием повседневного общения. [5] Кроме того, люди могут лишь ограниченно передавать свои неявные знания посредством тесного взаимодействия (обмена опытом друг с другом или наблюдения за поведением других). Для получения неявных знаний между людьми должен быть установлен определенный уровень доверия. [6]

Неявное знание включает в себя ряд концептуальной и сенсорной информации, которая характеризуется сильной личной субъективностью. Оно неявно отражается в человеческих действиях; как утверждал Полани, «неявное знание обитает в нашем сознании». [2] Навыки, опыт, проницательность, креативность и суждение людей — все это попадает в это измерение. [7] Неявное знание также можно описать как ноу-хау, в отличие от знания того или фактов. [6] До Полани Гилберт Райл опубликовал статью в 1945 году, в которой провел различие между знанием того (знанием предложения) и знанием того, как. По мнению Райла, это знание ноу-хау является инстинктивным и внутренним знанием, укорененным в человеческих способностях человека. [8]

Поскольку неявное знание не может быть выражено в пропозициональной или формальной форме, Полани заключает такую ​​неспособность к артикуляции в лозунге «Мы можем знать больше, чем можем сказать». [2] Повседневные действия, основанные на неявном знании, включают распознавание лица, вождение автомобиля, езду на велосипеде, написание убедительного абзаца, разработку гипотезы для объяснения плохо понятого явления. [7] Возьмем распознавание лиц в качестве иллюстрации: мы можем узнать лицо нашего знакомого из миллиона других, при этом мы не осознаем знания его лица. Нам было бы трудно описать точное расположение его глаз, носа и рта, поскольку мы запоминаем лицо бессознательно. [4]

В качестве прелюдии к «Тацитному измерению » в своей книге «Личное знание » (1958) Полани утверждает, что все знание является личным, подчеркивая глубокое влияние личных чувств и обязательств на практику науки и знания. Выступая против доминирующего тогда мнения эмпириков о том, что разум и опыт сводятся к чувственным данным и наборам правил, он выступает за постпозитивистский подход, который признает, что человеческое знание часто выходит за рамки их явного выражения. Любая попытка определить неявное знание приводит только к самоочевидным аксиомам, которые не могут сказать нам, почему мы должны их принимать. [9]

Подразумеваемое

Наблюдение Полани имеет глубокие последствия в области ИИ, поскольку парадокс, который он определил, что «наши неявные знания о том, как работает мир, часто превосходят наше явное понимание», объясняет многие проблемы компьютеризации и автоматизации за последние пять десятилетий. [1] Автоматизация требует высокого уровня точности, чтобы сообщить компьютеру, что должно быть сделано, в то время как неявные знания не могут быть переданы в пропозициональной форме. Поэтому машины не могут обеспечить успешные результаты во многих случаях: у них есть явные знания (необработанные данные), но, тем не менее, они не знают, как использовать такие знания, чтобы понять задачу в целом. [6] Это несоответствие между человеческим мышлением и алгоритмами обучения ИИ затрудняет автоматизацию задач, требующих здравого смысла, гибкости, адаптивности и суждения — интуитивных знаний человека. [4]

Экономист MIT Дэвид Аутор — один из ведущих скептиков, сомневающихся в перспективах машинного интеллекта. Несмотря на экспоненциальный рост вычислительных ресурсов и неумолимый темп автоматизации с 1990-х годов, утверждает Аутор, парадокс Полани препятствует современным алгоритмам заменять человеческий труд в ряде квалифицированных работ. Поэтому журналисты и эксперты-комментаторы переоценили масштабы замены человеческого труда машинами. [1] Хотя современная компьютерная наука стремится преодолеть парадокс Полани, постоянно меняющаяся, неструктурированная природа некоторых видов деятельности в настоящее время представляет собой пугающие проблемы для автоматизации. Несмотря на годы и миллиарды инвестиций, потраченных на разработку беспилотных автомобилей и роботов-уборщиков, эти системы машинного обучения продолжают бороться со своей низкой адаптивностью и интерпретируемостью, от неспособности беспилотных автомобилей сделать неожиданный крюк до уязвимости роботов-уборщиков для неконтролируемых домашних животных или детей. [10] Вместо этого, чтобы позволить беспилотным автомобилям функционировать оптимально, нам придется существенно изменить существующую дорожную инфраструктуру, минимизировав необходимость участия человека во всем процессе вождения. [11]

Растущая профессиональная поляризация за последние несколько десятилетий — рост как высокооплачиваемых, высококвалифицированных абстрактных работ, так и низкооплачиваемых, низкоквалифицированных ручных работ — стала проявлением парадокса Поланьи. По словам Автора, существует два типа задач, которые оказались упорно сложными для искусственного интеллекта (ИИ): абстрактные задачи, требующие способностей к решению проблем, интуиции, креативности и убеждения, с одной стороны, и ручные задачи, требующие ситуационной адаптации, визуального распознавания, понимания языка и личного взаимодействия, с другой. Абстрактные задачи характерны для профессиональных, управленческих и технических профессий, в то время как профессии в сфере обслуживания и труда подразумевают множество ручных задач (например, уборка, подъем и бросание). Эти работы, как правило, дополняются машинами, а не заменяются ими. [1]

Напротив, по мере снижения стоимости вычислительной мощности компьютеры активно заменяют рутинные задачи, которые можно кодифицировать в четкие наборы инструкций, что приводит к резкому снижению занятости на рутинных рабочих местах с интенсивным выполнением задач. [1] Эта поляризация привела к сокращению среднего класса в индустриальных экономиках, поскольку многие профессии со средним доходом в сфере продаж, офисной и административной работы, а также повторяющейся производственной работы являются интенсивными. Более того, последующий рост неравенства доходов и неравенства благосостояния недавно стал серьезной социально-экономической проблемой в развитых странах. [12]

Критика

Некоторые технологические оптимисты утверждают, что недавние достижения в области машинного обучения преодолели парадокс Поланьи. Вместо того, чтобы полагаться на алгоритмы программистов, которые обучают их человеческим знаниям, компьютерные системы теперь способны самостоятельно изучать неявные правила из контекста, обильных данных и прикладной статистики. Поскольку машины могут выводить неявные знания, которые люди черпают из примеров без помощи человека, они больше не ограничены этими правилами, которые неявно применяются, но явно не понимаются людьми. [13]

Ли Седоль (Б) против AlphaGo (Ж) - Игра 1

Программа AlphaGo, созданная дочерней компанией Google DeepMind, является примером того, как достижения в области ИИ позволили бездумным машинам очень хорошо выполнять задачи, основанные на неявных знаниях. В турнире 2016 года по стратегической игре Go программа AlphaGo от DeepMind успешно победила одного из лучших игроков в GO в мире, Ли Седоля , со счетом четыре игры к одной. Команда DeepMind использовала подход, известный как глубокое обучение , для встраивания человеческих суждений в системы ИИ; такая система может вычислять сложные выигрышные стратегии, анализируя большие объемы данных из предыдущих матчей в го. [3]

С другой стороны, как утверждает Карр, предположение о том, что компьютеры должны быть способны воспроизводить неявные знания, которые люди будут применять для выполнения сложных задач, само по себе вызывает сомнения. При выполнении задач системам и машинам вовсе не обязательно следовать правилам, которым следуют люди. Цель выполнения машиной задачи — воспроизвести наши результаты для практических целей, а не для наших средств. [14]

Джерри Каплан , предприниматель из Кремниевой долины и эксперт по ИИ, также иллюстрирует этот момент в своей книге « Людям не нужно применять» , обсуждая четыре ресурса и возможности, необходимые для выполнения любой поставленной задачи: осознание, энергия, рассуждение и средства. Биологическая система человека (комплекс мозг-тело) естественным образом объединяет все эти четыре свойства, в то время как в электронной сфере машины могут получить эти способности благодаря разработкам в области робототехники, машинного обучения и систем, обеспечивающих восприятие. Например, данные, предоставляемые широкой сетью датчиков, позволяют ИИ воспринимать различные аспекты окружающей среды и мгновенно реагировать в хаотичных и сложных ситуациях реального мира (т. е. осознание); приказы и сигналы для исполнительных устройств могут быть централизованы и управляться в серверных кластерах или в «облаке» (рассуждение). [15] Аргумент Каплана напрямую подтверждает предположение о том, что парадокс Полани больше не может препятствовать дальнейшим уровням автоматизации, будь то выполнение рутинных работ или ручных работ. Как говорит Каплан, «автоматизация слепа к цвету вашего воротника». [15]

Одним из примеров, подтверждающих аргумент Каплана, является внедрение Cloud AutoML, автоматизированной системы, которая может помочь любому бизнесу разрабатывать программное обеспечение ИИ, исследовательской группой Google Brain AI в 2017 году. Алгоритмы обучения AutoML автоматизируют процесс создания моделей машинного обучения, которые могут взять на себя определенную задачу, стремясь демократизировать ИИ для как можно большего сообщества разработчиков и предприятий. По словам генерального директора Google, Cloud AutoML взял на себя часть работы программистов (что, по словам Аутора, является «абстрактной задачей») и тем самым предложил одно из решений нехватки экспертов по машинному обучению. [16]

Парадокс Моравеца

Парадокс Моравеца утверждает, что по сравнению со сложными задачами, требующими высокого уровня рассуждений, компьютерам сложнее освоить низкоуровневые физические и когнитивные навыки, которые естественны и просты для выполнения людьми. Примерами служат обработка естественного языка и ловкие физические движения (например, бег по пересеченной местности). [17]

Соответственно, эксперты по робототехнике обнаружили, что автоматизировать навыки даже наименее подготовленного работника ручного труда сложно, поскольку эти работы требуют восприятия и мобильности (неявного знания). [17] По словам когнитивного ученого Стивена Пинкера из его книги «Языковой инстинкт» : «Главный урок тридцати пяти лет исследований ИИ заключается в том, что сложные проблемы — легкие, а легкие проблемы — сложные». [18]

В соответствии с дискуссией Дэвида Аутора о поляризации рабочих мест, Пинкер утверждает, что появление интеллектуальных машин нового поколения подвергнет биржевых аналитиков, инженеров-нефтехимиков и членов комиссий по условно-досрочному освобождению опасности быть замененными. Садовники, секретари и повара, напротив, в настоящее время находятся в безопасности. [18]

Проблема Платона

Проблема Платона — термин, который Ноам Хомский дал для «проблемы объяснения того, как мы можем знать так много», учитывая наш ограниченный опыт.

Бедность стимула (POS)

Бедность стимула (POS) — это аргумент в лингвистике, согласно которому дети не получают достаточного количества данных в своей языковой среде, чтобы усвоить все особенности своего языка.

Парадокс Менона

Парадокс Менона можно сформулировать следующим образом:

  1. Если вы знаете, что ищете, то расспросы излишни.
  2. Если вы не знаете, что ищете, расследование невозможно.
  3. Поэтому расследование либо ненужно, либо невозможно.

В этих аргументах присутствует неявная предпосылка: либо вы знаете, что ищете, либо не знаете, что ищете.

Парадокс обучения

Парадокс обучения (Фодор, 1980) утверждает, что знание может либо не быть новым, либо не быть усвоенным. Если новое знание может быть выражено в терминах старого знания, оно не является новым. Если его нельзя выразить в терминах старого знания, его нельзя понять. Следовательно, усвоение чего-то действительно нового невозможно, и все основные структуры должны присутствовать при рождении.

Ссылки

  1. ^ abcde Автор, Дэвид (2014), Парадокс Поланьи и форма роста занятости, Серия рабочих документов NBER, Кембридж, Массачусетс: Национальное бюро экономических исследований, стр  . 1–48
  2. ^ abcdef Полани, Майкл (май 2009). The Tacit Dimension . Чикаго: University of Chicago Press. С.  1– 26. ISBN 9780226672984. OCLC  262429494.
  3. ^ ab McAfee, Andrew; Brynjolfsson, Erik (16 марта 2016 г.). «Where Computers Defeat Humans, and Where They Can't». The New York Times . Архивировано из оригинала 16 октября 2018 г. Получено 2018-10-04 .
  4. ^ abc Уолш, Тоби (7 сентября 2017 г.). Мечты об Android: прошлое, настоящее и будущее искусственного интеллекта . Лондон: C Hurst & Co Publishers Ltd. стр.  89–97 . ISBN 9781849048712. OCLC  985805795.
  5. ^ Ребер, Артур (сентябрь 1989 г.). «Неявное обучение и неявное знание». Журнал экспериментальной психологии: Общие сведения . 118 (3): 219–235 . CiteSeerX 10.1.1.207.6707 . doi :10.1037/0096-3445.118.3.219. 
  6. ^ abc Asanarong, Thanathorn; Jeon, Sowon; Ren, Yuanlin; Yeo, Christopher (18 декабря 2018 г.). «Создание культуры управления знаниями для реки Ганг». Омоложение Ганги: проблемы управления и варианты политики . Wu Xun, Robert James Wasson, Ora-Orn Poocharoen. New Jersey: World Scientific. стр. 349. ISBN 9789814704588. OCLC  1013819475.
  7. ^ ab Chugh, Ritesh (2015), «Поощряют ли австралийские университеты передачу неявных знаний», Труды 7-й Международной совместной конференции по открытию знаний, инженерии знаний и управлению знаниями , Лиссабон, Португалия: 128–135
  8. ^ Райл, Гилберт (1945). «Знание как и знание того: Президентское обращение». Труды Аристотелевского общества . 46 : 1– 16. doi :10.1093/aristotelian/46.1.1. JSTOR  4544405.
  9. ^ Полани, Майкл (1974). Личное знание: к посткритической философии . Чикаго: Издательство Чикагского университета. ISBN 978-0226672885. OCLC  880960082.
  10. ^ Prassl, Jeremias (2018). Люди как услуга: обещания и опасности работы в экономике свободного заработка . Оксфорд: Oxford University Press. С.  138–139 . ISBN 9780198797012. OCLC  1005117556.
  11. ^ Badger, Emily (15 января 2015 г.). «5 запутанных вопросов, которые являются ключом к будущему беспилотных автомобилей». Washington Post . Архивировано из оригинала 25 августа 2018 г. Получено 31 октября 2018 г.
  12. ^ Варди, Моше (февраль 2015 г.). «Информационные технологии уничтожают средний класс?». Сообщения ACM . 58 (2): 5. doi : 10.1145/2666241 .
  13. ^ Сасскинд, Дэниел (2017), Переосмысление возможностей машин в экономике (PDF) , Серия дискуссионных докладов факультета экономики Оксфордского университета, Оксфорд, штат Огайо, стр.  1–14 , архивировано (PDF) из оригинала 26.06.2017 , извлечено 04.10.2018{{citation}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  14. ^ Карр, Николас (29 сентября 2014 г.). Стеклянная клетка: автоматизация и мы (первое издание). Нью-Йорк: WW Norton & Company. стр.  11– 12. ISBN 9780393240764. OCLC  870098283.
  15. ^ ab Каплан, Джерри (4 августа 2015 г.). Людям не нужно подавать заявления: руководство по богатству и работе в эпоху искусственного интеллекта . Нью-Хейвен: Издательство Йельского университета. С.  41–43 , 145. ISBN 9780300223576. OCLC  907143085.
  16. ^ Simonite, Tom (17 мая 2017 г.). «Генеральный директор Google рад тому, что ИИ возьмет на себя часть работы его экспертов по ИИ». MIT Technology Review . Получено 30 октября 2018 г.
  17. ^ ab Brynjolfsson, Erik; McAfee, Andrew (20 января 2014 г.). Второй век машин: работа, прогресс и процветание в эпоху блестящих технологий (первое издание). Нью-Йорк: WW Norton & Company. стр.  47–50 . ISBN 9780393239355. OCLC  867423744.
  18. ^ ab Pinker, Steven (1994). Языковой инстинкт: как разум создает язык . Нью-Йорк: William Morrow and Company. ISBN 978-0688121419. OCLC  28723210.
Взято с "https://en.wikipedia.org/w/index.php?title=Polanyi%27s_paradox&oldid=1202470579"