Автор | Дэн МакКуиллан |
---|---|
Язык | Английский |
Предметы | Искусственный интеллект |
Издатель | Издательство Бристольского университета |
Дата публикации | 2022 |
Страницы | 190 |
ISBN | 978-1529213508 |
«Сопротивление ИИ: антифашистский подход к искусственному интеллекту» — книга Дэна МакКвиллана об искусственном интеллекте (ИИ), опубликованная в 2022 году издательством Bristol University Press .
«Сопротивление ИИ» представляет собой развернутое эссе [1] , в котором противопоставляются оптимистичные взгляды на потенциал ИИ, утверждая, что ИИ лучше всего рассматривать как продолжение и усиление бюрократических форм дискриминации и насилия, в конечном итоге способствующих авторитарным результатам. [2] Для МакКвиллана обещание ИИ объективной просчитываемости противоречит эгалитарному и справедливому обществу. [3] [4] МакКвиллан использует выражение «насилие ИИ», чтобы описать, как — на основе непрозрачных алгоритмов — различные субъекты могут дискриминировать категории людей при доступе к работе, кредитам, медицинскому обслуживанию и другим льготам. [2]
В книге предполагается, что ИИ имеет политический резонанс с мягкими евгеническими подходами к оценке жизни современными государствами всеобщего благосостояния [5] и что ИИ проявляет евгенические черты в своей базовой логике, а также в своих технических операциях. [5] Параллель проводится с историческими евгениками, которые добивались спасения государства путем стерилизации дефектных, чтобы государству не пришлось заботиться об их потомстве. [5]
Анализ МакКвиллана выходит за рамки известной критики систем ИИ, способствующих нестабильным рынкам труда, обращаясь к «некрополитике», политике того, кто имеет право жить, а кто умереть. [2] [6] Хотя МакКвиллан предлагает краткую историю машинного обучения в начале книги – с его потребностью в «скрытом и недостаточно оплачиваемом труде», [6] он больше озабочен социальными последствиями ИИ, чем его техническими аспектами. [7] [6] МакКвиллан рассматривает ИИ как продолжение существующих бюрократических систем, которые уже маргинализируют уязвимые группы – усугубляемое тем фактом, что системы ИИ, обученные на существующих данных, вероятно, усилят существующую дискриминацию, например, пытаясь оптимизировать распределение благосостояния на основе существующих шаблонов данных, [7] в конечном итоге создавая систему «самоусиливающегося социального профилирования». [8]
Разрабатывая продолжение связи между существующим бюрократическим насилием и ИИ, МакКуиллан ссылается на концепцию бездумного бюрократа Ханны Арендт в книге «Эйхман в Иерусалиме: Доклад о банальности зла» , которая теперь становится алгоритмом, который, не имея намерения, не может быть подотчетен и, таким образом, наделен «алгоритмической бездумностью». [9]
МакКвиллан защищает слово «фашистский» в названии работы, утверждая, что, хотя не все ИИ являются фашистскими, эта новая технология контроля может в конечном итоге быть развернута фашистскими или авторитарными режимами. [10] По мнению МакКвиллана, ИИ может поддерживать распространение чрезвычайных положений как технологию, которую невозможно должным образом регулировать, и как механизм для более широкого умножения исключений. Примером сценария, в котором системы наблюдения ИИ могут вывести дискриминацию на новый уровень, является инициатива по созданию зон, свободных от ЛГБТ, в Польше. [11] [7]
Скептически относясь к этическим нормам контроля над технологией, МакКуиллан предлагает народным советам и рабочим советам, а также другим формам гражданского агентства для сопротивления ИИ. [7] Глава под названием «Постмашинное обучение» призывает к сопротивлению через течения мысли из феминистской науки ( теория точки зрения ), постнормальной науки ( расширенные сообщества сверстников ) и нового материализма ; МакКуиллан призывает читателя усомниться в значении «объективности» и призывает к необходимости альтернативных способов познания. [12] Среди добродетельных примеров сопротивления — возможно, которые будут приняты самими работниками ИИ — МакКуиллан отмечает [13] план Лукаса работников Lucas Aerospace Corporation , [14] в котором рабочая сила, объявленная избыточной , взяла под контроль, переориентировав предприятие на полезные продукты. [10]
Работа МакКвиллана [15]
предостерегает от «разбавленных форм взаимодействия» с ИИ, таких как гражданские присяжные, которые на первый взгляд выглядят как демократическое обсуждение, но на самом деле могут скрывать важные решения относительно ИИ, которые выходят за рамки ситуации взаимодействия (McQuillan 2022, 128).
В интервью о книге МакКуиллан определяет себя как «сторонника отмены ИИ». [16]
Книгу хвалят за то, что она «мастерски разбирает ИИ как эпистемологическую, социальную и политическую парадигму» [17] , а также за исследование того, как большая часть данных, которые поступают в «приватизированную инфраструктуру ИИ, «ампутируется» [18] из контекста или воплощенного опыта и в конечном итоге обрабатывается посредством краудсорсинга».
С критической стороны, обзор в академическом журнале Justice, Power and Resistance выразил несогласие с «кошмарными видениями Большого Брата», предложенными МакКвилланом, и утверждал, что, хотя многие элементы ИИ могут вызывать беспокойство, критика не должна основываться на карикатуре на то, что такое ИИ, заключив, что работа МакКвиллана — «в меньшей степени теория, а в большей степени манифест». [3] В другом обзоре отмечается «разрыв между техническими аспектами ИИ и социально-политическим анализом, который предоставляет МакКвиллан». [7]
Хотя книга была опубликована до того, как разгорелись дебаты вокруг ChatGPT и большой языковой модели , она не утратила актуальности для обсуждения ИИ . [19] Она отмечена [20] за предположение о связи между верованиями в искусственный интеллект и верованиями в расовые и гендерные представления об интеллекте в целом, в соответствии с которыми определенный тип рационального, измеримого интеллекта является привилегированным, что приводит к «историческим представлениям об иерархиях бытия». [21]
Блог Reboot похвалил МакКвиллана за то, что он предложил теорию вреда ИИ (почему ИИ может в конечном итоге навредить людям и обществу), которая не просто поощряет изолированное решение конкретных прогнозируемых проблем с системами, ориентированными на ИИ: предвзятость, неинклюзивность, эксплуататорство, разрушительное воздействие на окружающую среду, непрозрачность и неоспоримость. [12]
В [22] образовательная политика также могла бы учитывать ИИ, следуя прочтению Маккуиллана:
В своей книге Resisting AI Дэн МакКвиллан утверждает, что «Когда мы думаем о реальности ИИ, мы не можем отделить вычисления в коде от социального контекста его применения»... МакКвиллана особенно беспокоит то, как многие современные приложения ИИ усиливают существующее неравенство и несправедливость, а также углубляют социальные разногласия и нестабильность. Его книга приводит весомые доводы в пользу предвидения этих эффектов и активного сопротивления им ради блага обществ.
Книгу обсуждали в видеороликах [19] [23] и подкастах [1] [24] [25], посвященных ИИ и новым технологиям .