Искусственный интеллект был основан как академическая дисциплина в 1956 году, [6] и эта область прошла через несколько циклов оптимизма на протяжении всей своей истории , [7] [8] за которыми следовали периоды разочарования и потери финансирования, известные как зимы ИИ . [9] [10] Финансирование и интерес значительно возросли после 2012 года, когда глубокое обучение превзошло предыдущие методы ИИ. [11] Этот рост еще больше ускорился после 2017 года с архитектурой трансформатора , [12] и к началу 2020-х годов многие миллиарды долларов были инвестированы в ИИ, и эта область пережила быстрый непрерывный прогресс в том, что стало известно как бум ИИ . Появление передового генеративного ИИ в разгар бума ИИ и его способность создавать и изменять контент выявили несколько непреднамеренных последствий и вреда в настоящем и вызвали обеспокоенность по поводу рисков ИИ и его долгосрочных эффектов в будущем, что вызвало дискуссии о регуляторной политике для обеспечения безопасности и преимуществ технологии .
Цели
Общая проблема моделирования (или создания) интеллекта была разбита на подзадачи. Они состоят из конкретных черт или возможностей, которые исследователи ожидают от интеллектуальной системы. Черты, описанные ниже, получили наибольшее внимание и охватывают область исследований ИИ. [a]
Рассуждение и решение проблем
Ранние исследователи разработали алгоритмы, которые имитировали пошаговые рассуждения, которые используют люди, когда решают головоломки или делают логические выводы . [13] К концу 1980-х и 1990-м годам были разработаны методы работы с неопределенной или неполной информацией, использующие концепции из теории вероятности и экономики . [14]
Многие из этих алгоритмов недостаточны для решения больших задач рассуждения, поскольку они испытывают «комбинаторный взрыв»: они становятся экспоненциально медленнее по мере роста задач. [15] Даже люди редко используют пошаговую дедукцию, которую могли моделировать ранние исследования ИИ. Они решают большинство своих задач, используя быстрые, интуитивные суждения. [16] Точное и эффективное рассуждение — нерешенная проблема.
Представление знаний
Представление знаний и инженерия знаний [17] позволяют программам ИИ разумно отвечать на вопросы и делать выводы о фактах реального мира. Формальные представления знаний используются в индексации и поиске на основе контента, [18] интерпретации сцен, [19] поддержке принятия клинических решений, [20] обнаружении знаний (извлечение «интересных» и действенных выводов из больших баз данных ), [21] и других областях. [22]
База знаний — это совокупность знаний, представленная в форме, которую может использовать программа. Онтология — это набор объектов, отношений, концепций и свойств, используемых определенной областью знаний. [23] Базы знаний должны представлять такие вещи, как объекты, свойства, категории и отношения между объектами; [24] ситуации, события, состояния и время; [25] причины и следствия; [26] знания о знаниях (то, что мы знаем о том, что знают другие люди); [27] рассуждения по умолчанию (то, что люди считают истинным, пока им не скажут иначе, и что останется истинным, даже если другие факты изменятся); [28] и многие другие аспекты и области знаний.
Среди наиболее сложных проблем в представлении знаний — широта знаний здравого смысла (набор атомарных фактов, которые знает средний человек, огромен); [29] и субсимвольная форма большинства знаний здравого смысла (большая часть того, что знают люди, не представлена в виде «фактов» или «утверждений», которые они могли бы выразить вербально). [16] Существует также сложность приобретения знаний , проблема получения знаний для приложений ИИ. [c]
Планирование и принятие решений
«Агент» — это все, что воспринимает и совершает действия в мире. Рациональный агент имеет цели или предпочтения и совершает действия, чтобы они произошли. [d] [32] В автоматизированном планировании у агента есть конкретная цель. [33] В автоматизированном принятии решений у агента есть предпочтения — есть некоторые ситуации, в которых он предпочел бы оказаться, и некоторые ситуации, которых он пытается избежать. Агент принятия решений присваивает каждой ситуации число (называемое « полезностью »), которое измеряет, насколько агент ее предпочитает. Для каждого возможного действия он может рассчитать « ожидаемую полезность »: полезность всех возможных результатов действия, взвешенную по вероятности того, что результат произойдет. Затем он может выбрать действие с максимальной ожидаемой полезностью. [34]
В классическом планировании агент точно знает, каким будет эффект любого действия. [35] Однако в большинстве реальных проблем агент может не быть уверен в ситуации, в которой он находится (она «неизвестна» или «ненаблюдаема»), и он может не знать наверняка, что произойдет после каждого возможного действия (она не «детерминирована»). Он должен выбрать действие, сделав вероятностное предположение, а затем переоценить ситуацию, чтобы увидеть, сработало ли действие. [36]
В некоторых задачах предпочтения агента могут быть неопределенными, особенно если в них участвуют другие агенты или люди. Их можно изучить (например, с помощью обратного обучения с подкреплением ), или агент может искать информацию для улучшения своих предпочтений. [37] Теория ценности информации может использоваться для оценки ценности исследовательских или экспериментальных действий. [38] Пространство возможных будущих действий и ситуаций обычно непреодолимо велико, поэтому агенты должны предпринимать действия и оценивать ситуации, будучи неуверенными в том, каким будет результат.
Процесс принятия решений Маркова имеет модель перехода , которая описывает вероятность того, что определенное действие изменит состояние определенным образом, и функцию вознаграждения , которая предоставляет полезность каждого состояния и стоимость каждого действия. Политика связывает решение с каждым возможным состоянием. Политика может быть рассчитана (например, путем итерации ), быть эвристической или ее можно изучить. [39]
Теория игр описывает рациональное поведение множества взаимодействующих агентов и используется в программах ИИ, которые принимают решения с участием других агентов. [40]
Обучение
Машинное обучение — это изучение программ, которые могут автоматически улучшать свою производительность при выполнении заданной задачи. [41] Оно было частью ИИ с самого начала. [e]
Существует несколько видов машинного обучения. Неконтролируемое обучение анализирует поток данных, находит закономерности и делает прогнозы без какого-либо другого руководства. [44] Контролируемое обучение требует маркировки обучающих данных ожидаемыми ответами и бывает двух основных видов: классификация (где программа должна научиться предсказывать, к какой категории относится вход) и регрессия (где программа должна вывести числовую функцию на основе числового входа). [45]
В обучении с подкреплением агент вознаграждается за хорошие ответы и наказывается за плохие. Агент учится выбирать ответы, которые классифицируются как «хорошие». [46] Передача обучения — это когда знания, полученные при решении одной проблемы, применяются к новой проблеме. [47] Глубокое обучение — это тип машинного обучения, который пропускает входные данные через биологически вдохновленные искусственные нейронные сети для всех этих типов обучения. [48]
Современные методы глубокого обучения для обработки естественного языка включают в себя внедрение слов (представление слов, как правило, в виде векторов , кодирующих их значение), [52] трансформаторы (архитектура глубокого обучения, использующая механизм внимания ), [53] и другие. [54] В 2019 году генеративные предварительно обученные языковые модели трансформатора (или «GPT») начали генерировать связный текст, [55] [56] и к 2023 году эти модели смогли получить баллы человеческого уровня на экзамене на адвоката , тесте SAT , тесте GRE и многих других реальных приложениях. [57]
Восприятие
Машинное восприятие — это способность использовать входные данные от датчиков (таких как камеры, микрофоны, беспроводные сигналы, активный лидар , сонар, радар и тактильные датчики ) для вывода аспектов мира. Компьютерное зрение — это способность анализировать визуальные входные данные. [58]
Аффективные вычисления — это область, которая включает в себя системы, которые распознают, интерпретируют, обрабатывают или имитируют человеческие чувства, эмоции и настроение . [65] Например, некоторые виртуальные помощники запрограммированы на разговорную речь или даже на шутливые шутки; это делает их более чувствительными к эмоциональной динамике человеческого взаимодействия или иным образом облегчает взаимодействие человека с компьютером .
Однако это имеет тенденцию давать наивным пользователям нереалистичное представление об интеллекте существующих компьютерных агентов. [66] Умеренные успехи, связанные с аффективными вычислениями, включают текстовый анализ настроений и, в последнее время, мультимодальный анализ настроений , в котором ИИ классифицирует эффекты, демонстрируемые субъектом, записанным на видео. [67]
Исследования ИИ используют широкий спектр методов для достижения вышеуказанных целей. [b]
Поиск и оптимизация
ИИ может решать многие проблемы, разумно перебирая множество возможных решений. [68] В ИИ используются два совершенно разных вида поиска: поиск в пространстве состояний и локальный поиск .
Поиск государственного пространства
Поиск в пространстве состояний просматривает дерево возможных состояний, чтобы попытаться найти целевое состояние. [69] Например, алгоритмы планирования просматривают деревья целей и подцелей, пытаясь найти путь к заданной цели, процесс, называемый анализом средств и целей . [70]
Простые исчерпывающие поиски [71] редко бывают достаточными для большинства реальных проблем: пространство поиска (количество мест для поиска) быстро увеличивается до астрономических чисел . Результатом является поиск, который слишком медленный или никогда не завершается. [15] « Эвристика » или «правила большого пальца» могут помочь расставить приоритеты в выборе, которые с большей вероятностью достигнут цели. [72]
Состязательный поиск используется для игровых программ, таких как шахматы или го. Он просматривает дерево возможных ходов и контрходов, ища выигрышную позицию. [73]
Градиентный спуск — это тип локального поиска, который оптимизирует набор числовых параметров путем их постепенной корректировки для минимизации функции потерь . Варианты градиентного спуска обычно используются для обучения нейронных сетей , [75] через алгоритм обратного распространения .
Другим типом локального поиска является эволюционное вычисление , целью которого является итеративное улучшение набора возможных решений путем их «мутации» и «рекомбинации», выбирая только наиболее приспособленных для выживания в каждом поколении. [76]
Формальная логика используется для рассуждений и представления знаний . [78]
Формальная логика существует в двух основных формах: пропозициональная логика (которая оперирует утверждениями, которые являются истинными или ложными, и использует логические связки , такие как «и», «или», «не» и «подразумевает») [79] и предикатная логика (которая также оперирует объектами, предикатами и отношениями и использует квантификаторы, такие как « Каждый X есть Y » и «Существуют некоторые X , которые являются Y »). [80]
Дедуктивное рассуждение в логике — это процесс доказательства нового утверждения ( вывода ) из других утверждений, которые даны и считаются истинными (предпосылки ) . [81] Доказательства могут быть структурированы в виде деревьев доказательств , в которых узлы помечены предложениями, а дочерние узлы связаны с родительскими узлами правилами вывода .
При наличии проблемы и набора предпосылок решение проблем сводится к поиску дерева доказательств, корневой узел которого помечен решением проблемы, а конечные узлы помечены предпосылками или аксиомами . В случае предложений Хорна поиск решения проблем может быть выполнен путем рассуждения вперед от предпосылок или назад от проблемы. [82] В более общем случае клаузальной формы логики первого порядка разрешение представляет собой единое правило вывода, свободное от аксиом, в котором проблема решается путем доказательства противоречия из предпосылок, которые включают отрицание решаемой проблемы. [83]
Вывод как в логике предложений Хорна, так и в логике первого порядка неразрешим , и, следовательно, не поддается обработке . Однако обратное рассуждение с предложениями Хорна, которое лежит в основе вычислений в языке логического программирования Пролог , является полным по Тьюрингу . Более того, его эффективность сопоставима с вычислениями в других символических языках программирования. [84]
Нечеткая логика присваивает «степень истины» от 0 до 1. Поэтому она может обрабатывать предложения, которые являются неопределенными и частично истинными. [85]
Многие проблемы в ИИ (включая рассуждения, планирование, обучение, восприятие и робототехнику) требуют, чтобы агент работал с неполной или неопределенной информацией. Исследователи ИИ разработали ряд инструментов для решения этих проблем, используя методы теории вероятностей и экономики. [86] Были разработаны точные математические инструменты, которые анализируют, как агент может делать выбор и планировать, используя теорию принятия решений , анализ решений , [87] и теорию ценности информации . [88] Эти инструменты включают такие модели, как марковские процессы принятия решений , [89] динамические сети принятия решений , [90] теория игр и проектирование механизмов . [91]
Вероятностные алгоритмы также могут использоваться для фильтрации, прогнозирования, сглаживания и поиска объяснений для потоков данных, тем самым помогая системам восприятия анализировать процессы, происходящие с течением времени (например, скрытые модели Маркова или фильтры Калмана ). [90]
Классификаторы и статистические методы обучения
Простейшие приложения ИИ можно разделить на два типа: классификаторы (например, «если блестящий, то бриллиант»), с одной стороны, и контроллеры (например, «если бриллиант, то подбери»), с другой стороны. Классификаторы [98] — это функции, которые используют сопоставление с образцом для определения наиболее близкого соответствия. Их можно точно настроить на основе выбранных примеров с использованием контролируемого обучения . Каждый образец (также называемый « наблюдением ») помечен определенным предопределенным классом. Все наблюдения, объединенные с их метками классов, известны как набор данных . Когда получено новое наблюдение, это наблюдение классифицируется на основе предыдущего опыта. [45]
Существует множество видов классификаторов. [99] Дерево решений — это самый простой и наиболее широко используемый символический алгоритм машинного обучения. [100] Алгоритм k-ближайших соседей был наиболее широко используемым аналоговым ИИ до середины 1990-х годов, а методы ядра, такие как машина опорных векторов (SVM), вытеснили k-ближайших соседей в 1990-х годах. [101] Сообщается, что
наивный байесовский классификатор является «наиболее широко используемым обучающимся средством» [102] в Google, отчасти из-за его масштабируемости. [103] Нейронные сети также используются в качестве классификаторов. [104]
Искусственные нейронные сети
Искусственная нейронная сеть основана на наборе узлов, также известных как искусственные нейроны , которые в общих чертах моделируют нейроны в биологическом мозге. Она обучена распознавать закономерности; после обучения она может распознавать эти закономерности в новых данных. Есть вход, по крайней мере один скрытый слой узлов и выход. Каждый узел применяет функцию, и как только вес пересекает указанный порог, данные передаются на следующий слой. Сеть обычно называется глубокой нейронной сетью, если она имеет по крайней мере 2 скрытых слоя. [104]
Алгоритмы обучения для нейронных сетей используют локальный поиск для выбора весов, которые дадут правильный выход для каждого входа во время обучения. Наиболее распространенным методом обучения является алгоритм обратного распространения . [105] Нейронные сети учатся моделировать сложные отношения между входами и выходами и находить закономерности в данных. Теоретически нейронная сеть может изучить любую функцию. [106]
Глубокое обучение [110] использует несколько слоев нейронов между входами и выходами сети. Несколько слоев могут постепенно извлекать более высокоуровневые признаки из необработанных входных данных. Например, при обработке изображений более низкие слои могут определять края, в то время как более высокие слои могут определять концепции, имеющие отношение к человеку, такие как цифры, буквы или лица. [112]
Глубокое обучение значительно улучшило производительность программ во многих важных областях искусственного интеллекта, включая компьютерное зрение , распознавание речи , обработку естественного языка , классификацию изображений [113] и другие. Причина, по которой глубокое обучение так хорошо работает во многих приложениях , неизвестна по состоянию на 2023 год. [114] Внезапный успех глубокого обучения в 2012–2015 годах произошел не из-за какого-то нового открытия или теоретического прорыва (глубокие нейронные сети и обратное распространение были описаны многими людьми еще в 1950-х годах) [i], а из-за двух факторов: невероятного увеличения мощности компьютеров (включая стократное увеличение скорости за счет перехода на графические процессоры ) и доступности огромных объемов обучающих данных, особенно гигантских курируемых наборов данных , используемых для эталонного тестирования, таких как ImageNet . [j]
ГПТ
Генеративные предварительно обученные трансформаторы (GPT) — это большие языковые модели (LLM), которые генерируют текст на основе семантических отношений между словами в предложениях. Текстовые модели GPT предварительно обучаются на большом корпусе текста , который может быть из Интернета. Предварительное обучение состоит из прогнозирования следующего токена (токен обычно является словом, подсловом или знаком препинания). На протяжении этого предварительного обучения модели GPT накапливают знания о мире и затем могут генерировать текст, похожий на человеческий, многократно предсказывая следующий токен. Как правило, последующая фаза обучения делает модель более правдивой, полезной и безвредной, обычно с помощью техники, называемой обучением с подкреплением на основе обратной связи с человеком (RLHF). Текущие модели GPT склонны генерировать ложь, называемую « галлюцинациями », хотя это можно уменьшить с помощью RLHF и качественных данных. Они используются в чат-ботах , которые позволяют людям задавать вопросы или запрашивать задание в простом тексте. [122] [123]
Применение ИИ в медицине и медицинских исследованиях может повысить качество ухода за пациентами и качество жизни. [131] С точки зрения клятвы Гиппократа медицинские работники этически обязаны использовать ИИ, если приложения могут более точно диагностировать и лечить пациентов. [132] [133]
Для медицинских исследований ИИ является важным инструментом для обработки и интеграции больших данных . Это особенно важно для разработки органоидов и тканевой инженерии , которые используют микроскопическую визуализацию в качестве ключевого метода изготовления. [134] Было высказано предположение, что ИИ может преодолеть расхождения в финансировании, выделяемом на различные области исследований. [134] Новые инструменты ИИ могут углубить понимание биомедицинских значимых путей. Например, AlphaFold 2 (2021) продемонстрировал способность аппроксимировать трехмерную структуру белка за часы, а не за месяцы . [135] В 2023 году сообщалось, что открытие лекарств под руководством ИИ помогло найти класс антибиотиков, способных убивать два разных типа устойчивых к лекарствам бактерий. [136] В 2024 году исследователи использовали машинное обучение для ускорения поиска лекарственных средств для лечения болезни Паркинсона . Их целью было выявление соединений, которые блокируют слипание или агрегацию альфа-синуклеина (белка, характеризующего болезнь Паркинсона). Им удалось ускорить процесс первоначального отбора в десять раз и сократить расходы в тысячу раз. [137] [138]
Игры
Программы для игр использовались с 1950-х годов для демонстрации и тестирования самых передовых методов ИИ. [139] Deep Blue стала первой компьютерной шахматной системой, которая победила действующего чемпиона мира по шахматам Гарри Каспарова 11 мая 1997 года. [140] В 2011 году в показательном матче викторины Jeopardy! система ответов на вопросы IBM Watson победила двух величайших чемпионов Jeopardy! Брэда Раттера и Кена Дженнингса со значительным отрывом. [141] В марте 2016 года AlphaGo выиграла 4 из 5 игр в го в матче с чемпионом го Ли Седолем , став первой компьютерной системой для игры в го, которая победила профессионального игрока в го без гандикапов . Затем, в 2017 году, она победила Кэ Цзе , который был лучшим игроком в го в мире. [142] Другие программы обрабатывают игры с несовершенной информацией , такие как программа для игры в покер Pluribus . [143] DeepMind разработала все более универсальные модели обучения с подкреплением , такие как MuZero , которые можно было обучить играть в шахматы, го или игры Atari . [144] В 2019 году AlphaStar от DeepMind достигла уровня гроссмейстера в StarCraft II , особенно сложной стратегической игре в реальном времени, которая предполагает неполное знание того, что происходит на карте. [145] В 2021 году агент ИИ участвовал в соревновании PlayStation Gran Turismo , победив четырех лучших в мире водителей Gran Turismo, используя глубокое обучение с подкреплением. [146] В 2024 году Google DeepMind представила SIMA, тип ИИ, способный автономно играть в девять ранее невиданных видеоигр с открытым миром , наблюдая за выводом на экран, а также выполняя короткие конкретные задачи в ответ на инструкции естественного языка. [147]
Математика
Большие языковые модели, такие как GPT-4 , Gemini , Claude , LLaMa или Mistral , все чаще используются в математике. Эти вероятностные модели универсальны, но также могут давать неправильные ответы в форме галлюцинаций . Иногда им нужна большая база данных математических задач для обучения, а также такие методы, как контролируемая тонкая настройка или обученные классификаторы с данными, аннотированными человеком, для улучшения ответов на новые задачи и обучения на исправлениях. [148] Исследование, проведенное в феврале 2024 года, показало, что производительность некоторых языковых моделей для возможностей рассуждения при решении математических задач, не включенных в их обучающие данные, была низкой, даже для задач с небольшими отклонениями от обучающих данных. [149] Один из методов улучшения их производительности заключается в обучении моделей производить правильные шаги рассуждения , а не просто правильный результат. [150] В январе 2025 года Microsoft предложила технологию rStar-Math, которая использует поиск по дереву Монте-Карло и пошаговые рассуждения, позволяя относительно небольшой языковой модели, такой как Qwen-7B, решать 53% задач теста AIME 2024 и 90% задач теста MATH. [151]
В качестве альтернативы были разработаны специальные модели для решения математических задач с более высокой точностью результата, включая доказательство теорем, такие как AlphaTensor , AlphaGeometry и AlphaProof, все от Google DeepMind , [152] Llemma от EleutherAI [153] или Julius . [154]
Когда для описания математических задач используется естественный язык, конвертеры могут преобразовывать такие подсказки в формальный язык, такой как Lean, для определения математических задач.
Некоторые модели были разработаны для решения сложных задач и достижения хороших результатов в контрольных тестах, другие — в качестве образовательных инструментов по математике. [155]
Финансы являются одним из наиболее быстрорастущих секторов, где внедряются прикладные инструменты ИИ: от розничного онлайн-банкинга до инвестиционного консультирования и страхования, где автоматизированные «роботы-консультанты» используются уже несколько лет. [156]
Эксперты World Pensions , такие как Николас Фирцли, утверждают, что, возможно, еще слишком рано ожидать появления инновационных финансовых продуктов и услуг на основе искусственного интеллекта: «Развертывание инструментов искусственного интеллекта просто еще больше автоматизирует процессы: в процессе будут уничтожены десятки тысяч рабочих мест в банковской сфере, финансовом планировании и пенсионном консультировании, но я не уверен, что это вызовет новую волну [например, сложных] пенсионных инноваций». [157]
Военный
Различные страны развертывают военные приложения ИИ. [158] Основные приложения улучшают командование и управление , связь, датчики, интеграцию и взаимодействие. [159] Исследования нацелены на сбор и анализ разведданных, логистику, кибероперации, информационные операции, а также полуавтономные и автономные транспортные средства . [158] Технологии ИИ позволяют координировать работу датчиков и эффекторов, обнаруживать и идентифицировать угрозы, отмечать позиции противника, захватывать цели , координировать и устранять конфликты распределенных совместных огней между сетевыми боевыми машинами, включающими пилотируемые и беспилотные команды. [159]
ИИ использовался в военных операциях в Ираке, Сирии, Израиле и Украине. [158] [160] [161] [162]
Генеративный ИИ
Генеративный искусственный интеллект (генеративный ИИ, GenAI [163] или GAI) — это подмножество искусственного интеллекта, которое использует генеративные модели для создания текста, изображений, видео или других форм данных. [164] [165] [166] Эти модели изучают базовые шаблоны и структуры своих обучающих данных и используют их для создания новых данных [167] [168] на основе входных данных, которые часто поступают в форме подсказок на естественном языке . [169] [170]
Генеративный ИИ применяется в самых разных отраслях, включая разработку программного обеспечения, здравоохранение, финансы, развлечения, обслуживание клиентов, [177] продажи и маркетинг, [178] искусство, письмо, [179] моду, [180] и дизайн продукта. [181] Однако высказываются опасения относительно потенциального злоупотребления генеративным ИИ, например, киберпреступности , использования фейковых новостей или дипфейков для обмана или манипулирования людьми, а также массового замещения человеческих рабочих мест . [182] [183] Проблемы с законодательством об интеллектуальной собственности также существуют в отношении генеративных моделей, которые обучаются на произведениях искусства, защищенных авторским правом, и имитируют их. [184]
Агенты
Искусственные интеллектуальные (ИИ) агенты — это программные сущности, разработанные для восприятия своего окружения, принятия решений и выполнения действий автономно для достижения определенных целей. Эти агенты могут взаимодействовать с пользователями, своим окружением или другими агентами. Агенты ИИ используются в различных приложениях, включая виртуальных помощников , чат-ботов , автономные транспортные средства , игровые системы и промышленную робототехнику . Агенты ИИ действуют в рамках ограничений своего программирования, доступных вычислительных ресурсов и аппаратных ограничений. Это означает, что они ограничены выполнением задач в пределах своей определенной области и имеют конечные возможности памяти и обработки. В реальных приложениях агенты ИИ часто сталкиваются с ограничениями по времени для принятия решений и выполнения действий. Многие агенты ИИ включают алгоритмы обучения, что позволяет им со временем улучшать свою производительность за счет опыта или обучения. Используя машинное обучение, агенты ИИ могут адаптироваться к новым ситуациям и оптимизировать свое поведение для своих назначенных задач. [185] [186] [187]
Сексуальность
Приложения ИИ в этой области включают в себя менструальные и фертильные трекеры с поддержкой ИИ, которые анализируют пользовательские данные для предложения прогнозов, [188] секс-игрушки, интегрированные с ИИ (например, теледильдоника ), [189] контент сексуального образования, созданный ИИ, [190] и агенты ИИ, которые имитируют сексуальных и романтических партнеров (например, Replika ). [191] ИИ также используется для производства неконсенсуальной глубокой фейковой порнографии , что вызывает серьезные этические и правовые проблемы. [192]
Существуют также тысячи успешных приложений ИИ, используемых для решения конкретных проблем для конкретных отраслей или учреждений. В опросе 2017 года каждая пятая компания сообщила о внедрении «ИИ» в некоторые предложения или процессы. [195] Несколько примеров — хранение энергии , медицинская диагностика, военная логистика, приложения, которые предсказывают результат судебных решений, внешняя политика или управление цепочками поставок.
Растет число приложений ИИ для эвакуации и управления стихийными бедствиями . ИИ использовался для расследования того, эвакуировались ли люди и как это было сделано в ходе крупномасштабных и мелкомасштабных эвакуаций, используя исторические данные из GPS, видео или социальных сетей. Кроме того, ИИ может предоставлять информацию в реальном времени об условиях эвакуации в реальном времени. [196] [197] [198]
В сельском хозяйстве ИИ помог фермерам определить области, которые нуждаются в орошении, удобрении, обработке пестицидами или повышении урожайности. Агрономы используют ИИ для проведения исследований и разработок. ИИ использовался для прогнозирования времени созревания таких культур, как томаты, мониторинга влажности почвы, управления сельскохозяйственными роботами, проведения предиктивной аналитики , классификации эмоций свиней, автоматизации теплиц, обнаружения болезней и вредителей и экономии воды.
Искусственный интеллект используется в астрономии для анализа все большего количества доступных данных и приложений, в основном для «классификации, регрессии, кластеризации, прогнозирования, генерации, открытия и разработки новых научных идей». Например, он используется для открытия экзопланет, прогнозирования солнечной активности и различения сигналов и инструментальных эффектов в гравитационно-волновой астрономии. Кроме того, его можно использовать для деятельности в космосе, такой как исследование космоса, включая анализ данных с космических миссий, принятие научных решений в реальном времени для космических аппаратов, избегание космического мусора и более автономную работу.
Во время выборов в Индии 2024 года было потрачено 50 миллионов долларов США на авторизованный контент, созданный с помощью искусственного интеллекта, в частности, на создание фейковых копий политиков-союзников (в том числе иногда и умерших) для лучшего взаимодействия с избирателями, а также на перевод речей на различные местные языки. [199]
Этика
ИИ имеет потенциальные преимущества и потенциальные риски. [200] ИИ может быть в состоянии продвигать науку и находить решения для серьезных проблем: Демис Хассабис из DeepMind надеется «решить проблему интеллекта, а затем использовать это для решения всего остального». [201] Однако, поскольку использование ИИ стало широко распространенным, было выявлено несколько непреднамеренных последствий и рисков. [202] Системы в процессе производства иногда не могут учитывать этику и предвзятость в своих процессах обучения ИИ, особенно когда алгоритмы ИИ по своей сути необъяснимы в глубоком обучении. [203]
Риски и вред
Конфиденциальность и авторские права
Алгоритмы машинного обучения требуют больших объемов данных. Методы, используемые для получения этих данных, вызвали опасения по поводу конфиденциальности , наблюдения и авторских прав .
Устройства и сервисы на базе ИИ, такие как виртуальные помощники и продукты IoT, постоянно собирают персональные данные, вызывая опасения по поводу навязчивого сбора данных и несанкционированного доступа третьих лиц. Потеря конфиденциальности еще больше усугубляется способностью ИИ обрабатывать и объединять огромные объемы данных, что потенциально приводит к обществу наблюдения, где индивидуальные действия постоянно отслеживаются и анализируются без адекватных мер безопасности или прозрачности.
Конфиденциальные данные пользователей, собранные, могут включать записи об активности в сети, данные геолокации, видео или аудио. [204] Например, для создания алгоритмов распознавания речи Amazon записала миллионы частных разговоров и позволила временным работникам прослушивать и расшифровывать некоторые из них. [205] Мнения об этой широко распространенной слежке варьируются от тех, кто считает ее необходимым злом , до тех, для кого она явно неэтична и нарушает право на неприкосновенность частной жизни . [206]
Разработчики ИИ утверждают, что это единственный способ предоставить ценные приложения, и разработали несколько методов, которые пытаются сохранить конфиденциальность, при этом получая данные, такие как агрегация данных , деидентификация и дифференциальная конфиденциальность . [207] С 2016 года некоторые эксперты по конфиденциальности, такие как Синтия Дворк , начали рассматривать конфиденциальность с точки зрения справедливости . Брайан Кристиан написал, что эксперты перешли «от вопроса «что они знают» к вопросу «что они с этим делают»». [208]
Генеративный ИИ часто обучается на нелицензированных работах, защищенных авторским правом, в том числе в таких областях, как изображения или компьютерный код; затем вывод используется в соответствии с обоснованием « добросовестного использования ». Эксперты расходятся во мнениях относительно того, насколько хорошо и при каких обстоятельствах это обоснование будет иметь силу в судах; соответствующие факторы могут включать «цель и характер использования защищенной авторским правом работы» и «влияние на потенциальный рынок для защищенной авторским правом работы». [209] [210] Владельцы веб-сайтов, которые не хотят, чтобы их контент был удален, могут указать это в файле « robots.txt ». [211] В 2023 году ведущие авторы (включая Джона Гришэма и Джонатана Франзена ) подали в суд на компании, занимающиеся ИИ, за использование их работы для обучения генеративного ИИ. [212] [213] Другой обсуждаемый подход заключается в том, чтобы представить отдельную систему sui generis защиты для творений, созданных ИИ, чтобы гарантировать справедливое указание авторства и компенсацию авторам-людям. [214]
Потребности в электроэнергии и воздействие на окружающую среду
В январе 2024 года Международное энергетическое агентство (МЭА) опубликовало отчет «Электричество 2024, анализ и прогноз до 2026 года » , в котором спрогнозировано потребление электроэнергии. [220] Это первый отчет МЭА, в котором даны прогнозы относительно центров обработки данных и потребления электроэнергии для искусственного интеллекта и криптовалюты. В отчете говорится, что спрос на электроэнергию для этих целей может удвоиться к 2026 году, при этом дополнительное потребление электроэнергии будет равно потреблению электроэнергии всей японской нацией. [221]
Огромное потребление энергии ИИ ответственно за рост использования ископаемого топлива и может задержать закрытие устаревших, выбрасывающих углерод угольных энергетических объектов. В США наблюдается лихорадочный рост строительства центров обработки данных, что превращает крупные технологические компании (например, Microsoft, Meta, Google, Amazon) в прожорливых потребителей электроэнергии. Прогнозируемое потребление электроэнергии настолько огромно, что есть опасения, что оно будет выполнено независимо от источника. Поиск ChatGPT предполагает использование в 10 раз больше электроэнергии, чем поиск Google. Крупные компании спешат найти источники энергии — от ядерной энергии до геотермальной и термоядерной. Технологические компании утверждают, что — в долгосрочной перспективе — ИИ в конечном итоге станет добрее к окружающей среде, но им нужна энергия сейчас. ИИ делает электросеть более эффективной и «интеллектуальной», будет способствовать росту ядерной энергетики и отслеживать общие выбросы углерода, по словам технологических компаний. [222]
В исследовательской работе Goldman Sachs 2024 года « Центры обработки данных ИИ и грядущий всплеск спроса на электроэнергию в США » говорится, что «спрос на электроэнергию в США, вероятно, будет расти, как никогда за последнее поколение...» и прогнозируется, что к 2030 году центры обработки данных США будут потреблять 8% электроэнергии США по сравнению с 3% в 2022 году, что предвещает рост электроэнергетической отрасли различными способами. [223] Потребность центров обработки данных во все большем количестве электроэнергии такова, что они могут перегрузить электросеть. Крупные технологические компании возражают, что ИИ можно использовать для максимального использования сети всеми. [224]
В 2024 году Wall Street Journal сообщил, что крупные компании ИИ начали переговоры с поставщиками ядерной энергии США о поставке электроэнергии в центры обработки данных. В марте 2024 года Amazon приобрела центр обработки данных на ядерной энергии в Пенсильвании за 650 миллионов долларов США. [225] Генеральный директор Nvidia Дженсен Хуан сказал, что ядерная энергия является хорошим вариантом для центров обработки данных. [226]
В сентябре 2024 года Microsoft объявила о соглашении с Constellation Energy о повторном открытии атомной электростанции Three Mile Island , которая будет поставлять Microsoft 100% всей электроэнергии, производимой станцией в течение 20 лет. Повторное открытие станции, на которой в 1979 году произошел частичный ядерный расплав реактора второго блока, потребует от Constellation пройти строгие нормативные процессы, которые будут включать тщательный контроль безопасности со стороны Комиссии по ядерному регулированию США . В случае одобрения (это будет первый в истории США повторный ввод в эксплуатацию атомной станции) будет произведено более 835 мегаватт электроэнергии — достаточно для 800 000 домов. Стоимость повторного открытия и модернизации оценивается в 1,6 млрд долларов США и зависит от налоговых льгот для ядерной энергетики, содержащихся в Законе США о снижении инфляции 2022 года . [227] Правительство США и штат Мичиган инвестируют почти 2 миллиарда долларов США в повторное открытие ядерного реактора Palisades на озере Мичиган. Закрытый с 2022 года завод, как планируется, будет повторно открыт в октябре 2025 года. Объект Three Mile Island будет переименован в Crane Clean Energy Center в честь Криса Крейна, сторонника ядерной энергетики и бывшего генерального директора Exelon , который отвечал за отделение Exelon от Constellation. [228]
После последнего одобрения в сентябре 2023 года Тайвань приостановил одобрение центров обработки данных к северу от Таоюаня мощностью более 5 МВт в 2024 году из-за нехватки электроэнергии. [229] Тайвань намерен отказаться от ядерной энергетики к 2025 году. [229] С другой стороны, Сингапур ввел запрет на открытие центров обработки данных в 2019 году из-за электроэнергии, но в 2022 году снял этот запрет. [229]
Хотя большинство атомных электростанций в Японии были закрыты после аварии на АЭС «Фукусима» в 2011 году , согласно статье Bloomberg на японском языке за октябрь 2024 года, компания Ubitus, предоставляющая услуги облачных игр, в которой есть доля Nvidia, ищет землю в Японии рядом с атомной электростанцией для нового центра обработки данных для генеративного ИИ. [230] Генеральный директор Ubitus Уэсли Куо сказал, что атомные электростанции являются наиболее эффективной, дешевой и стабильной энергией для ИИ. [230]
1 ноября 2024 года Федеральная комиссия по регулированию энергетики (FERC) отклонила заявку, поданную Talen Energy на одобрение поставок электроэнергии с атомной электростанции Саскуэханна в центр обработки данных Amazon. [231]
По словам председателя комиссии Вилли Л. Филлипса , это является бременем для электросети, а также существенной проблемой перераспределения затрат для домохозяйств и других секторов бизнеса. [231]
Дезинформация
YouTube , Facebook и другие используют рекомендательные системы , чтобы направлять пользователей к большему количеству контента. Эти программы ИИ были поставлены перед целью максимизировать вовлеченность пользователей (то есть единственной целью было заставить людей смотреть). ИИ узнал, что пользователи склонны выбирать дезинформацию , теории заговора и экстремальный партийный контент, и, чтобы заставить их смотреть, ИИ рекомендовал больше этого. Пользователи также склонны смотреть больше контента на одну и ту же тему, поэтому ИИ заводил людей в пузыри фильтров , где они получали несколько версий одной и той же дезинформации. [232] Это убедило многих пользователей в том, что дезинформация была правдой, и в конечном итоге подорвало доверие к институтам, СМИ и правительству. [233] Программа ИИ правильно научилась максимизировать свою цель, но результат был вреден для общества. После выборов в США в 2016 году крупные технологические компании предприняли шаги для смягчения проблемы [ необходима цитата ] .
В 2022 году генеративный ИИ начал создавать изображения, аудио, видео и текст, которые неотличимы от настоящих фотографий, записей, фильмов или человеческого письма. Злоумышленники могут использовать эту технологию для создания огромных объемов дезинформации или пропаганды. [234] Пионер ИИ Джеффри Хинтон выразил обеспокоенность по поводу того, что ИИ позволяет «авторитарным лидерам манипулировать своим электоратом» в больших масштабах, среди прочих рисков. [235]
Алгоритмическая предвзятость и справедливость
Приложения машинного обучения будут предвзятыми [k], если они обучаются на предвзятых данных. [237] Разработчики могут не знать о существовании предвзятости. [238] Предвзятость может быть вызвана способом выбора обучающих данных и способом развертывания модели. [239] [237] Если предвзятый алгоритм используется для принятия решений, которые могут серьезно навредить людям (как это может быть в медицине , финансах , подборе персонала , жилищном обеспечении или работе полиции ), то алгоритм может вызвать дискриминацию . [240] Область справедливости изучает, как предотвратить вред от алгоритмических предвзятостей.
28 июня 2015 года новая функция маркировки изображений Google Photos ошибочно идентифицировала Джеки Элсина и его друга как «горилл», потому что они были черными. Система была обучена на наборе данных, который содержал очень мало изображений чернокожих людей, [241] проблема, называемая «несоответствием размера выборки». [242] Google «исправил» эту проблему, запретив системе маркировать что-либо как «гориллу». Восемь лет спустя, в 2023 году, Google Photos все еще не мог идентифицировать гориллу, как и аналогичные продукты от Apple, Facebook, Microsoft и Amazon. [243]
COMPAS — это коммерческая программа, широко используемая судами США для оценки вероятности рецидивизма обвиняемого . В 2016 году Джулия Энгвин из ProPublica обнаружила, что COMPAS демонстрирует расовую предвзятость, несмотря на то, что программе не сообщали расы обвиняемых. Хотя частота ошибок для белых и черных была откалибрована одинаково и составляла ровно 61%, ошибки для каждой расы были разными — система последовательно переоценивала вероятность того, что черный человек совершит повторное преступление, и недооценивала вероятность того, что белый человек не совершит повторное преступление. [244] В 2017 году несколько исследователей [l] показали, что математически невозможно, чтобы COMPAS учитывал все возможные меры справедливости, когда базовые показатели повторных преступлений были разными для белых и черных в данных. [246]
Программа может принимать предвзятые решения, даже если данные явно не упоминают проблемную характеристику (такую как «раса» или «пол»). Характеристика будет коррелировать с другими характеристиками (такими как «адрес», «история покупок» или «имя»), и программа будет принимать те же решения на основе этих характеристик, как и на основе «расы» или «пола». [247] Мориц Хардт сказал: «Самым надежным фактом в этой области исследований является то, что справедливость через слепоту не работает». [248]
Критика COMPAS подчеркнула, что модели машинного обучения разработаны для того, чтобы делать «предсказания», которые действительны только в том случае, если мы предполагаем, что будущее будет похоже на прошлое. Если они обучены на данных, которые включают результаты расистских решений в прошлом, модели машинного обучения должны предсказывать, что расистские решения будут приняты в будущем. Если затем приложение использует эти предсказания в качестве рекомендаций , некоторые из этих «рекомендаций», вероятно, будут расистскими. [249] Таким образом, машинное обучение не очень подходит для помощи в принятии решений в областях, где есть надежда, что будущее будет лучше прошлого. Оно носит описательный, а не предписывающий характер. [m]
Предвзятость и несправедливость могут остаться незамеченными, поскольку разработчики в подавляющем большинстве белые мужчины: среди инженеров ИИ около 4% — чернокожие и 20% — женщины. [242]
Существуют различные противоречивые определения и математические модели справедливости. Эти понятия зависят от этических предположений и находятся под влиянием убеждений об обществе. Одной из широких категорий является распределительная справедливость , которая фокусируется на результатах, часто идентифицируя группы и стремясь компенсировать статистические различия. Репрезентативная справедливость пытается гарантировать, что системы ИИ не усиливают негативные стереотипы или не делают определенные группы невидимыми. Процедурная справедливость фокусируется на процессе принятия решений, а не на результате. Наиболее значимые понятия справедливости могут зависеть от контекста, в частности от типа приложения ИИ и заинтересованных сторон. Субъективность в понятиях предвзятости и справедливости затрудняет их операционализацию для компаний. Многие специалисты по этике ИИ также считают, что доступ к чувствительным атрибутам, таким как раса или пол, необходим для компенсации предвзятости, но это может противоречить законам о борьбе с дискриминацией . [236]
На своей конференции 2022 года по справедливости, подотчетности и прозрачности (ACM FAccT 2022) Ассоциация вычислительной техники в Сеуле, Южная Корея, представила и опубликовала выводы, в которых говорится, что до тех пор, пока не будет продемонстрировано, что системы искусственного интеллекта и робототехники свободны от ошибок предвзятости, они небезопасны, а использование самообучающихся нейронных сетей, обученных на обширных, нерегулируемых источниках некорректных интернет-данных, следует ограничить. [ сомнительно – обсудить ] [251]
Отсутствие прозрачности
Многие системы ИИ настолько сложны, что их разработчики не могут объяснить, как они принимают свои решения. [252] Особенно это касается глубоких нейронных сетей , в которых существует большое количество нелинейных отношений между входами и выходами. Но существуют некоторые популярные методы объяснимости. [253]
Невозможно быть уверенным в том, что программа работает правильно, если никто не знает, как именно она работает. Было много случаев, когда программа машинного обучения проходила строгие тесты, но тем не менее узнавала что-то иное, чем то, что предполагали программисты. Например, было обнаружено, что система, которая могла определять кожные заболевания лучше, чем медицинские специалисты, на самом деле имела сильную тенденцию классифицировать изображения с линейкой как «раковые», потому что изображения злокачественных новообразований обычно включают линейку для отображения масштаба. [254] Было обнаружено, что другая система машинного обучения, разработанная для помощи в эффективном распределении медицинских ресурсов, классифицировала пациентов с астмой как имеющих «низкий риск» смерти от пневмонии. Наличие астмы на самом деле является серьезным фактором риска, но поскольку пациенты с астмой обычно получали гораздо больше медицинской помощи, они были относительно маловероятны, чтобы умереть, согласно данным обучения. Корреляция между астмой и низким риском смерти от пневмонии была реальной, но вводящей в заблуждение. [255]
Люди, которым был нанесен ущерб решением алгоритма, имеют право на объяснение. [256] Например, врачи должны четко и полностью объяснять своим коллегам обоснование любого принятого ими решения. Ранние проекты Общего регламента по защите данных Европейского союза в 2016 году включали явное заявление о том, что такое право существует. [n] Эксперты отрасли отметили, что это нерешенная проблема, решения которой не видно. Регуляторы утверждали, что, тем не менее, вред реален: если проблема не имеет решения, инструменты не следует использовать. [257]
В 2014 году DARPA запустила программу XAI («Объяснимый искусственный интеллект»), чтобы попытаться решить эти проблемы. [258]
Несколько подходов направлены на решение проблемы прозрачности. SHAP позволяет визуализировать вклад каждой функции в вывод. [259] LIME может локально аппроксимировать выводы модели с помощью более простой, интерпретируемой модели. [260] Многозадачное обучение обеспечивает большое количество выводов в дополнение к целевой классификации. Эти другие выводы могут помочь разработчикам сделать вывод о том, чему научилась сеть. [261] Деконволюция , DeepDream и другие генеративные методы могут позволить разработчикам увидеть, чему научились различные слои глубокой сети для компьютерного зрения, и создать вывод, который может подсказать, чему учится сеть. [262] Для генеративных предварительно обученных трансформаторов Anthropic разработала метод, основанный на словарном обучении , который связывает шаблоны активаций нейронов с понятными человеку концепциями. [263]
Смертоносное автономное оружие — это машина, которая находит, выбирает и поражает человеческие цели без человеческого контроля. [o] Широко доступные инструменты ИИ могут использоваться злоумышленниками для разработки недорогого автономного оружия, и если их производить в больших масштабах, они потенциально являются оружием массового поражения . [265] Даже при использовании в обычных боевых действиях они в настоящее время не могут надежно выбирать цели и потенциально могут убить невинного человека . [265] В 2014 году 30 стран (включая Китай) поддержали запрет на автономное оружие в соответствии с Конвенцией ООН о конкретных видах обычного оружия , однако Соединенные Штаты и другие страны не согласились. [266] К 2015 году сообщалось, что более пятидесяти стран исследовали боевых роботов. [267]
Есть много других способов, которыми ИИ, как ожидается, будет помогать плохим актерам, некоторые из которых невозможно предвидеть. Например, машинное обучение ИИ способно спроектировать десятки тысяч токсичных молекул за считанные часы. [271]
Технологическая безработица
Экономисты часто подчеркивали риски увольнений из-за ИИ и рассуждали о безработице, если не будет адекватной социальной политики для полной занятости. [272]
В прошлом технологии имели тенденцию увеличивать, а не сокращать общую занятость, но экономисты признают, что «мы находимся на неизведанной территории» с ИИ. [273] Опрос экономистов показал разногласия относительно того, вызовет ли растущее использование роботов и ИИ существенный рост долгосрочной безработицы , но они в целом согласны, что это может быть чистой выгодой, если рост производительности будет перераспределен . [274] Оценки риска различаются; например, в 2010-х годах Майкл Осборн и Карл Бенедикт Фрей оценили, что 47% рабочих мест в США находятся под «высоким риском» потенциальной автоматизации, в то время как отчет ОЭСР классифицировал только 9% рабочих мест в США как «высокий риск». [p] [276] Методология спекуляций о будущих уровнях занятости подвергалась критике за отсутствие доказательной базы и за то, что подразумевает, что технологии, а не социальная политика, создают безработицу, а не увольнения. [272] В апреле 2023 года сообщалось, что 70% рабочих мест для китайских иллюстраторов видеоигр были ликвидированы генеративным искусственным интеллектом. [277] [278]
В отличие от предыдущих волн автоматизации, многие рабочие места среднего класса могут быть ликвидированы искусственным интеллектом; The Economist заявил в 2015 году, что «опасение, что ИИ может сделать с рабочими местами «белых воротничков» то же, что паровая энергия сделала с рабочими местами «синих воротничков» во время промышленной революции», «стоит отнестись серьезно». [279] Рабочие места с экстремальным риском варьируются от помощников юристов до поваров фастфуда, в то время как спрос на рабочие места, связанные с уходом, вероятно, возрастет, начиная от личного здравоохранения и заканчивая духовенством. [280]
С первых дней развития искусственного интеллекта существовали аргументы, например, выдвинутые Джозефом Вайценбаумом , о том, должны ли задачи, которые могут быть выполнены компьютерами, на самом деле выполняться ими, учитывая разницу между компьютерами и людьми, а также между количественными расчетами и качественными, основанными на ценностях суждениями. [281]
Экзистенциальный риск
Утверждалось, что ИИ станет настолько мощным, что человечество может необратимо потерять над ним контроль. Это может, как сказал физик Стивен Хокинг , « означать конец человеческой расы ». [282] Этот сценарий был распространен в научной фантастике, когда компьютер или робот внезапно развивает человеческое «самосознание» (или «чувство», или «сознание») и становится злобным персонажем. [q] Эти научно-фантастические сценарии вводят в заблуждение несколькими способами.
Во-первых, ИИ не требует наличия чувствительности , подобной человеческой , чтобы представлять собой экзистенциальный риск. Современные программы ИИ получают конкретные цели и используют обучение и интеллект для их достижения. Философ Ник Бостром утверждал, что если дать практически любую цель достаточно мощному ИИ, он может решить уничтожить человечество, чтобы достичь ее (он использовал пример менеджера фабрики по производству скрепок ). [284] Стюарт Рассел приводит пример домашнего робота, который пытается найти способ убить своего владельца, чтобы предотвратить его отключение, рассуждая, что «вы не сможете принести кофе, если вы мертвы». [285] Чтобы быть безопасным для человечества, сверхразум должен был бы быть искренне согласован с моралью и ценностями человечества, чтобы он был «в основе своей на нашей стороне». [286]
Во-вторых, Юваль Ной Харари утверждает, что ИИ не требует тела робота или физического контроля, чтобы представлять экзистенциальный риск. Основные части цивилизации не являются физическими. Такие вещи, как идеологии , закон , правительство , деньги и экономика , построены на языке ; они существуют, потому что есть истории, в которые верят миллиарды людей. Текущее распространение дезинформации предполагает, что ИИ может использовать язык, чтобы убедить людей верить во что угодно, даже совершать действия, которые являются разрушительными. [287]
Мнения экспертов и представителей отрасли неоднозначны, и значительная часть из них как обеспокоена, так и не обеспокоена риском, который может возникнуть со стороны сверхразумного ИИ. [288] Такие личности, как Стивен Хокинг , Билл Гейтс и Илон Маск , [289] , а также пионеры ИИ, такие как Йошуа Бенджио , Стюарт Рассел , Демис Хассабис и Сэм Альтман , выражали обеспокоенность по поводу экзистенциального риска со стороны ИИ.
В мае 2023 года Джеффри Хинтон объявил о своем уходе из Google, чтобы иметь возможность «свободно говорить о рисках ИИ», не «думая о том, как это повлияет на Google». [290] Он, в частности, упомянул риски поглощения ИИ , [291] и подчеркнул, что для того, чтобы избежать худших результатов, установление правил безопасности потребует сотрудничества между теми, кто конкурирует в использовании ИИ. [292]
В 2023 году многие ведущие эксперты в области ИИ одобрили совместное заявление о том, что «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война» [293] .
Некоторые другие исследователи были более оптимистичны. Пионер ИИ Юрген Шмидхубер не подписал совместное заявление, подчеркнув, что в 95% всех случаев исследования ИИ направлены на то, чтобы сделать «человеческую жизнь более долгой, здоровой и легкой». [294] Хотя инструменты, которые сейчас используются для улучшения жизни, могут использоваться и плохими игроками, «они также могут быть использованы против плохих игроков». [295] [296] Эндрю Нг также утверждал, что «ошибочно поддаваться шумихе вокруг конца света вокруг ИИ, и что регуляторы, которые это делают, только выиграют от корыстных интересов». [297] Янн Лекун «высмеивает антиутопические сценарии своих коллег о чрезмерной дезинформации и даже, в конечном итоге, о вымирании человечества». [298] В начале 2010-х годов эксперты утверждали, что риски слишком отдалены в будущем, чтобы оправдать исследования, или что люди будут ценны с точки зрения сверхразумной машины. [299] Однако после 2016 года изучение текущих и будущих рисков и возможных решений стало серьезной областью исследований. [300]
Этические машины и выравнивание
Дружественный ИИ — это машины, которые изначально были разработаны для минимизации рисков и принятия решений, приносящих пользу людям. Элиезер Юдковски , который придумал этот термин, утверждает, что разработка дружественного ИИ должна быть более приоритетной в исследованиях: это может потребовать больших инвестиций и должно быть завершено до того, как ИИ станет экзистенциальным риском. [301]
Машины с интеллектом имеют потенциал использовать свой интеллект для принятия этических решений. Область машинной этики предоставляет машинам этические принципы и процедуры для разрешения этических дилемм. [302]
Область машинной этики также называется вычислительной моралью, [302]
и была основана на симпозиуме AAAI в 2005 году. [303]
Активные организации в сообществе открытого исходного кода ИИ включают Hugging Face , [306] Google , [307] EleutherAI и Meta . [308] Различные модели ИИ, такие как Llama 2 , Mistral или Stable Diffusion , были сделаны с открытым весом, [309] [310] что означает, что их архитектура и обученные параметры («веса») являются общедоступными. Модели с открытым весом могут быть свободно настроены , что позволяет компаниям специализировать их с помощью собственных данных и для собственного варианта использования. [311] Модели с открытым весом полезны для исследований и инноваций, но также могут быть использованы не по назначению. Поскольку их можно настроить, любая встроенная мера безопасности, такая как возражение против вредоносных запросов, может быть обучена до тех пор, пока она не станет неэффективной. Некоторые исследователи предупреждают, что будущие модели ИИ могут развить опасные возможности (например, потенциал для радикального содействия биотерроризму ), и что после публикации в Интернете их нельзя будет удалить везде, если это необходимо. Они рекомендуют проводить предварительные аудиты и анализы затрат и выгод. [312]
Фреймворки
Проекты искусственного интеллекта могут иметь этическую допустимость, проверенную при проектировании, разработке и внедрении системы ИИ. Структура ИИ, такая как Care and Act Framework, содержащая ценности SUM, разработанная Институтом Алана Тьюринга, проверяет проекты в четырех основных областях: [313] [314]
Уважайте достоинство отдельных людей
Общайтесь с другими людьми искренне, открыто и инклюзивно
Забота о благополучии каждого
Защищать социальные ценности, справедливость и общественные интересы
Другие разработки в этических рамках включают решения, принятые на конференции в Асиломаре , Монреальскую декларацию об ответственном ИИ и инициативу IEEE по этике автономных систем, среди прочих; [315] однако эти принципы не обходятся без критики, особенно в отношении людей, выбранных для внесения вклада в эти рамки. [316]
Содействие благополучию людей и сообществ, на которые влияют эти технологии, требует учета социальных и этических последствий на всех этапах проектирования, разработки и внедрения систем ИИ, а также сотрудничества между специалистами по работе с данными, менеджерами по продуктам, инженерами по работе с данными, экспертами в предметной области и менеджерами по доставке. [317]
Институт безопасности ИИ Великобритании выпустил в 2024 году набор инструментов тестирования под названием «Inspect» для оценки безопасности ИИ, доступный по лицензии MIT с открытым исходным кодом, который свободно доступен на GitHub и может быть улучшен с помощью сторонних пакетов. Его можно использовать для оценки моделей ИИ в различных областях, включая основные знания, способность рассуждать и автономные возможности. [318]
Регулирование
Регулирование искусственного интеллекта — это разработка политик и законов государственного сектора для продвижения и регулирования ИИ; поэтому оно связано с более широким регулированием алгоритмов. [319] Нормативно-правовой ландшафт для ИИ является новой проблемой в юрисдикциях по всему миру. [320] Согласно индексу ИИ в Стэнфорде , ежегодное количество законов, связанных с ИИ, принятых в 127 странах, охваченных исследованием, возросло с одного, принятого в 2016 году, до 37, принятых только в 2022 году. [321] [322] В период с 2016 по 2020 год более 30 стран приняли специальные стратегии для ИИ. [323] Большинство государств-членов ЕС выпустили национальные стратегии в области ИИ, как и Канада, Китай, Индия, Япония, Маврикий, Российская Федерация, Саудовская Аравия, Объединенные Арабские Эмираты, США и Вьетнам. Другие находились в процессе разработки собственной стратегии в области ИИ, включая Бангладеш, Малайзию и Тунис. [323] Глобальное партнерство по искусственному интеллекту было запущено в июне 2020 года, в котором говорилось о необходимости разработки ИИ в соответствии с правами человека и демократическими ценностями для обеспечения общественного доверия к технологии. [323] Генри Киссинджер , Эрик Шмидт и Дэниел Хуттенлохер опубликовали совместное заявление в ноябре 2021 года, призывая создать правительственную комиссию для регулирования ИИ. [324] В 2023 году лидеры OpenAI опубликовали рекомендации по управлению сверхразумом, которое, по их мнению, может произойти менее чем через 10 лет. [325] В 2023 году Организация Объединенных Наций также создала консультативный орган для предоставления рекомендаций по управлению ИИ; в состав органа входят руководители технологических компаний, государственные служащие и ученые. [326] В 2024 году Совет Европы создал первый международный юридически обязательный договор по ИИ, названный « Рамочная конвенция об искусственном интеллекте и правах человека, демократии и верховенстве закона ». Он был принят Европейским Союзом, Соединенными Штатами, Соединенным Королевством и другими подписавшими его странами. [327]
В опросе Ipsos 2022 года отношение к ИИ сильно различалось в зависимости от страны; 78% граждан Китая, но только 35% американцев согласились с тем, что «продукты и услуги, использующие ИИ, имеют больше преимуществ, чем недостатков». [321] Опрос Reuters /Ipsos 2023 года показал, что 61% американцев согласны, а 22% не согласны, что ИИ представляет опасность для человечества. [328] В опросе Fox News 2023 года 35% американцев считали «очень важным», а еще 41% считали «довольно важным» регулирование ИИ федеральным правительством, по сравнению с 13% ответившими «не очень важно» и 8% ответившими «совсем не важно». [329] [330]
В ноябре 2023 года в Блетчли-Парке в Великобритании состоялся первый всемирный саммит по безопасности ИИ, на котором обсуждались краткосрочные и долгосрочные риски ИИ и возможность создания обязательных и добровольных нормативных рамок. [331] 28 стран, включая США, Китай и Европейский союз, опубликовали декларацию в начале саммита, призывающую к международному сотрудничеству для управления вызовами и рисками искусственного интеллекта. [332] [333] В мае 2024 года на саммите ИИ в Сеуле 16 глобальных компаний, занимающихся технологиями ИИ, согласились взять на себя обязательства по обеспечению безопасности при разработке ИИ. [334] [335]
История
Изучение механического или «формального» рассуждения началось с философов и математиков в древности. Изучение логики привело непосредственно к теории вычислений Алана Тьюринга , которая предполагала, что машина, перетасовывая символы, такие простые, как «0» и «1», может имитировать любую мыслимую форму математического рассуждения. [336] [337] Это, наряду с одновременными открытиями в кибернетике , теории информации и нейробиологии , привело исследователей к рассмотрению возможности создания «электронного мозга». [r] Они разработали несколько областей исследований, которые стали частью ИИ, [339] такие как проект Маккалуча и Питтса для «искусственных нейронов» в 1943 году, [115] и влиятельная статья Тьюринга 1950 года « Вычислительная техника и интеллект », которая представила тест Тьюринга и показала, что «машинный интеллект» правдоподобен. [340] [337]
Область исследований ИИ была основана на семинаре в Дартмутском колледже в 1956 году. [s] [6] Участники стали лидерами исследований ИИ в 1960-х годах. [t] Они и их студенты создали программы, которые пресса описала как «поразительные»: [u] компьютеры изучали стратегии игры в шашки , решали текстовые задачи по алгебре, доказывали логические теоремы и говорили по-английски. [v] [7] Лаборатории искусственного интеллекта были созданы в ряде британских и американских университетов в конце 1950-х и начале 1960-х годов. [337]
Исследователи 1960-х и 1970-х годов были убеждены, что их методы в конечном итоге приведут к созданию машины с общим интеллектом, и считали это целью своей области. [344] В 1965 году Герберт Саймон предсказал, что «машины будут способны в течение двадцати лет выполнять любую работу, которую может выполнить человек». [345] В 1967 году Марвин Мински согласился, написав, что «в течение поколения ... проблема создания «искусственного интеллекта» будет в значительной степени решена». [346] Однако они недооценили сложность проблемы. [w] В 1974 году правительства США и Великобритании прекратили поисковые исследования в ответ на критику сэра Джеймса Лайтхилла [348] и продолжающееся давление со стороны Конгресса США с целью финансирования более продуктивных проектов . [349] Книга Мински и Паперта « Персептроны » была понята как доказательство того, что искусственные нейронные сети никогда не будут полезны для решения реальных задач, тем самым полностью дискредитируя этот подход. [350] Затем последовала « зима ИИ », период, когда было трудно получить финансирование для проектов ИИ. [9]
В начале 1980-х годов исследования ИИ были возрождены коммерческим успехом экспертных систем [351] , формы программы ИИ, которая имитировала знания и аналитические навыки экспертов-людей. К 1985 году рынок ИИ достиг более миллиарда долларов. В то же время японский проект пятого поколения компьютеров вдохновил правительства США и Великобритании на восстановление финансирования академических исследований [8] . Однако, начиная с краха рынка Lisp Machine в 1987 году, ИИ снова приобрел дурную славу, и началась вторая, более продолжительная зима. [10]
До этого момента большая часть финансирования ИИ направлялась на проекты, которые использовали символы высокого уровня для представления ментальных объектов, таких как планы, цели, убеждения и известные факты. В 1980-х годах некоторые исследователи начали сомневаться, что этот подход сможет имитировать все процессы человеческого познания, особенно восприятие , робототехнику , обучение и распознавание образов , [352] и начали изучать «субсимволические» подходы. [353] Родни Брукс отверг «представление» в целом и сосредоточился непосредственно на разработке машин, которые двигаются и выживают. [x] Джуда Перл , Лофти Заде и другие разработали методы, которые обрабатывали неполную и неопределенную информацию, делая разумные предположения, а не точную логику. [86] [358] Но самым важным событием стало возрождение « коннекционизма », включая исследования нейронных сетей, Джеффри Хинтоном и другими. [359] В 1990 году Ян Лекун успешно продемонстрировал, что сверточные нейронные сети могут распознавать рукописные цифры, что стало первым из многих успешных применений нейронных сетей. [360]
ИИ постепенно восстановил свою репутацию в конце 1990-х и начале 21-го века, используя формальные математические методы и находя конкретные решения для конкретных проблем. Этот « узкий » и «формальный» фокус позволил исследователям получать проверяемые результаты и сотрудничать с другими областями (такими как статистика , экономика и математика ). [361] К 2000 году решения, разработанные исследователями ИИ, широко использовались, хотя в 1990-х годах их редко называли «искусственным интеллектом» (тенденция, известная как эффект ИИ ). [362]
Однако несколько академических исследователей стали беспокоиться о том, что ИИ больше не преследует свою первоначальную цель создания универсальных, полностью интеллектуальных машин. Начиная примерно с 2002 года, они основали подотрасль общего искусственного интеллекта (или «AGI»), которая к 2010-м годам имела несколько хорошо финансируемых институтов. [4]
Глубокое обучение стало доминировать в отраслевых бенчмарках в 2012 году и было принято во всей области. [11]
Для многих конкретных задач другие методы были заброшены. [y]
Успех глубокого обучения был основан как на усовершенствованиях оборудования ( более быстрые компьютеры , [364] графические процессоры , облачные вычисления [365] ), так и на доступе к большим объемам данных [366] (включая курируемые наборы данных, [365] такие как ImageNet ). Успех глубокого обучения привел к огромному росту интереса и финансирования в области ИИ. [z] Объем исследований в области машинного обучения (измеренный по общему количеству публикаций) увеличился на 50% в 2015–2019 годах. [323]
В 2016 году вопросы справедливости и неправильного использования технологий были выдвинуты на первый план на конференциях по машинному обучению, публикации значительно возросли, финансирование стало доступным, и многие исследователи переориентировали свою карьеру на эти вопросы. Проблема выравнивания стала серьезной областью академических исследований. [300]
В конце 2010-х и начале 2020-х годов компании AGI начали поставлять программы, которые вызвали огромный интерес. В 2015 году AlphaGo , разработанная DeepMind , победила чемпиона мира по игре в го . Программа обучала только правилам игры и сама разрабатывала стратегию. GPT-3 — это большая языковая модель , выпущенная в 2020 году компанией OpenAI и способная генерировать высококачественный текст, похожий на человеческий. [367] ChatGPT , запущенный 30 ноября 2022 года, стал самым быстрорастущим потребительским программным приложением в истории, набрав более 100 миллионов пользователей за два месяца. [368] Он ознаменовал то, что широко считается годом прорыва ИИ, выведя его в общественное сознание. [369] Эти и другие программы вдохновили агрессивный бум ИИ , когда крупные компании начали инвестировать миллиарды долларов в исследования ИИ. По данным AI Impacts, около 50 миллиардов долларов ежегодно инвестировалось в «ИИ» около 2022 года только в США, и около 20% новых выпускников докторской степени в области компьютерных наук в США специализируются на «ИИ». [370] Около 800 000 вакансий, связанных с «ИИ» в США существовали в 2022 году. [371] Согласно исследованию PitchBook, 22% новых финансируемых стартапов в 2024 году заявили, что являются компаниями, занимающимися ИИ. [372]
Философия
Философские дебаты исторически стремились определить природу интеллекта и то, как создавать интеллектуальные машины. [373] Другим важным вопросом было то, могут ли машины обладать сознанием, и связанные с этим этические последствия. [374] Многие другие темы в философии имеют отношение к ИИ, такие как эпистемология и свободная воля . [375] Стремительные достижения усилили публичные дискуссии о философии и этике ИИ . [374]
Определение искусственного интеллекта
Алан Тьюринг в 1950 году написал: «Я предлагаю рассмотреть вопрос «могут ли машины думать»?» [376] Он посоветовал изменить вопрос с «думает ли машина» на «может ли машина демонстрировать разумное поведение». [376] Он разработал тест Тьюринга, который измеряет способность машины имитировать человеческий разговор. [340] Поскольку мы можем только наблюдать за поведением машины, неважно, думает ли она «на самом деле» или буквально имеет «разум». Тьюринг отмечает, что мы не можем определить эти вещи о других людях, но «обычно принято иметь вежливое соглашение, что все думают». [377]
Рассел и Норвиг согласны с Тьюрингом в том, что интеллект должен определяться с точки зрения внешнего поведения, а не внутренней структуры. [1] Однако они критически настроены на то, чтобы тест требовал, чтобы машина имитировала людей. « Тексты по авиационной технике », — писали они, «не определяют цель своей области как создание «машин, которые летают так точно, как голуби , что они могут обманывать других голубей». [ 379] Основатель ИИ Джон Маккарти согласился, написав, что «Искусственный интеллект, по определению, не является имитацией человеческого интеллекта». [380]
Маккарти определяет интеллект как «вычислительную часть способности достигать целей в мире». [381] Другой основатель ИИ, Марвин Мински , аналогичным образом описывает его как «способность решать сложные проблемы». [382] Ведущий учебник по ИИ определяет его как изучение агентов, которые воспринимают окружающую среду и предпринимают действия, которые максимизируют их шансы на достижение определенных целей. [1] Эти определения рассматривают интеллект в терминах четко определенных проблем с четко определенными решениями, где как сложность проблемы, так и производительность программы являются прямыми мерами «интеллекта» машины — и никакое другое философское обсуждение не требуется или даже может быть невозможным.
Другое определение было принято Google, [383] крупным практиком в области ИИ. Это определение предусматривает способность систем синтезировать информацию как проявление интеллекта, аналогично тому, как это определяется в биологическом интеллекте.
Некоторые авторы на практике предположили, что определение ИИ является расплывчатым и его трудно определить, и спорят о том, следует ли классические алгоритмы относить к категории ИИ, [384] при этом многие компании в начале 2020-х годов, во время бума ИИ, использовали этот термин как модное маркетинговое словечко , часто даже если они «фактически не использовали ИИ существенным образом». [385]
Оценка подходов к ИИ
Ни одна устоявшаяся объединяющая теория или парадигма не направляла исследования ИИ на протяжении большей части их истории. [aa] Беспрецедентный успех статистического машинного обучения в 2010-х годах затмил все другие подходы (настолько, что некоторые источники, особенно в деловом мире, используют термин «искусственный интеллект» для обозначения «машинного обучения с нейронными сетями»). Этот подход в основном субсимволический , мягкий и узкий . Критики утверждают, что эти вопросы, возможно, придется пересмотреть будущим поколениям исследователей ИИ.
Символический ИИ и его ограничения
Символический ИИ (или « GOFAI ») [387] имитировал высокоуровневое сознательное рассуждение, которое люди используют, когда решают головоломки, выражают правовые рассуждения и занимаются математикой. Они были очень успешны в «интеллектуальных» задачах, таких как алгебра или тесты IQ. В 1960-х годах Ньюэлл и Саймон предложили гипотезу физических систем символов : «Физическая система символов имеет необходимые и достаточные средства для общих интеллектуальных действий». [388]
Однако символический подход не справился со многими задачами, которые люди решают легко, такими как обучение, распознавание объекта или рассуждения здравого смысла. Парадокс Моравека заключается в открытии того, что высокоуровневые «интеллектуальные» задачи были легкими для ИИ, но низкоуровневые «инстинктивные» задачи были чрезвычайно трудными. [ 389] Философ Хьюберт Дрейфус с 1960-х годов утверждал , что человеческая экспертиза зависит от бессознательного инстинкта, а не от сознательной манипуляции символами, и от наличия «чувства» ситуации, а не явного символического знания. [390] Хотя его аргументы были высмеяны и проигнорированы, когда они были впервые представлены, в конечном итоге исследователи ИИ согласились с ним. [ab] [16]
Проблема не решена: субсимволическое рассуждение может совершать многие из тех же непостижимых ошибок, что и человеческая интуиция, например, алгоритмическую предвзятость . Критики, такие как Ноам Хомский, утверждают, что продолжение исследований символического ИИ все еще будет необходимо для достижения общего интеллекта, [392] [393] отчасти потому, что субсимволический ИИ — это шаг в сторону от объяснимого ИИ : может быть трудно или невозможно понять, почему современная статистическая программа ИИ приняла определенное решение. Возникающая область нейросимволического искусственного интеллекта пытается объединить два подхода.
Аккуратный против неряшливого
«Чистоплотные» надеются, что интеллектуальное поведение описывается с помощью простых, элегантных принципов (таких как логика , оптимизация или нейронные сети ). «Неряхи» ожидают, что это обязательно потребует решения большого количества не связанных между собой проблем. Чистоплотные защищают свои программы с теоретической строгостью, неряхи в основном полагаются на инкрементальное тестирование, чтобы увидеть, работают ли они. Этот вопрос активно обсуждался в 1970-х и 1980-х годах, [394], но в конечном итоге был признан неактуальным. Современный ИИ имеет элементы обоих.
Мягкие и жесткие вычисления
Нахождение доказуемо правильного или оптимального решения является неразрешимым для многих важных проблем. [15] Мягкие вычисления — это набор методов, включая генетические алгоритмы , нечеткую логику и нейронные сети, которые терпимы к неточности, неопределенности, частичной истинности и приближению. Мягкие вычисления были введены в конце 1980-х годов, и большинство успешных программ ИИ в 21 веке являются примерами мягких вычислений с нейронными сетями.
Узкий и общий ИИ
Исследователи ИИ разделились во мнениях относительно того, следует ли напрямую преследовать цели общего искусственного интеллекта и сверхинтеллекта или решать как можно больше конкретных проблем (узкий ИИ) в надежде, что эти решения косвенно приведут к долгосрочным целям области. [395] [396] Общий интеллект трудно определить и трудно измерить, и современный ИИ добился более проверяемых успехов, сосредоточившись на конкретных проблемах с конкретными решениями. Подотрасль общего искусственного интеллекта изучает исключительно эту область.
Машинное сознание, чувствительность и разум
Философия разума не знает, может ли машина иметь разум , сознание и ментальные состояния в том же смысле, что и люди. Этот вопрос рассматривает внутренние переживания машины, а не ее внешнее поведение. Основные исследования ИИ считают этот вопрос неактуальным, поскольку он не влияет на цели этой области: создавать машины, которые могут решать проблемы, используя интеллект. Рассел и Норвиг добавляют, что «дополнительный проект по созданию машины, сознательной точно так же, как и люди, — это не тот, к которому мы готовы». [397] Однако этот вопрос стал центральным для философии разума. Это также, как правило, центральный вопрос, обсуждаемый в области искусственного интеллекта в художественной литературе .
Сознание
Дэвид Чалмерс выделил две проблемы в понимании разума, которые он назвал «трудными» и «легкими» проблемами сознания. [398] Легкая проблема заключается в понимании того, как мозг обрабатывает сигналы, строит планы и контролирует поведение. Трудная проблема заключается в объяснении того, как это ощущается или почему это вообще должно ощущаться как что-то, предполагая, что мы правы, думая, что это действительно ощущается как что-то (иллюзионизм сознания Деннета утверждает, что это иллюзия). В то время как человеческую обработку информации легко объяснить, человеческий субъективный опыт объяснить трудно. Например, легко представить себе дальтоника, который научился определять, какие объекты в его поле зрения красные, но неясно, что потребуется для того, чтобы человек знал, как выглядит красный цвет . [399]
Вычислительность и функционализм
Вычислительный подход — это позиция в философии разума , согласно которой человеческий разум — это система обработки информации, а мышление — это форма вычислений. Вычислительный подход утверждает, что отношения между разумом и телом аналогичны или идентичны отношениям между программным обеспечением и оборудованием и, таким образом, могут быть решением проблемы разума и тела . Эта философская позиция была вдохновлена работой исследователей ИИ и когнитивных ученых в 1960-х годах и первоначально была предложена философами Джерри Фодором и Хилари Патнэмом . [400]
Философ Джон Сирл охарактеризовал эту позицию как « сильный ИИ »: «Соответствующим образом запрограммированный компьютер с правильными входами и выходами будет, таким образом, обладать разумом в том же смысле, в котором разум есть у людей». [ac] Сирл оспаривает это утверждение с помощью своего аргумента китайской комнаты , который пытается показать, что даже компьютер, способный идеально имитировать человеческое поведение, не будет обладать разумом. [404]
Благосостояние и права ИИ
Трудно или невозможно достоверно оценить, является ли развитый ИИ разумным (имеет ли он способность чувствовать), и если да, то в какой степени. [405] Но если есть значительная вероятность того, что данная машина может чувствовать и страдать, то она может иметь право на определенные права или меры защиты благосостояния, подобно животным. [406] [407] Разумность (набор способностей, связанных с высоким интеллектом, таких как проницательность или самосознание ) может обеспечить еще одну моральную основу для прав ИИ. [406] Права роботов также иногда предлагаются как практический способ интеграции автономных агентов в общество. [408]
В 2017 году Европейский союз рассматривал возможность предоставления «электронной личности» некоторым из наиболее эффективных систем ИИ. Подобно правовому статусу компаний, это предоставило бы права, но также и обязанности. [409] Критики утверждали в 2018 году, что предоставление прав системам ИИ приуменьшит важность прав человека , и что законодательство должно быть сосредоточено на потребностях пользователей, а не на спекулятивных футуристических сценариях. Они также отметили, что роботам не хватает автономии, чтобы самостоятельно участвовать в жизни общества. [410] [411]
Прогресс в области ИИ повысил интерес к этой теме. Сторонники благосостояния и прав ИИ часто утверждают, что разумность ИИ, если она появится, будет особенно легко отрицать. Они предупреждают, что это может быть моральным слепым пятном, аналогичным рабству или промышленному животноводству , что может привести к масштабным страданиям, если разумный ИИ будет создан и небрежно эксплуатироваться. [407] [406]
Будущее
Сверхразум и сингулярность
Сверхразум — это гипотетический агент, который будет обладать интеллектом, намного превосходящим интеллект самого яркого и одаренного человеческого разума. [396] Если бы исследования в области искусственного интеллекта привели к созданию достаточно разумного программного обеспечения, оно могло бы перепрограммировать и улучшить себя . Улучшенное программное обеспечение могло бы еще лучше улучшать себя, что привело бы к тому, что И. Дж. Гуд назвал « взрывом интеллекта », а Вернор Виндж — « сингулярностью ». [412]
Однако технологии не могут совершенствоваться экспоненциально бесконечно и обычно следуют S-образной кривой , замедляясь, когда достигают физических пределов того, что может сделать технология. [413]
Трансгуманизм
Конструктор роботов Ганс Моравек , кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказали, что люди и машины могут в будущем объединиться в киборгов, которые будут более способными и сильными, чем они. Эта идея, называемая трансгуманизмом, имеет корни в трудах Олдоса Хаксли и Роберта Эттингера . [414]
Аргументы в пользу декомпьютинга были выдвинуты Дэном МакКвилланом ( Resisting AI: An Anti-fascist Approach to Artificial Intelligence , 2022), имея в виду оппозицию всеобщему применению и расширению искусственного интеллекта. Подобно декомпьютингу, этот подход критикует ИИ как порождение системных проблем и капиталистического мира, в котором мы живем. Утверждая, что возможно иное будущее, в котором расстояние между людьми сократится, а не увеличится до посредников ИИ. [416]
В художественной литературе
Искусственные существа, способные мыслить, появлялись в качестве средств повествования еще со времен античности [417] и были постоянной темой в научной фантастике . [418]
Распространенный троп в этих работах начался с «Франкенштейна » Мэри Шелли , где человеческое творение становится угрозой для своих хозяев. Сюда входят такие работы, как «Космическая одиссея 2001 года» Артура Кларка и Стэнли Кубрика (оба 1968 года) с HAL 9000 , смертоносным компьютером, управляющим космическим кораблем Discovery One , а также «Терминатор» (1984) и «Матрица» (1999). Напротив, редкие верные роботы, такие как Горт из «Дня, когда Земля остановилась» (1951) и Бишоп из «Чужих» (1986), менее заметны в популярной культуре. [419]
Айзек Азимов представил Три Закона Робототехники во многих рассказах, наиболее заметным из которых является супер-разумный компьютер « Мультивак ». Законы Азимова часто поднимаются во время непрофессиональных дискуссий о машинной этике; [420] хотя почти все исследователи искусственного интеллекта знакомы с законами Азимова через популярную культуру, они, как правило, считают эти законы бесполезными по многим причинам, одной из которых является их неоднозначность. [421]
Несколько работ используют ИИ, чтобы заставить нас столкнуться с фундаментальным вопросом о том, что делает нас людьми, показывая нам искусственные существа, которые обладают способностью чувствовать , и, таким образом, страдать. Это появляется в RUR Карела Чапека , фильмах Искусственный интеллект и Из машины , а также в романе Мечтают ли андроиды об электроовцах? Филипа К. Дика . Дик рассматривает идею о том, что наше понимание человеческой субъективности изменяется под воздействием технологий, созданных с помощью искусственного интеллекта. [422]
^ ab Этот список интеллектуальных черт основан на темах, охватываемых основными учебниками по искусственному интеллекту, включая: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) и Nilsson (1998)
^ ab Этот список инструментов основан на темах, охватываемых основными учебниками по ИИ, включая: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) и Nilsson (1998)
^ Это одна из причин, по которой экспертные системы оказались неэффективными для сбора знаний. [30] [31]
^
"Рациональный агент" — общий термин, используемый в экономике , философии и теоретическом искусственном интеллекте. Он может относиться ко всему, что направляет свое поведение на достижение целей, например, к человеку, животному, корпорации, нации или, в случае ИИ, к компьютерной программе.
^ Алан Тьюринг обсуждал центральную роль обучения еще в 1950 году в своей классической статье « Вычислительная техника и интеллект ». [42] В 1956 году на оригинальной летней конференции по искусственному интеллекту в Дартмуте Рэй Соломонофф написал доклад о неконтролируемом вероятностном машинном обучении: «Машина индуктивного вывода». [43]
^
По сравнению с символической логикой формальный байесовский вывод является вычислительно затратным. Чтобы вывод был поддающимся обработке, большинство наблюдений должны быть условно независимыми друг от друга. AdSense использует байесовскую сеть с более чем 300 миллионами ребер, чтобы узнать, какие объявления показывать. [93]
^ Максимизация ожиданий, один из самых популярных алгоритмов в машинном обучении, позволяет выполнять кластеризацию при наличии неизвестных скрытых переменных . [95]
^ Джеффри Хинтон сказал о своей работе над нейронными сетями в 1990-х годах: «Наши размеченные наборы данных были в тысячи раз меньше. [И] наши компьютеры были в миллионы раз медленнее». [121]
^ В статистике смещение — это систематическая ошибка или отклонение от правильного значения. Но в контексте справедливости оно относится к тенденции в пользу или против определенной группы или индивидуальной характеристики, обычно таким образом, который считается несправедливым или вредным. Статистически непредвзятая система ИИ, которая выдает разрозненные результаты для разных демографических групп, может, таким образом, рассматриваться как предвзятая в этическом смысле. [236]
^ Мориц Хардт (директор Института интеллектуальных систем Макса Планка ) утверждает, что машинное обучение «в корне не подходит для многих областей, где вы пытаетесь разрабатывать вмешательства и механизмы, которые изменят мир». [250]
^ Когда закон был принят в 2018 году, он все еще содержал форму этого положения.
^ «Электронный мозг» — термин, используемый прессой в то время. [336] [338]
↑
Дэниел Кревье писал: «Эта конференция общепризнанно считается официальной датой рождения новой науки». [341] Рассел и Норвиг назвали конференцию «зарождением искусственного интеллекта». [115]
↑ Рассел и Норвиг писали: «В течение следующих 20 лет в этой области будут доминировать эти люди и их ученики». [342]
↑ Рассел и Норвиг писали: «Было удивительно, когда компьютер делал что-то умное». [343]
^ Маттео Вонг написал в The Atlantic : «В то время как на протяжении десятилетий такие области компьютерных наук, как обработка естественного языка, компьютерное зрение и робототехника, использовали совершенно разные методы, теперь все они используют метод программирования, называемый «глубоким обучением». В результате их код и подходы стали более похожими, а их модели легче интегрировать друг в друга». [363]
^ Джек Кларк написал в Bloomberg : «После полувека тихих прорывов в области искусственного интеллекта 2015 год стал знаменательным. Компьютеры стали умнее и учатся быстрее, чем когда-либо», и отметил, что количество программных проектов, использующих машинное обучение в Google, увеличилось со «спорадического использования» в 2012 году до более чем 2700 проектов в 2015 году. [365]
↑ Нильс Нильссон писал в 1983 году: «Проще говоря, в этой области существуют большие разногласия относительно того, что такое ИИ». [386]
^
Дэниел Кревье написал, что «время доказало точность и проницательность некоторых комментариев Дрейфуса. Если бы он сформулировал их менее агрессивно, конструктивные действия, которые они предлагали, могли бы быть предприняты гораздо раньше». [391]
^
Сирл представил это определение «сильного ИИ» в 1999 году. [401] Первоначальная формулировка Сирла была: «Соответствующим образом запрограммированный компьютер действительно является разумом, в том смысле, что компьютеры, которым даны правильные программы, можно буквально назвать понимающими и имеющими другие когнитивные состояния». [402] Сильный ИИ определяется аналогичным образом Расселом и Норвигом : «Сильный ИИ – утверждение, что машины, которые это делают, на самом деле думают (в отличие от имитации мышления)». [403]
Ссылки
^ abc Russell & Norvig (2021), стр. 1–4.
^ Искусственный интеллект должен превзойти возможности человеческого мозга. Архивировано 19 февраля 2008 г. на Wayback Machine CNN.com (26 июля 2006 г.)
^ Каплан, Андреас; Хенлейн, Михаэль (2019). «Siri, Siri, в моей руке: кто прекраснее всех на свете? Об интерпретациях, иллюстрациях и последствиях искусственного интеллекта». Business Horizons . 62 : 15–25 . doi :10.1016/j.bushor.2018.08.004. ISSN 0007-6813. S2CID 158433736.
^ abc Искусственный интеллект в целом : Рассел и Норвиг (2021, стр. 32–33, 1020–1021) Предложение по современной версии: Пенначин и Герцель (2007) Предупреждения о чрезмерной специализации в области ИИ от ведущих исследователей: Нильссон (1995), Маккарти (2007), Бил и Уинстон (2009)
^ Рассел и Норвиг (2021, §1.2).
^ ab Dartmouth workshop : Russell & Norvig (2021, стр. 18), McCorduck (2004, стр. 111–136), NRC (1999, стр. 200–201) Предложение: McCarthy et al. (1955)
^ ab Успешные программы 1960-х годов: McCorduck (2004, стр. 243–252), Crevier (1993, стр. 52–107), Moravec (1988, стр. 9), Russell & Norvig (2021, стр. 19–21)
^ Решение проблем, решение головоломок, игровые процессы и дедукция: Рассел и Норвиг (2021, гл. 3–5), Рассел и Норвиг (2021, гл. 6) ( удовлетворение ограничений ), Пул, Макворт и Гебель (1998, гл. 2, 3, 7, 9), Люгер и Стабблфилд (2004, гл. 3, 4, 6, 8), Нильссон (1998, гл. 7–12)
^ Неопределенные рассуждения: Рассел и Норвиг (2021, гл. 12–18), Пул, Макворт и Гёбель (1998, стр. 345–395), Люгер и Стабблфилд (2004, стр. 333–381), Нильссон (1998, гл. 7–12)
^ abc Психологические доказательства распространенности субсимволического мышления и знания: Канеман (2011), Дрейфус и Дрейфус (1986), Уэйсон и Шапиро (1966), Канеман, Слович и Тверски (1982)
^ Представление знаний и инженерия знаний : Рассел и Норвиг (2021, гл. 10), Пул, Макворт и Гёбель (1998, стр. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345), Люгер и Стабблфилд (2004, стр. 227–243), Нильссон (1998, гл. 17.1–17.4, 18)
^ Смоляр и Чжан (1994).
^ Нойманн и Мёллер (2008).
^ Куперман, Райхли и Бейли (2006).
^ МакГарри (2005).
^ Бертини, Дель Бимбо и Торниай (2006).
^ Рассел и Норвиг (2021), стр. 272.
^ Представление категорий и отношений: семантические сети , описательная логика , наследование (включая фреймы и скрипты ): Russell & Norvig (2021, §10.2 и 10.5), Poole, Mackworth & Goebel (1998, стр. 174–177), Luger & Stubblefield (2004, стр. 248–258), Nilsson (1998, гл. 18.3)
^ Бездатчиковое или «конформное» планирование, условное планирование, перепланирование (также известное как онлайн-планирование): Рассел и Норвиг (2021, раздел 11.5).
^ Неопределенные предпочтения: Рассел и Норвиг (2021, Раздел 16.7) Обратное обучение с подкреплением : Рассел и Норвиг (2021, Раздел 22.6)
^ Теория игр и теория многоагентных решений: Рассел и Норвиг (2021, гл. 18).
^ Обучение : Рассел и Норвиг (2021, гл. 19–22), Пул, Макворт и Гёбель (1998, стр. 397–438), Люгер и Стабблфилд (2004, стр. 385–542), Нильссон (1998, гл. 3.3, 10.3, 17.5, 20)
^ Обработка естественного языка (NLP): Рассел и Норвиг (2021, гл. 23–24), Пул, Макворт и Гёбель (1998, стр. 91–104), Люгер и Стабблфилд (2004, стр. 591–632)
^ Подзадачи НЛП : Рассел и Норвиг (2021, стр. 849–850)
^ Рассел и Норвиг (2021), стр. 856–858.
^ Диксон (2022).
^ Современные статистические и глубоко обучающие подходы к обработке естественного языка : Рассел и Норвиг (2021, гл. 24), Камбрия и Уайт (2014)
^ Винсент (2019).
^ Рассел и Норвиг (2021), стр. 875–878.
^ Бушвик (2023).
^ Компьютерное зрение : Рассел и Норвиг (2021, гл. 25), Нильссон (1998, гл. 6)
^ Рассел и Норвиг (2021), стр. 849–850.
^ Рассел и Норвиг (2021), стр. 895–899.
^ Рассел и Норвиг (2021), стр. 899–901.
^ Чалла и др. (2011).
^ Рассел и Норвиг (2021), стр. 931–938.
^ Массачусетский технологический институт (2014).
^ Аффективные вычисления : Тро (1993), Эдельсон (1991), Тао и Тан (2005), Скасселлати (2002)
^ Уодделл (2018).
^ Пория и др. (2017).
^ Алгоритмы поиска : Russell & Norvig (2021, главы 3–5), Poole, Mackworth & Goebel (1998, стр. 113–163), Luger & Stubblefield (2004, стр. 79–164, 193–219), Nilsson (1998, главы 7–12)
^ Эвристический или информированный поиск (например, жадный поиск по первому лучшему варианту и A* ): Russell & Norvig (2021, раздел 3.5), Poole, Mackworth & Goebel (1998, стр. 132–147), Poole & Mackworth (2017, раздел 3.6), Luger & Stubblefield (2004, стр. 133–150)
^ Логика : Рассел и Норвиг (2021, главы 6–9), Люгер и Стабблфилд (2004, стр. 35–77), Нильссон (1998, главы 13–16)
^ Пропозициональная логика : Рассел и Норвиг (2021, гл. 6), Люгер и Стабблфилд (2004, стр. 45–50), Нильссон (1998, гл. 13)
^ Логика первого порядка и такие функции, как равенство : Рассел и Норвиг (2021, гл. 7), Пул, Макворт и Гёбель (1998, стр. 268–275), Люгер и Стабблфилд (2004, стр. 50–62), Нильссон (1998, гл. 15)
^ Уоррен, Д. Х.; Перейра, Л. М.; Перейра, Ф. (1977). «Пролог — язык и его реализация в сравнении с Лиспом». ACM SIGPLAN Notices . 12 (8): 109– 115. doi :10.1145/872734.806939.
^ Нечеткая логика: Рассел и Норвиг (2021, стр. 214, 255, 459), Scientific American (1999)
^ ab Стохастические методы для неопределенных рассуждений: Рассел и Норвиг (2021, гл. 12–18, 20), Пул, Макворт и Гёбель (1998, стр. 345–395), Люгер и Стабблфилд (2004, стр. 165–191, 333–381), Нильссон (1998, гл. 19)
^ Байесовские сети : Рассел и Норвиг (2021, разделы 12.5–12.6, 13.4–13.5, 14.3–14.5, 16.5, 20.2–20.3), Пул, Макворт и Гёбель (1998, стр. 361–381), Люгер и Стабблфилд (2004, стр. ~182–190, ≈363–379), Нильссон (1998, гл. 19.3–19.4)
^ Домингос (2015), глава 6.
^ Алгоритм байесовского вывода : Рассел и Норвиг (2021, раздел 13.3–13.5), Пул, Макворт и Гёбель (1998, стр. 361–381), Люгер и Стабблфилд (2004, стр. ~363–379), Нильссон (1998, главы 19.4 и 7)
^ Статистические методы обучения и классификаторы : Рассел и Норвиг (2021, гл. 20),
^ Ciaramella, Alberto ; Ciaramella, Marco (2024). Введение в искусственный интеллект: от анализа данных до генеративного ИИ . Издания Intellisemantic. ISBN978-8-8947-8760-3.
^ Деревья решений : Рассел и Норвиг (2021, раздел 19.3), Домингос (2015, стр. 88)
^ "Инструменты написания и создания контента на основе ИИ". MIT Sloan Teaching & Learning Technologies. Архивировано из оригинала 25 декабря 2023 г. Получено 25 декабря 2023 г.
^ Мармуйе (2023).
^ Кобелус (2019).
^ Томасон, Джеймс (21 мая 2024 г.). «Mojo Rising: возрождение языков программирования, ориентированных на ИИ». VentureBeat . Архивировано из оригинала 27 июня 2024 г. Получено 26 мая 2024 г.
^ Wodecki, Ben (5 мая 2023 г.). «7 языков программирования ИИ, которые вам нужно знать». AI Business . Архивировано из оригинала 25 июля 2024 г. Получено 5 октября 2024 г.
^ Пламб, Тарин (18 сентября 2024 г.). «Почему Дженсен Хуанг и Марк Бениофф видят «гигантскую» возможность для агентного ИИ». VentureBeat . Архивировано из оригинала 5 октября 2024 г. Получено 4 октября 2024 г.
^ Мимс, Кристофер (19 сентября 2020 г.). «Закон Хуанга — это новый закон Мура, и он объясняет, почему Nvidia хочет ARM». Wall Street Journal . ISSN 0099-9660. Архивировано из оригинала 2 октября 2023 г. Получено 19 января 2025 г.
^ Дэвенпорт, Т.; Калакота, Р. (июнь 2019 г.). «Потенциал искусственного интеллекта в здравоохранении». Future Healthc J . 6 (2): 94– 98. doi :10.7861/futurehosp.6-2-94. PMC 6616181 . PMID 31363513.
^ Ляхова, УА; Ляхов, ПА (2024). «Систематический обзор подходов к выявлению и классификации рака кожи с использованием искусственного интеллекта: развитие и перспективы». Компьютеры в биологии и медицине . 178 : 108742. doi : 10.1016/j.compbiomed.2024.108742. PMID 38875908. Архивировано из оригинала 3 декабря 2024 г. Получено 10 октября 2024 г.
^ Alqudaihi, Kawther S.; Aslam, Nida; Khan, Irfan Ullah; Almuhaideb, Abdullah M.; Alsunaidi, Shikah J.; Ibrahim, Nehad M. Abdel Rahman; Alhaidari, Fahd A.; Shaikh, Fatema S.; Alsenbel, Yasmine M.; Alalharith, Dima M.; Alharthi, Hajar M.; Alghamdi, Wejdan M.; Alshahrani, Mohammed S. (2021). «Обнаружение и диагностика кашля с использованием методов искусственного интеллекта: проблемы и возможности». IEEE Access . 9 : 102327– 102344. Bibcode : 2021IEEEA...9j2327A. doi : 10.1109/ACCESS.2021.3097559. ISSN 2169-3536 . PMC 8545201. PMID 34786317.
^ ab Bax, Monique; Thorpe, Jordan; Romanov, Valentin (декабрь 2023 г.). «Будущее персонализированной сердечно-сосудистой медицины требует 3D- и 4D-печати, стволовых клеток и искусственного интеллекта». Frontiers in Sensors . 4 . doi : 10.3389/fsens.2023.1294721 . ISSN 2673-5067.
^ Джампер, Дж.; Эванс, Р.; Притцель, А. (2021). «Высокоточное предсказание структуры белка с помощью AlphaFold». Nature . 596 (7873): 583– 589. Bibcode :2021Natur.596..583J. doi :10.1038/s41586-021-03819-2. PMC 8371605 . PMID 34265844.
^ "ИИ открывает новый класс антибиотиков для уничтожения устойчивых к лекарствам бактерий". 20 декабря 2023 г. Архивировано из оригинала 16 сентября 2024 г. Получено 5 октября 2024 г.
^ «ИИ ускоряет разработку лекарств от болезни Паркинсона в десять раз». Кембриджский университет. 17 апреля 2024 г. Архивировано из оригинала 5 октября 2024 г. Получено 5 октября 2024 г.
^ Хорн, Роберт И.; Анджеевска, Эва А.; Алам, Парвез; Бротзакис, З. Файдон; Шривастава, Анкит; Обер, Элис; Новинска, Магдалена; Грегори, Ребекка К.; Стаатс, Роксин; Поссенти, Андреа; Чиа, Шон; Сорманни, Пьетро; Гетти, Бернардино; Коги, Байрон; Ноулз, Туомас П. Дж.; Вендрусколо, Микеле (17 апреля 2024 г.). «Открытие мощных ингибиторов агрегации α-синуклеина с использованием итеративного обучения на основе структуры». Nature Chemical Biology . 20 (5). Nature: 634– 645. doi :10.1038/s41589-024-01580-x. PMC 11062903. PMID 38632492 .
↑ Грант, Юджин Ф.; Ларднер, Рекс (25 июля 1952 г.). «The Talk of the Town – It». The New Yorker . ISSN 0028-792X. Архивировано из оригинала 16 февраля 2020 г. Получено 28 января 2024 г.
^ Андерсон, Марк Роберт (11 мая 2017 г.). «Двадцать лет спустя после Deep Blue против Каспарова: как шахматный матч положил начало революции больших данных». The Conversation . Архивировано из оригинала 17 сентября 2024 г. Получено 28 января 2024 г.
^ Маркофф, Джон (16 февраля 2011 г.). «Компьютер побеждает в «Jeopardy!»: тривиально, но это не так» . The New York Times . ISSN 0362-4331. Архивировано из оригинала 22 октября 2014 г. Получено 28 января 2024 г.
↑ Байфорд, Сэм (27 мая 2017 г.). «AlphaGo уходит из соревновательного го после победы над мировым номером один со счетом 3–0». The Verge . Архивировано из оригинала 7 июня 2017 г. . Получено 28 января 2024 г. .
^ Браун, Ноам; Сандхолм, Туомас (30 августа 2019 г.). «Сверхчеловеческий ИИ для многопользовательского покера». Science . 365 (6456): 885– 890. Bibcode :2019Sci...365..885B. doi :10.1126/science.aay2400. ISSN 0036-8075. PMID 31296650.
^ "MuZero: Освоение го, шахмат, сёги и Atari без правил". Google DeepMind . 23 декабря 2020 г. Получено 28 января 2024 г.
↑ Sample, Ian (30 октября 2019 г.). «ИИ становится гроссмейстером в „дьявольски сложной“ игре StarCraft II». The Guardian . ISSN 0261-3077. Архивировано из оригинала 29 декабря 2020 г. Получено 28 января 2024 г.
^ Вурман, PR; Барретт, S.; Кавамото, K. (2022). «Обгон гонщиков-чемпионов Gran Turismo с помощью глубокого обучения с подкреплением» (PDF) . Nature . 602 (7896): 223– 228. Bibcode :2022Natur.602..223W. doi :10.1038/s41586-021-04357-7. PMID 35140384.
^ Уилкинс, Алекс (13 марта 2024 г.). «ИИ Google учится играть в видеоигры с открытым миром, наблюдая за ними». New Scientist . Архивировано из оригинала 26 июля 2024 г. Получено 21 июля 2024 г.
^ «Улучшение математических рассуждений с помощью контроля процессов». OpenAI . 31 мая 2023 г. Получено 26 января 2025 г.
^ Шривастава, Саурабх (29 февраля 2024 г.). «Функциональные критерии для надежной оценки эффективности рассуждений и разрыв в рассуждениях». arXiv : 2402.19450 [cs.AI].
^ Франзен, Карл (9 января 2025 г.). «Новая технология rStar-Math от Microsoft улучшает малые модели, чтобы превзойти предварительную версию OpenAI o1 при решении математических задач». VentureBeat . Получено 26 января 2025 г.
^ Робертс, Сиобхан (25 июля 2024 г.). «ИИ достигает стандарта серебряной медали, решая задачи Международной математической олимпиады». The New York Times . Архивировано из оригинала 26 сентября 2024 г. Получено 7 августа 2024 г.
^ Азербаев, Жангир; Шелькопф, Хейли; Пастер, Кейран; Сантос, Марко Дос; Макалир, Стивен; Цзян, Альберт К.; Дэн, Цзя; Бидерман, Стелла; Веллек, Шон (16 октября 2023 г.). «Ллемма: модель открытого языка для математики». Блог EleutherAI . Проверено 26 января 2025 г.
^ "Юлий AI". julius.ai .
^ Макфарланд, Алекс (12 июля 2024 г.). «8 лучших ИИ для математических инструментов (январь 2025 г.)». Unite.AI . Получено 26 января 2025 г. .
^ Мэтью Финио и Аманда Дауни: IBM Think 2024 Primer, «Что такое искусственный интеллект (ИИ) в финансах?» 8 декабря 2023 г.
^ М. Николас, Дж. Фирцли: Pensions Age/European Pensions magazine, «Искусственный интеллект: спросите отрасль» май июнь 2024 г. https://videovoice.org/ai-in-finance-innovation-entrepreneurship-vs-over-regulation-with-the-eus-artificial-intelligence-act-wont-work-as-intended/ Архивировано 11 сентября 2024 г. на Wayback Machine .
^ abc Congressional Research Service (2019). Искусственный интеллект и национальная безопасность (PDF) . Вашингтон, округ Колумбия: Congressional Research Service. Архивировано (PDF) из оригинала 8 мая 2020 года . Получено 25 февраля 2024 года .PD-уведомление
^ ab Слюсарь, Вадим (2019). Искусственный интеллект как основа будущих сетей управления (Препринт). doi :10.13140/RG.2.2.30247.50087.
↑ Ираки, Амджад (3 апреля 2024 г.). «„Лаванда“: машина ИИ, направляющая израильские бомбардировки в секторе Газа». Журнал +972 . Архивировано из оригинала 10 октября 2024 г. Получено 6 апреля 2024 г.
^ Дэвис, Гарри; МакКернан, Бетан; Саббах, Дэн (1 декабря 2023 г.). «Евангелие: как Израиль использует ИИ для выбора целей бомбардировки в секторе Газа». The Guardian . Архивировано из оригинала 6 декабря 2023 г. Получено 4 декабря 2023 г.
↑ Марти, Дж. Вернер (10 августа 2024 г.). «Drohnen haben den Krieg in der Ukraine Revolutioniert, doch sie sind empfindlich auf Störsender – deshalb sollen sie jetzt autonom operieren». Neue Zürcher Zeitung (на немецком языке). Архивировано из оригинала 10 августа 2024 года . Проверено 10 августа 2024 г.
^ Ньюсом, Гэвин; Вебер, Ширли Н. (5 сентября 2023 г.). «Исполнительный приказ N-12-23» (PDF) . Исполнительный департамент штата Калифорния. Архивировано (PDF) из оригинала 21 февраля 2024 г. . Получено 7 сентября 2023 г. .
^ Пиная, Уолтер Х.Л.; Грэм, Марк С.; Керфут, Эрик; Тудосиу, Петру-Даниэль; Даффлон, Джессика; Фернандес, Вирджиния; Санчес, Педро; Воллеб, Джулия; да Коста, Педро Ф.; Патель, Эшай (2023). «Генераторный искусственный интеллект для медицинской визуализации: расширение структуры MONAI». arXiv : 2307.15208 [eess.IV].
^ «Что такое ChatGPT, DALL-E и генеративный ИИ?». McKinsey . Получено 14 декабря 2024 г.
^ «Что такое генеративный ИИ?». IBM . 22 марта 2024 г.
^ Pasick, Adam (27 марта 2023 г.). «Глоссарий искусственного интеллекта: объяснение нейронных сетей и других терминов». The New York Times . ISSN 0362-4331. Архивировано из оригинала 1 сентября 2023 г. Получено 22 апреля 2023 г.
^ Карпати, Андрей; Аббель, Питер; Брокман, Грег; Чен, Питер; Чунг, Вики; Дуань, Ян; Гудфеллоу, Ян; Кингма, Дюрк; Хо, Джонатан; Рейн Хаутхуфт; Тим Салиманс; Джон Шульман; Илья Суцкевер; Войцех Заремба (16 июня 2016 г.). "Генеративные модели". OpenAI. Архивировано из оригинала 17 ноября 2023 г. . Получено 15 марта 2023 г. .
^ ab Griffith, Erin; Metz, Cade (27 января 2023 г.). «Anthropic Said to Be Closing In on $300 Million in New AI Funding». The New York Times . Архивировано из оригинала 9 декабря 2023 г. . Получено 14 марта 2023 г. .
^ Ланксон, Нейт; Басс, Дина; Давалос, Джеки (10 марта 2023 г.). «Шпаргалка по модным словечкам ИИ и их значениям». Bloomberg News . Архивировано из оригинала 17 ноября 2023 г. Получено 14 марта 2023 г.
^ Метц, Кейд (14 марта 2023 г.). «OpenAI планирует поднять ставки в гонке ИИ в сфере технологий». The New York Times . ISSN 0362-4331. Архивировано из оригинала 31 марта 2023 г. Получено 31 марта 2023 г.
^ Топпилан, Ромаль; Де Фрейтас, Дэниел; Холл, Джейми; Шазир, Ноам; Кулшрешта, Апурв (20 января 2022 г.). «LaMDA: Языковые модели для диалоговых приложений». arXiv : 2201.08239 [cs.CL].
^ Руз, Кевин (21 октября 2022 г.). «Вечеринка выхода в свет генеративного ИИ, нового увлечения Кремниевой долины». The New York Times . Архивировано из оригинала 15 февраля 2023 г. Получено 14 марта 2023 г.
^ Метц, Кейд (15 февраля 2024 г.). «OpenAI представляет ИИ, который мгновенно генерирует потрясающие видеоролики». The New York Times . ISSN 0362-4331. Архивировано из оригинала 15 февраля 2024 г. Получено 16 февраля 2024 г.
^ «Гонка лабораторий искусственного интеллекта накаляется». The Economist . 30 января 2023 г. Архивировано из оригинала 17 ноября 2023 г. Получено 14 марта 2023 г.
^ Yang, June; Gokturk, Burak (14 марта 2023 г.). «Google Cloud приносит генеративный ИИ разработчикам, предприятиям и правительствам». Архивировано из оригинала 17 ноября 2023 г. . Получено 15 марта 2023 г. .
^ Бриньолфссон, Эрик; Ли, Даниэль; Рэймонд, Линдси Р. (апрель 2023 г.), Generative AI at Work (рабочий документ), Working Paper Series, doi : 10.3386/w31161, архивировано из оригинала 28 марта 2024 г. , извлечено 21 января 2024 г.
^ «Пока не бойтесь апокалипсиса рабочих мест, вызванного ИИ». The Economist . 6 марта 2023 г. Архивировано из оригинала 17 ноября 2023 г. Получено 14 марта 2023 г.
^ Койл, Джейк (27 сентября 2023 г.). «В битве голливудских писателей против ИИ люди побеждают (пока)». AP News . Associated Press. Архивировано из оригинала 3 апреля 2024 г. . Получено 26 января 2024 г. .
^ Харрейс, Х.; Куллиас, Т.; Робертс, Роджер. «Генеративный ИИ: открытие будущего моды». Архивировано из оригинала 17 ноября 2023 г. Получено 14 марта 2023 г.
^ «Как генеративный ИИ может усилить креативность человека». Harvard Business Review . 16 июня 2023 г. ISSN 0017-8012. Архивировано из оригинала 20 июня 2023 г. Получено 20 июня 2023 г.
^ Хендрикс, Джастин (16 мая 2023 г.). «Стенограмма: Слушания подкомитета по судебной системе Сената по надзору за ИИ». techpolicy.press . Архивировано из оригинала 17 ноября 2023 г. . Получено 19 мая 2023 г. .
^ Саймон, Феликс М.; Алтай, Саша; Мерсье, Хьюго (18 октября 2023 г.). «Перезагрузка дезинформации? Опасения по поводу влияния генеративного ИИ на дезинформацию преувеличены». Обзор дезинформации Гарвардской школы имени Кеннеди . doi : 10.37016/mr-2020-127 . S2CID 264113883. Архивировано из оригинала 17 ноября 2023 г. Получено 16 ноября 2023 г.
^ «Новые системы искусственного интеллекта сталкиваются с законом об авторском праве». BBC News . 1 августа 2023 г. Получено 28 сентября 2024 г.
^ Пул, Дэвид; Макворт, Алан (2023). Искусственный интеллект, основы вычислительных агентов (3-е изд.). Cambridge University Press. doi : 10.1017/9781009258227. ISBN978-1-0092-5819-7. Архивировано из оригинала 5 октября 2024 г. . Получено 5 октября 2024 г. .
^ «Почему агенты — это следующий рубеж генеративного ИИ». McKinsey Digital . 24 июля 2024 г. Архивировано из оригинала 3 октября 2024 г. Получено 10 августа 2024 г.
^ Фигейредо, Майара Коста; Анкрах, Элизабет; Пауэлл, Жаклин Э.; Эпштейн, Дэниел А.; Чен, Юнань (12 января 2024 г.). «Powered by AI: Examining How AI Descriptions Influence Perceptions of Fertility Tracking Applications». Proc. ACM Interact. Mob. Wearable Ubiquitous Technol . 7 (4): 154:1–154:24. doi :10.1145/3631414.
^ Power, Jennifer; Pym, Tinonee; James, Alexandra; Waling, Andrea (5 июля 2024 г.). «Умные секс-игрушки: повествовательный обзор последних исследований по вопросам культуры, здоровья и безопасности». Current Sexual Health Reports . 16 (3): 199– 215. doi : 10.1007/s11930-024-00392-3 . ISSN 1548-3592.
^ Маркантонио, Тиффани Л.; Эйвери, Грейси; Трэш, Анна; Леоне, Рашель М. (10 сентября 2024 г.). «Большие языковые модели в приложении: проведение качественного синтетического анализа данных о том, как «мой ИИ» Snapchat отвечает на вопросы о сексуальном согласии, сексуальных отказах, сексуальном насилии и секстинге». Журнал исследований секса : 1– 15. doi : 10.1080/00224499.2024.2396457. ISSN 0022-4499. PMID 39254628. Архивировано из оригинала 9 декабря 2024 г. . Получено 9 декабря 2024 г. .
^ Хансон, Кеннет Р.; Болтхаус, Ханна (2024). ««Replika, удаляющая эротическую ролевую игру, подобна Grand Theft Auto, удаляющей оружие или автомобили»: дискурс Reddit о чат-ботах с искусственным интеллектом и сексуальных технологиях». Socius: социологическое исследование для динамического мира . 10. doi : 10.1177/23780231241259627 . ISSN 2378-0231.
^ Мания, Каролина (1 января 2024 г.). «Юридическая защита жертв мести и фейкового порно в Европейском союзе: результаты сравнительного правового исследования». Травма, насилие и злоупотребления . 25 (1): 117– 129. doi : 10.1177/15248380221143772. ISSN 1524-8380. PMID 36565267.
^ Сингх, Суеша; Намбиар, Вайшнави (2024). «Роль искусственного интеллекта в предотвращении сексуального насилия над детьми в Интернете: систематический обзор литературы». Журнал прикладных исследований безопасности . 19 (4): 586– 627. doi : 10.1080/19361610.2024.2331885. ISSN 1936-1610. Архивировано из оригинала 9 декабря 2024 года . Получено 9 декабря 2024 года .
^ Рази, Афсанех; Ким, Сынхён; Алсубай, Ашвак; Стрингини, Джанлука; Солорио, Тамар; Де Чоудхури, Мунмун; Вишневски, Памела Дж. (13 октября 2021 г.). «Систематический обзор литературы, ориентированный на человека, по вычислительным подходам к обнаружению сексуального риска в Интернете». Труды ACM по взаимодействию человека и компьютера . 5 (CSCW2): 1– 38. doi :10.1145/3479609. ISSN 2573-0142. Архивировано из оригинала 9 декабря 2024 г. . Получено 9 декабря 2024 г. .
^ Рэнсботэм, Сэм; Кирон, Дэвид; Герберт, Филипп; Ривз, Мартин (6 сентября 2017 г.). «Преобразование бизнеса с помощью искусственного интеллекта». MIT Sloan Management Review . Архивировано из оригинала 13 февраля 2024 г.
^ Сан, Юран; Чжао, Силей; Ловреглио, Руджеро; Кулиговски, Эрика (1 января 2024 г.), Насер, МЗ (ред.), «8 – ИИ для моделирования крупномасштабной эвакуации: обещания и проблемы», Интерпретируемое машинное обучение для анализа, проектирования, оценки и принятия обоснованных решений для гражданской инфраструктуры , Серия издательства Woodhead Publishing по гражданскому и структурному проектированию, Woodhead Publishing, стр. 185–204 , ISBN978-0-1282-4073-1, заархивировано из оригинала 19 мая 2024 г. , извлечено 28 июня 2024 г..
^ Gomaa, Islam; Adelzadeh, Masoud; Gwynne, Steven; Spencer, Bruce; Ko, Yoon; Bénichou, Noureddine; Ma, Chunyun; Elsagan, Nour; Duong, Dana; Zalok, Ehab; Kinateder, Max (1 ноября 2021 г.). "Структура интеллектуальной системы обнаружения пожара и эвакуации". Fire Technology . 57 (6): 3179– 3185. doi :10.1007/s10694-021-01157-3. ISSN 1572-8099. Архивировано из оригинала 5 октября 2024 г. . Получено 5 октября 2024 г. .
^ Чжао, Силей; Ловреглио, Руджеро; Нильссон, Даниэль (1 мая 2020 г.). «Моделирование и интерпретация принятия решений перед эвакуацией с использованием машинного обучения». Автоматизация в строительстве . 113 : 103140. doi : 10.1016/j.autcon.2020.103140. hdl : 10179/17315 . ISSN 0926-5805. Архивировано из оригинала 19 мая 2024 г. Получено 5 октября 2024 г.
^ «Последние выборы в Индии прошли с использованием технологии искусственного интеллекта. Вот несколько способов ее конструктивного использования». PBS News . 12 июня 2024 г. Архивировано из оригинала 17 сентября 2024 г. Получено 28 октября 2024 г.
^ Мюллер, Винсент К. (30 апреля 2020 г.). «Этика искусственного интеллекта и робототехники». Архив Стэнфордской энциклопедии философии . Архивировано из оригинала 5 октября 2024 г. Получено 5 октября 2024 г.
^ Симонайт (2016).
^ Рассел и Норвиг (2021), стр. 987.
^ Ласковски (2023).
^ Счетная палата (2022).
^ Валинский (2019).
^ Рассел и Норвиг (2021), стр. 991.
^ Рассел и Норвиг (2021), стр. 991–992.
^ Кристиан (2020), стр. 63.
^ Винсент (2022).
^ Копель, Мэтью. «Услуги по авторскому праву: добросовестное использование». Библиотека Корнеллского университета . Архивировано из оригинала 26 сентября 2024 года . Получено 26 апреля 2024 года .
^ Берджесс, Мэтт. «Как остановить использование ваших данных для обучения ИИ». Wired . ISSN 1059-1028. Архивировано из оригинала 3 октября 2024 г. Получено 26 апреля 2024 г.
^ Рейснер (2023).
^ Альтер и Харрис (2023).
^ «Подготовка инновационной экосистемы к ИИ. Инструментарий политики в области ИС» (PDF) . ВОИС .
^ Хаммонд, Джордж (27 декабря 2023 г.). «Big Tech тратит больше, чем венчурные компании на стартапы в сфере ИИ». Ars Technica . Архивировано из оригинала 10 января 2024 г.
^ Вонг, Маттео (24 октября 2023 г.). «Будущее ИИ — GOMA» . The Atlantic . Архивировано из оригинала 5 января 2024 г.
^ "Big tech and the chase of AI dominance" . The Economist . 26 марта 2023 г. Архивировано из оригинала 29 декабря 2023 г.
^ Фанг, Брайан (19 декабря 2023 г.). «Где может быть выиграна битва за господство над ИИ». CNN Business . Архивировано из оригинала 13 января 2024 г.
^ Метц, Кейд (5 июля 2023 г.). «В эпоху искусственного интеллекта маленьким ребятам из сферы технологий нужны большие друзья». The New York Times . Архивировано из оригинала 8 июля 2024 г. Получено 5 октября 2024 г.
^ "Электроэнергия 2024 – Анализ". МЭА . 24 января 2024 г. Получено 13 июля 2024 г.
^ Кэлверт, Брайан (28 марта 2024 г.). «ИИ уже потребляет столько же энергии, сколько небольшая страна. Это только начало». Vox . Нью-Йорк, Нью-Йорк. Архивировано из оригинала 3 июля 2024 г. Получено 5 октября 2024 г.
^ Хэлпер, Эван; О'Донован, Кэролайн (21 июня 2024 г.). «ИИ истощает энергосистему. Технологические компании ищут чудесное решение». Washington Post .
^ Дэвенпорт, Карли. «AI Data Centers and the Coming YS Power Demand Surge» (PDF) . Goldman Sachs . Архивировано из оригинала (PDF) 26 июля 2024 г. . Получено 5 октября 2024 г. .
^ Райан, Кэрол (12 апреля 2024 г.). «Энергоемкий ИИ — это также будущее энергосбережения». Wall Street Journal . Dow Jones.
^ Хиллер, Дженнифер (1 июля 2024 г.). «Технологическая индустрия хочет запереть ядерную энергетику для ИИ». Wall Street Journal . Dow Jones. Архивировано из оригинала 5 октября 2024 г. Получено 5 октября 2024 г.
^ Кендалл, Тайлер (28 сентября 2024 г.). «Хуан из Nvidia говорит, что ядерная энергетика — это вариант для питания центров обработки данных». Bloomberg .
^ Хэлпер, Эван (20 сентября 2024 г.). «Сделка с Microsoft позволит вновь открыть атомную электростанцию Три-Майл-Айленд для питания искусственного интеллекта». Washington Post .
^ Хиллер, Дженнифер (20 сентября 2024 г.). «Атомная электростанция Three Mile Island’s Nuclear Plant to Reopen, Help Power Microsoft’s AI Centers». Wall Street Journal . Dow Jones. Архивировано из оригинала 5 октября 2024 г. Получено 5 октября 2024 г.
^ abc Niva Yadav (19 августа 2024 г.). «Тайвань остановит крупные центры обработки данных на Севере, ссылаясь на нехватку электроэнергии». DatacenterDynamics. Архивировано из оригинала 8 ноября 2024 г. Получено 7 ноября 2024 г.
^ аб Мочизуки, Такаши; Ода, Сёко (18 октября 2024 г.). «エヌビディア出資の日本企業、原発近くでAIデータセンター新設検討». Блумберг (на японском языке). Архивировано из оригинала 8 ноября 2024 года . Проверено 7 ноября 2024 г.
^ ab Naureen S Malik и Will Wade (5 ноября 2024 г.). «Кампусы ИИ, жаждущие ядерного оружия, нуждаются в новом плане быстрого поиска энергии». Bloomberg.
^ Никас (2018).
^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (22 июля 2019 г.). «Доверие и недоверие в Америке». Pew Research Center . Архивировано из оригинала 22 февраля 2024 г.
^ Уильямс (2023).
^ Тейлор и Херн (2023).
^ ab Сэмюэл, Сигал (19 апреля 2022 г.). «Почему так чертовски сложно сделать ИИ справедливым и беспристрастным». Vox . Архивировано из оригинала 5 октября 2024 г. Получено 24 июля 2024 г.
^ ab Rose (2023).
^ CNA (2019).
^ Гоффри (2008), стр. 17.
^ Бердал и др. (2023 г.); Гоффри (2008, стр. 17); Роуз (2023 г.); Рассел и Норвиг (2021, стр. 995)
^ Ропек, Лукас (21 мая 2024 г.). «Новые антропные исследования проливают свет на «черный ящик» ИИ». Gizmodo . Архивировано из оригинала 5 октября 2024 г. Получено 23 мая 2024 г.
^ Рассел и Норвиг (2021), стр. 989.
^ ab Russell & Norvig (2021), стр. 987–990.
^ Рассел и Норвиг (2021), стр. 988.
^ Робицки (2018); Сайнато (2015)
^ Харари (2018).
^ Бакли, Крис; Мозур, Пол (22 мая 2019 г.). «Как Китай использует высокотехнологичное наблюдение для подавления меньшинств». The New York Times . Архивировано из оригинала 25 ноября 2019 г. Получено 2 июля 2019 г.
^ «Упущение безопасности раскрыло китайскую систему наблюдения за умным городом». 3 мая 2019 г. Архивировано из оригинала 7 марта 2021 г. Получено 14 сентября 2020 г.
^ Урбина и др. (2022).
^ ab E. McGaughey, «Автоматизируют ли роботы вашу работу? Полная занятость, базовый доход и экономическая демократия» (2022), 51(3) Industrial Law Journal 511–559. Архивировано 27 мая 2023 г. в Wayback Machine .
^ Форд и Колвин (2015); Макгоги (2022)
^ IGM Чикаго (2017).
^ Арнц, Грегори и Циран (2016), стр. 33.
^ Лор (2017); Фрей и Осборн (2017); Арнц, Грегори и Циран (2016, стр. 33)
^ Чжоу, Виола (11 апреля 2023 г.). «ИИ уже отбирает работу иллюстраторов видеоигр в Китае». Остальной мир . Архивировано из оригинала 21 февраля 2024 г. Получено 17 августа 2023 г.
^ Картер, Джастин (11 апреля 2023 г.). «Сообщается, что индустрия игрового искусства Китая уничтожена растущим использованием ИИ». Разработчик игр . Архивировано из оригинала 17 августа 2023 г. . Получено 17 августа 2023 г. .
^ Моргенштерн (2015).
^ Махдави (2017); Томпсон (2014)
^ Тарнофф, Бен (4 августа 2023 г.). «Уроки Элизы». The Guardian Weekly . С. 34–39 .
^ Селлан-Джонс (2014).
^ Рассел и Норвиг 2021, стр. 1001.
^ Бостром (2014).
^ Рассел (2019).
^ Бостром (2014); Мюллер и Бостром (2014); Бостром (2015).
^ Харари (2023).
^ Мюллер и Бостром (2014).
^ Опасения лидеров относительно экзистенциальных рисков ИИ около 2015 года: Роулинсон (2015), Холли (2015), Гиббс (2014), Сайнато (2015)
^ ""Крестный отец искусственного интеллекта" рассказывает о влиянии и потенциале нового ИИ". CBS News . 25 марта 2023 г. Архивировано из оригинала 28 марта 2023 г. Получено 28 марта 2023 г.
^ Питтис, Дон (4 мая 2023 г.). «Канадский лидер в области искусственного интеллекта Джеффри Хинтон нагнетает страхи перед компьютерным захватом». CBC . Архивировано из оригинала 7 июля 2024 г. Получено 5 октября 2024 г.
^ «Шансы 50 на 50, что ИИ перехитрит человечество, говорит Джеффри Хинтон». Bloomberg BNN . 14 июня 2024 г. Архивировано из оригинала 14 июня 2024 г. Получено 6 июля 2024 г.
^ Вэланс (2023).
↑ Тейлор, Джош (7 мая 2023 г.). «Возвышение искусственного интеллекта неизбежно, но его не следует бояться, говорит «отец ИИ»». The Guardian . Архивировано из оригинала 23 октября 2023 г. Получено 26 мая 2023 г.
^ Колтон, Эмма (7 мая 2023 г.). «„Отец ИИ“ говорит, что страхи по поводу технологий неуместны: „Вы не можете их остановить“». Fox News . Архивировано из оригинала 26 мая 2023 г. . Получено 26 мая 2023 г. .
^ Джонс, Хесси (23 мая 2023 г.). «Юрген Шмидхубер, известный «отец современного ИИ», говорит, что дело его жизни не приведет к антиутопии». Forbes . Архивировано из оригинала 26 мая 2023 г. . Получено 26 мая 2023 г. .
^ Макморроу, Райан (19 декабря 2023 г.). «Эндрю Нг: «Считаем ли мы, что мир стал лучше с большим или меньшим интеллектом?»». Financial Times . Архивировано из оригинала 25 января 2024 г. Получено 30 декабря 2023 г.
↑ Леви, Стивен (22 декабря 2023 г.). «Как не быть глупым в отношении ИИ, с Яном Лекуном». Wired . Архивировано из оригинала 28 декабря 2023 г. Получено 30 декабря 2023 г.
↑ Аргументы в пользу того, что ИИ не представляет собой неминуемую угрозу: Брукс (2014), Гейст (2015), Мадригал (2015), Ли (2014)
^ ab Christian (2020), стр. 67, 73.
^ Юдковски (2008).
^ ab Андерсон и Андерсон (2011).
^ АААИ (2014).
^ Уоллах (2010).
^ Рассел (2019), стр. 173.
^ Стюарт, Эшли; Мелтон, Моника. «Генеральный директор Hugging Face говорит, что он сосредоточен на построении «устойчивой модели» для стартапа с открытым исходным кодом и искусственным интеллектом стоимостью 4,5 миллиарда долларов». Business Insider . Архивировано из оригинала 25 сентября 2024 года . Получено 14 апреля 2024 года .
^ Wiggers, Kyle (9 апреля 2024 г.). «Google open source tools to support AI model development» (Инструменты с открытым исходным кодом Google для поддержки разработки моделей ИИ). TechCrunch . Архивировано из оригинала 10 сентября 2024 г. Получено 14 апреля 2024 г.
↑ Heaven, Will Douglas (12 мая 2023 г.). «Бум ИИ с открытым исходным кодом построен на подачках Big Tech. Как долго он продлится?». MIT Technology Review . Получено 14 апреля 2024 г.
^ Бродский, Саша (19 декабря 2023 г.). «Mistral AI's New Language Model Aims for Open Source Supremacy» (Новая языковая модель ИИ-Mistral нацелена на превосходство с открытым исходным кодом). AI Business . Архивировано из оригинала 5 сентября 2024 г. Получено 5 октября 2024 г.
^ Эдвардс, Бендж (22 февраля 2024 г.). «Stability анонсирует Stable Diffusion 3, генератор изображений на базе ИИ следующего поколения». Ars Technica . Архивировано из оригинала 5 октября 2024 г. Получено 14 апреля 2024 г.
^ Маршалл, Мэтт (29 января 2024 г.). «Как предприятия используют LLM с открытым исходным кодом: 16 примеров». VentureBeat . Архивировано из оригинала 26 сентября 2024 г. Получено 5 октября 2024 г.
↑ Пайпер, Келси (2 февраля 2024 г.). «Стоит ли нам сделать исходный код наших самых мощных моделей ИИ открытым для всех?». Vox . Архивировано из оригинала 5 октября 2024 г. Получено 14 апреля 2024 г.
^ Институт Алана Тьюринга (2019). «Понимание этики и безопасности искусственного интеллекта» (PDF) . Архивировано (PDF) из оригинала 11 сентября 2024 г. . Получено 5 октября 2024 г. .
^ Институт Алана Тьюринга (2023). «Этика и управление ИИ на практике» (PDF) . Архивировано (PDF) из оригинала 11 сентября 2024 г. . Получено 5 октября 2024 г. .
^ Флориди, Лучано; Коулз, Джош (23 июня 2019 г.). «Унифицированная структура пяти принципов для ИИ в обществе». Harvard Data Science Review . 1 (1). doi : 10.1162/99608f92.8cd550d1 . S2CID 198775713. Архивировано из оригинала 7 августа 2019 г. Получено 5 декабря 2023 г.
^ Бурук, Бану; Экмекчи, Перихан Элиф; Арда, Берна (1 сентября 2020 г.). «Критический взгляд на руководящие принципы ответственного и надежного искусственного интеллекта». Медицина, здравоохранение и философия . 23 (3): 387– 399. doi :10.1007/s11019-020-09948-1. ISSN 1572-8633. PMID 32236794. S2CID 214766800. Архивировано из оригинала 5 октября 2024 г. . Получено 5 октября 2024 г. .
^ Камила, Манодж Кумар; Джасротия, Сахил Сингх (1 января 2023 г.). «Этические вопросы в разработке искусственного интеллекта: распознавание рисков». International Journal of Ethics and Systems . ahead-of-print (перед печатью). doi :10.1108/IJOES-05-2023-0107. ISSN 2514-9369. S2CID 259614124. Архивировано из оригинала 5 октября 2024 г. . Получено 5 октября 2024 г. .
^ "Институт безопасности ИИ выпускает новую платформу оценки безопасности ИИ". Правительство Великобритании. 10 мая 2024 г. Архивировано из оригинала 5 октября 2024 г. Получено 14 мая 2024 г.
^ Регулирование ИИ для снижения рисков: Berryhill et al. (2019), Барфилд и Пагалло (2018), Ипхофен и Критикос (2019), Вирц, Вейерер и Гейер (2018), Бьютен (2019)
^ Юридическая библиотека Конгресса (США). Глобальное управление правовых исследований (2019).
^ ab Vincent (2023).
^ Стэнфордский университет (2023).
^ abcd ЮНЕСКО (2021).
^ Киссинджер (2021).
^ Альтман, Брокман и Суцкевер (2023).
^ VOA News (25 октября 2023 г.). «ООН объявляет о создании консультативного органа по искусственному интеллекту». Архивировано из оригинала 18 сентября 2024 г. Получено 5 октября 2024 г.
^ "Совет Европы открывает первый в истории глобальный договор об ИИ для подписания". Совет Европы . 5 сентября 2024 г. Архивировано из оригинала 17 сентября 2024 г. Получено 17 сентября 2024 г.
^ Эдвардс (2023).
^ Касперович (2023).
↑ Fox News (2023).
^ Милмо, Дэн (3 ноября 2023 г.). «Надежда или ужас? Великий спор об ИИ, разделивший его пионеров». The Guardian Weekly . С. 10–12 .
^ «Декларация Блетчли стран, принявших участие в саммите по безопасности искусственного интеллекта, 1–2 ноября 2023 г.». GOV.UK. 1 ноября 2023 г. Архивировано из оригинала 1 ноября 2023 г. Получено 2 ноября 2023 г.
^ "Страны соглашаются на безопасное и ответственное развитие передового ИИ в знаковой Декларации Блетчли". GOV.UK (Пресс-релиз). Архивировано из оригинала 1 ноября 2023 года . Получено 1 ноября 2023 года .
^ «Второй глобальный саммит по искусственному интеллекту обеспечивает обязательства по безопасности от компаний». Reuters. 21 мая 2024 г. Получено 23 мая 2024 г.
^ «Frontier AI Safety Commitments, AI Seoul Summit 2024». gov.uk. 21 мая 2024 г. Архивировано из оригинала 23 мая 2024 г. Получено 23 мая 2024 г.
^ ab Russell & Norvig 2021, стр. 9.
^ abc Copeland, J., ed. (2004). The Essential Turing: the ideas that gave birth to the computer age . Оксфорд, Англия: Clarendon Press. ISBN0-1982-5079-7.
^ "Google books ngram". Архивировано из оригинала 5 октября 2024 г. Получено 5 октября 2024 г.
^ Сагар, Рам (3 июня 2020 г.). «OpenAI выпускает GPT-3, самую большую модель на сегодняшний день». Analytics India Magazine . Архивировано из оригинала 4 августа 2020 г. Получено 15 марта 2023 г.
^ Milmo, Dan (2 февраля 2023 г.). «ChatGPT достигает 100 миллионов пользователей через два месяца после запуска». The Guardian . ISSN 0261-3077. Архивировано из оригинала 3 февраля 2023 г. Получено 31 декабря 2024 г.
^ Горичаназ, Тим (29 ноября 2023 г.). «ChatGPT исполняется 1 год: успех чат-бота на основе искусственного интеллекта говорит о людях не меньше, чем о технологиях». The Conversation . Архивировано из оригинала 31 декабря 2024 г. . Получено 31 декабря 2024 г. .
^ ДиФелициантонио (2023).
^ Госвами (2023).
^ «Почти 1 из 4 новых стартапов — это компания, занимающаяся ИИ». PitchBook . 24 декабря 2024 г. Получено 3 января 2025 г.
^ Грейлинг, Энтони; Болл, Брайан (1 августа 2024 г.). «Философия имеет решающее значение в эпоху ИИ». The Conversation . Архивировано из оригинала 5 октября 2024 г. . Получено 4 октября 2024 г. .
^ ab Jarow, Oshan (15 июня 2024 г.). «Станет ли когда-нибудь ИИ сознательным? Это зависит от того, как вы думаете о биологии». Vox . Архивировано из оригинала 21 сентября 2024 г. Получено 4 октября 2024 г.
^ Маккарти, Джон. «Философия ИИ и ИИ философии». jmc.stanford.edu . Архивировано из оригинала 23 октября 2018 г. Получено 3 октября 2024 г.
^ ab Turing (1950), стр. 1.
↑ Тьюринг (1950), «Аргумент от сознания».
^ Кирк-Джаннини, Кэмерон Доменико; Голдштейн, Саймон (16 октября 2023 г.). «ИИ как никогда близок к прохождению теста Тьюринга на «интеллект». Что произойдет, когда он это сделает?». The Conversation . Архивировано из оригинала 25 сентября 2024 г. . Получено 17 августа 2024 г.
^ Рассел и Норвиг (2021), стр. 3.
↑ Создатель (2006).
^ Маккарти (1999).
^ Минский (1986).
^ "Что такое искусственный интеллект (ИИ)?". Google Cloud Platform . Архивировано из оригинала 31 июля 2023 г. Получено 16 октября 2023 г.
^ «Одной из самых больших проблем в регулировании ИИ является согласование определения». carnegieendowment.org . Получено 31 июля 2024 г. .
^ "ИИ или чушь? Как узнать, действительно ли маркетинговый инструмент использует искусственный интеллект". The Drum . Получено 31 июля 2024 г.
^ Нильссон (1983), стр. 10.
^ Хаугеланд (1985), стр. 112–117.
^ Гипотеза физической символьной системы: Newell & Simon (1976, стр. 116) Историческое значение: McCoruck (2004, стр. 153), Russell & Norvig (2021, стр. 19)
^ Критика ИИ Дрейфусом : Дрейфус (1972), Дрейфус и Дрейфус (1986) Историческое значение и философские импликации: Кревье (1993, стр. 120–132), МакКордак (2004, стр. 211–239), Рассел и Норвиг (2021, стр. 981–982), Фирн (2007, гл. 3)
^ Кревье (1993), стр. 125.
^ Лэнгли (2011).
^ Кац (2012).
^ Чистюли против нерях , исторический спор: McCorduck (2004, стр. 421–424, 486–489), Crevier (1993, стр. 168), Nilsson (1983, стр. 10–11), Russell & Norvig (2021, стр. 24) Классический пример «неряшливого» подхода к интеллекту: Minsky (1986) Современный пример аккуратного ИИ и его стремления в 21 веке: Domingos (2015)
^ Пенначин и Герцель (2007).
^ ab Roberts (2016).
^ Рассел и Норвиг (2021), стр. 986.
^ Чалмерс (1995).
^ Деннетт (1991).
^ Хорст (2005).
^ Сирл (1999).
^ Сирл (1980), стр. 1.
^ Рассел и Норвиг (2021), стр. 9817.
^ Аргумент Сирла о китайской комнате : Сирл (1980). Оригинальное представление Сирлом мысленного эксперимента., Сирл (1999). Обсуждение: Рассел и Норвиг (2021, стр. 985), МакКордак (2004, стр. 443–445), Кревье (1993, стр. 269–271)
^ Лейт, Сэм (7 июля 2022 г.). «Ник Бостром: Как мы можем быть уверены, что машина не обладает сознанием?». The Spectator . Архивировано из оригинала 26 сентября 2024 г. Получено 23 февраля 2024 г.
^ abc Томсон, Джонни (31 октября 2022 г.). «Почему у роботов нет прав?». Big Think . Архивировано из оригинала 13 сентября 2024 г. . Получено 23 февраля 2024 г. .
^ ab Кейтман, Брайан (24 июля 2023 г.). «ИИ должен бояться людей». Time . Архивировано из оригинала 25 сентября 2024 г. . Получено 23 февраля 2024 г. .
^ Вонг, Джефф (10 июля 2023 г.). «Что лидерам нужно знать о правах роботов». Fast Company .
^ Херн, Алекс (12 января 2017 г.). «Придайте роботам статус „личности“, утверждает комитет ЕС». The Guardian . ISSN 0261-3077. Архивировано из оригинала 5 октября 2024 г. Получено 23 февраля 2024 г.
^ Dovey, Dana (14 апреля 2018 г.). «Эксперты не считают, что у роботов должны быть права». Newsweek . Архивировано из оригинала 5 октября 2024 г. Получено 23 февраля 2024 г.
^ Кадди, Элис (13 апреля 2018 г.). «Права роботов нарушают права человека, предупреждают эксперты ЕС». euronews . Архивировано из оригинала 19 сентября 2024 г. Получено 23 февраля 2024 г.
Рич, Элейн ; Найт, Кевин; Наир, Шивашанкар Б. (2010). Искусственный интеллект (3-е изд.). Нью-Дели: Tata McGraw Hill India. ISBN978-0-0700-8770-5.
Четыре наиболее широко используемых учебника по ИИ в 2008 году:
Люгер, Джордж; Стабблфилд, Уильям (2004). Искусственный интеллект: структуры и стратегии для решения сложных проблем (5-е изд.). Benjamin/Cummings. ISBN978-0-8053-4780-7. Архивировано из оригинала 26 июля 2020 . Получено 17 декабря 2019 .
Нильссон, Нильс (1998). Искусственный интеллект: новый синтез . Морган Кауфманн. ISBN978-1-5586-0467-4. Архивировано из оригинала 26 июля 2020 . Получено 18 ноября 2019 .
Ciaramella, Alberto ; Ciaramella, Marco (2024). Введение в искусственный интеллект: от анализа данных до генеративного ИИ (1-е изд.). Издания Intellisemantic. ISBN978-8-8947-8760-3.
История ИИ
Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence . Нью-Йорк, Нью-Йорк: BasicBooks. ISBN0-465-02997-3.
Newquist, HP (1994). Создатели мозга: гений, эго и жадность в поисках думающих машин . Нью-Йорк: Macmillan/SAMS. ISBN978-0-6723-0412-5.
Хармон, Пол; Сойер, Брайан (1990). Создание экспертных систем для бизнеса и промышленности . Нью-Йорк: John Wiley & Sons. ISBN0471614963.
Другие источники
ИИ и МО в Fusion
AI & ML in Fusion, видеолекция Архивировано 2 июля 2023 г. на Wayback Machine
Альтер, Александра; Харрис, Элизабет А. (20 сентября 2023 г.), «Франзен, Гришэм и другие известные авторы подают в суд на OpenAI», The New York Times , заархивировано из оригинала 14 сентября 2024 г. , извлечено 5 октября 2024 г.
Альтман, Сэм ; Брокман, Грег ; Суцкевер, Илья (22 мая 2023 г.). «Управление сверхразумом». openai.com . Архивировано из оригинала 27 мая 2023 г. Получено 27 мая 2023 г.
Андерсон, Сьюзан Ли (2008). «Три закона робототехники Азимова и метаэтика машин». AI & Society . 22 (4): 477– 493. doi :10.1007/s00146-007-0094-5. S2CID 1809459.
Андерсон, Майкл; Андерсон, Сьюзан Ли (2011). Этика машин . Издательство Кембриджского университета.
Арнтц, Мелани; Грегори, Терри; Циран, Ульрих (2016), «Риск автоматизации рабочих мест в странах ОЭСР: сравнительный анализ», Рабочие документы ОЭСР по социальным вопросам, занятости и миграции 189
Асада, М.; Хосода, К.; Куниёси, Й.; Исигуро, Х.; Инуи, Т.; Ёсикава, Й.; Огино, М.; Ёсида, К. (2009). «Когнитивная развивающая робототехника: обзор». Труды IEEE по автономному психическому развитию . 1 (1): 12– 34. doi :10.1109/tamd.2009.2021702. S2CID 10168773.
«Спросите экспертов по ИИ: что движет сегодняшним прогрессом в области ИИ?». McKinsey & Company . Архивировано из оригинала 13 апреля 2018 г. Получено 13 апреля 2018 г.
Барфилд, Вудроу; Пагалло, Уго (2018). Справочник по исследованию права искусственного интеллекта . Челтнем, Великобритания: Edward Elgar Publishing. ISBN978-1-7864-3904-8. OCLC 1039480085.
Бил, Дж.; Уинстон, Патрик (2009), «Новые рубежи искусственного интеллекта человеческого уровня», IEEE Intelligent Systems , т. 24, стр. 21–24 , doi : 10.1109/MIS.2009.75, hdl : 1721.1/52357 , S2CID 32437713
Бердаль, Карл Томас; Бейкер, Лоуренс; Манн, Шон; Особа, Осонде; Джироси, Федерико (7 февраля 2023 г.). «Стратегии улучшения воздействия искусственного интеллекта на справедливость в области здравоохранения: обзор». JMIR AI . 2 : e42936. doi : 10.2196/42936 . ISSN 2817-1705. PMC 11041459 . PMID 38875587. S2CID 256681439.
Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF) . Париж: Обсерватория инноваций в государственном секторе ОЭСР. Архивировано (PDF) из оригинала 20 декабря 2019 г. Получено 9 августа 2020 г.
Бертини, М.; Дель Бимбо, А.; Торниаи, К. (2006). «Автоматическое аннотирование и семантический поиск видеопоследовательностей с использованием мультимедийных онтологий». MM '06 Труды 14-й международной конференции ACM по мультимедиа . 14-я международная конференция ACM по мультимедиа. Санта-Барбара: ACM. С. 679–682 .
Бостром, Ник (2015). «Что произойдет, когда наши компьютеры станут умнее нас?». TED (конференция) . Архивировано из оригинала 25 июля 2020 г. . Получено 30 января 2020 г. .
Брукс, Родни (10 ноября 2014 г.). «искусственный интеллект — это инструмент, а не угроза». Архивировано из оригинала 12 ноября 2014 г.
Брукс, Родни (1990). «Слоны не играют в шахматы» (PDF) . Робототехника и автономные системы . 6 ( 1– 2): 3– 15. CiteSeerX 10.1.1.588.7539 . doi :10.1016/S0921-8890(05)80025-9. Архивировано (PDF) из оригинала 9 августа 2007 г.
Буитен, Мириам С. (2019). «На пути к интеллектуальному регулированию искусственного интеллекта». Европейский журнал регулирования рисков . 10 (1): 41– 59. doi : 10.1017/err.2019.8 . ISSN 1867-299X.
Бушвик, Софи (16 марта 2023 г.), «Что может сделать новый ИИ GPT-4», Scientific American , архивировано из оригинала 22 августа 2023 г. , извлечено 5 октября 2024 г.
Батлер, Сэмюэл (13 июня 1863 г.). «Дарвин среди машин». Письма в редакцию. The Press . Крайстчерч, Новая Зеландия. Архивировано из оригинала 19 сентября 2008 г. Получено 16 октября 2014 г. – через Victoria University of Wellington.
Буттаццо, Г. (июль 2001 г.). «Искусственное сознание: утопия или реальная возможность?». Компьютер . 34 (7): 24– 30. doi :10.1109/2.933500.
Кэмбрия, Эрик; Уайт, Бебо (май 2014 г.). «Прыгающие кривые НЛП: обзор исследований обработки естественного языка [Обзорная статья]». Журнал IEEE Computational Intelligence . 9 (2): 48– 57. doi :10.1109/MCI.2014.2307227. S2CID 206451986.
Cellan-Jones, Rory (2 декабря 2014 г.). «Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству». BBC News . Архивировано из оригинала 30 октября 2015 г. . Получено 30 октября 2015 г. .
Challa, Subhash; Moreland, Mark R.; Mušicki, Darko; Evans, Robin J. (2011). Основы отслеживания объектов . Cambridge University Press. doi : 10.1017/CBO9780511975837. ISBN978-0-5218-7628-5.
Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). «Многоколоночные глубокие нейронные сети для классификации изображений». Конференция IEEE 2012 года по компьютерному зрению и распознаванию образов . С. 3642–3649 . arXiv : 1202.2745 . doi :10.1109/cvpr.2012.6248110. ISBN978-1-4673-1228-8. S2CID 2161592.
Кларк, Джек (2015b). «Почему 2015 год стал годом прорыва в области искусственного интеллекта» . Bloomberg.com . Архивировано из оригинала 23 ноября 2016 г. . Получено 23 ноября 2016 г. .
CNA (12 января 2019 г.). «Комментарий: Плохие новости. Искусственный интеллект предвзят». CNA . Архивировано из оригинала 12 января 2019 г. . Получено 19 июня 2020 г. .
Цыбенко, Г. (1988). Непрерывные нейронные сети с двумя скрытыми слоями достаточны (Отчет). Кафедра компьютерных наук, Университет Тафтса.
Дэн, Л.; Ю, Д. (2014). "Глубокое обучение: методы и приложения" (PDF) . Основы и тенденции в обработке сигналов . 7 ( 3– 4): 197– 387. doi :10.1561/2000000039. Архивировано (PDF) из оригинала 14 марта 2016 г. . Получено 18 октября 2014 г. .
DiFeliciantonio, Chase (3 апреля 2023 г.). «ИИ уже изменил мир. Этот отчет показывает, как». San Francisco Chronicle . Архивировано из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
Диксон, Бен (2 мая 2022 г.). «Машинное обучение: что такое архитектура трансформатора?». TechTalks . Архивировано из оригинала 22 ноября 2023 г. Получено 22 ноября 2023 г.
Докрилл, Питер (27 июня 2022 г.), «Роботы с несовершенным ИИ принимают сексистские и расистские решения, как показывает эксперимент», Science Alert , заархивировано из оригинала 27 июня 2022 г.
Дрейфус, Хьюберт ; Дрейфус, Стюарт (1986). Разум над машиной: сила человеческой интуиции и экспертиза в эпоху компьютеров. Оксфорд: Blackwell. ISBN978-0-0290-8060-3. Архивировано из оригинала 26 июля 2020 . Получено 22 августа 2020 .
Дайсон, Джордж (1998). Дарвин среди машин. Allan Lane Science. ISBN978-0-7382-0030-9. Архивировано из оригинала 26 июля 2020 . Получено 22 августа 2020 .
Эдельсон, Эдвард (1991). Нервная система . Нью-Йорк: Chelsea House. ISBN978-0-7910-0464-7. Архивировано из оригинала 26 июля 2020 . Получено 18 ноября 2019 .
Эдвардс, Бендж (17 мая 2023 г.). «Опрос: ИИ представляет опасность для человечества, по мнению большинства американцев». Ars Technica . Архивировано из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
Фирн, Николас (2007). Последние ответы на самые старые вопросы: философское приключение с величайшими мыслителями мира . Нью-Йорк: Grove Press. ISBN978-0-8021-1839-4.
Форд, Мартин; Колвин, Джефф (6 сентября 2015 г.). «Будут ли роботы создавать больше рабочих мест, чем уничтожать?». The Guardian . Архивировано из оригинала 16 июня 2018 г. Получено 13 января 2018 г.
Fox News (2023). "Опрос Fox News" (PDF) . Fox News. Архивировано (PDF) из оригинала 12 мая 2023 г. . Получено 19 июня 2023 г. .
Фрей, Карл Бенедикт; Осборн, Майкл А. (1 января 2017 г.). «Будущее занятости: насколько восприимчивы рабочие места к компьютеризации?». Технологическое прогнозирование и социальные изменения . 114 : 254–280 . CiteSeerX 10.1.1.395.416 . doi :10.1016/j.techfore.2016.08.019. ISSN 0040-1625.
«От неработающего к нейронным сетям». The Economist . 2016. Архивировано из оригинала 31 декабря 2016 года . Получено 26 апреля 2018 года .
Гальван, Джилл (1 января 1997 г.). «Вхождение в постчеловеческий коллектив в произведении Филипа К. Дика «Мечтают ли андроиды об электроовцах?»". Научно-фантастические исследования . 24 (3): 413– 429. JSTOR 4240644.
Geist, Edward Moore (9 августа 2015 г.). «Действительно ли искусственный интеллект представляет собой экзистенциальную угрозу человечеству?». Bulletin of the Atomic Scientists . Архивировано из оригинала 30 октября 2015 г. Получено 30 октября 2015 г.
Гиббс, Сэмюэл (27 октября 2014 г.). «Илон Маск: искусственный интеллект — наша самая большая экзистенциальная угроза». The Guardian . Архивировано из оригинала 30 октября 2015 г. . Получено 30 октября 2015 г. .
Goffrey, Andrew (2008). «Алгоритм». В Fuller, Matthew (ред.). Software studies: a lexicon . Cambridge, Mass.: MIT Press. стр. 15–20. ISBN978-1-4356-4787-9.
Голдман, Шарон (14 сентября 2022 г.). «10 лет спустя, «революция» глубокого обучения бушует, говорят пионеры ИИ Хинтон, Лекун и Ли». VentureBeat . Архивировано из оригинала 5 октября 2024 г. . Получено 8 декабря 2023 г. .
Good, IJ (1965), Speculations Concerning the First Ultraintelligent Machine, архивировано из оригинала 10 июля 2023 г. , извлечено 5 октября 2024 г.
Гудфеллоу, Ян; Бенджио, Йошуа; Курвилль, Аарон (2016), Deep Learning, MIT Press., архивировано из оригинала 16 апреля 2016 г. , извлечено 12 ноября 2017 г.
Гудман, Брайс; Флаксман, Сет (2017). «Регламент ЕС по алгоритмическому принятию решений и «право на объяснение»". Журнал AI . 38 (3): 50. arXiv : 1606.08813 . doi : 10.1609/aimag.v38i3.2741. S2CID 7373959.
Счетная палата США (13 сентября 2022 г.). Данные потребителей: рост использования создает риски для конфиденциальности. gao.gov (Отчет). Архивировано из оригинала 13 сентября 2024 г. Получено 5 октября 2024 г.
Грант, Нико; Хилл, Кашмир (22 мая 2023 г.). «Приложение Google Photo по-прежнему не может найти горилл. И приложение Apple тоже не может». The New York Times . Архивировано из оригинала 14 сентября 2024 г. Получено 5 октября 2024 г.
Госвами, Рохан (5 апреля 2023 г.). «Вот где находятся рабочие места в сфере ИИ». CNBC . Архивировано из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
Харари, Юваль Ноа (октябрь 2018 г.). «Почему технологии благоприятствуют тирании». The Atlantic . Архивировано из оригинала 25 сентября 2021 г. . Получено 23 сентября 2021 г. .
Харари, Юваль Ной (2023). «ИИ и будущее человечества». YouTube . Архивировано из оригинала 30 сентября 2024 г. . Получено 5 октября 2024 г. .
Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T .; Kingsbury, B. (2012). «Глубокие нейронные сети для акустического моделирования в распознавании речи – общие взгляды четырех исследовательских групп». Журнал обработки сигналов IEEE . 29 (6): 82– 97. Bibcode : 2012ISPM...29...82H. doi : 10.1109/msp.2012.2205597. S2CID 206485943.
Холли, Питер (28 января 2015 г.). «Билл Гейтс об опасностях искусственного интеллекта: «Я не понимаю, почему некоторые люди не обеспокоены». The Washington Post . ISSN 0190-8286. Архивировано из оригинала 30 октября 2015 г. Получено 30 октября 2015 г.
Хорник, Курт; Стинчкомб, Максвелл; Уайт, Хэлберт (1989). Многослойные сети прямого распространения являются универсальными аппроксиматорами (PDF) . Нейронные сети . Том 2. Pergamon Press. стр. 359–366 . Архивировано (PDF) из оригинала 21 апреля 2023 г. . Получено 5 октября 2024 г. .
Хорст, Стивен (2005). «Вычислительная теория разума». Стэнфордская энциклопедия философии . Архивировано из оригинала 6 марта 2016 года . Получено 7 марта 2016 года .
Howe, J. (ноябрь 1994 г.). "Искусственный интеллект в Эдинбургском университете: перспектива". Архивировано из оригинала 15 мая 2007 г. Получено 30 августа 2007 г.
IGM Chicago (30 июня 2017 г.). "Роботы и искусственный интеллект". igmchicago.org . Архивировано из оригинала 1 мая 2019 г. . Получено 3 июля 2019 г. .
Ипхофен, Рон; Критикос, Михалис (3 января 2019 г.). «Регулирование искусственного интеллекта и робототехники: этика по замыслу в цифровом обществе». Contemporary Social Science . 16 (2): 170– 184. doi :10.1080/21582041.2018.1563803. ISSN 2158-2041. S2CID 59298502.
Jordan, MI; Mitchell, TM (16 июля 2015 г.). «Машинное обучение: тенденции, перспективы и перспективы». Science . 349 (6245): 255– 260. Bibcode :2015Sci...349..255J. doi :10.1126/science.aaa8415. PMID 26185243. S2CID 677218.
Канеман, Дэниел (2011). Думай медленно... решай быстро. Macmillan. ISBN978-1-4299-6935-2. Архивировано из оригинала 15 марта 2023 г. . Получено 8 апреля 2012 г. .
Канеман, Дэниел ; Слович, Д.; Тверски, Амос (1982). «Суждение в условиях неопределенности: эвристика и предубеждения». Science . 185 (4157). Нью-Йорк: Cambridge University Press: 1124– 1131. Bibcode : 1974Sci...185.1124T. doi : 10.1126/science.185.4157.1124. ISBN978-0-5212-8414-1. PMID 17835457. S2CID 143452957.
Касперович, Питер (1 мая 2023 г.). «Регулировать ИИ? Республиканская партия гораздо более скептически, чем демократы, относится к тому, что правительство может сделать это правильно: опрос». Fox News . Архивировано из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
Katz, Yarden (1 ноября 2012 г.). «Ноам Хомский о том, где искусственный интеллект ошибся». The Atlantic . Архивировано из оригинала 28 февраля 2019 г. . Получено 26 октября 2014 г. .
"Kismet". Лаборатория искусственного интеллекта Массачусетского технологического института, Группа гуманоидной робототехники. Архивировано из оригинала 17 октября 2014 года . Получено 25 октября 2014 года .
Киссинджер, Генри (1 ноября 2021 г.). «Вызов быть человеком в эпоху ИИ». The Wall Street Journal . Архивировано из оригинала 4 ноября 2021 г. . Получено 4 ноября 2021 г. .
Кобелус, Джеймс (27 ноября 2019 г.). «GPUs Continue to Dominate the AI Accelerator Market for Now» (Графические процессоры продолжают доминировать на рынке ускорителей ИИ). InformationWeek . Архивировано из оригинала 19 октября 2021 г. . Получено 11 июня 2020 г. .
Куперман, Г. Дж.; Рейхли, Р. М.; Бейли, ТК. (1 июля 2006 г.). «Использование коммерческих баз знаний для поддержки принятия клинических решений: возможности, препятствия и рекомендации». Журнал Американской ассоциации медицинской информатики . 13 (4): 369– 371. doi :10.1197/jamia.M2055. PMC 1513681. PMID 16622160 .
Лэнгли, Пэт (2011). «Изменение науки машинного обучения». Машинное обучение . 82 (3): 275– 279. doi : 10.1007/s10994-011-5242-y .
Larson, Jeff; Angwin, Julia (23 мая 2016 г.). «Как мы проанализировали алгоритм рецидивизма COMPAS». ProPublica . Архивировано из оригинала 29 апреля 2019 г. . Получено 19 июня 2020 г. .
Ласковски, Николь (ноябрь 2023 г.). «Что такое искусственный интеллект и как работает ИИ? TechTarget». Enterprise AI . Архивировано из оригинала 5 октября 2024 г. . Получено 30 октября 2023 г. .
Юридическая библиотека Конгресса (США). Глобальное управление правовых исследований, издательский орган. (2019). Регулирование искусственного интеллекта в отдельных юрисдикциях . LCCN 2019668143. OCLC 1110727808.
Ли, Тимоти Б. (22 августа 2014 г.). «Уничтожит ли человечество искусственный интеллект? Вот 5 причин не беспокоиться». Vox . Архивировано из оригинала 30 октября 2015 г. . Получено 30 октября 2015 г. .
Лайтхилл, Джеймс (1973). «Искусственный интеллект: общее исследование». Искусственный интеллект: доклад-симпозиум . Научно-исследовательский совет.
Липартито, Кеннет (6 января 2011 г.), Повествование и алгоритм: жанры кредитной отчетности с девятнадцатого века до наших дней (PDF) (неопубликованная рукопись), doi : 10.2139/ssrn.1736283, S2CID 166742927, заархивировано (PDF) из оригинала 9 октября 2022 г.
Лор, Стив (2017). «Роботы займут рабочие места, но не так быстро, как некоторые опасаются, говорится в новом отчете». The New York Times . Архивировано из оригинала 14 января 2018 года . Получено 13 января 2018 года .
Лунгарелла, М.; Метта, Г.; Пфайфер, Р.; Сандини, Г. (2003). «Развитая робототехника: опрос». Наука о связях . 15 (4): 151–190 . CiteSeerX 10.1.1.83.7615 . дои : 10.1080/09540090310001655110. S2CID 1452734.
"Machine Ethics". aaai.org . Архивировано из оригинала 29 ноября 2014 года.
Мадригал, Алексис С. (27 февраля 2015 г.). «Дело против роботов-убийц от парня, который на самом деле работает над искусственным интеллектом». Fusion.net . Архивировано из оригинала 4 февраля 2016 г. Получено 31 января 2016 г.
Махдави, Арва (26 июня 2017 г.). «Какие профессии будут актуальны через 20 лет? Прочтите это, чтобы подготовить свое будущее». The Guardian . Архивировано из оригинала 14 января 2018 г. . Получено 13 января 2018 г. .
Maker, Meg Houston (2006), AI@50: AI Past, Present, Future, Dartmouth College, архивировано из оригинала 8 октября 2008 г. , извлечено 16 октября 2008 г.
Мармуйе, Франсуаза (15 декабря 2023 г.). «Gemini от Google: действительно ли новая модель ИИ лучше ChatGPT?». The Conversation . Архивировано из оригинала 4 марта 2024 г. . Получено 25 декабря 2023 г. .
Маккарти, Джон ; Мински, Марвин ; Рочестер, Натан ; Шеннон, Клод (1955). «Предложение о летнем исследовательском проекте Дартмута по искусственному интеллекту». Архивировано из оригинала 26 августа 2007 г. Получено 30 августа 2007 г.
Маккарти, Джон (2007), «Отсюда к ИИ человеческого уровня», Искусственный интеллект , стр. 171
Маккарти, Джон (1999), Что такое ИИ?, заархивировано из оригинала 4 декабря 2022 г. , извлечено 4 декабря 2022 г.
Макколи, Ли (2007). «Армагеддон ИИ и три закона робототехники». Этика и информационные технологии . 9 (2): 153– 164. CiteSeerX 10.1.1.85.8904 . doi :10.1007/s10676-007-9138-2. S2CID 37272949.
МакГарри, Кен (1 декабря 2005 г.). «Обзор мер интересности для обнаружения знаний». The Knowledge Engineering Review . 20 (1): 39– 61. doi :10.1017/S0269888905000408. S2CID 14987656.
McGaughey, E (2022), Будут ли роботы автоматизировать вашу работу? Полная занятость, базовый доход и экономическая демократия, стр. 51(3) Industrial Law Journal 511–559, doi : 10.2139/ssrn.3044448, S2CID 219336439, SSRN 3044448, архивировано из оригинала 31 января 2021 г. , извлечено 27 мая 2023 г.
Merkle, Daniel; Middendorf, Martin (2013). "Swarm Intelligence". В Burke, Edmund K.; Kendall, Graham (ред.). Методологии поиска: Вводные руководства по оптимизации и методам поддержки принятия решений . Springer Science & Business Media. ISBN978-1-4614-6940-7.
Минский, Марвин (1967), Вычисления: Конечные и бесконечные машины , Энглвуд Клиффс, Нью-Джерси: Prentice-Hall
Моравец, Ганс (1988). Дети разума . Издательство Гарвардского университета. ISBN978-0-6745-7616-2. Архивировано из оригинала 26 июля 2020 . Получено 18 ноября 2019 .
Моргенштерн, Майкл (9 мая 2015 г.). «Автоматизация и тревога». The Economist . Архивировано из оригинала 12 января 2018 г. . Получено 13 января 2018 г. .
Мюллер, Винсент К.; Бостром, Ник (2014). «Будущий прогресс в области искусственного интеллекта: опрос среди экспертов» (PDF) . AI Matters . 1 (1): 9– 11. doi :10.1145/2639475.2639478. S2CID 8510016. Архивировано (PDF) из оригинала 15 января 2016 г.
Нойманн, Бернд; Мёллер, Ральф (январь 2008 г.). «Об интерпретации сцен с помощью логики описания». Image and Vision Computing . 26 (1): 82– 101. doi :10.1016/j.imavis.2007.08.013. S2CID 10767011.
Нильссон , Нильс (1995), «Взгляд на приз», журнал AI , т. 16, стр. 9–17
Ньюэлл, Аллен ; Саймон, HA (1976). «Компьютерная наука как эмпирическое исследование: символы и поиск». Сообщения ACM . 19 (3): 113– 126. doi : 10.1145/360018.360022 .
Никас, Джек (7 февраля 2018 г.). «Как YouTube загоняет людей в самые темные уголки Интернета». The Wall Street Journal . ISSN 0099-9660. Архивировано из оригинала 5 октября 2024 г. Получено 16 июня 2018 г.
Нильссон, Нильс (1983). «Искусственный интеллект готовится к 2001 году» (PDF) . Журнал AI . 1 (1). Архивировано (PDF) из оригинала 17 августа 2020 г. . Получено 22 августа 2020 г. .Обращение Президента к Ассоциации по развитию искусственного интеллекта .
NRC (Национальный исследовательский совет США) (1999). «Разработки в области искусственного интеллекта». Финансирование революции: государственная поддержка компьютерных исследований . National Academy Press.
Омохундро, Стив (2008). Природа самосовершенствующегося искусственного интеллекта . Представлено и распространено на саммите Singularity Summit 2007 г. в Сан-Франциско, Калифорния.
Oudeyer, PY. (2010). «О влиянии робототехники на поведенческие и когнитивные науки: от навигации насекомых до когнитивного развития человека» (PDF) . IEEE Transactions on Autonomous Mental Development . 2 (1): 2– 16. doi :10.1109/tamd.2009.2039057. S2CID 6362217. Архивировано (PDF) из оригинала 3 октября 2018 г. . Получено 4 июня 2013 г. .
Pennachin, C.; Goertzel, B. (2007). «Современные подходы к искусственному интеллекту общего назначения». Искусственный интеллект общего назначения . Когнитивные технологии. Берлин, Гейдельберг: Springer. стр. 1– 30. doi :10.1007/978-3-540-68677-4_1. ISBN978-3-5402-3733-4.
Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (сентябрь 2017 г.). «Обзор аффективных вычислений: от унимодального анализа до многомодального слияния». Information Fusion . 37 : 98– 125. doi : 10.1016/j.inffus.2017.02.003. hdl : 1893/25490 . S2CID 205433041. Архивировано из оригинала 23 марта 2023 г. Получено 27 апреля 2021 г.
Rawlinson, Kevin (29 января 2015 г.). «Билл Гейтс из Microsoft настаивает, что ИИ — это угроза». BBC News . Архивировано из оригинала 29 января 2015 г. . Получено 30 января 2015 г. .
Рейснер, Алекс (19 августа 2023 г.), «Раскрыто: авторы, чьи пиратские книги являются движущей силой генеративного ИИ», The Atlantic , заархивировано из оригинала 3 октября 2024 г. , извлечено 5 октября 2024 г.
Робертс, Джейкоб (2016). «Мыслящие машины: поиск искусственного интеллекта». Distillations . Vol. 2, no. 2. pp. 14–23 . Архивировано из оригинала 19 августа 2018 года . Получено 20 марта 2018 года .
Робицки, Дэн (5 сентября 2018 г.). «Пять экспертов рассказывают, что их больше всего пугает в ИИ». Архивировано из оригинала 8 декабря 2019 г. Получено 8 декабря 2019 г.
Роуз, Стив (11 июля 2023 г.). «ИИ: утопия или антиутопия?». The Guardian Weekly . С. 42–43 .
Sainato, Michael (19 августа 2015 г.). «Стивен Хокинг, Илон Маск и Билл Гейтс предупреждают об искусственном интеллекте». Observer . Архивировано из оригинала 30 октября 2015 г. . Получено 30 октября 2015 г. .
Sample, Ian (5 ноября 2017 г.). «Компьютер говорит нет: почему важно сделать ИИ справедливым, подотчетным и прозрачным». The Guardian . Архивировано из оригинала 10 октября 2022 г. Получено 30 января 2018 г.
Ротман, Денис (7 октября 2020 г.). «Изучение объяснений LIME и стоящей за ними математики». Codemotion . Архивировано из оригинала 25 ноября 2023 г. . Получено 25 ноября 2023 г. .
Скасселлати, Брайан (2002). «Теория разума для гуманоидного робота». Автономные роботы . 12 (1): 13– 24. doi :10.1023/A:1013298507114. S2CID 1979315.
Шмидхубер, Дж. (2015). «Глубокое обучение в нейронных сетях: обзор». Нейронные сети . 61 : 85–117 . arXiv : 1404.7828 . doi : 10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
Шмидхубер, Юрген (2022). «Аннотированная история современного ИИ и глубокого обучения». Архивировано из оригинала 7 августа 2023 г. Получено 5 октября 2024 г.
Searle, John (1980). "Minds, Brains and Programs" (PDF) . Behavioral and Brain Sciences . 3 (3): 417– 457. doi :10.1017/S0140525X00005756. S2CID 55303721. Архивировано (PDF) из оригинала 17 марта 2019 года . Получено 22 августа 2020 года .
Searle, John (1999). Mind, language and society. Нью-Йорк: Basic Books. ISBN978-0-4650-4521-1. OCLC 231867665. Архивировано из оригинала 26 июля 2020 г. . Получено 22 августа 2020 г. .
Саймон, HA (1965), Форма автоматизации для мужчин и управления , Нью-Йорк: Harper & Row
Simonite, Tom (31 марта 2016 г.). «Как Google планирует решить проблему искусственного интеллекта». MIT Technology Review . Архивировано из оригинала 16 сентября 2024 г. Получено 5 октября 2024 г.
Смит, Крейг С. (15 марта 2023 г.). «Создатель ChatGPT-4 Илья Суцкевер о галлюцинациях и демократии ИИ». Forbes . Архивировано из оригинала 18 сентября 2024 г. . Получено 25 декабря 2023 г. .
Смоляр, Стивен В.; Чжан, Хунцзян (1994). «Индексирование и поиск видео на основе контента». IEEE MultiMedia . 1 (2): 62– 72. doi :10.1109/93.311653. S2CID 32710913.
Solomonoff, Ray (1956). Машина индуктивного вывода (PDF) . Летняя исследовательская конференция Дартмута по искусственному интеллекту. Архивировано (PDF) из оригинала 26 апреля 2011 г. Получено 22 марта 2011 г. – через std.com, сканированная копия оригинала в формате pdf.Позднее опубликовано как Solomonoff, Ray (1957). "Индуктивная машина вывода". Протокол съезда IRE . Том. Раздел по теории информации, часть 2. стр. 56–62 .
Стэнфордский университет (2023). "Artificial Intelligence Index Report 2023/Chapter 6: Policy and Governance" (PDF) . AI Index. Архивировано (PDF) из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
Тао, Цзяньхуа; Тан, Тиеню (2005). Аффективные вычисления и интеллектуальное взаимодействие . Аффективные вычисления: обзор. Lecture Notes in Computer Science. Vol. 3784. Springer. pp. 981– 995. doi :10.1007/11573548. ISBN978-3-5402-9621-8.
Тейлор, Джош; Херн, Алекс (2 мая 2023 г.). ««Крестный отец ИИ» Джеффри Хинтон покидает Google и предупреждает об опасностях дезинформации». The Guardian . Архивировано из оригинала 5 октября 2024 г. . Получено 5 октября 2024 г. .
Томпсон, Дерек (23 января 2014 г.). «Какие рабочие места займут роботы?». The Atlantic . Архивировано из оригинала 24 апреля 2018 г. Получено 24 апреля 2018 г.
Тро, Эллен (1993). Робототехника: брак компьютеров и машин. Нью-Йорк: факты в архиве. ISBN978-0-8160-2628-9. Архивировано из оригинала 26 июля 2020 . Получено 22 августа 2020 .
Toews, Rob (3 сентября 2023 г.). «Трансформеры произвели революцию в области искусственного интеллекта. Что придет им на смену?». Forbes . Архивировано из оригинала 8 декабря 2023 г. . Получено 8 декабря 2023 г. .
Тьюринг, Алан (октябрь 1950 г.). «Вычислительная техника и интеллект». Mind . 59 (236): 433– 460. doi :10.1093/mind/LIX.236.433. ISSN 1460-2113. JSTOR 2251299. S2CID 14636783.
Доклад ЮНЕСКО по науке: гонка со временем за более разумное развитие. Париж: ЮНЕСКО. 2021. ISBN978-9-2310-0450-6. Архивировано из оригинала 18 июня 2022 . Получено 18 сентября 2021 .
Урбина, Фабио; Ленцос, Филиппа; Инверницци, Седрик; Экинс, Шон (7 марта 2022 г.). «Двойное использование открытия лекарств с помощью искусственного интеллекта». Nature Machine Intelligence . 4 (3): 189– 191. doi :10.1038/s42256-022-00465-9. PMC 9544280 . PMID 36211133. S2CID 247302391.
Вэланс, Крайст (30 мая 2023 г.). «Искусственный интеллект может привести к вымиранию, предупреждают эксперты». BBC News . Архивировано из оригинала 17 июня 2023 г. . Получено 18 июня 2023 г. .
Валински, Джордан (11 апреля 2019 г.), «Amazon, как сообщается, нанимает тысячи людей для прослушивания ваших разговоров с Alexa», CNN.com , архивировано из оригинала 26 января 2024 г. , извлечено 5 октября 2024 г.
Верма, Югеш (25 декабря 2021 г.). «Полное руководство по SHAP – объяснения добавок SHAPley для практиков». Журнал Analytics India . Архивировано из оригинала 25 ноября 2023 г. Получено 25 ноября 2023 г.
Винсент, Джеймс (7 ноября 2019 г.). «OpenAI опубликовала текстогенерирующий ИИ, который, по ее словам, слишком опасен для распространения». The Verge . Архивировано из оригинала 11 июня 2020 г. . Получено 11 июня 2020 г. .
Винсент, Джеймс (15 ноября 2022 г.). «Страшная правда об авторском праве на ИИ заключается в том, что никто не знает, что будет дальше». The Verge . Архивировано из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
Винсент, Джеймс (3 апреля 2023 г.). «ИИ вступает в эпоху корпоративного контроля». The Verge . Архивировано из оригинала 19 июня 2023 г. . Получено 19 июня 2023 г. .
Виндж, Вернор (1993). «Грядущая технологическая сингулярность: как выжить в постчеловеческую эпоху». Видение 21: Междисциплинарная наука и инженерия в эпоху киберпространства : 11. Bibcode :1993vise.nasa...11V. Архивировано из оригинала 1 января 2007 г. Получено 14 ноября 2011 г.
Уодделл, Кавех (2018). «Чат-боты вошли в зловещую долину». The Atlantic . Архивировано из оригинала 24 апреля 2018 года . Получено 24 апреля 2018 года .
Уоллах, Уэнделл (2010). Моральные машины . Oxford University Press.
Wason, PC ; Shapiro, D. (1966). "Рассуждение" . В Foss, BM (ред.). Новые горизонты в психологии . Harmondsworth: Penguin. Архивировано из оригинала 26 июля 2020 г. . Получено 18 ноября 2019 г. .
Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). «Автономное психическое развитие роботов и животных» (PDF) . Science . 291 (5504): 599– 600. doi :10.1126/science.291.5504.599. PMID 11229402. S2CID 54131797. Архивировано (PDF) из оригинала 4 сентября 2013 г. . Получено 4 июня 2013 г. – через msu.edu.
«Что такое «нечеткая логика»? Существуют ли компьютеры, которые изначально нечеткие и не применяют обычную двоичную логику?». Scientific American . 21 октября 1999 г. Архивировано из оригинала 6 мая 2018 г. Получено 5 мая 2018 г.
Уильямс, Рианнон (28 июня 2023 г.), «Люди могут с большей вероятностью верить дезинформации, генерируемой ИИ», MIT Technology Review , архивировано из оригинала 16 сентября 2024 г. , извлечено 5 октября 2024 г.
Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 июля 2018 г.). «Искусственный интеллект и государственный сектор – приложения и проблемы». International Journal of Public Administration . 42 (7): 596– 615. doi : 10.1080/01900692.2018.1498103. ISSN 0190-0692. S2CID 158829602. Архивировано из оригинала 18 августа 2020 г. . Получено 22 августа 2020 г. .
Wong, Matteo (19 May 2023), "ChatGPT Is Already Obsolete", The Atlantic, archived from the original on 18 September 2024, retrieved 5 October 2024
Yudkowsky, E (2008), "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF), Global Catastrophic Risks, Oxford University Press, 2008, Bibcode:2008gcr..book..303Y, archived (PDF) from the original on 19 October 2013, retrieved 24 September 2021
Further reading
Autor, David H., "Why Are There Still So Many Jobs? The History and Future of Workplace Automation" (2015) 29(3) Journal of Economic Perspectives 3.
Berlinski, David (2000). The Advent of the Algorithm. Harcourt Books. ISBN978-0-1560-1391-8. OCLC 46890682. Archived from the original on 26 July 2020. Retrieved 22 August 2020.
Boyle, James, The Line: AI and the Future of Personhood, MIT Press, 2024.
Cukier, Kenneth, "Ready for Robots? How to Think about the Future of AI", Foreign Affairs, vol. 98, no. 4 (July/August 2019), pp. 192–198. George Dyson, historian of computing, writes (in what might be called "Dyson's Law") that "Any system simple enough to be understandable will not be complicated enough to behave intelligently, while any system complicated enough to behave intelligently will be too complicated to understand." (p. 197.) Computer scientist Alex Pentland writes: "Current AI machine-learningalgorithms are, at their core, dead simple stupid. They work, but they work by brute force." (p. 198.)
Frank, Michael (22 September 2023). "US Leadership in Artificial Intelligence Can Shape the 21st Century Global Order". The Diplomat. Archived from the original on 16 September 2024. Retrieved 8 December 2023. Instead, the United States has developed a new area of dominance that the rest of the world views with a mixture of awe, envy, and resentment: artificial intelligence... From AI models and research to cloud computing and venture capital, U.S. companies, universities, and research labs – and their affiliates in allied countries – appear to have an enormous lead in both developing cutting-edge AI and commercializing it. The value of U.S. venture capital investments in AI start-ups exceeds that of the rest of the world combined.
Gertner, Jon. (2023) "Wikipedia's Moment of Truth: Can the online encyclopedia help teach A.I. chatbots to get their facts right — without destroying itself in the process?" New York Times Magazine (July 18, 2023) online Archived 20 July 2023 at the Wayback Machine
Gleick, James, "The Fate of Free Will" (review of Kevin J. Mitchell, Free Agents: How Evolution Gave Us Free Will, Princeton University Press, 2023, 333 pp.), The New York Review of Books, vol. LXXI, no. 1 (18 January 2024), pp. 27–28, 30. "Agency is what distinguishes us from machines. For biological creatures, reason and purpose come from acting in the world and experiencing the consequences. Artificial intelligences – disembodied, strangers to blood, sweat, and tears – have no occasion for that." (p. 30.)
Halpern, Sue, "The Coming Tech Autocracy" (review of Verity Harding, AI Needs You: How We Can Change AI's Future and Save Our Own, Princeton University Press, 274 pp.; Gary Marcus, Taming Silicon Valley: How We Can Ensure That AI Works for Us, MIT Press, 235 pp.; Daniela Rus and Gregory Mone, The Mind's Mirror: Risk and Reward in the Age of AI, Norton, 280 pp.; Madhumita Murgia, Code Dependent: Living in the Shadow of AI, Henry Holt, 311 pp.), The New York Review of Books, vol. LXXI, no. 17 (7 November 2024), pp. 44–46. "'We can't realistically expect that those who hope to get rich from AI are going to have the interests of the rest of us close at heart,' ... writes [Gary Marcus]. 'We can't count on governments driven by campaign finance contributions [from tech companies] to push back.'... Marcus details the demands that citizens should make of their governments and the tech companies. They include transparency on how AI systems work; compensation for individuals if their data [are] used to train LLMs (large language model)s and the right to consent to this use; and the ability to hold tech companies liable for the harms they cause by eliminating Section 230, imposing cash penalties, and passing stricter product liability laws... Marcus also suggests... that a new, AI-specific federal agency, akin to the FDA, the FCC, or the FTC, might provide the most robust oversight.... [T]he Fordham law professor Chinmayi Sharma... suggests... establish[ing] a professional licensing regime for engineers that would function in a similar way to medical licenses, malpractice suits, and the Hippocratic oath in medicine. 'What if, like doctors,' she asks..., 'AI engineers also vowed to do no harm?'" (p. 46.)
Henderson, Mark (24 April 2007). "Human rights for robots? We're getting carried away". The Times Online. London. Archived from the original on 31 May 2014. Retrieved 31 May 2014.
Hughes-Castleberry, Kenna, "A Murder Mystery Puzzle: The literary puzzle Cain's Jawbone, which has stumped humans for decades, reveals the limitations of natural-language-processing algorithms", Scientific American, vol. 329, no. 4 (November 2023), pp. 81–82. "This murder mystery competition has revealed that although NLP (natural-language processing) models are capable of incredible feats, their abilities are very much limited by the amount of context they receive. This [...] could cause [difficulties] for researchers who hope to use them to do things such as analyze ancient languages. In some cases, there are few historical records on long-gone civilizations to serve as training data for such a purpose." (p. 82.)
Immerwahr, Daniel, "Your Lying Eyes: People now use A.I. to generate fake videos indistinguishable from real ones. How much does it matter?", The New Yorker, 20 November 2023, pp. 54–59. "If by 'deepfakes' we mean realistic videos produced using artificial intelligence that actually deceive people, then they barely exist. The fakes aren't deep, and the deeps aren't fake. [...] A.I.-generated videos are not, in general, operating in our media as counterfeited evidence. Their role better resembles that of cartoons, especially smutty ones." (p. 59.)
Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI, MIT Press.
Jumper, John; Evans, Richard; Pritzel, Alexander; et al. (26 August 2021). "Highly accurate protein structure prediction with AlphaFold". Nature. 596 (7873): 583–589. Bibcode:2021Natur.596..583J. doi:10.1038/s41586-021-03819-2. PMC8371605. PMID 34265844. S2CID 235959867.
LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (28 May 2015). "Deep learning". Nature. 521 (7553): 436–444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. S2CID 3074096. Archived from the original on 5 June 2023. Retrieved 19 June 2023.
Leffer, Lauren, "The Risks of Trusting AI: We must avoid humanizing machine-learning models used in scientific research", Scientific American, vol. 330, no. 6 (June 2024), pp. 80–81.
Lepore, Jill, "The Chit-Chatbot: Is talking with a machine a conversation?", The New Yorker, 7 October 2024, pp. 12–16.
Maschafilm (2010). "Content: Plug & Pray Film – Artificial Intelligence – Robots". plugandpray-film.de. Archived from the original on 12 February 2016.
Marcus, Gary, "Artificial Confidence: Even the newest, buzziest systems of artificial general intelligence are stymmied by the same old problems", Scientific American, vol. 327, no. 4 (October 2022), pp. 42–45.
Mitchell, Melanie (2019). Artificial intelligence: a guide for thinking humans. New York: Farrar, Straus and Giroux. ISBN978-0-3742-5783-5.
Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; et al. (26 February 2015). "Human-level control through deep reinforcement learning". Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID 25719670. S2CID 205242740. Archived from the original on 19 June 2023. Retrieved 19 June 2023. Introduced DQN, which produced human-level performance on some Atari games.
Press, Eyal, "In Front of Their Faces: Does facial-recognition technology lead police to ignore contradictory evidence?", The New Yorker, 20 November 2023, pp. 20–26.
"Robots could demand legal rights". BBC News. 21 December 2006. Archived from the original on 15 October 2019. Retrieved 3 February 2011.
Roivainen, Eka, "AI's IQ: ChatGPT aced a [standard intelligence] test but showed that intelligence cannot be measured by IQ alone", Scientific American, vol. 329, no. 1 (July/August 2023), p. 7. "Despite its high IQ, ChatGPT fails at tasks that require real humanlike reasoning or an understanding of the physical and social world.... ChatGPT seemed unable to reason logically and tried to rely on its vast database of... facts derived from online texts."
Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs, vol. 98, no. 3 (May/June 2019), pp. 135–144. "Today's AI technologies are powerful but unreliable. Rules-based systems cannot deal with circumstances their programmers did not anticipate. Learning systems are limited by the data on which they were trained. AI failures have already led to tragedy. Advanced autopilot features in cars, although they perform well in some circumstances, have driven cars without warning into trucks, concrete barriers, and parked cars. In the wrong situation, AI systems go from supersmart to superdumb in an instant. When an enemy is trying to manipulate and hack an AI system, the risks are even greater." (p. 140.)
Schulz, Hannes; Behnke, Sven (1 November 2012). "Deep Learning". KI – Künstliche Intelligenz. 26 (4): 357–363. doi:10.1007/s13218-012-0198-z. ISSN 1610-1987. S2CID 220523562.
Serenko, Alexander; Michael Dohan (2011). "Comparing the expert survey and citation impact journal ranking methods: Example from the field of Artificial Intelligence" (PDF). Journal of Informetrics. 5 (4): 629–649. doi:10.1016/j.joi.2011.06.002. Archived (PDF) from the original on 4 October 2013. Retrieved 12 September 2013.
Silver, David; Huang, Aja; Maddison, Chris J.; et al. (28 January 2016). "Mastering the game of Go with deep neural networks and tree search". Nature. 529 (7587): 484–489. Bibcode:2016Natur.529..484S. doi:10.1038/nature16961. PMID 26819042. S2CID 515925. Archived from the original on 18 June 2023. Retrieved 19 June 2023.
Vincent, James, "Horny Robot Baby Voice: James Vincent on AI chatbots", London Review of Books, vol. 46, no. 19 (10 October 2024), pp. 29–32. "[AI chatbot] programs are made possible by new technologies but rely on the timelelss human tendency to anthropomorphise." (p. 29.)
White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. Archived (PDF) from the original on 20 February 2020. Retrieved 20 February 2020.