ИИ@50 | |
---|---|
Страна-организатор | Во всем мире |
AI@50 , официально известная как « Dartmouth Artificial Intelligence Conference: The Next Fifty Years » (13–15 июля 2006 г.), была конференцией, организованной Джеймсом Муром в ознаменование 50-летия семинара в Дартмуте , который фактически открыл историю искусственного интеллекта . Присутствовали пятеро из десяти первоначальных участников: Марвин Мински , Рэй Соломонофф , Оливер Селфридж , Тренчард Мор и Джон Маккарти . [1]
Грант в размере 200 000 долларов США от Агентства перспективных исследовательских проектов Министерства обороны США (DARPA) , спонсируемый Дартмутским колледжем , General Electric и Фондом Фредерика Уиттемора, предусматривал подготовку отчета о ходе работ, который:
Краткий отчет директора конференции Джеймса Мура был опубликован в журнале AI Magazine . [3]
Самосовершенствование было одним из аспектов ИИ, предложенных для изучения на Дартмутской конференции 1956 года. Тьюринг предложил «детскую машину», которую можно было бы обучать так же, как и человека, чтобы достичь уровня интеллекта взрослого человека. В последние дни утверждение о том, что система ИИ может быть построена так, чтобы она могла учиться и совершенствоваться бесконечно, приобрело ярлык ошибки самообучения. Попытки внедрить такую систему в ИИ терпели постоянные неудачи в течение полувека. Однако технологические оптимисты утверждали, что такая система возможна, создавая, если она будет реализована, обратную связь, которая приведет к быстрому экспоненциальному росту интеллекта. Мы рассмотрим аргументы в пользу обеих позиций и сделаем некоторые выводы.Самоархив Архивировано 2010-02-15 в Wayback Machine
Эта статья представляет собой обоснованный аргумент в пользу точки зрения, что основанный на логике ИИ должен стать самодостаточной областью, полностью отделенной от парадигм, которые в настоящее время все еще включены в «зонтик» ИИ — парадигм, таких как коннекционизм и подход непрерывных систем. Статья включает в себя самодостаточное резюме основанного на логике ИИ, а также опровержения ряда возражений, которые неизбежно будут выдвинуты против декларации независимости, выраженной здесь.Самоархивирование
В этой статье исследуются перспективы предложения Родни Брукса об ИИ без представления. Оказывается, что предположительно характерные черты «нового ИИ» (воплощение, ситуативность, отсутствие рассуждений и отсутствие представления) присутствуют в обычных системах: «Новый ИИ» — это то же самое, что и старый ИИ. Предложение Брукса сводится к архитектурному отказу от центрального управления в интеллектуальных агентах, что, однако, оказывается решающим. Некоторые из более поздних когнитивных наук предполагают, что нам было бы неплохо избавиться от образа интеллектуальных агентов как центральных процессоров представления. Если этот сдвиг парадигмы будет достигнут, предложение Брукса о познании без репрезентации покажется многообещающим для полноценных интеллектуальных агентов, хотя и не для сознательных агентов.Самоархив Архивировано 17.11.2009 на Wayback Machine
Широкий спектр возможностей, демонстрируемых людьми и животными, достигается посредством большого набора гетерогенных, тесно интегрированных когнитивных механизмов. Чтобы приблизить искусственные системы к такому универсальному интеллекту, мы не можем избежать копирования некоторого подмножества — вполне возможно, значительной части — этого большого набора. Прогресс в этом направлении требует, чтобы системная интеграция воспринималась более серьезно как фундаментальная исследовательская проблема. В этой статье я привожу аргумент, что интеллект должен изучаться целостно. Я излагаю ключевые вопросы, которые необходимо решить в области интеграции, и предлагаю решения для ускорения темпов прогресса в направлении более мощных, интегрированных систем ИИ, включая (а) инструменты для создания больших, сложных архитектур, (б) методологию проектирования для создания систем ИИ в реальном времени и (в) методы содействия совместному использованию кода на уровне сообщества.
Вы можете выжить после смерти в различных видах артефактов. Вы можете выжить в дневниках, фотографиях, звукозаписях и фильмах. Но эти артефакты фиксируют только поверхностные черты вас самих. Мы уже близки к созданию программ, которые частично и приблизительно воспроизводят целые человеческие жизни (сохраняя их воспоминания и дублируя их личности). Цифровой призрак — это программа с искусственным интеллектом, которая знает все о вашей жизни. Это анимированная автобиография. Она воспроизводит ваши модели убеждений и желаний. Вы можете выжить после смерти в цифровом призраке. Мы обсуждаем ряд цифровых призраков за следующие 50 лет. С течением времени и развитием технологий они становятся все более совершенными копиями жизни своих оригинальных авторов.
Смысл этой статьи в том, что многие зоркие аналитики работ в области интеллектуальных вычислений и робототехники не видят существенного в отношении разработки приложений, а именно выражения их конечной цели. В качестве альтернативы они не могут сформулировать ее надлежащим образом для менее информированного общественного взгляда. Автор не утверждает, что может исправить это. Вместо этого визионерское исследование предложило пары обучения и вычислений с другими смежными областями как часть более обширного спектра для полной имитации людей в их воплощенном образе. Впервые подвергаются сомнению социальные роли, приписываемые производимым техническим объектам, причем с помощью юмористической иллюстрации.
Эта статья представляет собой резюме и оценку работы, представленной на осеннем симпозиуме AAAI 2005 по этике машин, который объединил участников из областей компьютерных наук и философии с целью прояснить природу этой новой зарождающейся области и обсудить различные подходы, которые можно использовать для реализации конечной цели создания этичной машины.
Теории морального и, в более общем смысле, практического рассуждения иногда опираются на понятие когерентности. Достойно восхищения то, что Пол Тагард попытался дать вычислительно подробный отчет о типе когерентности, вовлеченном в практическое рассуждение, утверждая, что это поможет преодолеть проблемы в фундаменталистских подходах к этике. Аргументы в настоящем документе опровергают предполагаемую роль когерентности в практическом рассуждении, одобренную Тагардом. Хотя из предыдущего можно извлечь некоторые общие уроки, не делается никаких попыток выступить против всех форм когерентности во всех контекстах. Также не ставится под сомнение полезность вычислительного моделирования. Суть в том, что когерентность не может быть столь полезной для понимания моральных рассуждений, как могут думать когерентисты. Этот результат имеет явные последствия для будущего машинной этики, недавно возникшей подобласти ИИ.