Коннор Лихи

Исследователь ИИ

Коннор Лихи — немецко-американский [1] исследователь искусственного интеллекта и предприниматель, известный как соучредитель EleutherAI [2] [3] и генеральный директор компании Conjecture, занимающейся исследованиями безопасности ИИ . [4] [5] [6] Он предупреждал об экзистенциальном риске, который представляет собой искусственный интеллект в целом , и призывал к регулированию, такому как «мораторий на пограничные запуски ИИ», реализуемому посредством ограничения вычислений. [7]

Карьера

В 2019 году Лихи провел обратную разработку GPT-2 в своей спальне, а затем стал соучредителем EleutherAI , чтобы попытаться воспроизвести GPT-3 . [2]

Лихи скептически относится к обучению с подкреплением на основе обратной связи с человеком как к решению проблемы выравнивания . «Эти системы, становясь более мощными, не становятся менее чуждыми. Если уж на то пошло, мы надеваем на них милую маленькую маску с улыбающимся лицом. Если не заходить слишком далеко, смайлик останется. Но затем вы даете ему [неожиданную] подсказку, и внезапно вы видите это огромное изнаночное безумие, странные мыслительные процессы и явно нечеловеческое понимание». [8]

Он был одним из подписавших открытое письмо Института будущего жизни 2023 года , призывающее «все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4». [9] [10]

В ноябре 2023 года Лихи пригласили выступить на первом Саммите по безопасности ИИ . Он беспокоился, что саммит не сможет справиться с рисками от «богоподобного ИИ», вытекающими из проблемы согласования ИИ, утверждая, что «если вы создаете системы, которые более способны, чем люди, к манипуляциям, бизнесу, политике, науке и всему остальному, и мы не контролируем их, то будущее принадлежит им, а не нам». Он стал соучредителем группы кампании ControlAI, выступающей за то, чтобы правительства приостановили разработку общего искусственного интеллекта . [4] Лихи сравнил регулирование искусственного интеллекта с регулированием изменения климата , утверждая, что «нефтяные компании не обязаны решать проблему изменения климата», и что правительства должны вмешаться, чтобы решить обе проблемы. [3]

Смотрите также

Ссылки

  1. ^ «Мемы рассказывают историю секретной войны в сфере технологий. Это не шутка». ABC News . 2024-02-17 . Получено 2024-07-01 .
  2. ^ ab Smith, Tim (29 марта 2023 г.). «'Мы в полном, полном дерьме': познакомьтесь с человеком, пытающимся остановить апокалипсис ИИ».
  3. ^ ab Pringle, Eleanor. «Просить крупные технологические компании контролировать ИИ — это все равно, что обращаться к «нефтяным компаниям» за решением проблемы изменения климата», — говорит исследователь ИИ». Fortune . Получено 06.08.2024 .
  4. ^ ab Стейси, Киран; Милмо, Дэн (2023-10-20). «Глобальный саммит по безопасности искусственного интеллекта в Сунаке рискует достичь очень немногого, предупреждает технический руководитель». The Guardian . ISSN  0261-3077 . Получено 01.07.2024 .
  5. ^ "Сверхразумный ИИ: трансгуманизм и т. д.". Financial Times . 2023-12-05 . Получено 2024-08-06 .
  6. ^ Вернер, Джон. «Можем ли мы справиться с Ubertechnology? Ян Лекун и другие о контроле над ИИ». Forbes . Получено 2024-08-06 .
  7. ^ Перриго, Билли (19.01.2024). «Исследователь: чтобы остановить убийство нас ИИ, сначала урегулируйте дипфейки». TIME . Получено 01.07.2024 .
  8. ^ Перриго, Билли (2023-02-17). «ИИ Bing угрожает пользователям. Это не повод для смеха». TIME . Получено 20 июля 2024 г.
  9. ^ Эванс, Грег (29.03.2023). «Илон Маск и Стив Возняк подписали открытое письмо, призывающее к мораторию на некоторые передовые системы искусственного интеллекта». Крайний срок . Получено 01.07.2024 .
  10. ^ "Pause Giant AI Experiments: An Open Letter". Future of Life Institute . Получено 2024-07-01 .
Взято с "https://en.wikipedia.org/w/index.php?title=Connor_Leahy&oldid=1266334178"