Джеймс Х. Мур

Американский философ (1942-2024)

Джеймс Халлер Мур [1] (1942 – 11 сентября 2024) [2] был американским этиком, моральным философом и особенно известен своей новаторской работой в области компьютерной этики . Он провел большую часть своей карьеры в Дартмутском колледже , где он был профессором интеллектуальной и моральной философии имени Дэниела П. Стоуна.

Образование и карьера

Мур изучал математику в Университете штата Огайо , где получил степень бакалавра в 1965 году. Затем он изучал философию в Чикагском университете , где получил степень магистра. Он работал преподавателем в колледже Финдли , прежде чем приступить к дальнейшему обучению в Университете Индианы в Блумингтоне , где в 1972 году получил степень доктора философии по философии науки. Его диссертацией под названием «Сознание компьютера» руководил Уэсли К. Салмон . Мур присоединился к Дартмутскому колледжу в том же году в качестве доцента философии. Он стал доцентом в 1978 году и профессором в 1985 году. [3] Статья Мура 1985 года под названием «Что такое компьютерная этика?» утвердила его в качестве одного из пионеров теоретиков в области компьютерной этики . [4] [5] С 2009 года в Дартмуте Мур был профессором интеллектуальной и моральной философии имени Дэниела П. Стоуна, и этот титул он сохранял до своей смерти. [6]

Мур был главным редактором Minds and Machines (2001-2010), рецензируемого академического журнала, посвященного искусственному интеллекту, философии и когнитивной науке. [7]

Исследовать

Исследования Мура включают изучение философии искусственного интеллекта , философии разума , философии науки и логики . Он также много писал о тесте Тьюринга . В статье 2009 года Мур перечислил четыре вида роботов по отношению к этике. Машина может быть более чем одним типом агента. [8]

  • Агенты этического воздействия: машинные системы, несущие этическое воздействие, намеренно или нет. Мур приводит пример часов, заставляющих работника приходить на работу вовремя. Наряду с агентами этического воздействия существуют агенты неэтичного воздействия. Некоторые агенты могут быть агентами неэтичного воздействия в определенное время и агентами этического воздействия в другое время. Он приводит пример того, что он называет «агентом Гудмана», названным в честь философа Нельсона Гудмана . Агент Гудмана сравнивает даты «это было получено путем программирования ежегодных дат с использованием только последних двух цифр года, в результате чего даты после 2000 года ошибочно считались более ранними, чем даты конца двадцатого века. Таким образом, агент Гудмана был агентом этического воздействия до 2000 года и агентом неэтичного воздействия после него».
  • Неявные этические агенты: машины, вынужденные избегать неэтичных результатов.
  • Явные этичные агенты: машины, имеющие алгоритмы для этичного поведения.
  • Полностью этичные агенты: машины, которые этичны так же, как и люди (т.е. обладают свободной волей, сознанием и преднамеренностью)

Мур раскритиковал Три закона робототехники Азимова , заявив, что при тщательном применении они дадут неожиданные результаты. Он приводит пример робота, который бродит по миру, пытаясь предотвратить вред от всех людей.

Награды

Библиография

Избранные публикации

  • Мур, Джеймс Х. (1978). «Три мифа о компьютерной науке». Британский журнал философии науки . 29 (3): 213– 222. doi :10.1093/bjps/29.3.213. ISSN  0007-0882.
  • Мур, Джеймс Х. (1985). «Что такое компьютерная этика?». Метафилософия . 16 (4): 266– 275. doi :10.1111/j.1467-9973.1985.tb00173.x. ISSN  0026-1068.
  • Мур, Джеймс Х. (1997). «К теории конфиденциальности в информационную эпоху». ACM SIGCAS Computers and Society . 27 (3): 27– 32. doi :10.1145/270858.270866. ISSN  0095-2737.
  • Мур, Джеймс Х. (2006). «Природа, важность и сложность машинной этики». IEEE Intelligent Systems . 21 (4): 18– 21. doi :10.1109/MIS.2006.80. ISSN  1541-1672.
  • Уорик, Кевин ; Шах, Хума; Мур, Джеймс (2013). «Некоторые следствия выборки практических тестов Тьюринга». Minds and Machines . 23 (2): 163– 177. doi :10.1007/s11023-013-9301-y. ISSN  0924-6495.

Книги

  • Байнум, Террелл Уорд; Мур, Джеймс, ред. (2000). Цифровой Феникс: как компьютеры меняют философию (пересмотренное издание). Оксфорд: Blackwell. ISBN 978-0-631-20352-0.
  • Мур, Джеймс; Байнум, Террелл Уорд, ред. (2002). Киберфилософия: пересечение философии и вычислений . Серия «Метафилософия» в философии. Оксфорд: Blackwell. ISBN 978-1-4051-0073-1.
  • Мур, Джеймс Х., ред. (2003). Тест Тьюринга: неуловимый стандарт искусственного интеллекта. Исследования когнитивных систем. Том 30. Дордрехт: Springer Netherlands. doi :10.1007/978-94-010-0105-2. ISBN 978-1-4020-1205-1.
  • Allhoff, Fritz; Lin, Patrick; Moor, James; Weckert, John, ред. (2007). Наноэтика: этические и социальные последствия нанотехнологий . Хобокен, Нью-Джерси: Wiley-Interscience. ISBN 978-0-470-08417-5.
  • Бергманн, Мерри; Мур, Джеймс; Нельсон, Джек (2009). Книга по логике (5-е изд.). Бостон: McGraw-Hill Higher Education. ISBN 978-0-07-353563-0.
  • Иден, Амнон Х.; Мур, Джеймс Х.; Сёракер, Джонни Х.; Стейнхарт, Эрик, ред. (2012). Гипотезы сингулярности: научная и философская оценка. Коллекция Frontiers. Берлин, Гейдельберг: Springer Berlin Heidelberg. doi :10.1007/978-3-642-32560-1. ISBN 978-3-642-32559-5.

Ссылки

  1. ^ Мур, Джеймс Халлер (1972). Компьютерное сознание (диссертация). Университет Индианы.
  2. ^ Вайнберг, Джастин (15.10.2024). "Джеймс Мур (1942-2024) - Daily Nous". dailynous.com .
  3. ^ "Jmoor". Архивировано из оригинала 2018-07-12 . Получено 2016-06-11 .
  4. ^ «Очень краткая история компьютерной этики – Исследовательский центр ценностей в развивающейся науке и технологиях». 2018-09-04.
  5. ^ ab "SIGCAS Making a Difference Award 2003 — SIGCAS - Computers & Society". Архивировано из оригинала 2016-08-08 . Получено 2010-11-18 .
  6. ^ "Jmoor". Архивировано из оригинала 2018-07-12 . Получено 2016-06-11 .
  7. ^ «Разумы и машины».
  8. ^ Мур, Джеймс (2009). «Четыре вида этических роботов». Philosophy Now . 72 : 12–14 .
  9. ^ "Future Of Life Award 2024". Институт будущего жизни .
Взято с "https://en.wikipedia.org/w/index.php?title=James_H._Moor&oldid=1267362746"