В регулировании алгоритмов , в частности искусственного интеллекта и его подотрасли машинного обучения , право на объяснение (или право на объяснение ) — это право получить объяснение для выходных данных алгоритма. Такие права в первую очередь относятся к индивидуальным правам на получение объяснения для решений, которые существенно влияют на человека, особенно в юридическом или финансовом отношении. Например, человек, который подает заявку на кредит и получает отказ, может попросить объяснения, которое может быть следующим: « Кредитное бюро X сообщает, что вы объявили о банкротстве в прошлом году; это основной фактор, который считает вас слишком склонным к дефолту, и поэтому мы не выдадим вам кредит, на который вы подали заявку».
Некоторые из таких юридических прав уже существуют, в то время как сфера действия общего «права на объяснение» является предметом продолжающихся дебатов. Выдвигались аргументы в пользу того, что «социальное право на объяснение» является важнейшей основой информационного общества, особенно потому, что институтам этого общества необходимо будет использовать цифровые технологии, искусственный интеллект, машинное обучение. [1] Другими словами, что соответствующие автоматизированные системы принятия решений , использующие объяснимость, будут более надежными и прозрачными. Без этого права, которое может быть установлено как юридически, так и посредством профессиональных стандартов , общественность останется без особых средств для оспаривания решений автоматизированных систем.
Согласно Закону о равных возможностях получения кредита (Положение B Свода федеральных правил ), Раздел 12, Глава X, Часть 1002, §1002.9, кредиторы обязаны уведомлять заявителей, которым отказано в кредите, с указанием конкретных причин для подробностей. Как подробно описано в §1002.9(b)(2): [2]
(2) Изложение конкретных причин. Изложение причин неблагоприятных действий, требуемое пунктом (a)(2)(i) настоящего раздела, должно быть конкретным и указывать основную(ые) причину(ы) неблагоприятных действий. Заявления о том, что неблагоприятные действия были основаны на внутренних стандартах или политике кредитора или что заявитель, совместный заявитель или аналогичная сторона не смогли получить квалификационный балл в системе оценки кредитоспособности кредитора, недостаточны.
Официальное толкование этого раздела подробно описывает, какие типы заявлений являются приемлемыми. Кредиторы соблюдают это положение, предоставляя список причин (обычно не более 4, согласно толкованию положений), состоящий из числовогоКод причины (как идентификатор) и связанное с ним объяснение, определяющее основные факторы, влияющие на кредитный рейтинг.[3]Примером может быть:[4]
Общий регламент Европейского союза по защите данных (принят в 2016 году, вступает в силу в 2018 году) расширяет права на автоматизированное принятие решений, предусмотренные в Директиве о защите данных 1995 года , чтобы обеспечить юридически оспариваемую форму права на разъяснение, как указано в пункте 71 Преамбулы: «[субъект данных должен иметь] право... получить разъяснение принятого решения». Полностью:
Субъект данных должен иметь право не подчиняться решению, которое может включать меру оценки личных аспектов, касающихся его или ее, которая основана исключительно на автоматизированной обработке и которая влечет за собой правовые последствия в отношении него или нее или аналогичным образом существенно влияет на него или нее, например, автоматический отказ в предоставлении онлайн-заявки на кредит или в применении методов электронного рекрутинга без какого-либо вмешательства человека.
...
В любом случае такая обработка должна осуществляться с соблюдением соответствующих гарантий, которые должны включать предоставление субъекту данных конкретной информации и право на вмешательство человека, выражение своей точки зрения, получение разъяснений по решению, принятому после такой оценки, и право оспорить это решение.
Однако степень, в которой сами правила предоставляют «право на объяснение», является предметом активных споров. [5] [6] [7] Существует два основных направления критики. Существуют существенные правовые проблемы с правом, изложенным в статье 22, — поскольку изложения не являются обязательными, а право на объяснение не упоминается в обязательных статьях текста, будучи удаленным в ходе законодательного процесса. [6] Кроме того, существуют существенные ограничения на типы автоматизированных решений , которые охватываются — которые должны быть как «исключительно» основаны на автоматизированной обработке, так и иметь юридические или аналогичные существенные последствия — что существенно ограничивает круг автоматизированных систем и решений, к которым будет применяться это право. [6] В частности, это право вряд ли будет применяться во многих случаях алгоритмических споров, которые были подхвачены в СМИ. [8]
Второй потенциальный источник такого права был указан в статье 15, «право доступа субъекта данных». Это повторяет аналогичное положение из Директивы о защите данных 1995 года, разрешающее субъекту данных доступ к «значимой информации о логике, задействованной» в том же важном, исключительно автоматизированном принятии решений, которое содержится в статье 22. Однако это также страдает от предполагаемых проблем, связанных со сроками, когда это право может быть использовано, а также практических проблем, которые означают, что оно может не быть обязательным во многих случаях, представляющих общественный интерес. [6]
Во Франции Закон о цифровой республике (Loi pour une République numérique ) 2016 года вносит поправки в административный кодекс страны, чтобы ввести новое положение для объяснения решений, принимаемых органами государственного сектора в отношении отдельных лиц. [9] В нем отмечается, что в случаях, когда «решение принимается на основе алгоритмического обращения», правила, определяющие это обращение и его «основные характеристики», должны быть доведены до сведения гражданина по его запросу, если нет исключения (например, для национальной безопасности или обороны). Они должны включать следующее:
Ученые отметили, что это право, хотя и ограничено административными решениями, выходит за рамки права GDPR и явно применяется к поддержке принятия решений, а не к решениям, «исключительно» основанным на автоматизированной обработке, а также обеспечивает основу для объяснения конкретных решений. [9] Действительно, права GDPR на автоматизированное принятие решений в Европейском Союзе, одно из мест, где искали «право на объяснение», берут свое начало во французском законодательстве конца 1970-х годов. [10]
Некоторые утверждают, что «право на объяснение» в лучшем случае не нужно, в худшем — вредно и грозит задушить инновации. Конкретные критические замечания включают: предпочтение человеческих решений машинным, избыточность существующих законов и сосредоточенность на процессе, а не на результате. [11]
Авторы исследования «Раб алгоритма? Почему «право на объяснение» — это, вероятно, не то средство, которое вы ищете» Лилиан Эдвардс и Майкл Вил утверждают, что право на объяснение не является решением проблемы вреда, причиненного заинтересованным сторонам алгоритмическими решениями. Они также заявляют, что право на объяснение в GDPR узко определено и несовместимо с тем, как разрабатываются современные технологии машинного обучения. С этими ограничениями определение прозрачности в контексте алгоритмической ответственности остается проблемой. Например, предоставление исходного кода алгоритмов может быть недостаточным и может создать другие проблемы с точки зрения раскрытия конфиденциальности и игры с техническими системами. Чтобы смягчить эту проблему, Эдвардс и Вил утверждают, что система аудита могла бы быть более эффективной, позволяя аудиторам просматривать входы и выходы процесса принятия решений из внешней оболочки, другими словами, «объясняя черные ящики, не открывая их». [8]
Аналогичным образом, ученые из Оксфорда Брайс Гудман и Сет Флаксман утверждают, что GDPR создает «право на объяснение», но не развивают ничего дальше этого, указывая на ограничения в текущем GDPR. Что касается этого спора, ученые Эндрю Д. Селбст и Джулия Поулз утверждают, что спор должен переключиться на обсуждение того, использовать ли фразу «право на объяснение» или нет, больше внимания следует уделять явным требованиям GDPR и тому, как они соотносятся с его фоновыми целями, и больше внимания следует уделять определению того, что на самом деле означает законодательный текст. [12]
Что еще более важно, многие алгоритмы, используемые в машинном обучении, нелегко объяснить. Например, вывод глубокой нейронной сети зависит от многих слоев вычислений, связанных сложным образом, и ни один вход или вычисление не может быть доминирующим фактором. Область объяснимого ИИ стремится предоставить лучшие объяснения из существующих алгоритмов и алгоритмов, которые легче объяснить, но это молодая и активная область. [13] [14]
Другие утверждают, что трудности с объяснимостью обусловлены ее слишком узкой направленностью на технические решения, а не связью проблемы с более широкими вопросами, поднимаемыми «социальным правом на объяснение». [1]
Эдвардс и Вил рассматривают право на объяснение как предоставление некоторых оснований для объяснений конкретных решений. Они обсуждают два типа алгоритмических объяснений: объяснения, основанные на моделях, и объяснения, основанные на субъектах (SCE), которые в целом соответствуют объяснениям систем или решений. [8]
SCE рассматриваются как лучший способ обеспечить некоторое исправление, хотя и с некоторыми серьезными ограничениями, если данные просто слишком сложны. Их предложение заключается в том, чтобы разбить полную модель и сосредоточиться на конкретных вопросах посредством педагогических объяснений к конкретному запросу, «который может быть реальным или может быть вымышленным или исследовательским». Эти объяснения обязательно будут включать компромиссы с точностью для уменьшения сложности.
С ростом интереса к объяснению технических систем принятия решений в области проектирования взаимодействия человека и компьютера исследователи и проектировщики прилагают усилия, чтобы открыть черный ящик в терминах математически интерпретируемых моделей, удаленных от когнитивной науки и реальных потребностей людей. Альтернативные подходы заключаются в том, чтобы позволить пользователям свободно исследовать поведение системы с помощью интерактивных объяснений.
Одно из предложений Эдвардса и Вейла — частично убрать прозрачность как необходимый ключевой шаг к ответственности и возмещению ущерба. Они утверждают, что люди, пытающиеся решить проблемы защиты данных, хотят действий, а не объяснений. Реальная ценность объяснений будет заключаться не в облегчении или возмещении нанесенного эмоционального или экономического ущерба, а в понимании того, почему что-то произошло, и в содействии обеспечению того, чтобы ошибка не повторилась. [8]
В более широком масштабе, в исследовании Explainable machine learning in deployment авторы рекомендуют создать объяснимую структуру, четко устанавливающую желаемые результаты путем определения заинтересованных сторон, взаимодействия с ними и понимания цели объяснения. Наряду с этим, в системе должны быть рассмотрены такие вопросы объяснимости, как вопросы причинности, конфиденциальности и улучшения производительности. [15]