Моральный кодекс для искусственного интеллекта

Width 250px shutterstock 1071703271

Похоже, всем уже очевидно, что использование искусственного интеллекта, потребляющего огромные массивы персональных данных, требует определенной этики. Но вопрос – какой именно этики?

Искусственный интеллект (ИИ) функционирует благодаря большим данным и машинному обучению и находит применение во множестве различных сфер – от беспилотных автомобилей и алгоритмической торговли до интеллектуального анализа данных и систем поддержки принятия врачебных решений. Для развития ИИ необходимо наличие значительных объемов данных. В Китае с его огромным населением и развитым бизнесом, которые активно используют цифровые инструменты и платформы, развитие ИИ обещает хорошие перспективы. К тому же ограничений на использование информации, оставляемой физическими и юридическими лицами, в этой стране не так много. Оцифровать экономику стремится и Индия, вставшая на путь биометрической аутентификации, снижения оборота наличных денег и единого налога на товары и услуги.

Однако недавно разразившийся скандал вокруг использования персональных и социальных данных компаниями Facebook и Cambridge Analytica вывел на первый план вопросы этики. И это только начало. Для обучения действиям, возлагавшимся прежде на человека, а также для их выполнения приложениям на основе ИИ требуется все больше данных, и на этом фоне  деятельность компаний привлекает повышенное внимание общественности (по крайней мере, в отдельных странах). После ряда нашумевших аварий Tesla и Uber притормозили разработку самоуправляемых автомобилей. Как же добиться, чтобы ИИ использовали ответственно, соблюдая нормы этики? Как привить бизнесу культуру такой ответственности, когда глобальный стандарт для ИИ отсутствует?

Этические стандарты для оценки искусственного интеллекта и сопутствующих технологий только формируются. Компаниям необходимо начать диалог о том, как избежать трудных ситуаций. Причем начать его как на внутреннем уровне, так и на внешнем, с привлечением ключевых заинтересованных сторон.

ЦЕЛИ ИЛИ НАМЕРЕНИЯ?


Рассмотрим отличия деонтологической этики от телеологической. Первая ставит во главу угла намерения и средства, вторая – цели и результаты. Так, цель проектирования самоуправляемых автомобилей – создание эффективной, «зеленой», безошибочной транспортной системы – может оправдать масштабный сбор данных о поведении водителей в разных условиях, а также эксперименты с использованием приложений на основе ИИ.
А вот в случае клинических вмешательств и особенно испытаний телеологическое оправдание найти сложно. Если учесть, сколько кошмарных медицинских экспериментов поставлено на ничего не подозревавших людях, со стороны компаний и исследователей ИИ было бы мудрее придерживаться деонтологического подхода. Чтобы этичность действий определялась не по целям, а по намерениям и средствам.

Другое полезное мерило – так называемое золотое правило этики, гласящее: «Относись к людям так, как хочешь, чтобы относились к тебе». Сложность его применения в такой бурно развивающейся сфере, как искусственный интеллект, объясняется наличием пропасти между миллиардами людей, чьи данные собираются и анализируются, и миллиардами потенциальных выгодоприобретателей. Данные просто накапливаются таким образом, что применять это правило «в лоб» во многом нецелесообразно.

Наконец, еще одна пара этических стандартов: культурный релятивизм и универсализм. Первый предлагает судить о действиях с учетом ценностей и норм конкретной культуры, второй – соответствовать общепринятому стандарту. Такое сравнение помогает объяснить, например, наличие конфликта между европейскими и американскими взглядами на конфиденциальность данных, в условиях которого формируется глобальная конкурентная среда для Google, Facebook и многих других компаний.

Развивающиеся рынки, в частности Индия и Китай, давно предлагают руководствоваться принципами культурного релятивизма. В этом они видят для себя потенциальное преимущество, и главный его фактор – отсутствие ненужных правил, способных замедлить их превращение в технологические державы.

Использование ИИ не только несет в себе возможности, но и ставит серьезные этические вопросы:

  • Принятие решений и ответственность. Искусственный интеллект становится востребованнее, и понять, кому отвечать за те или иные решения, будет все труднее. Если ошибки наносят ущерб, кто должен нести риски?
  • Прозрачность. Когда для принятия важных решений используют сложные алгоритмы машинного обучения, объяснить действия таких систем бывает тяжело. Для определения ответственных необходимо четкое изложение хода компьютерной мысли.
  • Предвзятость. Из-за машинного обучения предвзятость в системах принятия решений может укорениться. Нужно тщательно следить за тем, чтобы ИИ никого не дискриминировал.
  • Человеческие ценности. Если искусственный интеллект не запрограммировать соответствующим образом, у него не будет ни базовых ценностей, ни условно здравого смысла. Полезные рекомендации на этот счет есть у Британского института стандартов. Стандарт BS 8611 об ответственном проектировании и применении роботов и робототехнических систем гласит: «Недопустимо проектировать роботов, единственной или основной целью которых является уничтожение людей или причинение им ущерба. Ответственность за действия роботов несут люди, и должна быть возможность установить ответственных за конкретного робота и его поведение».
  • Защита данных и IP-адреса. Потенциал ИИ тесно связан с доступом к большим объемам данных. Но что, если система, которая обучалась на одном массиве данных, перенесет результаты этого обучения на другой массив данных?

ВОПРОС ДОВЕРИЯ


Этические стандарты должны стать таким же важным элементом глобальной конкурентной борьбы, какими с 1980-х годов выступают технологические новации. Учитывая связанные с ИИ риски и стремление владеть данными, перед компаниями наверняка встанут труднейшие вопросы о каждом их шаге на пути вверх. Мы работаем с клиентами по всему миру и постоянно анализируем роль этики в реализации систем искусственного интеллекта. Подход бизнеса и общества к решению упомянутых проблем сильно отразится на цифровом будущем ИИ.

С другой стороны, для полноценного развития ИИ нужны предсказуемость и доверие. Эти два требования взаимосвязаны. Искусственный интеллект ставит такие сложные вопросы, как ответственность и допустимые способы использования данных. И предсказуемость в этих плоскостях будет стимулировать инвестиции в соответствующие технологии, а также их применение. Также прогресс ИИ зависит от доверия к нему потребителей, от их уверенности в собственном благополучии и судьбе своих данных. Предсказуемость и прозрачность – опоры такого доверия.

«Умные» машины осваивают такие высоко­уровневые когнитивные процессы, как мышление, восприятие, обучение, принятие решений и поиск выхода из той или иной ситуации. Дополнив человеческий интеллект, ИИ может открыть новые грани в работе бизнеса и властей.

Однако с перспективой создания разумных машин возникает множество этических вопросов, которые нельзя сбрасывать со счетов. Что будет, если разумные машины начнут принимать самостоятельные решения? Можно ли вообще такое допустить? Как с них спрашивать за последствия? Нужно ли будет контролировать, регулировать и отслеживать их обучение?

Чтобы решать эти проблемы законодательно, они либо слишком сложны, либо слишком быстро эволюционируют. Потребуются эффективные правовые инструменты. Но изменений политического и юридического характера будет недостаточно. Чтобы сформировалось настоящее доверие, не менее важен будет этический кодекс.

Власти должны стимулировать обсуждение этических вопросов, связанных с ИИ, где будут участвовать все заинтересованные стороны. Частный сектор, организации по защите прав потребителей и научная среда общими усилиями смогут добиться появления такого кодекса, который будет гармонировать с развитием событий в технологической, социальной и политической областях.

Действия властей должны согласовываться с существующими инициативами по изучению и обсуждению этического аспекта функционирования ИИ. В этой сфере уже работают такие организации, как Институт Алана Тьюринга, Центр перспектив интеллекта им. лорда Ливерхьюма, Центр четвертой промышленной революции при Всемирном экономическом форуме, британское Королевское общество и Партнерство по искусственному интеллекту во благо людей и общества. Их шаги можно поддержать.


Официальные партнеры

Logo nkibrics Logo dm arct Logo fond gh Logo palata Logo palatarb Logo rc Logo mkr Logo mp Logo rdb