Алгоритмы жизни и смерти

В антиутопиях умные машины, как правило, склонны к самодеятельности и стремятся захватить власть над людьми. В отличие от них, программы с использованием искусственного интеллекта будут делать только то, что им говорят люди. В интересах каждого понять, как такие технологии, как самоуправляемые автомобили, станут разрешать этические дилеммы в реальном мире.

Несколько лет назад Массачусетский технологический институт создал платформу Moral Machine, где собирает мнения, как должен вести себя искусственный интеллект в разных ситуациях. Один из выводов: когда автономное транспортное средство (AV) сталкивается со сценарием «жизнь или смерть», его реакция во многом зависит от того, где оно произведено и что знает о вовлеченных пешеходах или пассажирах.

Например, в AV-версии классической «проб­лемы вагонетки» некоторые ответившие предпочли, чтобы машина ударила осужденного за убийство, прежде чем причинить вред другим, или чтобы сбила пожилого человека, а не ребенка. Третьи сочли, что AV должно просто рискнуть, дабы избежать дискриминации на основе фактических данных.

Как правило, такие затруднительные ситуации решаются в залах суда или в полицейских расследованиях. Но в случае с AV выбор будет сделан в течение нескольких миллисекунд, а этого времени явно недостаточно для принятия отдельно стоящего обоснованного решения. Важно не то, что знаем мы, а то, что знает машина. Вопрос в том, какая информация должна быть заложена в AV об окружающих их людях. И надо ли предоставлять фирмам возможность предлагать различные этические системы для достижения конкурентного преимущества.

Рассмотрим следующий сценарий: автомобиль из Китая имеет заводские стандарты, отличные от автомобилей, произведенных в США, но поставляется и используется на территории США. Эти автомобили китайского производства и американского производства движутся к неизбежному (физическому) столкновению. Какая система должна победить, если у водителя китайского автомобиля иные представления об этичном, чем у водителя американского автомобиля?

Помимо культурных расхождений в этических предпочтениях, необходимо учитывать различия в регуляторных нормах разных стран. Например, автомобиль китайского производства может иметь доступ к данным социальной оценки, что позволяет его алгоритму принятия решений включать дополнительные ресурсы, которые недоступны для американских автопроизводителей. Более полные данные могли бы привести к лучшим, более последовательным решениям, но должно ли это преимущество позволить одной системе отвергать другую?

Очевидно, что прежде чем AV массово покатятся по дорогам мира, мы должны будем определить, на ком лежит ответственность за принятие алгоритмических решений, будь то муниципальные власти, национальные правительства или учреждения. Более того, нам понадобятся новые правила для управления процессами формирования этих решений. Проблема не только в том, как поведет себя AV в экстремальных ситуациях, но и в том, как компании будут взаимодействовать с различными культурными нюансами при разработке и внедрении алгоритмов принятия решений.

Несложно предсказать, что все производители AV будут активно рекламировать этические системы, которые ставят жизнь водителя превыше всего или позволяют пользователю включать свои собственные этические настройки. Это неприемлемо, и дабы избежать трагедий, необходимы правила установления связи и координации решений между несколькими AV. Но при разработке таких систем в разных культурных контекстах законодатели и предприятия столкнутся с разнящимися представлениями о суверенитете, конфиденциальности и индивидуальной автономии.

Прежде чем это произойдет, законодателям необходимо будет установить сферу алгоритмической ответственности, чтобы определить, какие решения, если таковые имеются, должны быть оставлены на усмотрение компаний или отдельных лиц. Те, что находятся в ведении государства, должны быть обсуждены. И учитывая, что на этические и моральные вопросы нет простых ответов, вряд ли получится достичь консенсуса. Посему нам нужно создать системы, которые по крайней мере облегчат связь между разными AV и рассудят алгоритмические споры и дорожные происшествия.

Учитывая необходимость конкретизации при разработке алгоритмов принятия решений, само собой разумеется, что будет необходим международный орган для установления стандартов, в соответствии с которыми решаются моральные и этические дилеммы. В конце концов, AV являются лишь одним из приложений алгоритмического принятия решений. В будущем стандарты алгоритмической ответственности должны будут появиться во многих областях. И первый вопрос, который нам надлежит решить, – это имеют ли фирмы право разрабатывать альтернативные этические рамки для принятия алгоритмических решений. Мы утверждаем, что у них этого права нет.

В эпоху ИИ некоторые компоненты глобальных производственно-сбытовых цепочек будут автоматизированы и с этого момента перестанут рассматриваться как точки конкурентной борьбы. Процесс определения алгоритмической ответственности должен стать одной из таких точек. Так или иначе, AV будут принимать решения. Что это будут за решения, нужно прописать как можно более демократическим путем.

Официальные партнеры

Logo nkibrics Logo dm arct Logo fond gh Logo palata Logo palatarb Logo rc Logo mkr Logo mp Logo rdb