Этика искусственного интеллекта: случай беспилотных автомобилей

Опубликовано: 2022-05-06

Тематическое исследование этики искусственного интеллекта — беспилотные автомобили Welmo.

Искусственный интеллект, или просто ИИ, всегда был увлекательной (и немного пугающей) концепцией. Однако, как бы вы на это ни смотрели, нельзя отрицать, что ИИ играет огромную роль в нашей повседневной деятельности, даже если мы иногда этого не осознаем.

Когда мы думаем об этом, мы думаем о роботах и ​​беспилотных автомобилях, но они присутствуют даже тогда, когда мы делаем что-то простое, например, ищем термин в Google. Да, верно — искусственный интеллект глубоко интегрирован во многие продукты Google, в том числе в его известную поисковую систему.

этика искусственного интеллекта

Сегодня более 37% всех предприятий так или иначе используют ИИ.

Однако разработка продуктов на основе ИИ выходит за рамки только технологий.

Компании также беспокоятся об этике искусственного интеллекта — заботе о моральном поведении при разработке, создании, использовании и обслуживании систем ИИ. При разработке продуктов на основе ИИ часто возникает множество вопросов:

Могут ли системы ИИ принимать этические решения? Какие проблемы может вызвать искусственный интеллект с точки зрения морального поведения? Можно ли предотвратить неэтичные ситуации? Что происходит, когда система ИИ допускает ошибку?

На эти вопросы нет простого ответа. На самом деле, некоторые из них настолько сложны, что на них вообще нет однозначных ответов . Чтобы лучше понять эти вопросы, сегодня мы рассмотрим этику искусственного интеллекта через призму беспилотных автомобилей Welmo.

Итак, давайте погрузимся прямо в него:

Этика искусственного интеллекта: дилемма беспилотных автомобилей

Созданная в 2009 году как проект Google Self-Driving Car Project и ставшая отдельной дочерней компанией в декабре 2016 года, компания Waymo, занимающаяся разработкой технологий, запустила свой первый коммерческий сервис беспилотных автомобилей в декабре 2018 года.

К октябрю 2018 года автономный автомобиль преодолел более 10 миллионов миль по дорогам общего пользования и удивительные 7 миллиардов симуляционных миль в программе виртуального мира под названием Carcraft.

этика искусственного интеллекта

Однако, несмотря на потрясение мира революционной технологией, основанной на полной автономии с датчиками, обеспечивающими обзор на 360 градусов, и лазерами, способными обнаруживать объекты на расстоянии до 300 метров, компании, оцениваемой более чем в 100 миллиардов долларов, еще предстоит решить некоторые важные проблемы . моральные вызовы .

Чтобы объяснить этические проблемы на практическом примере, давайте посмотрим это видео под названием «Этическая дилемма беспилотных автомобилей» Патрика Лина и проанализируем его с точки зрения Великой хартии вольностей:

Этическая дилемма самоуправляемых автомобилей

Этика искусственного интеллекта: этическая дилемма беспилотных автомобилей (смотреть видео)

В этом мысленном эксперименте Патрик Лин представляет нам практический случай, в котором беспилотному автомобилю, зажатому со всех сторон на дороге, угрожает падение тяжелого предмета, и ему нужно принять важное решение — свернуть налево в внедорожник, сверните прямо в мотоцикл или продолжайте движение прямо, чтобы не попасть под объект.

В этой ситуации Патрик Лин задает следующий морально обоснованный вопрос:

Должен ли автомобиль отдавать приоритет безопасности пассажира, врезаясь в мотоцикл, минимизировать опасность для окружающих, не сворачивая (но рискуя жизнью пассажира), или врезаться во внедорожник? Какое решение было бы наиболее этичным в этом случае?

В этом умственном упражнении Патрик Лин заявляет, что если решение должно быть принято человеком, вручную управляющим обычным транспортным средством, это можно интерпретировать как паническую импульсивную реакцию, а не фактическое решение.

Однако в случае, когда самоуправляемое транспортное средство принимает решение на основе заранее запрограммированных ситуаций и обстоятельств, будет ли это считаться « умышленным убийством »?

Будут ли программисты определять исходы возможных аварий за месяцы вперед? Какие факторы следует учитывать заранее, чтобы минимизировать вред?

Мысленный эксперимент, проведенный Патриком Лином, оставляет много места для понимания, анализа и реализации искусственного интеллекта.

Принимая во внимание возможные будущие сценарии, подобные этому, давайте посмотрим, какие проблемы придется решить Waymo, чтобы добиться успеха в своих беспилотных автомобилях.

Баланс мощности и машинных решений

Несомненно, одной из главных задач для Waymo и других компаний, разрабатывающих технологии беспилотного вождения, остается определение баланса сил между людьми и машинами — в какой момент власть должна переключаться с машин на людей и с людей на машины?

Можем ли мы когда- нибудь полностью и безоговорочно зависеть от них?

На данном этапе все еще формирующейся технологии, наверное, нет. Это становится еще более очевидным, если взглянуть на недавнее крушение Boeing 737 Max в Эфиопии, где система предотвращения сваливания MCAS автоматически опустила нос самолета из-за неверных показаний датчиков, что сделало пилотов практически неспособными что-либо предпринять для исправления положения. ошибка машины.

примеры заявлений о миссии

Была ли система наделена слишком большой властью и приоритетом над вмешательством человека? Хотя искусственный интеллект в значительной степени снижает количество человеческих ошибок, это не означает, что машинные ошибки не будут возникать в какой-то момент процесса.

Личный выбор и поляризация

Следующее размышление об этике искусственного интеллекта связано с личным выбором и поляризацией.

Это один из важнейших аспектов Великой хартии вольностей — руководства по инклюзивности и справедливости в глобальной экономике искусственного интеллекта, представленного экспертами Олафом Гротом, Марком Нитцбергом и Марком Эспозито.

Это руководство предназначено для поддержки организаций в разработке успешной стратегии искусственного интеллекта с акцентом на этике искусственного интеллекта. Это поднимает серьезные вопросы о степени человеческого выбора и участия в развитии ИИ.

Как мы собираемся управлять этим прекрасным новым миром машинной меритократии? Устранят ли машины личный выбор?

этика искусственного интеллекта

Хотя личный выбор и поляризация являются одними из ключевых аспектов Великой хартии вольностей, технология беспилотного вождения не обязательно может оказывать сильное негативное влияние на людей и их повседневную жизнь.

Этот тип технологии разработан с идеей принятия более качественных, быстрых и экологически безопасных решений, которые в конечном итоге принесут пользу практически всем пользователям этой услуги. Это может до некоторой степени уменьшить личный выбор, но я не думаю, что это устранит его полностью.

Суждения, дискриминация и предвзятость

Как мы уже говорили ранее, машины с искусственным интеллектом будут принимать решения о нашей безопасности , которые могут поставить под угрозу благополучие других, если они уже были заранее запрограммированы «реагировать» определенным образом в зависимости от ситуации.

Как мы видели в примере с автомобилем, которому угрожает тяжелый предмет, будет ли приоритетом минимизация общего ущерба или спасение владельца беспилотного автомобиля?

Как спрашивает Патрик Лин, вы бы выбрали автомобиль, который всегда спасает как можно больше жизней в аварии, или тот, который спасет вас любой ценой? Это лишь некоторые из вопросов, которые возникают, когда речь заходит об этике искусственного интеллекта.

гугл искусственный интеллект

Более того, что произойдет, если машина начнет анализировать данные, основанные на личной истории программиста, предрасположенности и невидимых предубеждениях? Есть ли гарантия, что решения, которые принимают беспилотные автомобили, всегда будут полностью объективными, и кто их будет принимать?

Программисты, компании, может быть, даже правительства? Какова возможность машинной дискриминации на основе алгоритмов и определенного распознавания образов? В этом случае я думаю, что технология автономного вождения еще не соответствует требованиям .

Вывод

В заключение я считаю, что ключом к ответу и решению этих этических вопросов было бы уравновешивание сил между машинами и людьми и решение, в какой степени машины (в данном случае беспилотные автомобили) смогут сделать жизнь зависимой. решения.

Я думаю, что, поскольку технология все еще только развивается, люди должны иметь право и приоритет для принятия моральных решений, в то время как машины развиваются и становятся способными принимать объективные решения , которые минимизируют вред для всех.

Что вы думаете об этике искусственного интеллекта? Должны ли люди править машинами, машины — людьми, или должен быть хорошо просчитанный баланс? Позвольте мне знать в комментариях ниже! Если вам понравилась эта статья, вам также могут понравиться 12 способов, с помощью которых машинное обучение может улучшить маркетинг.