Искусственный интеллект: правовые вопросы в Великобритании
Опубликовано: 2020-07-16Соединенное Королевство является одним из европейских лидеров в области искусственного интеллекта, особенно в секторе здравоохранения. По данным Глобального института McKinsey, ИИ может повысить экономику Великобритании на 22% в течение 10 лет.
Если вы разрабатываете стартап на основе ИИ или любой другой продукт на базе ИИ в Великобритании, вы находитесь в лучшем положении, чем остальная Европа. Страна особенно открыта для инноваций , и правительство активно поддерживает многие инициативы. Например, Институт Алана Тьюринга является национальным органом по искусственному интеллекту и науке о данных, а в Палате лордов также есть свой собственный комитет, занимающийся ИИ.
Эта культура, основанная на данных, делает Великобританию важным центром искусственного интеллекта. В отчете Coadec говорится, что каждую неделю в стране создается новый ИИ-стартап. Однако прежде чем вы начнете, вам следует кое-что рассмотреть: юридические требования и наиболее распространенные юридические вопросы, связанные с ИИ .
Поскольку ИИ — это новая и развивающаяся область, к ней предъявляются несколько иные требования, чем к другим, более традиционным отраслям. Если вам нужна юридическая консультация, мы здесь, чтобы помочь вам начать.
Вот некоторые из наиболее важных юридических вопросов, связанных с ИИ, которые следует учитывать:
Юридическое определение ИИ
Прежде всего, как вы вообще определяете искусственный интеллект?
Вот где проблема начинается. Некоторые законодатели придерживаются этой эвристики и определяют ИИ как комбинацию программного обеспечения и данных . Звучит довольно просто, однако следует отметить, что мы имеем дело с более сложным программным обеспечением и большими объемами данных, чем когда-либо прежде.
Другие специалисты в области права, такие как Йонас Шютт из Университета Гёте, считают, что лучше избегать термина « искусственный интеллект ». Он говорит, что не существует определения ИИ, отвечающего требованиям юридических определений . Вместо этого он предлагает сосредоточиться на:
- определенные конструкции
- сценарии использования
- возможности с учетом возможных рисков
Эти предложения в основном адресованы политикам, но их также можно оставить в качестве ориентира для себя. Чтобы сделать это правильно, лучше всего сосредоточиться на очень конкретном случае использования ИИ и связанных с ним рисках.
Улучшите свой продукт с помощью решений на основе ИИ
Учить большеОпределение ИИ в Соединенном Королевстве
Когда дело доходит до юридического определения искусственного интеллекта , вот как его описывает правительство Великобритании:
[…] технологии, способные выполнять задачи, которые в противном случае потребовали бы человеческого интеллекта, такие как визуальное восприятие, распознавание речи и языковой перевод.
Недавно британский парламент добавил к этому определению еще один аспект. Важно отметить, что системы ИИ способны учиться или адаптироваться к новому опыту или стимулам.
Ключевые юридические вопросы ИИ
Обработка больших объемов данных
Для правильной работы алгоритмам искусственного интеллекта требуется много данных. И здесь возникает еще одна юридическая проблема ИИ: кому принадлежат данные и кто заботится о безопасности? Это становится еще сложнее с конфиденциальной информацией в таких секторах, как банковское дело или здравоохранение.
В настоящее время в Великобритании действуют два основных закона о безопасности данных:
Закон о защите данных и GDPR (Общее положение о защите данных)
В 2018 году Закон о защите данных заменил постановление от 1998 года. Вместе с GDPR он определяет порядок обработки персональных данных в Великобритании.
Как вы, наверное, уже знаете, это полностью изменило то, как мы обращаемся с персональными данными в Европейском Союзе. Даже несмотря на все изменения, связанные с Brexit, британским предприятиям по-прежнему необходимо соблюдать GDPR, поскольку они часто обрабатывают данные других европейских клиентов.
Некоторые из последствий, связанных с ИИ, которые связаны с GDPR, включают:
- Принцип справедливости . Эта цель утверждает, что бизнес может обрабатывать данные субъекта в соответствии со своими интересами. Предвзятые входные данные — огромная проблема в ИИ — мы рассмотрим это позже более подробно вместе с практическими примерами.
- Ограничение цели . Пользователь должен иметь доступ к информации о причине, по которой вы собираете его данные. Поскольку ИИ требует больших объемов информации, вам нужно сообщить аудитории, что вы собираетесь с ней делать.
- Прозрачность и доступ к информации . Ваши клиенты имеют право доступа к своим данным и просят удалить их по запросу. Это известно как право быть забытым .
Интересным примером здесь может служить история Фонда Royal Free NHS Foundation Trust и DeepMind, подразделения Google по искусственному интеллекту. Известно, что сотрудничество между этими двумя сторонами нарушает законы Великобритании о защите данных . ICO, британский орган по защите данных, обнаружил, что пациенты не были проинформированы о том, что их данные будут использованы для разработки решения ИИ.

Анонимизация данных
Чтобы использовать и обмениваться большими объемами данных, не нарушая закон, вам необходимо сначала сделать их анонимными. Анонимизированные данные это термин для описания информации, которую невозможно связать с живым человеком. Когда данные обезличены, британский Закон о защите данных больше не применяется.
Процесс анонимизации требует избавления от:
- прямые идентификаторы , такие как имя, адрес электронной почты или номер телефона
- косвенные идентификаторы , которые могут выявить человека путем перекрестных ссылок, таких как рабочее место и местонахождение
Эта практика помогает защитить конфиденциальность пользователей, но удаление идентификаторов — это только начало пути:
Этические проблемы и предубеждения
Хотя название « искусственный интеллект » может указывать на обратное, эта технология не застрахована от человеческих предубеждений. В своей книге « Технически неправильно » Сара Вахтер-Бетчер описывает ряд случаев, когда ИИ ведет себя ужасно неправильно.
Автор доказывает, что, хотя искусственный интеллект может быть вполне автономным, он все же основан на неких входных данных, которые не свободны от предубеждений и наших первоначальных предположений. Например, она описала случай с алгоритмом Google Photos . Цель состояла в том, чтобы определить, что на картинке, но у нее было одно серьезное ограничение — по умолчанию считались люди с белой кожей. Из-за этого он, скорее всего, автоматически помечал чернокожих как… горилл. Один из пользователей обнаружил, что алгоритм считал их обезьянами во всех альбомах Google Фото.
В данном случае проблема заключается во входных данных. Нейросеть обучалась в основном на белых моделях, поэтому не улавливала расовых различий. Несмотря на то, что алгоритм не был явно расистским, он все же демонстрирует очевидную расовую предвзятость.
Подобные случаи доказывают, что, говоря простым языком, ИИ — это то, что мы делаем. Мы кормим его информацией, на которую влияют наши собственные предубеждения и ограничения. Вахтер-Бетчер назвала один из разделов своей книги « Предвзятый ввод, еще более предвзятый вывод» . Это короткое предложение описывает, как ИИ может усугубить потенциальные этические проблемы.
Правовые проблемы
Как мы уже упоминали, ИИ автономен, но вопрос в том , кто несет ответственность за ущерб, который он может нанести?
Когда дело доходит до правовых норм Великобритании, автоматизированная система (например, алгоритм ИИ) не является агентом перед лицом закона. Ответственность лежит на ее создателях, таких как заинтересованные лица, операторы, проектировщики или тестировщики системы.
Вопрос ответственности за ущерб, причиненный ИИ, является горячей темой, когда речь идет о внедрении новых продуктов, таких как автономные автомобили. Европейский парламент выпустил проект отчета с рекомендациями относительно режима гражданской ответственности и его пригодности для ИИ.
Парламент подчеркнул, что не всегда возможно проследить конкретные действия до конкретного человеческого вклада или замысла . Из-за этого они предлагают, чтобы ответственность была основана на риске, и что развертыватели систем ИИ должны рассмотреть возможность страхования ответственности.
В ближайшие годы мы увидим, как разные юрисдикции будут реагировать на продукты ИИ, чтобы обеспечить надлежащую компенсацию любого вреда.
Правовые вопросы искусственного интеллекта: заключительные мысли
Мы надеемся, что это краткое изложение помогло вам узнать больше о правовом статусе и наиболее распространенных юридических проблемах в области искусственного интеллекта в Соединенном Королевстве .
В Miquido мы работаем с многолетним опытом создания решений искусственного интеллекта для рынка Великобритании. Если вы хотите обсудить решение на основе ИИ, которое будет соответствовать потребностям вашего бизнеса, или просто задать вопрос, не стесняйтесь обращаться к нам!
Особая благодарность WKB – Wiercinsi, Kwiecinski, Baehr за их юридические советы и рекомендации, которые помогли нам написать эту статью!