Искусственный интеллект уже сейчас меняет наше восприятие этических проблем. Системы на его основе обладают реальной автономией, могут учиться на собственном опыте и осуществлять действия, не предусмотренные их создателями. Какие юридические последствия тут возникают и какие решения возможны? Об этом рассуждает Максим Карлюк, научный сотрудник Института права и развития ВШЭ-Сколково. Публикация подготовлена в рамках совместного проекта ЧТД и Российского совета по международным делам.

Кем жертвовать?

Существует довольно известный мысленный эксперимент с вагонеткой. Представьте, что неуправляемая вагонетка несется по рельсам, а на пути у нее привязаны пять человек. Вы стоите у рычага, с помощью которого можно переключить стрелку, и тогда вагонетка повернет и поедет по другому пути, где привязан один человек. Переключите ли вы стрелку или нет?

Однозначного ответа на этот вопрос нет. Разные социальные группы дают различные ответы. В контексте искусственного интеллекта (ИИ) такая ситуация может возникнуть на дороге, когда беспилотный транспорт не может избежать аварийной ситуации. Возникает вопрос, чья жизнь ценнее — пассажиров, пешеходов или ни тех ни других?

В Массачусетском технологическом институте даже создан специальный сайт, посвященный этой проблеме, где пользователь может попробовать различные сценарии на себе. А что допустимо с правовой точки зрения? На основе чего делать выбор? И кто в итоге будет виноват? Представители компании Mercedes заявили, что их машины будут отдавать приоритет пассажирам. На это Министерство транспорта Германии ответило, что делать такой выбор на основе ряда критериев неправомерно, и в любом случае производитель будет нести ответственность.

Существует и другой подход. Возьмем, к примеру, китайскую систему социального рейтинга, в соответствии с которой каждому гражданину присваивается рейтинг в зависимости от законопослушности, полезной общественной деятельности и прочего. Обладатели низких рейтингов подвергаются различным санкциям.

Что помешает руководству Китая заставить производителей беспилотного транспорта предусмотреть правило, по которому в случае неизбежной аварии жертвовать следует человеком с наименьшим социальным рейтингом?

За счет, например, технологий распознавания лиц и доступа к соответствующим базам данных вполне возможно определить и сравнить рейтинги потенциальных жертв.

Статус интеллекта

Но правовые проблемы еще глубже, особенно в случае роботов. Система, которая учится на информации, полученной из внешнего мира, может действовать непредсказуемым для ее создателей образом. А предсказуемость критична для современных правовых подходов. Более того, системы на основе ИИ могут действовать независимо от их операторов, что усложняет задачу по определению субъекта юридической ответственности.

В принципе технологии, использующие ИИ, можно регулировать как объекты авторских прав либо как имущество — но только если программы не будут действовать автономно.

К такому ПО, которое действует автономно, можно, в свою очередь, применить нормы, регулирующие особый вид имущества — животных, поскольку они также способны к автономным действиям.

В российском праве к животным применяются общие правила об имуществе, и ответственность будет наступать по ст. 1064 ГК РФ: вред, причиненный личности или имуществу гражданина, подлежит возмещению в полном объеме лицом, причинившим вред, которым является собственник автономного агента. Проблема в том, что эти нормы созданы в первую очередь для домашних животных, которые не должны причинять вред. Что тогда делать с охранными или военными системами?

Существуют предложения провести аналогию с дикими животными, поскольку для последних существуют более жесткие правила. Однако непонятна граница, которая будет делить искусственный интеллект на «дикий» и «домашний». Более того, жесткие правила могут привести к замедлению внедрения технологий ИИ: их создатели столкнутся с непредсказуемыми рисками.

Другая идея — применять к системам ИИ нормы о юридических лицах, чей статус можно довольно гибко изменять.

Сегодня объекты без явных признаков способности к действию вполне могут наделяться правами. Например, в Новой Зеландии в 2017 году был принят закон, который признал статус юридического лица за рекой Уонгануи. В Индии верховный суд в 2000 году признал юридическим лицом основной священный текст сикхов — Гуру Грантх Сахиб, поскольку возникли вопросы к широкой благотворительной деятельности сикхских организаций.

Законодательство многих стран предусматривают гражданско-правовую, а в некоторых случаях и уголовно-правовую, ответственность юридических лиц. Таким образом, не обязательно приписывать свободу воли роботам, чтобы признавать их ответственными за то, что они делают.

Главная проблема со статусом юридического лица заключается в том, что он всегда восходит к действиям одного или нескольких человек, даже если невозможно точно определить их. Например, правовая ответственность компаний связана с действиями, которые совершают их представители или работники. Уголовная ответственность юридических лиц возможна только при условии, что определено физическое лицо — конкретный человек, совершивший действие. Но системы на основе ИИ будут принимать решения самостоятельно, без оглядки на конкретного человека.

Наконец, технологии на базе ИИ можно считать источниками повышенной опасности и применять к ним соответствующие нормы. В соответствии с п. 1 ст. 1079 ГК РФ юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих (использование транспортных средств, механизмов), обязаны возместить вред, причиненный источником повышенной опасности, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего.

Но нужно еще определить, какие системы можно отнести к источникам повышенной опасности. Этот возвращает нас к проблеме разграничения домашних и диких животных.

Наше отношение к автономным системам, будь то роботы или другие механизмы, и переосмысление их роли в обществе могут изменить и само это общество.

В связи с особенностями ИИ обсуждается и вариант непосредственной ответственности роботов или систем. В соответствии с такими взглядами, не существует фундаментальных причин, почему механизмы не должны нести ответственность за свои действия. Однако открытым остается вопрос о необходимости и желательности введения такой ответственности.

Возможно, сделать программистов или пользователей автономных систем ответственными за действия ПО будет более эффективным. Однако, как было сказано выше, это может замедлить развитие инноваций.

Прежде чем принимать решение, человечеству предстоит ответить на ряд вопросов. Например, какие цели мы преследуем, развивая технологии искусственного интеллекта? Чьи интересы для нас приоритетны?

Ответы помогут предотвратить историю, которая случилась в России во второй половине XVII века. Тогда козел был осужден и отправлен в ссылку в Сибирь. Это хороший урок для нас, но вряд ли для самого животного.

Полную версию статьи читайте на сайте РСМД