Что такое сильный искусственный интеллект? Можно ли причинять ему боль и чем он опасен для человека? Алексей Маланов, эксперт в области развития антивирусных технологий «Лаборатории Касперского», размышляет об этических проблемах информационных технологий.

Ученые различают два вида искусственного интеллекта (ИИ): сильный и слабый. Под сильным ИИ понимают машину, которая будет обладать способностью к мышлению и осознанию себя, сможет обучаться чему-то новому. Слабый ИИ — он же «машинное обучение», — это уже существующие программы, решающие узкоспециализированные задачи, например написание алгоритма для сайта, автовождение, распознавание музыки.

И если слабый ИИ — это наша реальность, то в отношении сильного ИИ еще неизвестно, изобретут ли его когда-нибудь, и если да, то когда именно.

По словам Алексея Маланова, уже сейчас исследователи поднимают ряд связанных с сильным ИИ этических проблем, которые можно разделить на две группы. Первая группа касается нашего отношения к ИИ. Этично ли причинять ему страдания? Не общаться с ним, если он способен чувствовать одиночество? Какой социальный статус будет ему присвоен? Вторая группа проблем касается того вреда, который ИИ может причинить человеку. Фантазия на эту тему разыграна, например, в фильме «Терминатор».

Технологии машинного обучения создают множество сложностей в области этики. Казалось бы, машинное обучение строится по принципу прецедента, то есть при решении конкретной задачи программе предлагается проанализировать аналогичные случаи и вынести решение. Но само задание может быть неэтичным, например, если речь идет об убийстве людей. Эта проблема вызвала недавний скандал с Google, разрабатывающим программное обеспечение для военного проекта Project Maven, который может привести к созданию автономного оружия.

«Более 1000 видных ученых в области ИИ, этики и информационных технологий написали открытое письмо с просьбой к Google прекратить работы над проектом и поддержать международный договор по запрету автономного оружия», — говорит Алексей.

Еще одна проблема связана с тем, что машину обучает человек, для которого этика не всегда является доминантой в поведении. Если для обучения алгоритма использовать информацию с нецензурной лексикой, то и программа будет пользоваться аналогичными выражениями. Microsoft не так давно запустил чат-бота для общения в Twitter, и его пришлось отключить через сутки, так как он освоил расистские высказывания и ругательства.

Кроме того, иногда мораль усложняет социальное функционирование. Например, есть корреляция между скоростью движения транспорта и смертностью на дорогах. Смертность можно снизить, установив минимальный скоростной предел, допустим, 10 км/ч, но это значительно затруднит передвижение автомобилистов.

Одно из самых серьезных препятствий для обучения робототехники моральным ценностям состоит в том, что этику сложно формализовать и унифицировать, она зависит от социального и культурного контекстов и меняется от общества к обществу. Еще одна опасная проблема также связана с человеческим фактором: тот, кто занимается обучением модели, имеет возможность ее «отравить», то есть манипулировать ею и влиять на принимаемые ею решения.