Искусственный интеллект на нынешнем этапе его развития специалисты официально называют «слабым» по целому ряду технологических свойств. Что нужно сделать, чтобы он стал «сильным», и как обучить его человечности, объясняет Ольга Афанасьева, операционный директор научно-исследовательской компании GoodAI. Публикация подготовлена в рамках совместного проекта ЧТД и Российского совета по международным делам (РСМД).

Мы называем искусственный интеллект (ИИ), который существует сегодня, «слабым ИИ». Диапазон задач, который он может выполнять, очень ограничен. По сути, все мыслительные механизмы ИИ «хранятся» в головах исследователей и инженеров, которые проектируют искусственный интеллект для выполнения определенных задач с использованием конкретных наборов данных.

Ценности или предубеждения «слабого» ИИ также обусловлены человеческими знаниями. Например, система становится расово предвзятой из-за данных, на которых она обучается, а эти данные, конечно, генерируются людьми. «Слабый» искусственный интеллект не делает предположений о мире и не создает собственных ценностей, как это делают люди.

GoodAI

IT-компания со штаб-квартирой в Праге. Основана в 2014 году. Занимается исследованием искусственного интеллекта и разработкой программ на его основе. В рамках программы General AI Challenge компания ищет разработчиков, которые помогут ей ускорить обучение «слабого» ИИ и вывести его на новый уровень.

Мы пока не можем доверять ему принятие решений в важнейших областях. Например, искусственный интеллект оказывает помощь врачам, только давая рекомендации, не больше. Тем не менее исследования продвигаются в сторону «сильного ИИ».

Мы стараемся разработать алгоритмы, которые позволят принимать лучшие решения и дополнять, а не просто автоматизировать, человеческий интеллект.

Чтобы иметь возможность решать проблемы в новых для себя сферах, «сильный» ИИ должен быть в состоянии обучаться самостоятельно, а также улучшать свои навыки обучения и решения проблем. Подобный ИИ еще не разработан. И один из наиболее важных вопросов, который нам предстоит решить, это вопрос о ценностях. Какие ценности будут продвигать подобные системы?

Человечность — это закон?

ИИ должен изучать человеческие ценности постепенно, и этот процесс должен быть управляемым. Это очень похоже на то, как мы, люди, учимся в соответствии с образовательными программами в среде, сформированной для нас семьей, институтами и обществом в целом.

Вместо того чтобы изучать строгие правила в мире, который редко бывает черно-белым, мы учимся понимать основополагающие принципы нашей культуры. Это намного более надежная стратегия. После этого мы можем обобщать эти принципы для незнакомых ситуаций и действовать в соответствии с нашими ценностями.

Против жестко закодированных значений в сложных адаптивных системах (таких как будущий «сильный» ИИ) существует еще один аргумент. Мы хотим, чтобы ценности эволюционировали.

Мы не хотели бы жить в соответствии с ценностями прошлых веков, когда рабство было нормой и группы людей лишали некоторых свобод на основе цвета их кожи или пола. Было бы неразумно ограничивать способность искусственного интеллекта открывать системы ценностей, более совершенные, чем сегодняшние. Однако для достижения этого нам необходимо убедиться, что мы задаем ИИ правильную траекторию обучения.

Учить ценностям

Как мы можем научить искусственный интеллект правильным ценностям? Во-первых, нам нужно убедиться, что у нас есть эффективный механизм, который позволяет обучить ИИ пониманию нашего мира.

Сначала нужно создать систему, которая изначально способна учиться постепенно. То есть систему, способную «накладывать» новые навыки поверх ранее изученных, эффективно использовать приобретенные знания повторно и обобщать их, распространяя на новые области. Хоть это и несложно для людей, это проблема пока не решена для искусственного интеллекта.

Искусственный интеллект учится как ребенок

Прелесть постепенного обучения в его эффективности — человеческая культура представляет собой накопленный набор знаний, которые не нужно «изобретать с нуля».

Этот набор передается ученикам учителями и наставниками, и он может быть «достроен». Механизм постепенного обучения идет рука об руку с управляемым обучением.

Как исследователи ИИ мы будем разрабатывать учебные планы в виртуальных средах постепенно возрастающей сложности. Там ИИ приобретет навыки и изучит эвристические правила, которые мы считаем полезными.

Мы будем направлять искусственный интеллект с помощью учебного процесса, так же, как мы направляем наших детей.

Для этого необходимо предоставлять ИИ правильную информацию в нужное время, не позволять ему рисковать в реальном мире, вне «песочницы», прежде чем он будет готов к этому риску.

Обучение, подготовка и, в особенности, испытание ИИ могут быть гораздо более утомительным процессом, чем разработка базового алгоритма. Создатель «сильного» ИИ напрямую повлияет на то, какие ценности будут заложены в систему.

Учитывая трансформирующий потенциал, который будет иметь технология сильного искусственного интеллекта, эти ценности могут повлиять на будущее человечества. А поскольку ИИ даст своим обладателям конкурентное преимущество, они могли бы стать ценностями, которые в конечном итоге будут доминировать во вселенной.

Интеллект для всех

Как мы можем убедиться, что «сильный» ИИ развивается на благо всего человечества и пропагандирует ценности, общие для разных культур, а не только приносит пользу узкому кругу людей, которые его создали? Мы не можем исключать возможность оппортунистического поведения игроков, поэтому, когда дело дойдет до разработки революционного «сильного» ИИ, желательно снизить вероятность сценария, в котором победитель получает все.

Мы также должны предусмотреть защиту от небрежности при разработке и обеспечить тестирование безопасности, перед тем как такой искусственный интеллект будет запущен. Ведь поспешный запуск может быть вызван давлением со стороны конкурентов.

Поскольку мы как человечество заинтересованы в создании не просто сильного, а хорошего ИИ, необходимо стремиться к сотрудничеству между разработчиками. Совместная разработка была бы выгодна всем сторонам.

Полную версию статьи читайте на сайте РСМД.