Читая соцсети, вы когда-нибудь ловили себя на мысли: «Как люди могут верить в эти бредни? Кто учил этих дураков?» Прежде чем писать очередной огненный комментарий, сделайте вдох. Вероятно, и вы, и те, кто вызвал ваш праведный гнев, стали жертвами «информационного пузыря», который создали вокруг вас компьютерные алгоритмы. ЧТД объясняет, что и как манипулирует нашим мнением в онлайн-пространстве.

Стандартного ответа на поисковый запрос не существует почти 10 лет. Все началось в декабре 2009 года, когда Google начал настраивать результаты поиска для всех пользователей на основе их личных предпочтений (то есть предыдущих запросов к поисковику). Так началась эпоха персонализации: теперь компьютерные алгоритмы фильтруют информацию для нас — и вместо нас.

Сегодня подавляющее большинство популярных новостных и развлекательных сайтов, как и соцсети, предлагают пользователям так называемую личную новостную ленту. Она дает разные результаты не только разным пользователям. Алгоритмы изменяют информационную картину в зависимости от гаджетов, с которых мы заходим на сайты.

Персонализированный поиск и новостные ленты в соцсетях — это незамеченная революция в потреблении информации. Сегодня компьютерные программы определяют, как мы учимся, о чем узнаем и даже как общаемся с друзьями в интернет-пространстве.

Искусственный отбор

Интернет-фильтры создавались из благих намерений: сделать поиск в интернете удобным. Например, чтобы инженер и музыкант получали разные выборки на запрос «виды металла». Чтобы лента в социальной сети показывала больше интересных новостей, постов друзей и фотографий котиков.

Однако погоня за котиками быстро превратилась в информационную ловушку. Компьютерный алгоритм пытается ограничить ваш «негативный опыт» и показывает только то, что, по мнению программы, вы обязательно «лайкнете». По той же причине он скрывает от вас немалую часть информации, в том числе важной.

«Алгоритмическая лента — это всегда механизм с положительной обратной связью, — утверждает Алексей Никушин, автор Telegram-канала „Интернет-аналитика“. — Чем больше тематических роликов вы посмотрите, тем больше подобных видео будет предложено вам в дальнейшем. Чем чаще вы ставите „лайк“ постам друга, тем чаще они будут появляться в ленте».

«Здесь нужно говорить не только о Facebook и YouTube, но о всех медиасервисах, которые зарабатывают на рекламе: Instagram, „ВКонтакте“, Amazon и других. Для них важно, чтобы мы проводили время внутри сервиса», — объясняет эксперт. Для этого нужно создать иллюзию приятного времяпрепровождения. «Facebook, Google, „ВКонтакте“, „Яндекс.Дзен“ обещают показать именно то, что мы ожидаем увидеть. Чтобы удержать людей внутри приложения, социальной сети нужно предлагать тот контент, который люди хотят и ожидают получить», — уверен Алексей Никушин.

Этот феномен и получил название «информационный пузырь» — по эффекту, который алгоритмы оказывают на интернет-пользователя.  

Тщательно отобранная «позитивная информация» обволакивает его и заставляет дышать только тем воздухом, который есть внутри.

Стерильная среда

Впервые обратил внимание на это новое явление интернет-активист Эли Паризер (Eli Pariser). В 2011 году он опубликовал книгу «The Filter Bubble» («За стеной фильтров. Что Интернет скрывает от вас», Альпина Бизнес Букс, 2012), в которой рассказывал, как алгоритмы поисковиков создают «стерильную» среду, где может существовать только одно мнение и один взгляд на мир.

Крупнейшие компании, работающие в сфере онлайн-технологий, отслеживают личную информацию пользователей для последующей продажи рекламодателям: от политических взглядов до любимой модели обуви. Алгоритмы Google имеют как минимум 57 критериев персонализации, включая тип компьютера, браузера, историю поиска, лайков и покупок, место жительства, пол, возраст.

Многие интернет-пользователи в курсе, что цены в онлайн-магазинах могут изменяться в зависимости от того, в какой стране зарегистрирован IP компьютера. Но это далеко не все: стоимость товаров и услуг зависит от все большего числа факторов, включая политические взгляды пользователя.

Паризер утверждает: «информационные пузыри» подрывают первоначальную цель интернета как открытой площадки для распространения идей. Четкое деление на «своих» и «чужих» приносит плоды. Столкновение с носителями иных взглядов становится похожим на контакт с жителями другой планеты.

«Как они могут верить в полную чушь?» — спрашиваем мы, сталкиваясь с неожиданным постом в соцсетях. Но причина нашего возмущения может заключаться только в том, что мы с «ними» просто лайкаем разные новости.

Видео по рекомендации

В начале февраля 2018 года стали известны новые подробности об особенностях рекомендательного алгоритма YouTube, которые возмутили фанатов соцсетей по всему миру. Выяснилось, что популярнейший видеохостинг мира продвигает конспирологические ролики о плоской Земле, масонах, рептилоидах и прочие фейковые новости просто потому, что этот контент лучше смотрят (а это приносит больше рекламных денег).

Засекреченные детали алгоритма YouTube раскрыл Гийом Шасло (Guillaume Chaslot), 36-летний французский программист, специалист по искусственному интеллекту. Он несколько лет работал на компанию и пришел к выводу, что она не просто раздувает «информационный пузырь», но и беззастенчиво распространяет ложь.

«Время просмотров видео было приоритетом, — рассказал Шасло. — Все остальное считалось отвлекающими факторами». Программист предлагал изменить принципы работы алгоритма YouTube, сделать его более сбалансированным, однако к нему не прислушались. Уволившись из компании, Шасло создал программу, которая использует те же алгоритмы, что и YouTube.

Это позволило ему наглядно показать, к чему приводит безответственно написанная рекомендательная программа. Результаты Шасло опубликовал на сайте Algotransparency.org. 

Согласно его выводам, YouTube систематически продвигает предвзятые и конспирологические ролики, а также видео, вызывающие негативную реакцию пользователей и раскалывающие аудиторию.

Программист также продемонстрировал, что алгоритм можно использовать в политических целях. По данным Шасло, в ходе предвыборной кампании в США YouTube автоматически выводил в топ просмотров «виральные» ролики в поддержку Дональда Трампа, который прекрасно умеет использовать методы «черного пиара» для продвижения своих интересов. Ролики в поддержку Трампа с огромным количеством лживой информации получали миллионы просмотров. Это не могло не повлиять на исход выборов.

YouTube выступил с опровержением выводов Шасло. «Наши поисковые и рекомендательные системы отражают то, что ищут люди. Это не предвзятость по отношению к конкретному кандидату — это отражение интересов зрителей», — гласил текст официального заявления компании.

«Если бы такой алгоритм был установлен в школьной столовой, то он быстро бы усвоил, что детям нравится сладкая, соленая и жирная еда, — прокомментировала эту ситуацию в британской The Guardian социолог Зейнеп Туфекчи (Zeynep Tufekci). — Представьте, что он постоянно предлагает детям такую пищу, автоматически загружая следующую тарелку, как только ребенок съест очередной пакет чипсов или конфет».

Не своим голосом

В соцсетях, впрочем, используется другой метод создания «информационного пузыря». Создавая для вас рекомендации, алгоритм опирается прежде всего на близких друзей. Друзья, добавленные в первые дни вашего пользования социальной сетью, имеют больший вес, чем те, кто присоединился позднее.

«Расширение пользовательских интересов на основе метаданных — первый из современных трендов. С помощью специальных механизмов, присущих разным соцсетям, людям предлагают контент, на который они не подписаны, — объясняет Алексей Никушин. — Инстаграм в отдельной вкладке собирает подборки из популярных записей. Из российских продуктов можно выделить „Яндекс.Дзен“, где пользователь подписывается на ряд каналов, но помимо них получает другую, схожую информацию. В итоге человек либо получает уже известные сведения, либо формирует новый «информационный пузырь».

Однако текстовые алгоритмы — это лишь первый этап. Еще больше возможностей для появления «информационных пузырей» дадут голосовые ассистенты типа Siri и Алисы. Этот тренд развития рекомендательных систем может очень быстро стереть грань между правдой и вымыслом. Дело в том, что сегодня, когда пользователь ищет в интернете информацию с помощью голосовых ассистентов, те предлагают ему не несколько, а только один вариант. По каким критериям электронный помощник сделает свой выбор — ключевой и не самый приятный вопрос.

«Если проникновение голосовых ассистентов достигнет некоторой критической массы, доверие к ним начнет расти, — считает Алексей Никушин. — Со временем голосовой ассистент научится давать разные ответы в зависимости от того, кто задает вопрос. При этом каждый из спрашивающих не будет чувствовать, что алгоритм советует что-то не то».

Единственный совет, который интернет-эксперт готов дать простым пользователям, — критически подходить к информации в соцсетях. Помнить, как формируется ваша лента рекомендаций, и не разбрасываться «лайками»: «Если мы начнем воспринимать привычный нам лайк в социальной сети как кнопку „это важно“, наша лента новостей изменится до неузнаваемости».