Сегодня соцсети и стриминговые сервисы заточены на то, чтобы показывать нам потенциально приятные материалы. Тем самым увеличивая время, проведенное на платформе. «Наш главный конкурент — сон», — однажды заявил CEO Netflix Рид Хастингс.
Алгоритмы знают, какое видео вы будете смотреть уже через секунду. А еще знают, с какой вероятностью оно вам понравится. Нейросети обрабатывают так называемую big data — массивы информации о цифровом следе человека: фотографии, видео, голос, текст. Уже не надо тратить время на выбор — контент сформирован, исходя из наших предпочтений. Даже если мы их не озвучивали.
Как это может повлиять на нашу жизнь — пока неясно. Рискует ли человечество попасть в «информационную зону комфорта» и лениться искать что-то новое? Возможно ли заставить человека сделать нужный выбор, просто подсовывая ему определенный контент?
Рассуждаем вместе с Константином Глазковым — кандидатом социологических наук, автором Telegram-канала Wrong Tech.

Экономика внимания
Неважно, на кого вы подписаны, если лента все равно покажет не всех. Экран давно не открывает посты в хронологическом порядке — в топ попадают самые интересные и актуальные для вас публикации. Они перемешаны с рекомендациями и рекламой, которая становится все менее заметной и практически неотличимой от постов, где блогер искренне советует попробовать новую гранолу или по доброте душевной дарит промокод.
В лентах старого формата пользователи часто ощущали «баннерную слепоту» — тип поведения, когда человек просто игнорирует элементы, похожие на рекламу. Он сосредоточен на поиске интересной информации и не замечает то, что к ней не относится.
Сейчас различие между обычным контентом и рекламой для многих практически незаметно. Лента хорошо знает, что вас бесит советская мебель или вы, например, не едите мясо.
Так работает экономика внимания — подход к управлению информацией, который воспринимает внимание человека как дефицитный товар. Учитывая, что умственные способности людей не безграничны, наша восприимчивость к информации ограничена. Если рекламный пост не увлекает — чего стоит просто прокрутить ленту и через несколько минут получить новые рекомендации.
«Я не наблюдаю какой-то попытки забрать контроль — человек нуждается в поддержке и напутствии. Сегодня сложно представить обратную ситуацию, когда пользователю никогда ничего не предлагается и не рекомендуется. Скорее всего, это будет более болезненно для него, чем когда он окружен заботой и поддержкой со стороны сервиса», — считает Константин Глазков.
«Мы привыкли ругать рекламу, обвиняя в назойливости и преследовании. Но представьте ситуацию, когда ее нет и мы находимся в информационной пустыне — никто не подскажет, не проанализирует и не укажет, какой контент в наибольшей степени отражает наши предпочтения и вкусы. Это ощущение брошенности».

Задержись с нами подольше
Вы просто открыли TikTok, и следующие три часа прошли как в тумане. Отсутствие контроля здесь доведено до абсолюта. Пользователи смотрят видео в бесконечном потоке, состоящем преимущественно из нужных рекомендаций.
Можно иметь ноль подписок и ничего не лайкать, но при этом потреблять контент часами.
«TikTok обеспечивает непрерывность, а самое главное — позволяет очень долго удерживать пользователей. Мы наблюдаем, как соцсеть смогла оптимизировать процессы и добиться великолепного мэтча своих аудиторий — контент-мейкеров и просто пользователей. Возможно, впоследствии эту технологию можно будет настроить под другие задачи.
Например, когда появился YouTube, никто не знал, как им пользоваться. Хотя он существует почти 15 лет, о его потенциале как независимого СМИ и новостной платформы догадались относительно недавно», — говорит Константин.
Одновременно с этим в TikTok-сообществе ценится персонифицированная лента. В зависимости от того, что человек лайкает, как долго смотрит видео, с какого девайса и как часто нажимает «не интересно», формируется его личный поток идеального развлекательного контента — можно уйти от банальных челленджей тиктокеров-миллионников и смотреть малоизвестные видео про берлинские рейвы.
Шаг за шагом пользователь привыкает смотреть только приятный расслабляющий контент и попадает в информационную зону комфорта — место, где ему нравится все, что показывает экран. Как считает Константин, это не повод для беспокойства — строить конспирологические теории о власти машин над людьми пока что рано.
«Я согласен, что существуют риски так называемого path dependence, или «эффекта колеи». У тебя есть некий проторенный путь — в данном случае речь идет о пользовательских предпочтениях. Бездушные алгоритмы просто руководствуются количественными метриками твоего потребления и помогают по этой колее идти.
Лишить нас выбора, конечно же, не основная задача алгоритма. Она более проста — оставить нас как можно дольше в рамках своего сервиса. У нас есть большой соблазн не слезать с “жвачки”. Но в таком случае контент обедняется и сужается. Мне кажется, люди начинают ощущать границы этого информационного пузыря и борются. В том числе подкидывая алгоритму какую-то новую задачу — пытаясь разнообразить свои запросы. Использовать алгоритм во благо».

По эффективности алгоритмов TikTok можно сравнить с Netflix — компанией, которая управляется с помощью данных о пользователях.
Когда вы регистрируетесь на стриминговом сервисе, вас сразу просят отметить понравившиеся фильмы. С самого начала пользователи не должны гуглить, что посмотреть вечером — ведь у них есть Netflix, готовый всегда подсказать.
Точная аналитика и сбор данных — так платформа объясняет успех сериала «Карточный домик». Чтобы понять, стоит ли вложить в съемки 100 миллионов долларов, специалисты провели исследование о путях зрителей после просмотра британской версии сериала. Оказалось, что люди часто отправлялись смотреть фильмы Дэвида Финчера и работы Кевина Спейси, а «Социальную сеть» Финчера чаще всего досматривали до конца.
«Нам не нужно тратить миллионы, чтобы люди настроились. С помощью наших алгоритмов мы можем определить, кого может заинтересовать Кевин Спейси или политическая драма, и сказать им: “Возможно, вы захотите смотреть именно это”», — объясняет эффективность такого выбора Стив Свази, вице-президент по корпоративным коммуникациям Netflix.
«Очень часто мы потребляем и воспринимаем то, что уже заранее готовы принять, — говорит Константин Глазков. — Болезненный травматический опыт, столкновение с чем-то неизведанным, неприятным и критикующим то, во что ты уже веришь, — это умение меньше тренируется, пока мы ходим по кругу информационной повестки, которая нам предлагается алгоритмами.
Однако дело не в алгоритмах — они не лишают нас возможности критически воспринимать информацию. Но создают условия, где предпринимать дополнительные усилия по разнообразию своего контента получается меньше. А усилий при этом нужно тратить больше».

При чем здесь выборы в США
Скандал с британской рекламной компанией Cambridge Analytica, которая якобы помогла «взломать» технологию выборов и помочь победить Дональду Трампу, — яркий пример того, как меняется понимание выбора и свободы слова в XXI веке.
В расследованиях The Guardian и The New York Times сообщалось, что по заказу компании сбором данных занимался профессор психологии Александр Коган. Он создал психологический тест, за прохождение которого пользователям платили деньги, при этом сообщалось, что опрос необходим просто для исследования. Пользователи охотно привязывали свои Facebook-аккаунты и не подозревали, что их данные продаются Cambridge Analytica. Так в распоряжении Когана оказались данные о 50 миллионах человек и их политических предпочтениях, которые выявил тест.
Несмотря на расследования и скандальность «вмешательства», этот случай все еще остается спорным — неясно, насколько глубоко таргетированная реклама может воздействовать на рядового пользователя. Вот как его комментирует Константин Глазков:
«Алгоритмы действительно позволяют более аккуратно подбирать политический месседж, руководствуясь цифровыми следами, которые люди оставляют в сети.
Но здесь все работает так же, как и на других медийных платформах. Пользователи готовы воспринимать то, что они и так знают. Сподвигнуть их к чему-то другому — сложная задача. Она лежит за пределами алгоритмов.
Все люди разные, но с помощью сетей они обнаруживают, что, оказывается, не одиноки. А их картина мира не такая уж маргинальная. Но как-то радикально изменить раскладку сил или переубедить в чем-то — таким потенциалом алгоритмы не обладают. Нельзя вдруг человека убедить в том, что меньшинства нужно больше защищать или голосовать надо так.
Любое меньшинство может получить поддержку и ощутить общность интересов. Есть “первое правило YouTube” — неважно, что ты снимаешь, у этого все равно будет зритель».

«Алгоритмы и принципы работы медиаплатформ универсальны. Их можно наполнять абсолютно любым контентом. Лопата не виновата в том, кто ею копает. Но правила пропаганды или идеологической обработки, которые можно обозначить как хорошие, могут работать и в обратную сторону», — резюмирует Константин Глазков.
«Все зависит от того, насколько свободно распространяется информация. Сервис, который продвигает консервативную повестку, также имеет право на существование. Видимо, существует зритель, который хочет на него подписаться. Соответственно, другая часть аудитории имеет возможность критически к нему отнестись и отписаться. Именно потому, что знает: на эти вещи можно смотреть по-другому».
Иллюстрации — The Verge, Scientific American, New York Times.