Читать книгу "Законы эпидемий. Как развиваются и почему прекращаются эпидемии болезней, финансовые кризисы, вспышки насилия и модные тренды - Адам Кучарски"
Шрифт:
Интервал:
Закладка:
Но что именно люди пытаются сделать популярным с помощью этих новых инструментов? С 2016 года манипулятивную информацию в интернете обычно называют фейковыми новостями. Однако пользы от этого термина немного. Рени Диреста, исследующая технологии, отмечает, что под фейковыми новостями на самом деле могут подразумеваться разные типы контента, такие как кликбейтные заголовки, теории заговора, ошибочная информация и дезинформация. Как мы знаем, кликбейт нацелен на то, чтобы люди просто посетили ту или иную страницу; ссылки зачастую ведут к реальным новостям. В теориях заговора, напротив, реальные истории искажаются: в них включается «тайная истина», которая может раздуваться или усложняться по мере развития теории. Под ошибочной информацией Диреста понимает ложный контент, которым делятся непреднамеренно. К этой категории также относятся шутки и розыгрыши, которые намеренно создаются как фальшивки, а затем распространяются людьми, принимающими их за чистую монету.
И наконец, самый опасный тип фейковых новостей – дезинформация. Принято считать, что дезинформация нацелена на то, чтобы люди приняли ложь за правду. Но реальность несколько сложнее. В эпоху холодной войны агентов КГБ учили создавать противоречия в общественном мнении и подрывать доверие к новостям[454]. Это и есть дезинформация. Вас не убеждают в правдивости выдуманных историй, а заставляют усомниться в самом представлении о правде. Задача – перетасовать факты таким образом, чтобы затруднить восприятие реальности. И у КГБ неплохо получалось: они умели не только сеять зерна сомнений, но и усиливать дезинформацию. «В старые добрые времена, когда агенты КГБ использовали эту тактику, их целью были популярные СМИ, – говорит Диреста, – поскольку они обеспечивали легитимизацию и сами заботились о распространении»[455].
В последнее десятилетие прием успешно применяли несколько онлайн-сообществ. Один из первых случаев произошел в сентябре 2008 года, когда пользователь написал сообщение на форуме шоу Опры Уинфри. Он утверждал, что представляет широкую сеть педофилов, в которой состоит более 9000 человек. Но этот пост не стоило принимать всерьез: фраза «более 9000» (over 9000) – отсылка к мультсериалу «Жемчуг дракона Z», где этими словами воин оценивает силы противника, – была мемом с анонимного форума 4chan, изобилующего троллями. К удовольствию пользователей 4chan, Уинфри отнеслась к сообщению серьезно и прочла его в эфире[456].
По сути, интернет-форумы вроде 4chan, Reddit и Gab – это инкубаторы для заразных мемов. Вскоре после того, как пользователь публикует картинку или текст, появляется множество их новых вариантов. Эти новые, мутировавшие мемы распространяются и конкурируют со старыми; самые заразные выживают на форумах, более слабые исчезают. Это выживание самых приспособленных – процесс, аналогичный биологической эволюции[457]. Конечно, речь не идет о тысячелетиях, которые имели в своем распоряжении патогены, но эта краудсорсинговая эволюция дает сетевому контенту значительные преимущества.
Один из самых успешных эволюционных трюков, который тролли довели до совершенства, заключается в том, чтобы сделать мем предельно абсурдным: так людям будет трудно понять, серьезен он или нет. С налетом иронии маргинальные взгляды распространяются лучше, чем без него. Если аудитория обидится, автор мема может сказать, что это была шутка; если же пользователи посчитают мем шуткой, они не будут его критиковать. Эту тактику используют группы, пропагандирующие превосходство белой расы. Неонацистский сайт Daily Stormer в руководстве по стилю рекомендует авторам придерживаться легкого тона, чтобы не отпугивать читателей: «оскорбления на расовой почве должны иметь полушутливый оттенок»[458].
По мере того как мемы становятся все более заметными, они могут превращаться в эффективный ресурс для политиков, умеющих работать со СМИ. В октябре 2018 года Дональд Трамп использовал слоган «Jobs Not Mobs» («Рабочие места вместо бандитизма»), заявляя, что республиканцы выступают за развитие экономики, а не за поощрение иммиграции. Когда журналисты попытались найти источник этой фразы, выяснилось, что впервые она появилась в твиттере. Какое-то время она эволюционировала на форумах Reddit, стала запоминающейся и в итоге широко распространилась[459].
Маргинальный контент подхватывают не только политики. Слухи в интернете и ошибочная информация спровоцировали нападения на представителей национальных меньшинств на Шри-Ланке и в Мьянме, а также вспышки насилия в Мексике и Индии. В то же время кампании по дезинформации призваны столкнуть обе стороны конфликта. Сообщалось, что в 2016 и 2017 годах группы троллей из России создавали в фейсбуке мероприятия с целью организовать протестные акции ультраправых группировок и их противников[460]. Общественное недовольство усиливает также дезинформация по конкретным темам, таким как вакцинирование; недоверие к науке добавляется к недоверию к властям и судебной системе[461].
Проблема распространения опасной информации не нова. Даже термин «фейковые новости» возник давно – он использовался еще в конце 1930-х, хотя и недолго[462]. Но структура сетей в интернете способствует тому, чтобы процесс ускорялся, распространялся шире, а распознать фейки становилось все труднее. Информация, подобно некоторым вирусам, может эволюционировать, чтобы передаваться эффективнее. Что же с этим делать?
Мощное землетрясение на востоке Японии стало самым разрушительным в истории страны. Его сила была такова, что земная ось сместилась на несколько сантиметров, а в океане образовались цунами высотой до сорока метров. Затем поползли слухи. Через три часа после катастрофы 11 марта 2011 года один из пользователей твиттера предупредил о возможности ядовитого дождя из-за взрыва резервуара с газом. Взрыв был реальным – в отличие от ядовитого дождя. Но слухи продолжали распространяться. За один день несколько тысяч человек прочли безосновательное предупреждение и поделились им[463].
В ответ на эти слухи власти близлежащего города Ураясу опубликовали опровержение. Хотя ложное сообщение имело фору во времени, опровержение вскоре догнало его по популярности. К следующему вечеру опровержением делилось больше пользователей, чем первоначальным слухом. По мнению группы исследователей из Токио, более быстрый ответ властей дал бы больший эффект. На основании математических моделей они пришли к выводу, что, если бы опровержение было опубликовано на два часа раньше, это уменьшило бы вспышку слухов на 25 %.
Быстрое опровержение не всегда помогает погасить вспышку, но может замедлить распространение. Исследователи из Facebook выяснили, что, если друзья быстро сообщают пользователю, что тот поделился фальшивкой (например, сомнительной схемой «как быстро разбогатеть»), вероятность того, что он удалит пост, возрастает на 20 %[464]. Порой компании намеренно замедляют передачу информации, меняя структуру своих приложений. После серии нападений в Индии, вызванных ложными слухами, мессенджер WhatsApp затруднил распространение контента: теперь пользователи в Индии могли пересылать сообщения только пяти друзьям, а не сотне, как
Внимание!
Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Законы эпидемий. Как развиваются и почему прекращаются эпидемии болезней, финансовые кризисы, вспышки насилия и модные тренды - Адам Кучарски», после закрытия браузера.