Загрузка...
Иконка
misc
Mid

Meta: Зубную пасту обратно в тюбик не вернёшь

Вы можете отказаться от фактчекинга, но сможете ли вы тогда, в действительности называть себя объективными?

Таймер

7 мин

Joe Bernstein

Обложка

«За последние годы мы разрабатывали все более сложные системы для управления контентом на наших платформах, частично в ответ на общественное и политическое давление по поводу модерации контента. Этот подход зашел слишком далеко. Хотя многие из этих усилий были сделаны с благими намерениями, со временем они проросли до такой степени, что мы совершаем слишком много ошибок... Мы хотим отменить расширении этого направления, которое сделало наши правила слишком ограничительными и склонными к обязательному и излишнему контролю.» - Отрывок из пресс-релиза Meta от 7 января 2025 года

Может ли сообщение быть настолько “неправильным”, но в то же время в чем-то правдивым? Конечно, может. Нюансы — искусство поддтекста.

Но в этом и заключается сложность в определении того, что правильно, а что нет: вещи могут быть полностью правдивыми, частично правдивыми или вовсе не правдивыми.

К сожалению, когда вы переименовываетесь в «meta» мотивируя это переосмыслением, а затем объявляете, что плохо справились с определением того, что правильно, поэтому решили зайти на второй круг, но при этом снова признаете что ошибаетесь в этом решении, — у нас не остается слов, чтобы описать этот бред.

Именно это Meta сделала в своем объявлении на этой неделе о прекращении использования независимых фактчекеров на своих платформах и переходе к модели краудсорсинговых «заметок сообщества», похожей на подход Twitter.

Общественная реакция была ощутимой.

В ту же неделю, когда избранный президент неоднократно троллит о желании аннексировать Канаду, разгорается культурная война вокруг употребления парного молока, а теории заговора о лесных пожарах в Калифорнии распространяются так же быстро, как и сами пожары, это кажется абсолютно неподходящим моментом для подобных заявлений.

В то же время я могу понять заявление Meta. Я зарабатываю на жизнь разработкой технологий. Мне приходится принимать сложные этические решения. Я постоянно сталкиваюсь с расширением функционала и целей проекта. Я тоже подходил к проблеме с благими намерениями, только чтобы обнаружить неблагоприятные непреднамеренные последствия.

По их собственным словам, «мы не хотели быть арбитрами истины» что бы это не значило, я бы не хотел наделять их этой ответственностью. Многие решения о продукте односторонние. Мне приходилось откладывать некоторые из моих более рискованных дизайнерских идей, потому что доверие потребителей — деликатный вопрос — как только вы выпускаете функцию для публики, вы не всегда можете ее отозвать.
Но, опять же, я обычно не из тех, кто действует быстро и ломает что-либо.
Не каждая этическая дилемма имеет одинаковый вес, а эта очень серьезная.

Я не могу винить Meta за первоначальное желание оставаться нейтральными, но когда они решили в 2016 году использовать фактчек сервисы для модерации контента на своих платформах, они изменили социальную структуру Интернета таким образом, что никогда не смогут полностью откатить это решение. Как только вы положили палец на весы «правды», любое упущение проверки фактов становится разрешением на ложь. Дезинформация уже существует, и вы не можете вернуть пасту обратно в тюбик.

Раньше можно было лгать в интернете



Изображение

Будет ли звучать по-старчески, если я скажу, что интернет раньше был другим местом? В благополучные дни начала 2000-х интернет все еще напоминал Дикий Запад. Люди не были постоянно онлайн, личности были в основном анонимными, а сообщества были разбросаны по эзотерическим сайтам и форумам. Вы почти ожидали, что все, что читаете в интернете, — ложь, и иногда это было даже весело.

Изображение

Я почти уверен, что опубликовал это на MySpace и думал, что это смешно

Итак, что изменилось? Во-первых, по мере того как мы стали проводить больше времени онлайн, мы перенесли больше нашей реальной социальной жизни в интернет, что сделало выгодным для всех быть в нескольких одних и тех же местах. Агрегаторы начали собирать лучший контент из различных источников в нескольких конкретных площадках.

Мемы превратились из своего рода шибболетов внутренних шуток в общую культурную идентичность. А стать вирусным перешло от невинного, казалось бы, случайного явления к тщательно продуманному, протестированному на фокус-группах, бизнес-предложению.
Другими словами, мы стали ведомой аудиторией, и люди поняли, что могут извлекать выгоду из нашего внимания.

Интернет стал слишком серьезным, чтобы его игнорировать

К началу 2010-х годов то, что происходило в интернете, начало иметь значение. К тому времени кажется, что все имели цифровое присутствие; если вас там не было, вы, вероятно, что-то упускали. Люди начали замечать, когда онлайн-движения доказали, что они могут мобилизовать людей и идеи мощными способами. Революции «Арабской весны» 2011 года доказали, что Twitter — это не просто место, чтобы рассказать о вашем обеде. За ними последовали аналогичные движения по всему миру. Даже такие периферийные явления, как Twitch Plays Pokémon, показали, что коллективный разум интернета — это не просто теория или шутка.

Но любая ситуация, в которой это могло быть использовано во благо, означала, что это могло быть использовано и во зло. Хронология быстро последовала от социального эксперимента Facebook 2012 года по манипулированию эмоциями к влиянию Cambridge Analytica в социальных сетях на выборах 2016 года. В тот же миг «фейковые новости» вошли в наш повседневный лексикон и сделали нас равнодушными, в то время как такие сайты, как InfoWars, утратили всякую связь с реальностью. Лгать в интернете больше не было весело. К концу 2010-х вы с большей вероятностью вытаскивали своего друга из МММ пирамиды или переживали, что ваши родители попадутся на криптосхему.

Мы хотели правды. Но не смогли справиться с правдой.


Изображение

Может ли какая-либо организация действительно быть беспристрастным судьей истины? Оглядываясь назад, вы можете задаться вопросом, зачем вообще кто-то добровольно погружается в подобную трясину, но в контексте 2010-х можно понять, почему Meta — и ее сверстники — должны были вмешаться.

С 2016 года у Meta есть механизмы для проактивного помечания контента, который определен как “ложный”. Или скрытия контента, который отмечен категорией “мистификации”.

Facebook автоматически отмечает и удаляет посты и комментарии, которые имеют сходство с разжиганием ненависти. Пока их заявления были в силе, Meta утверждала, что они работают должным образом, но это объявление буквально им противоречит. (Видите, как «правда» может меняться?)

Но опять же, сейчас 2025 год, политики модерации контента действуют уже девять лет, и, по моим ощущениям, я не уверен, что чувствую себя более защищенным от фейковых новостей, чем раньше. Но я могу предположить, что я уже нахожусь в медийном пузыре и вряд ли столкнусь с большим количеством фейковых новостей в первую очередь. Те, кто находится за пределами моего пузыря, могут видеть больше “помеченного” контента, но это только подливает масла в огонь среди тех, кто считает, что модерация контента предвзята по отношению к истинно их точке зрения. Теории заговора только усиливаются идеей о том, что «они» не хотят, чтобы вы их видели. В конце концов, насколько эффективна проверка фактов среди намеренно невежественных?

Отсутствие проверки становится разрешением


Будь то предыдущие механизмы проверки фактов были эффективными или нет, вы не можете просто удалить их, не создав вакуума. Это было бы иначе, если бы изначально не было никакого плана модерации, но это не так. Поскольку, по заявлению, эти новые правила «ослаблены», это становится уязвимостью для любого, кто захочет это использовать. Подход с функционалом заметок сообщества может лишь немного помочь, когда сторонники фейковых новостей теперь могут прорваться через все двери, которые раньше их сдерживали. (посмотрите на Аргентину и их СМИ)

Еще хуже то, что, ослабляя эти правила, Meta пересмотрела свои Стандарты сообщества и, в процессе, явно определила новые формы «ненавистнической» речи, которые являются «приемлемыми».

Опять же, было бы одно, если бы эти примеры ненавистнической речи никогда не были определены в первую очередь, но, отступая от одной моральной позиции к другой, это всеголишь определяет рамки / список «социально допустимых» способов издеваться или преследовать ранее защищенную группу людей. В этом списке этнические группы теперь можно называть «грязью», женщин можно уподоблять «предметам домашнего обихода», а представителей ЛГБТ-сообщества можно называть «психически больными» (и примечательно, что это единственное исключение среди запрещенных оскорблений, связанных с психическим здоровьем). Если вы когда-либо встречали хулигана или тролля, вы уже знаете, что когда граница (пере)чертится, они будут яростно стремится к этой линии настолько близко, насколько это возможно.

Что теперь?


Социолог во мне взывает меня верить как в людей, так и в науку. Если я смогу отложить свое циничное отношение, я могу вспомнить, что большинство людей не являются недобросовестными личностями. Большинство людей не намеренно невежественны. Большинство людей действительно хотят получать настоящие, правдивые новости.

Это те люди, которые обычно сами все разбирают. В отсутствие независимых фактчекеров становится еще более важно, чтобы мы сами проводили исследования и называли чушь своим именем, когда ее видим.

Я не считаю, что подход с заметками сообщества — лучший, но они работают лучше, если добросовестные и критически мыслящие люди в них участвуют. И если вы прочитали эту статью до конца, то вы, вероятно, один из них.

И сейчас, как никогда, я ценю важные исследования профессора Кейт Старберд из Центра информированности общественности при Вашингтонском университете, которая изучала, отслеживала и публиковала информацию о распространении ложной информации еще задолго до того, как это стало нашей повседневностю. Всегда есть надежный источник правды в рецензируемых исследованиях, даже если вам приходится искать его самостоятельно.