В динамичном и постоянно меняющемся ландшафте социальных сетей появилось любопытное лингвистическое явление: "algospeak, или алгоритмический язык". В этом цифровом языке используются закодированные слова с альтернативными значениями для обсуждения тем, которые не проходят модерацию в социальных сетях, что позволяет избежать обнаружения алгоритмами. Рост такого языка отражает постоянную борьбу между пользователями и большими технологическими компаниями. На TikTok часто можно встретить людей, которые заменяют термин "самоубийство" выражениями вроде"un(alive), или не(живой)»; также часто используются эмодзи или странно написанные слова. Algospeak проникает во все формы политического дискурса на наших платформах социальных сетей, но сама концепция не нова и больше похожа на модернизированную версию рифмованного сленга кокни.
Но Algospeak - это не просто творческая игра слов; это намеренное и умелое преодоление запутанного лабиринта модерации контента, который может оборвать дискуссии на запрещенные темы. В мире, где легальность наркотиков постоянно меняется, платформам приходится искать баланс между соблюдением правил сообщества и поощрением открытого диалога. Поскольку ограничительная интерпретация политики модерирования контента часто препятствует обсуждению нюансов, нежелательные последствия модерирования контента для важнейших дискуссий на темы, связанные с наркотиками, становятся очевидными.
Как работает модерация контента
Большинство крупных социальных медиаплатформ, таких как Meta или TikTok, используют несколько общий подход к модерированию контента. В TikTok модерация контента осуществляется в режиме реального времени с помощью передовых алгоритмов, которые постоянно сканируют и анализируют пользовательский контент, чтобы оперативно выявлять и устранять нарушения со стороны сообщества. Эти системы отмечают контент на основе различных сигналов, включая ключевые слова, изображения, заголовки, описания и аудио.
Однако TikTok-контент формируется по-другому - платформа регулирует видимость контента. В отличие от традиционной модерации контента, которая в основном направлена на удаление или фильтрацию, модерация видимости заключается в намеренном продвижении, усилении или приоритезации контента, который считается более релевантным и подходящим. Это стало заметной тенденцией в модерировании контента не только на TikTok: Human Rights Watch обнаружила, как контент, связанный с Палестиной, на Instagram и Facebook, принадлежащих компании Meta, систематически подвергался цензуре. Подавление контента, связанного с политикой, маргинальными сообществами, наркотиками или преступностью, независимо от контекста и аудитории, на которую он пытается попасть, вызывает вопросы о том, как якобы "социальная" сеть управляется скорее теми, кто управляет платформами, чем реальными участниками, которые их составляют.
Разные платформы, разный контроль
В прошломизменения алгоритмов на YouTube вызывали беспокойство у создателей образовательных каналов о наркотиках. Такие создатели, как PsychedSubstance и The Drug Classroom, предлагающие информационный контент о безопасности наркотиков и снижении вреда, столкнулись с тем, что доходы от рекламы и количество просмотров значительно снизились из-за изменений алгоритмов Youtube. Эти изменения, введенные после того, как рекламодатели отказались от рекламы из-за опасений, что объявления будут показываться на фоне экстремистского контента, привели к ограничению монетизации некоторых видео, что повлияло на способность каналов выживать и охватывать более широкую аудиторию. В некоторых случаяхони даже полностью удалили каналы, пропагандирующие снижение вреда.
Аналогичная динамика наблюдается и на других платформах. Например, в Инстаграм постоянно возникают проблемы с контентом, связанным с каннабисом и каннабисным бизнесом. Если раньше удаление аккаунтов предприятий каннабиса было редкостью для американской и канадской индустрии, то теперь это стало повторяющейся проблемой. Аналогичные проблемы возникают с клиниками и с предприятиями, связанными с кетамином, которые должны соблюдать медицинские регуляции при сбалансированном продвижении продукции. Несмотря на то, что рекламодатели должны соблюдать существующие правила продвижения медицинских препаратов, необходимо обратить внимание на практику рекреационного потребления этих веществ. Препятствование распространению информации о снижении вреда означает, что контент, связанный с наркотиками, контролируется правилами рекламы - значительная часть доходов платформы - или ограничительными правилами общественной безопасности.
Эти решения платформ вызывают более широкую дискуссию о том, для кого предназначен Интернет и как найти правильный баланс между мерами регулирования и сохранением открытых каналов, особенно в пространствах, где ответственное обсуждение той или иной проблемы имеет решающее значение.
Модерация контента vs модерация контекста
В то время как TikTok модерирует контент в режиме реального времени с помощью алгоритмов, контекстная модерация учитывает окружающие обстоятельства и нюансы контента. В прошлом на таких платформах, как Facebook, Twitter (X) и YouTube, работали десятки тысяч сотрудников, которые в каждом конкретном случае учитывали такие факторы, как намерение, поведение в прошлом и более широкий круг общения при оценке потенциально проблемного контента. Наличие определенного уровня человеческого контроля за модерацией может помочь выработать более сбалансированный подход к модерированию контента, обеспечивая безопасность брендов платформ и в то же время позволяя обсуждать нюансы. Но полагаться на алгоритмы гораздо выгоднее, чем нанимать тысячи модераторов (даже если им почти ничего не платят).
Неудивительно, что привлекательность алгоритмов стала непреодолимой для платформ. Экономичность и эффективность, которые они обещают, делают их заманчивым выбором - и, в отличие от модераторов-людей, они не травмируются контентом , который модерируют. Но чрезмерная зависимость платформ от них в конечном итоге оборачиваетсяих же собственным ущербом. Хотя автоматизация обеспечивает скорость и масштаб, ей часто не хватает тонкого понимания и контекстуальных знаний, которые может дать только человеческий надзор. Необходимость в тонкой модерации контента усиливается в связи с изменением ландшафта реформы наркополитики. Поскольку легальность таких веществ, как каннабис и психоделики, менялась с течением времени, менялся и окружающий их правовой и культурный контекст. К сожалению, существующим структурам модерации часто не хватает гибкости , чтобы реагировать на эти изменения. Снижение вреда, с его контекстным акцентом на снижение рисков, требует столь же контекстного подхода, который вступает в противоречие с жесткими рекомендациями и автоматической фильтрацией, используемыми в настоящее время многими платформами.
Можно ли найти баланс?
Нахождение баланса между эффективностью автоматизированных алгоритмов и глубиной человеческого понимания - это не просто выбор платформ, а необходимость, особенно когда речь идет о навигации по сложным темам, связанным с наркотиками и просвещением. В некотором смысле algospeak защищен алгоритмической модерацией контента, поскольку он может преодолевать контроль и достигать широкой аудитории. Учитывая глобальный аутсорсинг модерации контента, модераторы часто не имеют полной контекстной информации о сообщении и ограничивают контент, связанный с наркотиками, на основании глобального запрета на наркотики, даже если они декриминализованы или легальны в том месте, где изначально было сделано сообщение.
И хотя международная политика позволяет упростить правоприменение - особенно с развитием искусственного интеллекта, - она часто приводит к применению универсального подхода, не учитывающего национальные или региональные нюансы. Развитие практики модерации контента на этом уровне будет иметь ключевое значение для отражения меняющихся законов и моделей поведения, будь то наркотики или любая другая практика или продукция. Это ограничение признается платформой Reddit, которая использует подход к модерации , основанный на участии сообщества. Эта платформа демонстрирует, как может работать модерация в зависимости от контекста, когда те, кто больше всего заинтересован в сообществе, имеют право голоса при модерации его контента, сохраняя при этом общепринятые ценности Reddit. Однако более крупным платформам общего профиля, таким как Twitter (X), возможно, будет сложно повторить модель Reddit по модерированию микросообщества в массовом масштабе.
В конечном счете, лучшее решение проблемы модерации контента требует времени и серьезных инвестиций — двух вещей, которые индустрия, построенная на основе нерегулируемогоэкспоненциального роста, презирает. Только благодаря организации сообщества или государственному регулированию компании социальных сетей смогут изменить свои методы работы. И до тех пор, пока их не заставят сотрудничать с профильными экспертами – например, с организациями снижения вреда – для разработки политики модерации контента с учетом контекста, мы не можем ожидать системных изменений. Умышленно или по незнанию, но пока компании социальных сетей предпочитают модерировать свои огромные сообщества собственными силами, практически не отчитываясь перед сообществом.