1. Inicio
  2. Artículos
  3. Algospeak y las consecuencias de la moderación de contenido en la reducción de daños

Algospeak y las consecuencias de la moderación de contenido en la reducción de daños

En el panorama dinámico y en constante evolución de las redes sociales, ha surgido un curioso fenómeno lingüístico: “algohabla.” Este lenguaje nativo digital emplea palabras codificadas con significados alternativos para discutir temas demasiado moderados en las redes sociales, evitando así la detección por algoritmos. El crecimiento de dicho lenguaje refleja una batalla en curso entre los usuarios y las grandes empresas tecnológicas. En TikTok, es común encontrar personas intercambiando el término “suicidio” por expresiones como “no (vivo)"; emojis o palabras extrañamente escritas también se utilizan con frecuencia. Algospeak ha estado permeando todas las formas de discurso político en nuestras plataformas de redes sociales, pero el concepto no es nuevo y suena más como una versión modernizada de Argot de rima cockney.

Pero Algospeak es más que un simple juego de palabras creativo; es la navegación intencional y hábil por el intrincado laberinto de la moderación de contenido lo que puede silenciar las discusiones sobre temas sancionados. En un mundo donde la legalidad de las drogas evoluciona constantemente, las plataformas tienen el desafío de lograr el equilibrio entre hacer cumplir las directrices comunitarias y fomentar el diálogo abierto. Como las interpretaciones restrictivas de las políticas de moderación de contenidos a menudo reprimen las discusiones matizadas, las consecuencias no deseadas de la moderación de contenidos en discusiones cruciales sobre temas relacionados con las drogas se vuelven claramente evidentes.

Cómo funciona la moderación de contenido

La mayoría de las principales plataformas de redes sociales como Meta o TikTok adoptan un enfoque algo generalizado para la moderación de contenido. TikTok emplea moderación de contenido en tiempo real a través de algoritmos avanzados que escanean y analizan continuamente el contenido generado por el usuario para identificar y abordar rápidamente las violaciones de la comunidad. Estos sistemas marcan contenido basándose en una variedad de señales, incluidas palabras clave, imágenes, títulos, descripciones y audio.

Sin embargo, lo que da forma diferente al contenido en TikTok es cómo la plataforma regula la visibilidad del contenido. A diferencia de la moderación de contenido tradicional que se centra principalmente en la eliminación o el filtrado, la moderación de la visibilidad consiste en promover, amplificar o priorizar intencionalmente el contenido que se considera más relevante y apropiado. Esta ha sido una tendencia destacada en la moderación de contenidos más allá de TikTok: Human Rights Watch ha descubierto cómo se ha modificado el contenido relacionado con Palestina en Instagram y Facebook, propiedad de Meta. censurado sistemáticamente. La supresión de contenidos relacionados con la política, las comunidades marginadas, las drogas o la delincuencia, independientemente del contexto y de la audiencia a la que intenta llegar, plantea interrogantes sobre cómo una red supuestamente "social" se guía más por quienes dirigen las plataformas que por los miembros reales que las componen. .

 

Diferentes plataformas, diferentes controles.

En el pasado, los cambios de algoritmo en YouTube han generado preocupación entre los creadores de canales de educación sobre drogas. Creadores como PsychedSubstance y The Drug Classroom, que ofrecen contenido informativo sobre la seguridad de las drogas y la reducción de daños, vieron sus ingresos publicitarios y sus recuentos de visualizaciones. impactado significativamente por los cambios de algoritmo de Youtube. Estos cambios, implementados después de que los anunciantes se retiraron por temor a que se mostraran anuncios con contenido extremista, han llevado a una monetización limitada para algunos videos, lo que afecta la capacidad de los canales para sobrevivir y llegar a una audiencia más amplia. En algunos casos, incluso han eliminado por completo los canales que promueven la reducción de daños.

Se pueden observar dinámicas similares en todas las plataformas. Instagram tiene desafíos constantemente planteados para contenido relacionado con el cannabis y los negocios del cannabis, por ejemplo. Lo que alguna vez fue una rareza para la industria con sede en EE. UU. y Canadá, la eliminación de cuentas comerciales de cannabis ahora se ha convertido en un problema recurrente. Se encuentran desafíos similares en las clínicas y empresas relacionadas con la ketamina, que deben cumplir con las regulaciones sobre medicamentos al promocionar productos de manera equilibrada. Si bien es válido garantizar que los anunciantes respeten las regulaciones existentes en torno a la promoción de productos médicos, existe una práctica de consumo recreativo de estas sustancias que debe abordarse. Impedir que se difunda información sobre reducción de daños significa que el contenido relacionado con las drogas está controlado por normas publicitarias, que constituyen un parte sustancial de los ingresos de la plataforma – o pautas restrictivas de seguridad comunitaria.

Estas decisiones de las plataformas desencadenan una conversación más amplia sobre para quién es Internet y cómo encontrar el equilibrio adecuado entre las medidas regulatorias y la preservación de los canales abiertos, particularmente en espacios donde El discurso responsable es crucial..

 

Moderación de contenido versus moderación de contexto

Mientras TikTok modera el contenido en tiempo real mediante algoritmos, moderación del contexto Considera las circunstancias circundantes y los significados matizados del contenido. En el pasado, plataformas como Facebook, Twitter (X) y YouTube empleaban a decenas de miles de trabajadores caso por caso, considerando factores como la intención, el comportamiento histórico y la conversación más amplia al evaluar contenido potencialmente problemático. Tener cierto nivel de supervisión humana sobre la moderación puede ayudar a lograr un enfoque más equilibrado para la moderación de contenido, manteniendo segura la marca de las plataformas y al mismo tiempo permitiendo debates matizados. Pero confiar en algoritmos es mucho más rentable que emplear miles de moderadores (incluso si son pagado casi nada).

No es de extrañar que el atractivo de los algoritmos se haya vuelto irresistible para las plataformas. La rentabilidad y la eficiencia que prometen los convierten en una opción tentadora y, a diferencia de los moderadores humanos, no se convierten en traumatizado por el contenido que están moderando. Pero la dependencia excesiva de las plataformas en ellas es, en última instancia, a su cargo. Si bien la automatización aporta velocidad y escala, a menudo carece de la comprensión matizada y el conocimiento contextual que sólo la supervisión humana puede proporcionar. La necesidad de una moderación matizada del contenido se ve amplificada por el panorama cambiante de la reforma de las políticas de drogas. A medida que la legalidad de sustancias como el cannabis y los psicodélicos ha cambiado a lo largo del tiempo, también lo hacen los contextos legales y culturales que los rodean. Desafortunadamente, las estructuras de moderación actuales a menudo carecen de la flexibilidad para responder a estos cambios. La reducción de daños, con su énfasis específico en el contexto en la mitigación de riesgos, requiere un enfoque igualmente sensible al contexto que choques con las pautas rígidas y el filtrado automatizado que emplean actualmente muchas plataformas.

 

¿Se puede encontrar un equilibrio?

Lograr un equilibrio entre la eficiencia de los algoritmos automatizados y la profundidad del conocimiento humano no es sólo una elección para las plataformas sino una necesidad, especialmente cuando se trata de navegar las complejidades del discurso y la educación sobre las drogas. De alguna manera, algospeak está protegido por moderación algorítmica de contenido, ya que puede superar los controles para llegar a audiencias más amplias. Dada la subcontratación global de la moderación de contenidos, los moderadores a menudo pueden carecer de plena contextual información en una publicación y restringir el contenido relacionado con las drogas según la prohibición global de las drogas, incluso si están despenalizados o son legales en el lugar donde se realizó originalmente la publicación.

Y si bien las políticas internacionales ofrecen una aplicación más fácil -particularmente con el auge de la inteligencia artificial- a menudo resultan en un enfoque único que no toma en cuenta los matices nacionales o regionales. Desarrollar prácticas de moderación de contenidos a este nivel será clave para reflejar los cambios en las leyes y comportamientos, ya sea con drogas o cualquier otra práctica o producto. Esta limitación es reconocida por Reddit que tiene un impulsado por la comunidad enfoque hacia la moderación. Esta plataforma destaca cómo puede funcionar la moderación específica del contexto, donde aquellos que más invierten en la comunidad tienen voz y voto para moderar su contenido y al mismo tiempo defender los valores de Reddit. Pero las plataformas de interés general más grandes, como Twitter (X), podrían tener dificultades para replicar el modelo de moderación de microcomunidades de Reddit a escala masiva.

En última instancia, la mejor solución para la moderación de contenido requiere tiempo y una inversión seria, dos cosas que una industria construyó a partir de no regulada, el crecimiento exponencial desprecia. Sólo a través de la organización comunitaria o la regulación gubernamental las empresas de redes sociales cambiarán sus costumbres. Y hasta que se vean obligados a colaborar con expertos en la materia, como organizaciones de reducción de daños – Para desarrollar políticas de moderación de contenido apropiadas para el contexto, no podemos esperar un cambio sistémico. Ya sea por ignorancia deliberada o deliberada, por ahora las empresas de redes sociales optarán por moderar sus comunidades masivas internamente y con poca o ninguna responsabilidad comunitaria.

Publicación anterior
Encontrar lo normal: potenciadores cognitivos e hiperproductividad
Publicación siguiente
En Canadá, la lucha por los clubes de compasión continúa en los tribunales

Contenido relacionado