logo
header-add

Esperan aumento del odio en las redes

por Redacción
11-01-2025

Comparte en

(Más / IA).- La adquisición de Twitter por parte de Elon Musk, ahora mano derecha del próximo presidente de Estados Unidos, Donald Trump, marcó un giro significativo en la gestión de plataformas sociales.

Rebautizada como X, la red social ha adoptado un modelo de mínima regulación bajo la bandera de la libertad de expresión, lo que la ha transformado, según un estudio de la Escuela de  Ciencia y Tecnología City St. George’s de la Universidad de Londres, en un espacio donde predominan el abuso político y la marginación de voces modera Esta tendencia ha generado preocupaciones por el aumento del acoso y el discurso de odio en el entorno digital global.

La situación no se limita a X. Las redes de Meta, que incluyen Facebook, Instagram y Threads, han seguido una trayectoria similar al eliminar sus programas de verificación de datos y relajar la moderación de contenidos.

Según Alexios Mantzarlis, director de Seguridad, Confianza y Protección del área tecnológica de la Universidad de Cornell, las consecuencias de esta decisión serán un aumento del acoso, el discurso de odio y otros comportamientos dañinos en las plataformas de miles de millones de usuarios.

Mantzarlis critica que Meta, liderada por Mark Zuckerberg, haya delegado el control de los bulos en los propios usuarios, además de eliminar restricciones sobre contenidos sensibles como inmigración, identidad sexual y género. Estas medidas, sostiene, priorizan intereses políticos sobre principios éticos.

Joel Kaplan, director de asuntos globales de Meta, defendió la postura de la empresa afirmando que no es justo restringir expresiones en plataformas digitales mientras estas mismas opiniones son válidas en espacios como el Congreso o la televisión. Sin embargo, Mantzarlis considera que esta decisión responde más a presiones políticas tras la elección de Trump que a una convicción sobre la libertad de expresión.

La especialista en ciberseguridad Tal-Or Cohen Montemayor, directora de CyberWell, señala que la decisión de Meta deteriora las mejores prácticas de confianza y seguridad en un entorno ya saturado de contenido incendiario. “El cambio significa más discurso de odio, más contenido politizado y respuestas menos efectivas de las plataformas”, afirmó.

Además, critica la argumentación de Meta sobre la libertad de expresión, destacando que la solución sería regular legalmente a las grandes tecnológicas para garantizar la transparencia y la responsabilidad.

A pesar de las críticas, la medida cuenta con algunos defensores. La Foundation for Individual Rights and Expression (FIRE) ha respaldado la decisión de Zuckerberg, argumentando que las plataformas no deberían suprimir contenido político ni depender de verificadores externos. Ari Cohn, consejero de FIRE, destacó que la decisión protege la libertad de expresión consagrada en la primera enmienda de la Constitución de Estados Unidos.

Sin embargo, estudios recientes advierten sobre los riesgos de una moderación más laxa. Una investigación publicada en  Science señala que las publicaciones que generan indignación moral, como aquellas que contienen desinformación, tienden a difundirse más debido a algoritmos diseñados para priorizar el contenido atractivo.

Según Killian L. McLoughlin, del departamento de Psicología de la Universidad de Princeton, la indignación facilita la difusión de noticias falsas porque los usuarios son más propensos a compartirlas sin leerlas para reforzar sus posiciones morales o su lealtad a grupos políticos. Este fenómeno, impulsado por la lógica algorítmica de maximizar el tráfico, perpetúa un ciclo de odio e indignación en las redes.

Las decisiones de X y Meta parecen consolidar un panorama digital menos regulado, en el que el aumento de discursos polarizantes y contenido dañino se percibe como inevitable por numerosos expertos. El impacto real de estas políticas podría redefinir la interacción social en línea, con consecuencias aún por determinar.