La eliminación de políticas contra el discurso de odio y fact-checking en Meta preocupa a grupos defensores de comunidades vulnerables.
La decisión de Meta de flexibilizar sus políticas sobre género, inmigración y discurso de odio ha generado una ola de críticas por parte de organizaciones que temen un incremento en ataques a comunidades marginadas.

En un controvertido movimiento, Meta, la empresa matriz de Facebook e Instagram, ha modificado sus políticas comunitarias, eliminando restricciones clave sobre contenido considerado ofensivo o deshumanizante. Además, ha anunciado el fin de su programa de fact-checking de terceros en Estados Unidos, adoptando un modelo de moderación de contenido basado en contribuciones colectivas, similar al utilizado por X (antes Twitter).
Joel Kaplan, jefe de asuntos globales de Meta, defendió la decisión afirmando: “No es justo que algo se permita en el Congreso o en la televisión, pero no en nuestras plataformas”. Sin embargo, los cambios incluyen permitir referencias despectivas hacia mujeres, personas transgénero y comunidades negras, lo que ha generado rechazo entre activistas.
Sarah Kate Ellis, presidenta de GLAAD, denunció que Meta está “dando luz verde para atacar a personas LGBTQ, mujeres, inmigrantes y otras comunidades marginadas”. Por su parte, Tal-Or Cohen Montemayor, de CyberWell, señaló que este movimiento “socava sistemáticamente la seguridad de las comunidades vulnerables”.

Mark Zuckerberg, CEO de Meta, argumentó que las restricciones previas estaban “fuera de sintonía con el discurso dominante”. Sin embargo, expertos advierten que la decisión podría exacerbar la proliferación de discursos de odio en línea, en un contexto donde las tensiones políticas están en aumento.
La medida coincide con el regreso de Donald Trump a la Casa Blanca y el control republicano del Congreso, lo que reaviva la controversia sobre el papel de las plataformas digitales en la regulación del discurso político. Los temas de identidad de género e inmigración han sido puntos clave de ataque en las campañas republicanas, lo que levanta sospechas sobre el momento elegido por Meta para implementar estos cambios.
Más allá de los riesgos inmediatos, la eliminación del fact-checking y el cambio de enfoque hacia un modelo comunitario plantea preguntas sobre la eficacia de la moderación en un ecosistema digital donde la desinformación y el discurso de odio son problemas persistentes.
En un mundo cada vez más digitalizado, ¿cómo deberían las plataformas equilibrar la libertad de expresión y la protección de las comunidades vulnerables? 💬
Fuente: prensa.ec






Comments are closed, but trackbacks and pingbacks are open.