Skip links

Remoción de contenidos: Desigualdad y exclusión del espacio cívico digital

Ciudad de México, 19 de octubre de 2021. Internet, y en especial las redes sociales, se han convertido en una ampliación del espacio cívico. Es ahí donde las personas y comunidades expresan sus posicionamientos políticos, ideas de índole social e información de interés público que se gesta en este espacio de forma orgánica, o incluso en el terreno físico pero que se traslada al ámbito digital. Sin embargo, no todas las personas se encuentran en igualdad de condiciones para expresarse y organizarse libremente a través y con el uso de estas tecnologías. Las plataformas digitales han evolucionado de ser habilitadoras de canales de comunicación entre personas, a convertirse en “gatekeepers” o “porteras” de los contenidos que se publican.

Los “términos de servicio” o “normas comunitarias” de las redes sociales, muchas veces construidos desde visiones o identidades que desdibujan o se muestran apáticos ante los contextos y realidades donde son aplicados, regulan qué expresiones están permitidas en estos espacios y a quiénes se les permite publicarlas. En ese sentido, las remociones o eliminaciones de contenidos que implementan -sin apego a estándares internacionales de derechos humanos- tiene un impacto directo en el derecho a la igualdad, en la movilización social, en el acceso y en la libre circulación de la información. Este tipo de acciones van, a su vez, en detrimento de las reivindicaciones y expresiones sociales, puesto que sus efectos son más abruptos y devastadores cuando éstas se llevan a cabo en contra de grupos o poblaciones en situación de mayor vulnerabilidad.

Ante este panorama, ARTICLE 19, Oficina para México y Centroamérica y la Fundación Friedrich Naumann para la Libertad, Proyecto México, desarrollaron el presente informe, cuyo objetivo central es dar cuenta de cómo la remoción de contenidos perpetúa y potencializa distintas formas de discriminación y exclusión social en México.

El documento se construye a partir de dos grandes secciones. En la primera sección se exploran las políticas y prácticas de remoción o eliminación de contenidos de las plataformas digitales más utilizadas por las y los mexicanos: YouTube, Facebook, Twitter y TikTok. También, se realiza una caracterización de los roles de las personas que fungen como “moderadoras de contenidos” y de los algoritmos de las plataformas digitales, quienes determinan qué contenidos pueden permanecer –o no– en línea.

En la segunda sección se analizan los resultados de una encuesta y una serie de grupos de enfoque con personas en México que se auto-adscriben a: (1) la comunidad de la diversidad sexogenérica (LGBTTTIQ+); (2) movimientos de mujeres organizadas e iniciativas feministas; (3) la población afrodescendiente e/o indígena; y (4) grupos en defensa de la tierra, territorio y cultura. En estos ejercicios participaron un total de 63 personas de 14 estados del país, y su principal objetivo fue analizar cómo las políticas y prácticas de remoción o eliminación de contenidos impactan específicamente en las identidades o causas que las personas reivindican, visibilizan, defienden y/o empujan.

 

Tras un recorrido por los testimonios de las personas que participaron en la investigación, se identifica que:

  • El idioma, el lenguaje y la falta de entendimiento del contexto son factores que aumentan la probabilidad de que las plataformas digitales eliminen contenidos de grupos o poblaciones en situación de mayor vulnerabilidad.
  • La suma de violencias que enfrentan los grupos y poblaciones en situación de mayor vulnerabilidad, incluida la remoción de contenidos, contribuyen a generar un clima de exclusión, censura, auto-censura y apatía social en el entorno digital.
  • Lo anterior sienta las bases para un ecosistema en línea que refuerza la dinámica de poder existente, dejando a las comunidades marginadas simultáneamente en riesgo de ser invisibilizadas y sobreexpuestas a una serie de daños.
  • Finalmente, se deja en evidencia el gran problema que ocasiona el monopolio tecnológico en términos de derechos humanos, puesto que millones de personas están sujetas a las decisiones que concentra un puñado determinado de las plataformas digitales más populares, las cuales controlan quién tiene derecho a expresarse.

En vista de lo anterior, al cierre de la investigación se presentan las siguientes recomendaciones hacia las plataformas digitales:

  1. Adoptar los Principios de Santa Clara sobre moderación de contenidos, con el propósito de aplicar estándares en materia de transparencia y rendición de cuentas en apego al marco internacional de los derechos humanos.
  2. Fortalecer el ámbito de cobertura y la granularidad de sus reportes de transparencia, de tal manera que permita someter a escrutinio público las prácticas de censura.
  3. Proveer procesos estandarizados de apelación ante la remoción o eliminación de contenidos o cuentas y perfiles.
  4. Realizar esfuerzos para evitar que las reglas de moderación de contenidos se usen de forma abusiva para remover contenidos, ya sea en virtud de fines políticos, electorales, de controlar o restringir el flujo de información, o de socavar voces que han sido históricamente marginadas y excluidas del espacio cívico.
  5. Considerar los Principios de Camden sobre la Libertad de Expresión y la Igualdad al momento de formular e implementar políticas que puedan asfixiar la libre expresión, los cuales señalan que “las restricciones a la libertad de expresión apuntan a los grupos desfavorecidos y estas restricciones socavan en vez de promover la igualdad. En lugar de poner restricciones, es imprescindible permitir el debate abierto para poder combatir los estereotipos individuales y grupales negativos y para exponer el daño engendrado por la discriminación”.
  6. Aumentar la base de personas moderadoras de contenido (sin subcontrataciones o outsourcing) y garantizar las condiciones laborales y de seguridad necesarias para que puedan desarrollar su trabajo.
  7. Generar las adecuaciones necesarias en los procesos de moderación de contenidos para reconocer la diversidad lingüística de los países (mejorar el filtrado de palabras, generar vínculos con organizaciones locales para convalidar expresiones locales, entre otras acciones).
  8. Consolidar un sistema de seguimiento de los casos de apelación que permita a las personas usuarias tener transparencia sobre la revisión de su caso -desde el inicio del reporte hasta su término

 

Descarga el informe en PDF aquí

 

 

 

 

Nota para prensa

Para más información, favor de contactar a comunicacion@article19.org 

ARTICLE 19 es una organización independiente de Derechos Humanos que trabaja alrededor del mundo para promover el derecho a la libertad de expresión. Toma su nombre del Artículo 19 de la Declaración Universal de los Derechos Humanos, la cual garantiza la libertad de expresión.