¿Alguna vez te eliminaron una publicación o cuenta de una red social y no entendiste por qué?
Ciudad de México 3 de noviembre de 2020.- Compañías como Facebook, Twitter y YouTube, a través de la aplicación de sus reglas de moderación de contenido -que determinan lo que puede y no puede ser compartido en sus plataformas-, tienen una gran influencia sobre nuestra habilidad de ejercer nuestros derechos humanos en línea. Sin embargo, estas reglas muchas veces son vagas y generales, y su aplicación es inconsistente y sesgada. Esto significa que una gran cantidad de contenido es erróneamente eliminado (o se mantiene de manera incorrecta en línea), afectando nuestro derecho a la libertad de expresión y la habilidad de ser parte del debate público y, sobre todo, de hablar sobre los temas que nos importan. Muchas veces, estas eliminaciones de contenido afectan desproporcionadamente a aquellas personas que han sido históricamente discriminadas y silenciadas en el espacio cívico –incluyendo a mujeres y personas de la diversidad sexogenérica, así como a personas defensoras de derechos humanos y periodistas-.
Ante este escenario, las compañías de redes sociales se rehúsan a decirnos cómo y por qué eliminan contenido, y qué tan seguido se equivocan en la aplicación de sus reglas. Sus reportes de transparencia ofrecen poco entendimiento sobre la magnitud del problema, evitando así un análisis por parte de la sociedad civil y de personas investigadoras sobre qué tanto las compañías están limitando ilegítimamente nuestros derechos. No obstante, es evidente que el problema es de gran escala; de hecho, activistas, periodistas y artistas de todo el mundo han reportado la eliminación de sus contenidos y cuentas. Incluso, las cuentas y publicaciones de ARTÍCULO 19 han sido suspendidas o eliminadas por tratar de crear conciencia sobre el tema.
En ARTÍCULO 19 estamos trabajando en asegurar la protección de la libertad de expresión en línea, haciendo frente a las restricciones sobre nuestros derechos por parte de las compañías de redes sociales. En ese sentido, realizamos campañas para que las plataformas digitales (1) alineen sus reglas de moderación de contenido con estándares internacionales de derechos humanos; (2) mejoren sus procesos de transparencia, rendición de cuentas, y apelaciones; y (3) permitan que múltiples partes interesadas independientes revisen sus decisiones sobre la moderación de contenidos; principalmente, todo en aras de reducir el poder de las grandes plataformas de redes sociales sobre nuestros derechos en línea.
Para apoyar este trabajo, y tener una mejor percepción sobre cómo la moderación de contenidos afecta los derechos humanos de las personas usuarias, queremos reunir testimonios de personas cuyos contenidos y/o cuentas fueron erróneamente eliminadas por las plataformas de redes sociales. Queremos saber si te han eliminado algún contenido en las redes sociales a pesar de que consideres que éste no incumplía las reglas de la plataforma, y queremos preguntarte del impacto que esto generó en tu libertad de expresión. Esperamos utilizar esta investigación y los estudios de caso para apoyar nuestra campaña #MissingVoices y otros trabajos respecto al impacto de la moderación de contenidos en el derecho a la libertad de expresión, para presionar a las compañías de redes sociales a realizar más esfuerzos para proteger nuestros derechos en línea, y asegurar que los gobiernos y los entes reguladores entiendan la escala del problema y sus impactos.
Creemos que es necesario hacer más para proteger la libertad de expresión en los procesos de moderación de contenidos, y es tiempo que las compañías, los gobiernos y los entes reguladores entiendan qué tan serio es el problema.
Si te gustaría compartir tu historia, por favor completa nuestra encuesta a través del siguiente enlace: https://www.surveymonkey.co.uk/r/B7QWCDK. No compartiremos lo que nos digas sin tu consentimiento. Queremos ayudar a levantar las voces de las personas cuya habilidad de hablar y expresarse está siendo silenciada y opacada por las prácticas de las compañías.