El reto de la moderación de contenido en plataformas digitales

Eva Rosete

El debate actual sobre la moderación de contenido en internet se centra principalmente en los límites que tiene el Estado para regular sin incurrir en censura. En materia de violencia digital y mediática la Ley Olimpia es un ejemplo de legislación efectiva en México.

El “internet es un espacio donde pueden ser vulnerados los derechos humanos”, dijo Issa Luna Pla, coordinadora del Área en Derecho de la Información del Instituto de Investigaciones Jurídicas de la UNAM, en el Foro Internacional del Día de Internet 2021: Regulación y Tecnología.

Las mujeres de 18 a 30 años son las personas más vulnerables en los espacios digitales. El 40% de las agresiones cometidas contra ellas provienen de personas conocidas, según el estudio «La violencia en línea contra las mujeres en México«.  

La Ley Olimpia fue diseñada para combatir estas nuevas formas de violencia mediante reformas al Código Penal y la adición de los conceptos de violencia digital y violencia mediática a la Ley General de Acceso de las Mujeres a una Vida Libre de Violencia.

Las reformas fueron impulsadas desde el 2013 por Olimpia Coral, quien fue víctima de violencia digital cuando un vídeo de contenido sexual fue distribuido sin su consentimiento por redes sociales. Distintas versiones de la ley han sido aprobadas en 30 estados del territorio mexicano y el 29 de abril fue aprobada a nivel federal por la Cámara de Diputados y enviada al Ejecutivo Federal.

Laura Márquez, miembro del Centro de Innovación para el Acceso a la Justicia, explicó en el Foro que uno de los problemas de la ley es que no identifica explícitamente a las redes sociales entre las personas morales que pueden generar y propagar violencia mediática, por lo que podría quedar sujeto a interpretación en casos específicos.

Además, comentó que un problema que se ha presentado con la ejecución de la Ley Olimpia en los estados donde ya está vigente es que se contempla un periodo entre 6 días y 6 meses para que el contenido sea eliminado de la plataforma digital. “¿Cuánto se puede compartir en un periodo de 6 días a 6 meses? Se genera una violencia de género masiva”, expuso Márquez.

Por otra parte, Jessica Espinoza, Gerente Asociada de Políticas de Producto en Facebook, comentó que uno de los principales retos para la plataforma es la regulación de contenido, por lo que se crearon las Normas Comunitarias para Facebook e Intragram.

Espinoza explicó que son 1 mil 730 millones de usuarios activos al día en Facebook que comparten contenido en diferentes idiomas y contextos, por lo que se valen de dos mecanismos para detectar contenido problemático: por un lado se cuenta con el algoritmo que ayuda a identificar y eliminar contenido que está fuera de las normas; y también cuentan con 15 mil moderadores que revisan contenido en diferentes idiomas y están capacitados para interpretarlo en cada contexto cultural.

Según el Informe de Cumplimiento de Normas Comunitarias del Cuarto Trimestre de 2020 de Facebook, publicado el 11 de febrero del 2021, en el último trimestre se detectaron “6.3 millones de elementos de contenido [interpretado como] de bullying y acoso, por encima de los 3.5 millones del tercer trimestre, debido en parte a actualizaciones en nuestra tecnología para detectar los comentarios”.

Si bien las plataformas deben regular el tipo de contenido que los usuarios pueden publicar y compartir, también es un reto porque son globales. Marquez recalcó que la forma más eficaz para regular con base en el contexto cultural y legislativo recae en las políticas de privacidad.