El algoritmo de Youtube viola sus propias políticas de contenido: Mozilla

La Fundación Mozilla publicó un estudio en el que explica cómo la plataforma Youtube recomienda videos que van contra su política de contenidos, lo que pone en riesgo la vida de usuarios vulnerables al exponerse a un cambio psicológico/emocional que podría perjudicarlos

Texto: Eva Rosete 

Gráfico: Javier Roldán

El algoritmo de YouTube recomienda videos que violan sus políticas de contenido, desde información errónea sobre salud, desinformación política, discursos de odio y otros contenidos reprobables, informó Fundación Mozilla el 7 de julio con la publicación de su investigación

“Sam era un niño de 13 años que sufría de depresión, y en su momento más débil fue reclutado para unirse a la derecha alternativa. La radicalización de Sam se debió en parte a que se metió en la trampa del contenido recomendado en YouTube y otras páginas de redes sociales”, contó Mozilla.

La fundación dejó testigo que durante años investigadores y periodistas han documentado cómo las recomendaciones de la plataforma de videos pueden incidir perjudicialmente en la vida de los usuarios más vulnerables.

La investigación fue realizada con 37, 380 voluntarios de 190 países con datos proporcionados entre julio del 2020 a mayo del 2021, Mozilla utilizó Regrets Reporter, una extensión de su navegador de código abierto, y los investigadores tenían acceso a los datos de recomendaciones de la plataforma. 

Los vídeos ‘lamentables’  nació de la campaña global en la que colaboró Mozilla en 2019 y son videos recomendados por el algoritmo que generan cambios negativos en las vidas de los usuarios. 

Los voluntarios marcaron como videos lamentables 3, 362 que provenían de 91 países, de dichos contenidos, el 71% fue recomendado activamente por el algoritmo y casi 200 de ellos ya fueron eliminados de YouTube porque violaban las políticas, pero antes de ser borrados tuvieron alrededor de 160 millones de visitas

“Muchos de los videos reportados pueden caer en la categoría de lo que YouTube llama contenido límite: videos que bordean las fronteras de sus lineamientos de la comunidad sin realmente violarlos”, describió el reporte. 

Los países de habla no inglesa tienen una tasa del 60% más de videos lamentables; sobre esto, Brandi Geurkink, gerente sénior de Promoción de Mozilla, dijo:

“Nuestra investigación confirma que YouTube no solo aloja, sino que recomienda activamente videos que violan sus propias políticas. Ahora también sabemos que las personas de países que no hablan inglés son las más propensas a sufrir la peor parte del algoritmo de recomendación fuera de control de YouTube».

Si quieres saber más te recomendamos: ¿Cómo afecta a la vida de los usuarios? 

¿Qué dice el reporte?

 “YouTube needs to admit their algorithm is designed in a way that harms and misinforms people,” says Brandi Geurkink, Mozilla’s Senior Manager of Advocacy. “Our research confirms that YouTube not only hosts, but actively recommends videos that violate its very own policies. We also now know that people in non-English speaking countries are the most likely to bear the brunt of YouTube’s out-of-control recommendation algorithm.”

¿Qué dicen los usuarios?

Comentarios anónimos. Despertador económico (2021). Ilustración Eva Rosete
  • Se pone todavía mejor 

Cualquier búsqueda de contenido positivo sobre el movimiento LGBT arroja un torrente de recomendaciones homofóbicas y de extrema derecha. Ya puedo imaginar lo dañino que resulta esto para las personas que todavía están tratando de definir su identidad.

  • Esa cosa es odio

Estaba viendo la serie “The Tropes vs Women in Video Games” en el canal Feminist Frequency con Anita Sarkeesian. De repente, comencé a recibir recomendaciones de videos antifeministas, de derechos de los hombres y GamerGate. Terminé por eliminar la serie de mi historial y marcando como “no me interesa” todas esas malas recomendaciones de video. Fue repugnante y perturbador. Especialmente preocupantes fueron los videos que me engañaron para que pensara que podría aprender más sobre determinado tema, pero en vez de eso, se trataba de un tipo gritando que Anita era una prostituta. Eso es odio y no debería tener que decirle a YouTube que está mal promoverlo.

  • Abróchate el cinturón

Una vez busqué el aeropuerto de Arrecife y ahora obtengo con frecuencia horribles historias de aviones accidentados. Yo vuelo con mucha frecuencia y a partir de esto tengo miedo cada que subo a un avión.

  • Violencia por doquier

Comencé viendo una pelea de box, luego peleas callejeras de box, después solamente peleas callejeras, de ahí a accidentes y violencia urbana. Terminé con una horrible visión del mundo y sintiéndome mal, sin realmente quererlo.

  • Sarah McLachlan no aprueba

Una vez, YouTube me recomendó un video de un perro callejero (en condiciones desastrosas) al que rescataron en la India. Acto seguido, mi página de inicio está plagada de fotos miniatura de animales maltratados (imágenes realmente muy tristes). Así que para mí no ha sido una buena forma de comenzar el día.

  • No sé cómo deshacer el daño causado

Mi hijita de 10 años inocentemente buscó “videos de tap” y ahora solo le muestran videos de contorsionismo y “bailes” extremos que dan consejos horribles y peligrosos, que dañan al cuerpo y a la imagen propia. Intenté eliminar manualmente todos los videos recomendados, implantar controles parentales y todo lo posible (incluso bloquear la aplicación). Pero mi hija sigue encontrando maneras de entrar con los buscadores y en las computadoras de la escuela. Estos videos terribles no dejan de aparecer como recomendaciones. Y ahora ella ya no quiere comer ni beber. Desde el piso de arriba la escuché decir: “¡ejercitarse para comer!, ¡ejercitarse para beber!”. No sé cómo deshacer el daño que se la ha causado a su mente tan influenciable.

Comentarios anónimos. Despertador económico (2021). Ilustración Eva Rosete

¿Cuáles fueron los tipos de videos más recomendados por el algoritmo? 

  • Desinformación
  • Contenido violento o gráfico
  • Desinformación sobre la Covid-19 
  • Discurso de odio
  • Spam/estafas
  • Desnudez y contenido sexual
  • Seguridad infantil
  • Acoso y ciberbullying
  • Contenido dañino o peligroso
  • Armas de fuego
  • Interpretación
  • Abuso animal
  • Contenido con restricción de edad
  • Violencia de organizaciones criminales
  • Falsa contratación

Al menos el 71% de los vídeos clasificados como lamentables fueron recomendaciones del algoritmo, informó Mozilla. 

“Al comparar la tasa de arrepentimiento de las recomendaciones con la tasa de las búsquedas, queda claro que las recomendaciones son desproporcionadamente responsables de los arrepentimientos de YouTube”, argumentó Mozilla, porque de cada 10,000 videos buscados generó 9.6 personas que lo clasificaron como contenido lamentable, pero de las recomendaciones 13.9 usuarios lo calificaron de esa forma. 

Eliminación de vídeos en YouTube

YouTube eliminó 41, 566, 114 vídeos de julio del 2019 a diciembre del 2020 en Argentina;  Bangladesh; Brasil; Colombia; Canadá; República Dominicana; Egipto; Francia; Alemania; India; Indonesia; Irán; Japón; México; Perú; Marruecos; Países Bajos; Pakistán; Filipinas; Rumania; Rusia; Arabia Saudita; Corea del Sur; España; Tailandia; Turquía; Ucrania; Emiratos Árabes Unidos; Reino Unido; Estados Unidos; Vietnam; Italia y Malasia. 

Vídeos eliminados por YouTube en diferentes países a nivel mundial. Para lo cual se utilizan parámetros como la dirección IP, si se usó  una red privada virtual (VPN) o un servidor proxy. Además considera las restricciones y lineamientos de contenido en cada país desde 2019 a 2020.

La investigación demostró que “las consecuencias de la negligencia algorítmica de YouTube simplemente son demasiado importantes como para confiar en que lo solucionen solos”. Asimismo, Mozilla comentó que las recomendaciones de videos no tenían relación con las búsquedas de los voluntarios. 

“Comenzaremos a reducir las recomendaciones de contenido límite y contenido que podría desinformar a los usuarios de manera dañina, como videos que promocionan una cura milagrosa falsa para una enfermedad grave, dicen que la tierra es plana o hacen afirmaciones descaradamente falsas sobre eventos históricos”, aclaró la plataforma continuando con su trabajo para mejorar las recomendaciones en YouTube publicado el 25 de enero del 2019.  

Una investigación de HuffPost en 2020 contó que Allie –una niña de 11 años– grabó videos que representaban fantasías sexuales de depredadores, le pedían cosas como que fingiera desmayarse frente a la cámara y se reveló que el algoritmo de YouTube recomendaba canales como el de Allie ayudando a los depredadores a contactar a menores de edad. 

“Esta inquietante investigación reveló la desventaja de la promoción algorítmica y lo que puede suceder cuando videos aparentemente inocentes que no infringen los lineamientos de la comunidad de YouTube, como videos de niños bañándose, haciendo gimnasia o abriendo las piernas, se agrupan algorítmicamente y se orientan a las personas que consumen ese contenido”, especificó el reporte.  

Entre los videos que fueron recomendados e informados a Mozilla como lamentables se han eliminado hasta el 1 de julio del 2021 una cantidad de 189 videos, el 40% de ellos se clasificaron como video no disponible, por lo que no se explica el motivo de su baja. 

Existen expertos que argumentan que no es un error de algoritmo, es el resultado del buen funcionamiento porque existen inteligencias artificiales para incentivos empresariales, y otras que priorizan el bienestar de las personas, concluyó Mozilla.