Algoritmo de Facebook facilita diseminación de contenido dañino y desinformación; la compañía lo sabe desde 2018

Equipos internos intentaron solucionar el problema pero cada propuesta fue descartada por los ejecutivos de la compañía

Eduardo Rivas

La compañía de redes sociales Facebook llevó a cabo en 2018 cambios en su algoritmo con el propósito de generar mayor interacción social pero, en su lugar, terminó promoviendo la diseminación contenido sensacionalista en su plataforma, problema del que la compañía estuvo al tanto por años. Este representa el más reciente descubrimiento de lo que se ha llamado los “Facebook Files” debido a que toda la información ha venido de documentos internos de la compañía obtenidos por Wall Street Journal (WSJ).

De acuerdo con la información durante el cambio al algoritmo de Facebook en el año 2018, la compañía pretendía que el usuario “mejore sus conexiones con familiares y amigos” a través de cambios en lo que se visualizaba en el newsfeed

Ante esto el fundador y CEO de la compañía, Mark Zuckerberg, incluso llegó a publicar: “Facebook es mucho trabajo por hacer, ya sea para proteger a nuestra comunidad del abuso y el odio, defenderse de la interferencia de los estados nacionales o asegurarse de que el tiempo que se pasa en Facebook sea un tiempo bien invertido”, esto afirmando que el cambio mejoraría la plataforma haciéndola más sana.

Zuckerberg insistió en que los cambios mejorarían la experiencia en la red social, brindando conexiones positivas y asegurándose de que “no la están usando para dañar a otras personas o difundir información errónea”, esto incluso a expensas de tener ganancias en el corto plazo.

También te puede interesar: Legisladores estadounidenses exigen aclarar efectos en salud mental de Instagram en adolescentes

Los documentos revelados, por otro lado, indican que en realidad el cambio en el algoritmo se debió a que la plataforma perdía el interés de los usuarios, por lo que buscaban maneras de recuperarse. Incluso, los analistas de Facebook determinaron en 2017 que las personas seguían pasando grandes cantidades de tiempo en la plataforma pero que la interacción de los usuarios y las publicaciones originales se habían reducido dando lugar a que contenidos más profesionales tomaran estos nichos y que las personas se limitaran a ser meros espectadores.

Ante esto se tenía el temor de que al dejar de participar activamente en la plataforma los usuarios eventualmente se aburrirían y dejarían por completo la red, por lo tanto los cambios que se hicieron en el algoritmo favorecieron que los usuarios visualizaran en el newsfeed las publicaciones hechas por otros usuarios con quienes tenían relaciones en lugar de contenidos de páginas o creadores de contenidos profesionales. 

 “El cambio de algoritmo dependió de una nueva fórmula que la empresa denominó internamente Interacciones Sociales Significativas” (MSI por su sigla en inglés)

La fórmula MSI otorgaba un sistema de “puntos” a un usuario y a sus publicaciones basado en las interacciones que éstas obtenían, “una reacción o compartir valía cinco puntos. Un comentario significativo valía 30 puntos”. La lógica de esto dictaba que un usuario estaría más dispuesto a interactuar con las publicaciones de los usuarios con quienes tenía una relación más estrecha.

Desde la perspectiva del problema de compromiso e interacción que los usuarios tenían en Facebook, la plataforma calificó a la nueva fórmula como un éxito total pues determinaron que las interacciones y publicaciones de los usuarios que llevaban años en descenso cambiaron la tendencia y aumentaron. 

En realidad, según WSJ, la compañía también se dio cuenta de que las personas no solamente no disfrutaban más su tiempo en la red social, al contrario, este factor empeoró.

La razón: el algoritmo beneficiaba a las publicaciones con mayor interacción de los usuarios, generalmente las publicaciones que ocuparon ese espacio fueron aquellas que generan más polémica, incentivando discusiones, “la gente dentro de Facebook comenzó a notar que esto estaba destacando efectivamente el peor tipo de contenido. Cosas que eran divisivas, realmente negativas y simplemente representaban las peores partes de la humanidad”, determinó el WSJ.

También te puede interesar: Congresista exige a Facebook y Amazon detallar medidas para erradicar desinformación sobre vacunación contra Covid-19

Después de los resultados 

Una parte específica del algoritmo es la que hace esto posible, la denominada “Downstream MSI” que predice, a partir del comportamiento colectivo de los usuarios, qué nuevos contenidos tienen más probabilidad de obtener interacciones y volverse virales favoreciendo ese contenido en las recomendaciones que hace a los usuarios en el newsfeed. Según la información en los documentos, Facebook estuvo al tanto de esto desde al menos el 2018.

De acuerdo a los documentos, la compañía no fue la única que notó que los resultados no estaban mejorando el ambiente en la red social pues se reveló un correo electrónico del CEO del sitio de noticias Buzzfeed, Jonah Peretti, quien escribió a un alto ejecutivo de Facebook, el cual no fue identificado, detallando que habían notado que el cambio en el algoritmo estaba teniendo efectos adversos.

“Mira, hacemos todas estas cosas geniales sobre los animales y el cuidado personal que son de alta calidad y deberían volverse virales, pero no lo es. En cambio, lo que se está volviendo viral son publicaciones como esta que hicimos llamada ‘21 cosas que casi todas las personas blancas son culpables de decir’, que acumuló 13,000 veces que se compartió y 16,000 comentarios en Facebook”, se lee en el correo.

Al respecto de la revelación de los documentos, Facebook publicó a través de la directora de gestión de productos Anna Stepanov su “Guía de distribución de contenidos” con la cual aseguran buscar más transparencia respecto al tema: “Si bien las normas de la comunidad dejan en claro qué contenido se elimina de Facebook porque no lo permitimos en la plataforma, las pautas de distribución de contenido dejan en claro qué contenido recibe una distribución reducida en el newsfeed porque es problemático o de baja calidad”, se lee en la publicación.

Dichos documentos evidencian que la compañía no solo sabía del problema desde que se reportaron los resultados de MSI sino que las acciones que tomaron para corregir el problema fueron completamente ineficientes.

Las acciones que se tomaron en la compañía fueron trabajo del llamado Integrity Team el cual es un grupo interno de Facebook dedicado a combatir el contenido “objetable o peligroso”, específicamente una parte de este equipo conocido como The Civic Team que estaba especializado en el contenido político y que propusieron varias soluciones al problema de MSI empezando con la más simple: deshacerse de Downstream MSI.

También te puede interesar: ¿Por qué Facebook ocultó su primer reporte de contenido viral?

Y así lo hizo, Facebook de hecho detuvo el funcionamiento de esa parte del algoritmo en Myanmar y Etiopía y solo en ciertos temas, como salud y cívica. Cuando el equipo pidió que la medida fuera implementada en más lugares a principios de 2020 la compañía se negó, una de las razones fue que el mismísimo Mark Zuckerberg expresó su preocupación de que eliminar este aspecto frenara también la diseminación de contenidos positivos.

Ante esto, Civic Team recurrió a medidas extremas y propusieron eliminar el botón de “Compartir”, esto según ellos ayudaría no a evitar que la gente publicara lo que ellos desearan en la plataforma sino a desacelerar el ritmo al que las cosas se volvían virales, no hace falta decir que la compañía descartó esta medida.

Así los equipos internos de la compañía siguieron buscando y proponiendo diversas soluciones, de las cuales estaba comprobado que reducirían el contenido negativo que el algoritmo estaba exaltando, pero la compañía rechazó uno tras otro. La razón de esto es que cada una de las soluciones afectaría al comportamiento y la identidad de Facebook y por ende sus ganancias.

Los comentaristas del WSJ, al respecto y con base en los documentos, expresaron: “Algunas de estas cosas eran bastante menores en los márgenes. Esto no afectaría las ganancias anuales de Facebook de manera significativa, incluso si iba a contener información errónea en algunos de estos casos. Y creo que realmente creían que cualquier cosa que resultara en un menor uso de Facebook es como un daño de facto al producto”.

También te puede interesar: Facebook suspende cuentas de investigadores de la Universidad de Nueva York

Pero de acuerdo con la información la compañía no descartó las medidas por completo sino que las conservaron en lo que denominaron “Medidas de rotura de vidrio”, llamadas así porque decidieron mantenerlas en reserva en caso de necesitarlas algún día, “y la idea es que lo tengas en tu bolsillo trasero. Estas herramientas funcionaron, sabían que funcionaban, no querían usarlas”. El equipo The Civic Team fue disuelto a finales de la elección presidencial estadounidense de 2020.

Hasta ahora Facebook no ha hecho cambios ni ha dado respuestas contundentes a los descubrimientos de los llamados “Facebook Files”, solamente ha contestado a ellos mediante comunicados relacionados pero que no se refieren a los descubrimientos de Wall Street Journal, quienes han indicado que las revelaciones continuarán.