Facebook sí combate el discurso de odio de forma efectiva

Facebook responde a las acusaciones señaladas en un artículo sobre “la IA que limpiará la plataforma. Sus propios ingenieros tienen dudas”

Luis Méndez Zaldívar

Facebook argumenta que han tomado medidas proactivas para erradicar los discursos de odio que se publican en la plataforma, escribió en un blog Guy Rosen, vicepresidente de integridad de Facebook.  

El representante de la social Facebook afirma que la tecnología que han empleado para reducir el número de publicaciones con contenido de odio ha tenido un gran impacto, de acuerdo al “Informe de cumplimiento de las normas comunitarias, segundo trimestre de 2021”  la prevalencia del discurso de odio es de 0.05%, es decir, 5 de cada 10,000 vistas, una reducción de 50% respecto a los últimos tres trimestres.

El informe abarca desde el mes de abril a junio de este año, reporta que se eliminaron un total de 31.5 millones de publicaciones con contenido de odio en Facebook, en comparación a las 25.2 millones del semestre pasado.

También te puede interesar: Fiscales de EE.UU. piden cuentas a Facebook 

En Instagram se eliminaron 9.8 millones de publicaciones frente a 6.3 del semestre anterior. 

Tecnología de Facebook contra el odio

La publicación niega que la tecnología que utiliza la plataforma para combatir el discurso de odio sea inadecuada, esto a raíz de la filtración de informes internos de la compañía. 

“Los datos extraídos de documentos filtrados se están utilizando para crear una narrativa de que la tecnología que usamos para combatir el discurso de odio es inadecuada y que deliberadamente tergiversamos nuestro progreso. Esto no es verdad”, se lee en el blog. 

Rosen añade que otra de las medidas que han sido malinterpretadas es la de su innovación tecnológica, la cual detecta automáticamente contenido potencialmente percibido como discurso de odio, antes de ello, en el año 2016, las publicaciones eran notificadas a la plataformas cuando los usuarios realizaban denuncias.

El blog informa que la tecnología ha mejorado eventualmente, al inicio, 23.6%  del contenido eliminado lo detectaba la tecnología, al día de hoy, el número supera 97 por ciento. 

“Cuando comenzamos a informar nuestras métricas sobre el discurso del odio, nuestros sistemas solo detectaron de manera proactiva 23.6% del contenido que eliminamos; la mayoría de lo que eliminamos fue encontrado por personas. Ahora, ese número supera el 97%”. 

Por último, para Rosen la mejor forma de lidiar con el discurso de odio no es eliminando directamente el contenido, ya que “centrarse solo en la eliminación de contenido es la forma incorrecta de ver cómo luchamos contra el discurso de odio (…) Si algo puede ser un discurso de incitación al odio, pero no estamos lo suficientemente seguros de que cumpla con los requisitos para su eliminación, nuestra tecnología puede reducir la distribución del contenido o no recomendar grupos, páginas o personas que publican regularmente contenido que probablemente infrinja nuestras políticas”. 

También te puede interesar: Facebook entorpece publicaciones en su plataforma con “código basura” 

Respuesta a la The Facebook Files

The Verge señala que la publicación de Rosen fue respuesta a un artículo publicado el día domingo por el medio The Wall Street Journal, el cual informa que la tecnología de Inteligencia Artificial (IA) que emplea Facebook para combatir el discurso de odio es poco efectiva, de acuerdo a empleados de la compañía. 

El artículo se titula “Facebook dice que la IA limpiará la plataforma. Sus propios ingenieros tienen dudas”, la agencia de información tuvo acceso a documentos de Facebook los cuales revelan que la compañía elimina un pequeño porcentaje de contenido de odio, “según muestran los documentos, los empleados de Facebook han estimado que la compañía elimina solo una parte de las publicaciones que violan sus reglas, un porcentaje bajo de un solo dígito, dicen”. 

También te puede interesar:  De persona del año a “borrar Facebook”, una década después 

También añaden que la plataforma mermó la actividad del monitoreo a cargo del personal, para darle lugar a la IA, con ello, redujeron el número de denuncias, se hicieron dependientes a los criterios de la tecnología implementada y sobrevaloraron el éxito que esta misma tenía. 

El medio obtuvo la declaración de un empleado de Facebook quien afirma que “el problema es que no tenemos —y posiblemente nunca tendremos— un modelo que capture incluso la mayoría de los daños a la integridad, particularmente en áreas sensibles”, dijo un ingeniero senior y científico investigador de Facebook a The Wall Street Journal

Finalmente, el artículo menciona que la IA que utiliza Facebook no es capaz de identificar el contenido de los videos que circulan en la plataforma: “la IA de Facebook no puede identificar consistentemente videos de disparos en primera persona, diatribas racistas e incluso, en un episodio notable que desconcertó a los investigadores internos durante semanas, la diferencia entre peleas de gallos y accidentes automovilísticos”.