Tecnologías de reconocimiento facial son poco confiables: Nature Communications

Investigadores de varias universidades condujeron un experimento para saber si es posible saber la emoción de una persona solamente viendo sus expresiones faciales, el cual determinó que las tecnologías de reconocimiento son poco efectivas

Alejandro Wong García

Según un estudio publicado en la revista Nature Communication los algoritmos de reconocimiento de emociones que usan las tecnologías de reconocimiento facial son imprecisos y poco confiables, debido a que no se pueden reconocer las emociones de una persona a partir de sus expresiones. 

¿Cómo se hizo la investigación? Distintas universidades, por medio de equipos de investigación, formularon un experimento utilizando imágenes de actores como estímulo; la investigación empleó 604 fotografías de personas con entrenamiento actoral, las cuales evocaban emociones a partir de escenarios detallados en el libro In Character: Actors Acting de Howard Schatz’s. 

También te puede interesar: La Inteligencia Artificial en el e-commerce

Se le pidió a 839 individuos que identificaran la emoción representada en 30 escenarios; cada voluntario tenía que elegir una de 13 emociones disponibles: asombro, entretenimiento, enojo, desprecio, disgusto, vergüenza, miedo, felicidad, interés, orgullo, pena, sorpresa y tristeza.

Posteriormente los conductores del experimento usaron un sistema de aprendizaje automatizado para sacar un promedio y clasificar cada rostro con su respectiva emoción; lo que reveló que las personas utilizan gestos faciales distintos para representar la misma categoría de emociones, y que incluso las expresiones faciales similares no muestran “la misma categoría de emociones”.

“Los algoritmos de visión por computadora han sido diseñados para supuestamente ‘detectar’ la ira, la felicidad, la tristeza, etcétera, en los rostros usando sonrisas, y otras configuraciones faciales que se presume que son expresiones universales. Confiar en configuraciones estereotipadas puede permitir una predicción precisa solo si existe poca variabilidad expresiva en instancias de diferentes categorías”, se lee.

También te puede interesar: Estados Unidos busca regularizar la Inteligencia Artificial

Luego de esto, pidieron a otra muestra con 1,687 personas que adivinaran la expresión mostrada; a una parte se les permitió conocer solamente la expresión facial y a la otra se le presentó la fotografía con su escenario respectivo. Los resultados concluyeron que las poses solas no son suficientes para inferir su significado emocional, mientras que también mostraron que el contexto provisto es más influyente en la interpretación que el rostro.

“Estas configuraciones faciales pueden reflejar estereotipos occidentales: representaciones simplificadas que se consideran más aplicables de lo que realmente son”, afirmaron los investigadores. 

Según el experimento, cuando los estudios ofrecen un escenario empobrecido para una categoría emocional determinada, y se le pide a los participantes que adivinen el sentimiento de esa expresión, las personas suelen plantear consistentemente configuraciones que son similares a los estereotipos.

Las conclusiones de la investigación “son consistentes con otros estudios que han mostrado que no se puede saber las emociones de una persona a partir de sus expresiones faciales”, e incluso se considera que sus bases están fundamentadas en creencias obsoletas. Además, “las tecnologías de reconocimiento de emociones han sido consideradas incompatibles con los derechos humanos debido a sus bases pseudocientíficas”, aseguraron los científicos.