Redacción BLesFacebook tuvo que disculparse por etiquetar de “Primates” a un video donde aparecían hombres negros, mostrando las falencias que tiene la inteligencia artificial utilizada por la red social.

De acuerdo a lo publicado el viernes por The New York Times, en un video del medio británico The Daily Mail con fecha 27 de junio de 2020 en el que se veía a hombres negros teniendo discusiones y altercados con policías y hombres blancos, aparecía un mensaje automatizado preguntando si querían “seguir viendo videos sobre Primates”.

La portavoz de Facebook, Dani Lever, dijo a USA TODAY en un comunicado “Este fue claramente un error inaceptable y deshabilitamos toda la función de recomendación de temas tan pronto como nos dimos cuenta de que esto estaba sucediendo para poder investigar la causa y evitar que esto vuelva a suceder”.

Lever explicó que aunque realizaron mejoras a su inteligencia artificial, saben que “no es perfecta” y que tienen “más avances que hacer”. Además expresó sus disculpas en nombre de Facebook.

“Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas”, dijo Lever.

A su vez, el exgerente de diseño de contenido,  Darci Groves, dijo a The New York Times, que un amigo le envió la captura de pantalla con el mensaje en cuestión y que luego lo publicó en un foro donde participan empleados y exempleados de la compañía, obteniendo la respuesta de un gerente de producto de Facebook Watch, que lo calificó como “inaceptable” y que la compañía estaba investigando lo sucedido.

Cabe señalar que esta no es la primera vez que ocurre algo como esto en el uso de inteligencia artificial, ya que en el 2015, fue Google quién tuvo que pedir disculpas luego que la aplicación “Fotos” de la compañía identificó a los negros como “gorilas”.

En esa oportunidad, un programador de Brooklyn tuiteó una captura de pantalla de fotos de él y otro amigo de tez oscura, que fueron etiquetadas por la aplicación como “gorilas”.

Fue el ingeniero y arquitecto en jefe de Google+, Yontan Zunger, quien respondió con rapidez al tuit diciendo que eso no estaba bien y dijo que el equipo de “Fotos” estaba buscando una solución.

En principio no encontraron una solución rápida por lo que decidieron no utilizar la etiqueta “gorila”.

Otro caso ocurrió en el 2019, cuando Facebook tuvo que levantar la prohibición de una campaña publicitaria pro-vida que utilizaba una foto de un feto, a la que la plataforma calificó en un principio como “gráfica o violenta” y luego tuvo que admitir su error.

El mensaje de disculpas de Facebook fue el siguiente:

“En este caso cometimos un error al aplicar una pantalla de advertencia sobre la imagen utilizada en el anuncio del Instituto Iona. Hemos eliminado la pantalla de advertencia y nos disculpamos por cualquier inconveniente causado”.

También sucedió que Youtube marcó como “racismo” un video de un reconocido jugador de ajedrez croata en el que hablaba de las piezas blancas contra las negras y suspendió su canal.

Luego de darse cuenta del error, la plataforma de videos, restableció el canal del ajedrecista un día después.

Estos casos no hacen más que mostrar que la inteligencia artificial utilizada por las Big Tech para etiquetar, reconocer, advertir, etc, tienen muchas falencias que seguramente seguirán produciendo estos tipos de errores.

Sebastián Arcusin – BLes.com