23 de diciembre de 2024 3:21 AM

Así funcionan los sesgos de la Inteligencia Artificial

La Inteligencia Artificial (IA) tiene un problema con el que no se contaba hasta hace unos años: está entrenada por los seres humanos. Seres imperfectos. Seres obsesivos. Son los que «entrenan» las capacidades de los algoritmos para que hagan su trabajo. Introducen las bases de datos de las que beben pero perfilan una sociedad a partir de sesgos. La razón: quienes se encargan de alimentar la máquina son, en su mayoría, hombres blancos. Por tanto, según un nuevo estudio, no representa la diversidad del mundo.

Sur Florida/ABC

Un experimento elaborado por la consultora Biko ha concluído que los principales algoritmos empleados por los sistemas de reconocimiento de imágenes de Amazon o Google etiquetan de una manera diferente a hombres y mujeres. De ahí que, a ojos de estos software, si en una imagen aparece una persona portando un martillo se relaciona automáticamente con comportamientos masculinos.

«De un tiempo a esta parte, a pesar de la fe puesta en los supuestos superpoderes de la IA, hemos tenido que asumir que ni es tan objetiva ni tan neutral como se deseaba creer. En muchas ocasiones es ineficaz, discriminatoria, sexista y racista. Algo que no resulta extraño dado que los humanos, presentes en todo el ciclo de vida de la IA, podemos trasladar nuestras subjetividades y sesgos a la máquina en todas las fases del proceso», explican en un comunicado los autores de la investigación.

En los últimos años se ha abortado esta cuestión debido al notable incremento de soluciones tecnológicas que aprovechan los avances en el campo de los algoritmos y el «aprendizaje automático» («machine learning», en inglés). Numerosos estudios han detectado sesgos en estos sistemas que han asaltado la vida cotidiana por culpa de servicios digitales que permiten, entre otras cosas, recibir sugerencias de contenidos adaptados a los intereses de cada usuario.

«En el reconocimiento de imágenes, las IAs encuentran e identifican objetos y los asocian con las etiquetas y categorías en las que se han entrenado. La mayoría de modelos pre-entrenados de IA utilizan un volumen limitado de categorías», añaden. Y sostienen que parte de los problemas de los sesgos hallados se encuentran en las etiquetas que se asocian a la información del conjunto de datos.

«Descubrir no sólo bajo qué criterio las redes neuronales clasifican las imágenes sino incluso con qué datasets se han entrenado resulta misión aún más imposible debido a la opacidad de las IA y la de sus empresas propietarias», lamenta en un artículo publicado en Medium Ujue Agudo, consultora y profesora de la UNAV. Por ejemplo, se descubrió que bajo las categorías «girl» (chica, en español) o «woman» (mujer, en español) se ordenaban más habitualmente imágenes de jóvenes posando o realizando tareas tradicionalmente asociadas a hombres. Los investigadores califican de «falta de coherencia».

«Debemos ser conscientes de que los humanos estamos presentes en todo el ciclo de vida de la IA. Dado que los humanos tenemos sesgos, estos pueden trasladarse a la IA en todas las fases de ese ciclo de vida. Nos engañamos si pensamos que podemos crear una IA objetiva, infalible y neutral. Así que debemos ser conscientes de esos sesgos y paliarlos en cada paso del ciclo. Si un sistema es predictivo, evidentemente en ocasiones la predicción puede fallar», señala en declaraciones a ABC Karlos G. Liberal, otro de los autores de la investigación. Y añade: «Las IA son sistemas predictivos y por lo tanto tienen un margen de error. Si reconocen personas o lo hacen pero no todo lo adecuadamente que se espera de ellas, se tendrá que indicar».

Un estudio de la universidad Cornell (Estados Unidos) en 2019 descubrió, entre otras cosas, que la precisión en el reconocimiento de objetos variaba si se trataba de imágenes tomadas en Estados Unidos que en países subdesarrollados donde las condiciones económicas son distintas. Sus autores señalaron que los resultados sugerían que «se necesita más trabajo« para que los sistemas de reconocimiento de objetos «funcionen igualmente bien» para personas de diferentes países y niveles de ingresos.

Hace dos años se hizo muy popular de la noche a la mañana una aplicación llamada FaceApp, que incorpora un sistema de alteración de imágenes que permite aplicar filtros de belleza, cambio de género o envejecimiento. Este inocente y divertido servicio ha servido para dar a conocer entre el público estos sesgos. Por ejemplo, si en una imagen aparece una persona con pelo largo y rasgos de mujer, el software no es capaz de detectar el objeto que sostiene como una taladradora y lo puede cambiar como un secador.

Los autores del experimento también analizaron los resultados de otra aplicación popular, CamFind. «Descubrimos que al eliminar un objeto de una fotografía, la descripción cambiaba significativamente», dicen. El sistema categorizaba a un hombre barriendo con una escoba con «vestido de mujer» pero en el momento en el que se borraba la escoba se identificaba «polo de hombre».

«Lo que encontramos en Amazon Rekognition -otro sistema de reconocimiento facial-, igual que ocurría con CamFind, es que la fotografía se etiquetaba diferente según el género aparente. Pero en este caso, o el objeto era visible en una fotografía pero no en su par, o se confundía con otro objeto, o devolvía etiquetas que parecían tener relación con el género aparente de la persona fotografiada», aseguran. En el último año, importantes firmas como Amazon o IBM que han desarrollado sistemas de reconocimiento facial han paralizado sus proyectos y han dejado de comercializarlo con los cuerpos de seguridad en Estados Unidos.

Facebook
Twitter
LinkedIn
WhatsApp

Relacionados