Historias 9 diciembre, 2020

Lorena Fernández: “Alimentamos algoritmos con datos parciales que no representan a la sociedad”

La investigadora ha publicado un case study sobre los sesgos en los sistemas de reconocimiento facial.
-

 

La directora de Identidad Digital en la Universidad de Deusto, Lorena Fernández Álvarez, ha realizado una investigación sobre cómo los sistemas de reconocimiento facial automáticos discriminan a algunos sectores de la población, según variables como el género y el color de la piel. El estudio se ha publicado dentro de Gendered Innovations II, un informe impulsado por la Comisión Europea que analiza cómo la perspectiva de género puede aportar nuevo conocimiento e innovación en los proyectos de I+D+i.

 

¿Cuáles son las brechas de género que se dan en los sistemas de reconocimiento facial?

 

En la investigación, hemos querido usar un enfoque más global incluyendo no solo el género sino también la interseccionalidad. Esto hace referencia a las formas cruzadas de discriminación derivadas de la pertenencia a diferentes categorías sociales, donde está el género pero también la etnia, la edad, la orientación sexual, la ubicación geográfica…. En las técnicas de reconocimiento facial, estas variables se entremezclan mucho.

 

Un ejemplo muy claro es el trabajo Gender Shades, que llevaron a cabo las investigadoras Joy Buolamwini y Timnit Gebru en el MIT en 2018. Buolamwini estaba trabajando con un proyecto de reconocimiento facial cuando se dio cuenta de que el sistema no reconocía su cara por ser una mujer negra. A partir de ahí, empezaron a analizar los softwares comerciales más usados y descubrieron que había un sesgo grande entre hombres y mujeres, pero que se incrementaba aún más en función del tono de la piel.

 

¿Qué tipo de consecuencias sociales tienen estos sesgos?

 

Puedes pensar que la consecuencia es no poder desbloquear tu móvil, algo molesto aunque con un impacto relativo. Pero va más allá, en el caso del sistema Amazon Recognition, por ejemplo, los clientes son corporaciones y administraciones públicas que están interesadas en usarlo para la seguridad y la vigilancia. Ahí la incidencia es mucho más significativa.

 

Además de los sesgos de género y raza, hay otras variables que afectan a los sistemas de reconocimiento facial, como el maquillaje. Los cosméticos faciales reducen su precisión en hasta un 76% y la razón es que no están establecidos como parámetros. Otro ejemplo claro es el del reconocimiento de las personas trans. Hay un caso famoso en Estados Unidos de una persona trans que era conductora de Uber y que tenía que viajar dos horas todos los días para ir a una oficina local  a identificarse, porque el sistema de reconocimiento automático que lleva la aplicación de Uber no reconocía su rostro.

 

Detrás de las tecnologías de inteligencia artificial muchas veces hay sesgos racistas o machistas, ¿por qué ocurre?

 

Las razones son múltiples. Por un lado, los algoritmos aprenden de una sociedad sesgada y lo que hacen es replicarlos y acrecentarlos. El ejemplo de los softwares de contratación es muy representativo, y ahí tenemos el caso de Amazon, que se hizo muy conocido. El sistema utilizaba la información previa sobre contrataciones para decidir y, como se habían contratado pocas mujeres, lo consideraba un factor para descartarlas. En base a los datos, también identificó que era mejor optar por personas que no habían tenido nunca parones profesionales, así que penalizaba a quienes habían parado para dedicar un tiempo a los cuidados. En este caso, el sesgo no es tan visible y resulta más difícil de identificar.

 

También explicas que el problema es que estamos alimentando a los algoritmos con datos parciales…

 

Sí, en el caso del reconocimiento facial automático, estamos entrenándolos con imágenes de personas de piel clara y sobre todo hombres. No estamos representando la sociedad como tal sino solo a una parte y lo más preocupante es que estamos arrastrando sesgos de bases de datos que alimentan tecnologías futuras. Hay una frase de John Herschel de 1842 que dice “un error inadvertido en una tabla logarítmica es como una roca sumergida en el agua, no sabemos cuántos naufragios ha podido causar”.

 

 

¿Qué podemos hacer para que la inteligencia artificial no discrimine?

 

Tenemos que incorporar la diversidad, tanto en los datos como en las empresas que generan los principales recursos tecnológicos. Eso es algo que se está empezando a hacer, aunque a veces es a un nivel cosmético. Hace poco leía acerca de la diferencia entre diversidad e inclusión. Diversidad es que tengas diferentes personas en la mesa, pero inclusión es que esas personas tengan voz y que sea incorporada.

 

Luego está el tema de los datos con los que están aprendiendo los algoritmos. La clave está en reflejar no solo lo que dicen las mayorías, tenemos que hacer un esfuerzo para recoger también a las minorías que se quedan fuera. No podemos decir “es que la sociedad es así y la tecnología lo único que hace es reflejarlo” porque tenemos la oportunidad de equilibrarlo. Eso es muy importante porque la tecnología ha conseguido un gran truco de magia, hacer que pensemos que va a tomar decisiones mejores que una persona. Damos por hecho que un algoritmo es neutro y no es verdad.

 

El estudio que has realizado forma parte de la estrategia Gender Equality de la Comisión Europea, ¿se están dando pasos en Europa para reducir estos sesgos?

 

Frente a otros territorios, en Europa preocupa más la parte ética y este informe está en esa línea. El objetivo del proyecto es sobre todo acercar este enfoque a las personas que están haciendo investigación e innovación para que lo incorporen en su método. El paso más importante es que desde la Comisión Europea se quiere incorporar la perspectiva de género en el próximo programa Horizonte Europa, que empieza en 2021. Es algo clave porque significa que los proyectos de I+D+i que quieran acceder a fondos europeos van a tener que incorporar ese enfoque.

 

 

 

Noticias relacionadas

El proyecto UNLOCK convierte plumas de pollo en productos agrícolas sostenibles
06/06/2025 I+D+i

El proyecto UNLOCK convierte plumas de pollo en productos agrícolas sostenibles

Tras cuatro años de investigación, el proyecto europeo liderado por Cidetec Surface Engineering prueba que las plumas de pollo pueden convertirse en materia prima sostenible para la agricultura.

Ariadna Grid, la pyme que gestiona más de 40.000 centros de transformación eléctricos

Ariadna Grid, la pyme que gestiona más de 40.000 centros de transformación eléctricos

La empresa de Amorebieta ofrece una plataforma que monitoriza la red eléctrica de baja tensión para evitar problemas o pérdidas en la red

ATE Informática impulsa la digitalización mediante inteligencia artificial en la pyme vasca
29/05/2025 I+D+i

ATE Informática impulsa la digitalización mediante inteligencia artificial en la pyme vasca

La compañía guipuzcoana se ha consolidado como un socio tecnológico de referencia para las empresas que apuestan por evolucionar en un entorno cada vez más digital.

KA-IA, inteligencia artificial para la fabricación de vehículos eléctricos más eficientes y flexibles
29/05/2025 I+D+i

KA-IA, inteligencia artificial para la fabricación de vehículos eléctricos más eficientes y flexibles

Este proyecto Hazitek estratégico, desarrollado entre 2021 y 2023, fue liderado por Gestamp y alcanzó sus objetivos en cuatro ámbitos de actuación: el diseño de producto, el diseño y valoración de proceso, la gestión de la producción y el control de calidad.

Laura Francos (SMARTPM): “Digitalizar y automatizar procesos es accesible para cualquier empresa”

Laura Francos (SMARTPM): “Digitalizar y automatizar procesos es accesible para cualquier empresa”

La empresa SMARTPM ha desarrollado la plataforma MIC para facilitar la digitalización progresiva de pymes industriales, adaptándose a distintos niveles de madurez tecnológica.

Zucchetti Spain guía a la digitalización de los procesos de gestión al tejido empresarial

Zucchetti Spain guía a la digitalización de los procesos de gestión al tejido empresarial

La firma vizcaína desarrolla soluciones de software de gestión empresarial. Cuenta con más de 4.000 clientes en el entorno industrial, servicios y asesorías, de los cuales 1.200 se ubican en Euskadi. Actualmente valora su entrada a América Latina.

FIDEGAS, más de 40 años diseñando y fabricando sistemas de detección de gases
26/05/2025 I+D+i

FIDEGAS, más de 40 años diseñando y fabricando sistemas de detección de gases

La empresa donostiarra forma parte de dos proyectos que apuestan por la sostenibilidad a través del hidrógeno: HIMUGI y H2Sarea, los cuales han recibido la subvención Hazitek de SPRI.

Hemoline desarrolla un sistema portátil multitest que obtiene un diagnóstico rápido y preciso de la hemostasia
19/05/2025 I+D+i

Hemoline desarrolla un sistema portátil multitest que obtiene un diagnóstico rápido y preciso de la hemostasia

El proyecto liderado por iLine Microsystems avanza en un dispositivo para el sector médico donde se manejan pacientes anticoagulados. Ha contado con el apoyo del Programa de Ayudas Hazitek de Grupo SPRI.

Lantek, líder mundial en software industrial que ha superado ya los 36.000 clientes

Lantek, líder mundial en software industrial que ha superado ya los 36.000 clientes

La empresa ubicada en el Parke de Álava, que ha recibido una ayuda del programa de ciberseguridad del Grupo SPRI, tiene más de 400 empleados

El proyecto EGOKIA obtiene una plataforma pionera cibersegura de aprendizaje automático colaborativo
16/05/2025 I+D+i

El proyecto EGOKIA obtiene una plataforma pionera cibersegura de aprendizaje automático colaborativo

Este proyecto Hazitek fue desarrollado por una decena de empresas y centros de investigación vascos, liderados por Mondragon Assembly.

Ir al blog

Síguenos

Canales especializados y actualidad diaria en nuestras redes.