Historias 9 diciembre, 2020

Lorena Fernández: “Alimentamos algoritmos con datos parciales que no representan a la sociedad”

La investigadora ha publicado un case study sobre los sesgos en los sistemas de reconocimiento facial.
-

 

La directora de Identidad Digital en la Universidad de Deusto, Lorena Fernández Álvarez, ha realizado una investigación sobre cómo los sistemas de reconocimiento facial automáticos discriminan a algunos sectores de la población, según variables como el género y el color de la piel. El estudio se ha publicado dentro de Gendered Innovations II, un informe impulsado por la Comisión Europea que analiza cómo la perspectiva de género puede aportar nuevo conocimiento e innovación en los proyectos de I+D+i.

 

¿Cuáles son las brechas de género que se dan en los sistemas de reconocimiento facial?

 

En la investigación, hemos querido usar un enfoque más global incluyendo no solo el género sino también la interseccionalidad. Esto hace referencia a las formas cruzadas de discriminación derivadas de la pertenencia a diferentes categorías sociales, donde está el género pero también la etnia, la edad, la orientación sexual, la ubicación geográfica…. En las técnicas de reconocimiento facial, estas variables se entremezclan mucho.

 

Un ejemplo muy claro es el trabajo Gender Shades, que llevaron a cabo las investigadoras Joy Buolamwini y Timnit Gebru en el MIT en 2018. Buolamwini estaba trabajando con un proyecto de reconocimiento facial cuando se dio cuenta de que el sistema no reconocía su cara por ser una mujer negra. A partir de ahí, empezaron a analizar los softwares comerciales más usados y descubrieron que había un sesgo grande entre hombres y mujeres, pero que se incrementaba aún más en función del tono de la piel.

 

¿Qué tipo de consecuencias sociales tienen estos sesgos?

 

Puedes pensar que la consecuencia es no poder desbloquear tu móvil, algo molesto aunque con un impacto relativo. Pero va más allá, en el caso del sistema Amazon Recognition, por ejemplo, los clientes son corporaciones y administraciones públicas que están interesadas en usarlo para la seguridad y la vigilancia. Ahí la incidencia es mucho más significativa.

 

Además de los sesgos de género y raza, hay otras variables que afectan a los sistemas de reconocimiento facial, como el maquillaje. Los cosméticos faciales reducen su precisión en hasta un 76% y la razón es que no están establecidos como parámetros. Otro ejemplo claro es el del reconocimiento de las personas trans. Hay un caso famoso en Estados Unidos de una persona trans que era conductora de Uber y que tenía que viajar dos horas todos los días para ir a una oficina local  a identificarse, porque el sistema de reconocimiento automático que lleva la aplicación de Uber no reconocía su rostro.

 

Detrás de las tecnologías de inteligencia artificial muchas veces hay sesgos racistas o machistas, ¿por qué ocurre?

 

Las razones son múltiples. Por un lado, los algoritmos aprenden de una sociedad sesgada y lo que hacen es replicarlos y acrecentarlos. El ejemplo de los softwares de contratación es muy representativo, y ahí tenemos el caso de Amazon, que se hizo muy conocido. El sistema utilizaba la información previa sobre contrataciones para decidir y, como se habían contratado pocas mujeres, lo consideraba un factor para descartarlas. En base a los datos, también identificó que era mejor optar por personas que no habían tenido nunca parones profesionales, así que penalizaba a quienes habían parado para dedicar un tiempo a los cuidados. En este caso, el sesgo no es tan visible y resulta más difícil de identificar.

 

También explicas que el problema es que estamos alimentando a los algoritmos con datos parciales…

 

Sí, en el caso del reconocimiento facial automático, estamos entrenándolos con imágenes de personas de piel clara y sobre todo hombres. No estamos representando la sociedad como tal sino solo a una parte y lo más preocupante es que estamos arrastrando sesgos de bases de datos que alimentan tecnologías futuras. Hay una frase de John Herschel de 1842 que dice “un error inadvertido en una tabla logarítmica es como una roca sumergida en el agua, no sabemos cuántos naufragios ha podido causar”.

 

 

¿Qué podemos hacer para que la inteligencia artificial no discrimine?

 

Tenemos que incorporar la diversidad, tanto en los datos como en las empresas que generan los principales recursos tecnológicos. Eso es algo que se está empezando a hacer, aunque a veces es a un nivel cosmético. Hace poco leía acerca de la diferencia entre diversidad e inclusión. Diversidad es que tengas diferentes personas en la mesa, pero inclusión es que esas personas tengan voz y que sea incorporada.

 

Luego está el tema de los datos con los que están aprendiendo los algoritmos. La clave está en reflejar no solo lo que dicen las mayorías, tenemos que hacer un esfuerzo para recoger también a las minorías que se quedan fuera. No podemos decir “es que la sociedad es así y la tecnología lo único que hace es reflejarlo” porque tenemos la oportunidad de equilibrarlo. Eso es muy importante porque la tecnología ha conseguido un gran truco de magia, hacer que pensemos que va a tomar decisiones mejores que una persona. Damos por hecho que un algoritmo es neutro y no es verdad.

 

El estudio que has realizado forma parte de la estrategia Gender Equality de la Comisión Europea, ¿se están dando pasos en Europa para reducir estos sesgos?

 

Frente a otros territorios, en Europa preocupa más la parte ética y este informe está en esa línea. El objetivo del proyecto es sobre todo acercar este enfoque a las personas que están haciendo investigación e innovación para que lo incorporen en su método. El paso más importante es que desde la Comisión Europea se quiere incorporar la perspectiva de género en el próximo programa Horizonte Europa, que empieza en 2021. Es algo clave porque significa que los proyectos de I+D+i que quieran acceder a fondos europeos van a tener que incorporar ese enfoque.

 

 

 

Noticias relacionadas

Seigarbost, la pyme guipuzcoana que ofrece cerraduras inteligentes en contenedores de residuos
17/02/2026 I+D+i

Seigarbost, la pyme guipuzcoana que ofrece cerraduras inteligentes en contenedores de residuos

La empresa ha recibido una ayuda del Grupo SPRI del programa Zabaldu para su proyecto de internacionalización

Cevisa, líder mundial en el diseño y fabricación de chaflanadoras portátiles
16/02/2026 I+D+i

Cevisa, líder mundial en el diseño y fabricación de chaflanadoras portátiles

La empresa de Vitoria, que ha recibido una ayuda del Grupo SPRI del programa de ciberseguridad industrial, vende en más de 60 países

SEIN, la pyme que tramita cada año 43.000 pedidos de suministros industriales

SEIN, la pyme que tramita cada año 43.000 pedidos de suministros industriales

Ofrece soluciones personalizadas para las principales empresas tractoras de Euskadi

Proinac, la ingeniería acústica que apuesta por la automatización

Proinac, la ingeniería acústica que apuesta por la automatización

La pyme de Erandio ha recibido una ayuda del Grupo SPRI del programa de ciberseguridad industrial

Eralki Engineering consolida su modelo industrial centrado en el diseño, fabricación e implementación de maquinaria vibrante

Eralki Engineering consolida su modelo industrial centrado en el diseño, fabricación e implementación de maquinaria vibrante

La compañía guipuzcoana ofrece soluciones a medida para manipular sólidos mediante la digitalización integral de sus procesos.

Uraldi, el fabricante de espejos tecnológicos que ha diseñado el primer sistema automático antivaho
04/02/2026 Innovación

Uraldi, el fabricante de espejos tecnológicos que ha diseñado el primer sistema automático antivaho

La empresa de Busturia, que ha recibido una ayuda del Grupo SPRI del programa Hazinnova, ofrece iluminación LED, altavoces Bluetooth® o pulsadores táctiles en sus espejos

Amebi: “¿Cómo serían las reuniones de toma de decisión si el impacto de las propuestas se viera en tiempo real?”

Amebi: “¿Cómo serían las reuniones de toma de decisión si el impacto de las propuestas se viera en tiempo real?”

La startup guipuzcoana ha optimizado su Sistema Digital de Toma de Decisiones, Axon, un modelo digital que anticipa qué va a pasar y automatiza las decisiones. La nueva versión mejora su velocidad y precisión e incorpora simuladores para que el área de Dirección pueda probar escenarios antes de ejecutarlas.

De la web 2.0 a la inteligencia artificial generativa: más de una década de evolución en donosTIK

De la web 2.0 a la inteligencia artificial generativa: más de una década de evolución en donosTIK

La empresa donostiarra combina marketing digital, formación y automatización de procesos para acompañar a pymes y profesionales en su transformación tecnológica.

Asier Albizu (Biolan): “Nuestros biosensores no utilizan reactivos tóxicos y permiten un diagnóstico muy rápido”
29/01/2026 I+D+i

Asier Albizu (Biolan): “Nuestros biosensores no utilizan reactivos tóxicos y permiten un diagnóstico muy rápido”

La empresa biotecnológica, con sede en el Campus de Zamudio y Derio de Euskadiko Parke Teknologikoa, diseña, desarrolla y fabrica íntegramente sus soluciones analíticas en Zamudio, de modo que combina innovación, digitalización y sostenibilidad. Cuenta con presencia internacional a través de sus 11 delegaciones comerciales localizadas a lo largo de...

Procesim, la startup que automatiza las tareas administrativas de las pymes

Procesim, la startup que automatiza las tareas administrativas de las pymes

La empresa, con poco más de un año de vida, ofrece sistemas integrales de procesamiento de facturas o servicios de atención al cliente

Ir al blog

Síguenos

Canales especializados y actualidad diaria en nuestras redes.