Vicomtech: “La IA ética debe guiar el progreso tecnológico, asegurando el bienestar de las personas sin frenar la innovación”
Ante la innegable oportunidad que supone la inteligencia artificial, a nivel mundial están surgiendo cuestiones sobre sus riesgos. Y no solo tecnológica o laboralmente hablando, sino también en el plano social. ¿Es o debe ser ética la IA? La Dra. Edurne Loyarte, directora de Organización y Gobernanza de Vicomtech, explica las claves y el reto singular que supone.
¿Es ética la forma en la que se está desarrollando y extendiendo la IA?
Las tecnologías digitales emergentes como la IA introducen riesgos éticos complejos relacionados con la vigilancia, la manipulación, la autonomía y la desinformación. Esto crea la necesidad de tener una legislación a la altura de los riesgos mencionados y marcos éticos organizacionales robustos que contemplen las políticas y valores internos. En el contexto organizativo, existe una fuerte brecha entre las aspiraciones éticas de las organizaciones y la implementación práctica de los modelos éticos en los proyectos de investigación. El uso ético de las tecnologías digitales es un pilar fundamental de la investigación responsable. En Euskadi, partiendo de las directrices europeas y siendo conscientes de la importancia de la ética en estas tecnologías, se desarrollan mecanismos (entre ellos el BAIC) para poder implementar modelos éticos en las organizaciones. La clave principal está en que las personas de cada organización comulguen con los valores y el marco ético común.
¿Influye el hecho de que la IA cada vez sea más accesible para la sociedad a la hora de priorizar que sea ética?
El desarrollo de la IA se enmarca en el concepto de humanismo digital (digital humanism), que emerge en respuesta al rápido desarrollo de las tecnologías digitales y el impacto que generan en la vida humana, sus derechos, responsabilidad social y sostenibilidad. Un modelo ético debe guiar el progreso tecnológico para que se alinee con los valores humanos y éticos universales, asegurando el bienestar de las personas sin frenar la innovación.
¿De qué manera se podría considerar que la IA no esté siendo socialmente responsable?
Una IA podría no estar siendo socialmente responsable si, por un lado, está impulsada únicamente por objetivos económicos o por las capacidades tecnológicas a desarrollar en lugar de servir al desarrollo humano y al bienestar social. Por otro, si introduce riesgos éticos inaceptables o complejos relacionados con la manipulación, la autonomía y la desinformación o la protección de datos. O, por último, si no dispone de marcos adecuados de evaluación y mitigación de riesgos y marcos éticos preparados para gestionar los dilemas que emergen de estas tecnologías.
Y, de otra manera, ¿cuáles son las claves para una IA ética?
Las claves para una IA ética incluyen:
- Alineación con valores humanos y sociales: el modelo debe guiar el progreso tecnológico para que se alinee con los valores humanos y éticos universales y sirva al desarrollo humano y al bienestar social.
- Principios éticos de la Comisión Europea: incluir la solidez técnica, la seguridad, la transparencia, la gestión de datos y la privacidad y el bienestar social.
- Ética por Diseño (Ethics-by-Design): integrar los valores éticos directamente en las decisiones técnicas, de gestión y de diseño desde las fases iniciales de la innovación tecnológica.
- Evaluación y mitigación de riesgos: contar con un proceso que aborde el uso dual (civil y militar) de las tecnologías y permita la evaluación y mitigación de riesgos.
- Conciencia e implementación práctica: lograr que la investigación responsable se «respire en cada persona» para alinear los valores organizativos con los individuales. El enfoque debe ser la ética en la práctica, partiendo de los dilemas reales.
- Estructuras de gobernanza: tener un comité ético externo para asegurar un proceso de revisión ética imparcial con miembros multidisciplinares que entiendan el negocio. A su vez, tener separado del canal de conducta, un canal ético asociado a incidencias y solicitudes exclusivamente éticas.
En este contexto, ¿hay similitudes entre la IA y alguna otra tecnología anterior a la hora de buscar su desarrollo ético o estamos ante un escenario sin precedentes?
Existen sectores o tecnologías que ya conllevaban implicaciones éticas antes de la IA, como pueden ser el sector de la salud, de la seguridad o ciberseguridad, la lengua o tecnologías como la biometría o el reconocimiento de caras, por ejemplo. Sin embargo, la IA presenta un «reto singular», lo que implica diferencias. Los estudios actuales de la literatura abogan por normativas específicas y una estructura de valores que contemple las directrices de la organización y la experiencia práctica de las personas, en lugar de adaptar modelos tradicionales (desarrollados sobre todo en el ámbito médico o social). Esto sugiere que los modelos éticos anteriores no son totalmente adecuados, pero existen puntos de referencia previos.
¿Algún ejemplo de integración de la ética en proyectos reales de IA de Vicomtech?
Vicomtech ha implementado un modelo ético validado, por una parte, por un proyecto piloto (Starlight- H2020) y, por otra, por cien proyectos de investigación en activo de diferentes tecnologías y departamentos, así como de diferentes TRLs (escalas que miden la madurez de una tecnología). Todos ellos han sido evaluados éticamente para evaluar los riesgos y definir la gestión de la mitigación de los mismos en su desarrollo. Cabe citar en este aspecto la relevancia que ha tenido el cohesionar el mundo de las tecnologías digitales en las que se envuelve el centro y sus requisitos en materia legal y de gestión, con el mundo de la ética y la filosofía. Para ello Vicomtech ha contado con la ayuda de Globernance, el Instituto de Gobernanza Democrática donostiarra.
Uno de los objetivos del Grupo SPRI es la transformación digital de las empresas vascas. La impulsa a través de programas de ayuda a la digitalización como Smart Industry, BDIH Konexio, Ciberseguridad Industrial, Enpresa Digitala o Inplantalariak, entre otros.