«Es el momento de actuar en los aspectos éticos de la inteligencia artificial»

20/06/2024
Retos y oportunidades de la nueva ley de la IA en la UE Óscar Alonso Llombart, profesor colaborador del máster de Inteligencia de Negocio y Big Data Analytics.

Óscar Alonso Llombart es profesor colaborador del máster de Inteligencia de Negocio y Big Data Analytics, donde imparte la asignatura Estrategia y cultura analítica, así como tutor de trabajos finales de máster. Actualmente trabaja en T-Systems Iberia como Chief Data & Analytics Officer y es responsable de la línea de gobernanza y estrategia de datos e inteligencia artificial. A lo largo de su trayectoria profesional también ha colaborado con diferentes compañías, por ejemplo Sanofi Consumer Healthcare o IBM Consulting. Y recientemente ha publicado The data strategy of the European Union (EU), towards a society driven by the ethical use of data, un artículo en el que explica la regulación del uso de los datos de conformidad con los nuevos preceptos de ética de la Unión Europea.

Alonso será el ponente del seminario web de Data Science que tendrá lugar el 9 de julio, donde hablará de la nueva ley de la IA en Europa, la gobernanza de la IA y los principales riesgos que plantea esta tecnología para las personas, entre otros aspectos. Este ingeniero, que cuenta con más de veinte años de experiencia, explorará los desafíos de implementación y adaptación que presenta una ley tan compleja, así como la importancia de la armonización con otras regulaciones internacionales para mantener la competitividad en el mercado global de la IA.

¿Qué está pasando con el desarrollo de la inteligencia artificial?

Muchas son las expectativas que hemos puesto en las tecnologías de la información y, concretamente, en la inteligencia artificial (en adelante, IA) en los últimos años. Tanto es así que, incluso en los grandes retos de la humanidad, como por ejemplo reducir la desigualdad, garantizar la paz y la justicia o revertir el cambio climático, se espera que esta tecnología tenga un papel crucial.

Con todo, es fundamental tener en cuenta cuál es el combustible que permite que la IA funcione con éxito: tiene un apetito voraz por los datos, que son la base para generar conocimiento y nuevas oportunidades.

Estamos viviendo la cuarta revolución industrial, la segunda basada en la información desde finales del siglo pasado, y exige una normativa que trate por igual la competitividad económica, la protección de la privacidad y la ética en el uso de los datos.

Así, con el objetivo de promover la economía de los datos, la Comisión Europea hace años que desarrolla y da a conocer el concepto de intercambio de datos y sus beneficios. En este sentido, la Comisión Europea ha desarrollado su propia estrategia y pretende convertirse en líder de una sociedad data-driven facilitando el intercambio de datos entre los sectores y los Estados miembros.

Por parte de la UE, en 2020, conscientes de que la era de los datos y la IA requiere nuevas reglas de juego, varios miembros del Parlamento Europeo presentaron propuestas sobre cómo la UE puede regularla mejor para impulsar la innovación, los estándares éticos y la confianza en la tecnología. 

El Parlamento Europeo ha sido una de las primeras instituciones públicas en presentar recomendaciones sobre qué normas de IA en materia de ética de datos, responsabilidad por posibles daños causados por la IA y derechos de propiedad intelectual deberían incluir.

¿Qué cambios comportará esta nueva legislación?

De manera similar al resto de la legislación tecnológica de la UE, la ley propuesta proporciona una definición de sistema de IA que pretende ser tecnológicamente neutral. En consecuencia, los sistemas de IA se definen como un software que, basado en un conjunto de objetivos definidos por el hombre, produce resultados que afectan a los entornos con los cuales interactúa. Esos resultados se generan mediante técnicas como el aprendizaje automático, el análisis estadístico, el razonamiento basado en la lógica o los enfoques basados en el conocimiento.

La regulación se articula a partir de una clasificación de los sistemas de IA que tiene en cuenta su nivel de riesgo y distingue entre los que suponen un riesgo inaceptable, los que comportan un riesgo mínimo y los que, por el contrario, son de alto riesgo.

Como se ha dicho anteriormente, el objetivo es regular principalmente los usos de los sistemas de IA, no tanto las tecnologías específicas. Se ha puesto el acento en aquellos usos identificados como de riesgo elevado o inaceptable:

  • Riesgo inaceptable: acciones con finalidad intrusiva y discriminatoria, como el uso de sistemas de reconocimiento de emociones o de vigilancia biométrica en el espacio público.
  • Alto riesgo: sistemas de inteligencia artificial que pueden llevar a cabo acciones que afectan a la salud, los derechos fundamentales, el medio ambiente o la seguridad; por ejemplo, los algoritmos de recomendación de las redes sociales.

¿Cuál es tu trabajo como ingeniero de software de gestión?

Me encuentro en medio, entre la parte técnica y la parte de cumplimiento regulador. Soy un perfil intermedio que intenta tener un conocimiento muy amplio para poder desplegar todas esas regulaciones. Mi objetivo no es implantar, sino entender los requisitos del departamento regulador y trazar un plan con el departamento técnico. No puedo hablar de tecnologías en detalle en el departamento legal ni de leyes en el departamento técnico.

¿Eso tendrá de entrada un efecto palpable? ¿O ya se están cumpliendo todos esos límites que comentas?

Yo creo que sí. El impacto de esta normativa, cuando esté plenamente en vigor, tendrá muchas consecuencias empresariales.

Desde el punto de vista profesional, el efecto más visible son las multas. Esas sanciones deben ser efectivas, proporcionadas y disuasorias, además de tener en cuenta los intereses de las pequeñas y medianas empresas (pymes) y de las empresas de nueva creación. El incumplimiento de determinadas prácticas de IA puede conllevar multas de hasta 35 millones de euros o del 7 % del volumen de negocio anual de una empresa. Otras infracciones pueden dar lugar a multas de hasta 15 millones de euros o del 3 % del volumen de negocio anual de una empresa. Facilitar información incorrecta o engañosa puede dar lugar a multas de hasta 7,5 millones de euros o del 1 % del volumen de negocio anual de una empresa. Las pymes recibirán multas más bajas. La gravedad de la multa dependerá de varios factores, por ejemplo de la naturaleza de la infracción, el tamaño de la empresa y cualquier infracción anterior.

Desde mi punto de vista las organizaciones se verán forzadas a revisar sus iniciativas de IA a fin de sopesar la innovación e incorporar los requisitos que introduce la regulación. Por ejemplo:

  • Transparencia y etiquetado: uno de los pilares de la AI Act es la transparencia. Las empresas estarán obligadas a informar a los usuarios cuando estén interactuando con una IA, lo que implica cambios en el diseño de las interfaces de usuario y los sistemas de notificación.
  • Supervisión y gobernanza: la nueva legislación también exige que haya una supervisión humana adecuada de los sistemas de IA de alto riesgo y que las empresas implanten y mantengan registros detallados de la actividad de IA que faciliten las auditorías y aseguren el cumplimiento normativo.

¿Por dónde hay que empezar, pues, para adaptarse a este nuevo marco regulador?

Lo que yo haría es identificar todos los casos de uso que tenemos sobre la mesa relacionados con la IA y crear una clasificación según los modelos de riesgo que establece Europa. Una vez hecho eso ya habremos identificado lo que es inaceptable para eliminarlo posteriormente. Debemos llevar a cabo un proceso que elimine lo que resulta inaceptable y centrarnos en lo que es de alto riesgo. Una vez identificado hay que ver qué nuevos elementos nos pide la UE: que haya un equipo detrás, documentación técnica, transparencia… y también guardar un registro de las decisiones que toma el sistema. No hay que hacerlo todo de golpe, pero sí diseñar un plan para los algoritmos más críticos.

Algunas líneas de trabajo que, desde mi punto de vista, resultan claves para iniciar la adaptación son las siguientes:

  • Evaluación de impacto en la IA: antes de implementar cualquier solución de IA, las empresas deberían realizar una evaluación de impacto que incluya análisis de riesgos y mitigaciones. 
  • Formación y desarrollo profesional: la formación sobre ética de la IA y cumplimiento normativo pasará a ser indispensable. 
  • Colaboración con reguladores y expertos: esta colaboración puede ayudar a entender mejor las expectativas reguladoras y las mejores prácticas en la industria.

¿Cómo valoras la ley y su aplicación? ¿Estamos preparados para su despliegue?

Es complicado. Nos obliga a introducir en muchos casos una serie de controles que hasta ahora no habíamos tenido en cuenta con la IA. Entre ellos un modelo de gobernanza de la inteligencia artificial, tratar temas de sesgo como, por ejemplo, las barreras de género que ha habido históricamente e introducir aspectos de transparencia para explicar tecnologías muy complejas. Detendrá la forma de innovar que se ha llevado a cabo hasta ahora, pero dará alas a otras formas de innovar. La aplicación no es nada fácil. Ahora mismo muchas empresas están parándose a analizar qué hacer a partir de ahora y hacia dónde deben ir.

La complejidad de la ley de IA puede ser un reto para las empresas que implementan herramientas de IA en la UE, sobre todo teniendo en cuenta su impacto en otros sectores y su interacción con otras legislaciones de la UE.

¿Me puedes poner ejemplos de esos otros usos que se desarrollarán?

La generación de datos sintéticos permite crear grandes volúmenes de datos que pueden utilizarse para entrenar modelos de IA cuando los datos reales son escasos, costosos de obtener o presentan problemas de privacidad. Algunas de las posibles aplicaciones son la simulación de escenarios de conducción variados para entrenar sistemas de conducción autónoma o la generación de imágenes médicas sintéticas para entrenar modelos de detección de enfermedades raras.

Por otro lado, las técnicas de explicabilidad ayudan a entender cómo toman las decisiones los modelos de IA, lo que resulta crucial para la confianza y su adopción en sectores críticos. La explicabilidad también permite identificar y corregir sesgos en los modelos de IA y promover decisiones más justas y equitativas.

En este sentido, podemos aplicar esas técnicas para explicar algoritmos de selección de personal y así asegurar que no haya sesgos discriminatorios o en el uso de la IA en decisiones judiciales, donde la transparencia en la toma de decisiones es crucial para la equidad.

¿Y eso de qué servirá?

La idea que tiene la UE es que se convierta en un estándar. Que, al fin y al cabo, Europa genere un mercado seguro de datos. Eso va muy ligado a las injusticias hacia los ciudadanos y la ética. Hasta ahora todo se encontraba en un plano voluntario, pero ahora será obligatorio para que las empresas se conviertan en organizaciones éticas en el cumplimiento de las normativas y no perjudiquen a los ciudadanos. El momento de hacerlo es ahora. Hacía mucho tiempo que hablábamos de ética y ahora ha llegado la hora de ponernos serios con un despliegue de este tipo: por fin tenemos la oportunidad de hacer las cosas como se tienen que hacer desde un plano moral.

📣 Webinar de Data Science: «Impacto del EU Artificial Intelligence Act: retos, oportunidades e ideas prácticas»

✅ ¿Quieres saber qué retos y oportunidades presenta la AI Act, la nueva propuesta legislativa de la IA en la Unión Europea? No te pierdas el nuevo webinar de Data Science con Óscar Alonso Llombart, profesor colaborador de los Estudios de Informática, Multimedia y Telecomunicación de la UOC. ¡Inscríbete aquí!

📅
Fecha y hora: 9 de julio, de 18:00 a 19:00 h.
👥 Dirigido a: Estudiantes y profesorado de ciencia de datos de la UOC, así como a cualquier profesional interesado.
💻 Formato: Sesión online en castellano vía Blackboard Collaborate, con grabación disponible en YouTube.

(Visited 35 times, 1 visits today)
Autor / Autora
Periodista
Comentarios
Deja un comentario