Artificial Intelligence Act

19 de junio de 2023

El pasado 14 de junio de 2023, el Parlamento Europeo aprobó la Propuesta de Normativa sobre Inteligencia Artificial presentada por la Comisión Europea. El trabajo comisionado fue conducido con éxito por los relatores Brando Benifei (S&D, Italia) y Dragos Tudorache (Renew, Romania).

El principal objetivo de la normativa es proporcionar un marco legislativo en la Unión que sea «human-centric, trustworthy and safe». Según Benifei y Tudorache, el texto asegura la innovación del uso de la IA en Europa y crea oportunidades económicas a las empresas emergentes, las pymes y la industria sin dejar de proteger los derechos fundamentales, fortalecer la supervisión democrática y garantizar un sistema maduro de gobernanza y aplicación de la inteligencia artificial (IA).

A continuación presentamos un resumen de la propuesta conocida como Artificial Intelligence Act, centrándose en los artículos relacionados con la no discriminación, la protección de los derechos fundamentales, uso de datos y la transparencia algorítmica.

No discriminación:

El artículo 4 del documento prohíbe que los sistemas de IA tengan características o sistemas protegidos, es decir algoritmos no transparentes y de uso restricto, cuando se trate de decisiones de máquinas que puedan reproducir cualquier forma de discriminación. La finalidad es dar garantías jurídica en favor de la igualdad y de la no discriminación.

Protección de derechos:

El artículo 3 enfatiza el respeto por los derechos fundamentales, exigiendo que los sistemas de IA cumplan con principios de dignidad humana, libertad y democracia. Aquí, no cabe duda que el documento hace referencia a la Carta de los Derechos Fundamentales de Unión Europea, especialmente, el artículo 6, derecho a la libertad y a la seguridad; 7, respeto de la vida privada y familiar; 8, protección de datos de carácter personal; 41, el derecho a una buena administración entre otros.

Transparencia algorítmica:

El artículo 52 impone algunas obligaciones de transparencia, lo que exige que los desarrolladores proporcionen información clara y accesible sobre las capacidades, limitaciones y riesgos potenciales de los sistemas de IA.

Evaluación de riesgos:

El artículo 5 establece los requisitos de evaluación de contingencia para los sistemas de IA de alto riesgo, incluida una evaluación de los posibles impactos en los derechos fundamentales y la seguridad de las personas.

Supervisión regulatoria:

El artículo 51 establece el Consejo Europeo de Inteligencia Artificial para garantizar la aplicación coherente del reglamento y facilitar la cooperación entre los estados miembros.

Prácticas prohibidas:

El Artículo 6 prohíbe los sistemas de IA que implementan técnicas subliminales para manipular a las personas, explotar vulnerabilidades o crear dependencia.

Sistemas de IA de alto riesgo:

El artículo 54 identifica ciertas aplicaciones de IA de alto riesgo, como infraestructura crítica, educación y empleo, imponiendo obligaciones más estrictas para su desarrollo y despliegue.

Datos y gobernanza:

El artículo 61 aborda la gobernanza de datos, promoviendo la calidad, precisión y relevancia de los datos al tiempo que garantiza el cumplimiento de las normas de protección de datos.

Transparencia de los sistemas de IA:

El artículo 60 se centra en garantizar que los usuarios sean conscientes cuando interactúan con los sistemas de IA, distinguiendo entre comunicación humana y automatizada.

Evaluación de conformidad o el punto más criticado de la normativa:

El artículo 50 establece un procedimiento de evaluación de la conformidad para evaluar y certificar el cumplimiento de los sistemas de IA de alto riesgo antes de que ingresen al mercado o se utilicen. Otros puntos son la prohibición total de la IA para la vigilancia biométrica, el reconocimiento de emociones y la vigilancia predictiva. Además, los sistemas de IA generativa, a ejemplo del ChatGPT y Google Bard, deben revelar que el contenido generado por las máquinas proviene de IA bien como hacer público los sistemas de IA utilizados para influir en los votantes en elecciones consideradas de alto riesgo.

Haz un click aquí para acceder al documento original


(Visited 136 times, 1 visits today)
Autor / Autora
Wellington Migliari
Etiquetas
Comentarios
Deja un comentario