“És el moment d’actuar en els aspectes ètics de la intel·ligència artificial”
20/06/2024Óscar Alonso Llombart és professor col·laborador del màster d’Intel·ligència de Negoci i Big Data Analytics, impartint l’assignatura “Estratègia i cultura analítica”, i tutor de treballs finals de màster. Actualment, treballa a T-Systems Iberia com a Chief Data & Analytics Officer i és responsable de la línia de governança i estratègia de la dada i la intel·ligència artificial. Al llarg de la seva trajectòria professional també ha col·laborat amb diferents companyies, com ara Sanofi Consumer Healthcare o IBM Consulting. I recentment ha publicat The data strategy of the European Union (EU), towards a society driven by the ethical use of data, un article on explica la regulació de l’ús de les dades en connivència amb els nous preceptes d’ètica a la Unió Europea.
Alonso serà el ponent del webinar de Data Science que tindrà lloc el 9 de juliol, on parlarà de la nova llei de la IA a Europa, la governança de la IA i els principals riscs d’aquesta tecnologia per a les persones, entre d’altres. Enginyer amb més de 20 anys d’experiència, explorarà els desafiaments d’implementació i adaptació que la complexitat de la llei presenta, així com la importància de l’harmonització amb regulacions internacionals per mantenir la competitivitat al mercat global de la IA.
Què està passant amb el desenvolupament de la intel·ligència artificial?
Moltes són les expectatives que hem posat en les tecnologies de la informació, i concretament en la intel·ligència artificial (d’ara endavant IA) en els darrers anys. Tant és així que, fins i tot per als grans reptes de la humanitat, com ara reduir la desigualtat, garantir la pau i la justícia o revertir el canvi climàtic, s’espera que aquesta tecnologia tingui un paper crucial.
Tanmateix, és fonamental tenir en compte quin és el combustible que permet que la IA funcioni amb èxit: té un apetit voraç per les dades, que són la base per generar coneixement i noves oportunitats.
Estem vivint la quarta revolució industrial, la segona basada en la informació des de finals del segle passat, que exigeix una normativa que tracti per igual en la competitivitat econòmica, la protecció de la privadesa i l’ètica en l’ús de les dades.
Així, amb l’objectiu de promoure l’economia de les dades, la Comissió Europea fa anys que desenvolupa i donant a conèixer el concepte d’intercanvi de dades i els seus beneficis. En aquest sentit, la Comissió Europea ha desenvolupat la seva pròpia estratègia, que pretén convertir-se en el líder d’una societat data-driven, facilitant l’intercanvi de dades entre sectors i estats membres.
Per part de la UE, el 2020, conscients que l’era de les dades i la IA requereix noves regles de joc, diversos membres del Parlament Europeu van presentar propostes sobre com la UE pot regular-la millor per impulsar la innovació, els estàndards ètics i la confiança en la tecnologia.
El Parlament Europeu ha estat una de les primeres institucions públiques a presentar recomanacions sobre quines normes d’IA sobre ètica de dades, responsabilitat per danys potencials causats per IA i drets de propietat intel·lectual haurien d’incloure.
Quins canvis comportarà aquesta nova legislació?
De manera similar a la resta de legislació tecnològica de la UE, la llei proposada proporciona una definició d’un sistema d’IA que pretén ser tecnològicament neutral. En conseqüència, els sistemes d’IA es defineixen com un programari que, basat en un conjunt d’objectius definits per l’home, produeix resultats que afecten els entorns amb els quals interactua. Aquests resultats es generen mitjançant tècniques com l’aprenentatge automàtic, l’anàlisi estadística, el raonament basat en la lògica o els enfocaments basats en el coneixement.
La regulació s’articula a partir de la classificació dels sistemes d’IA tenint en compte el seu nivell de risc, distingint entre els que suposen un risc inacceptable, els que comporten un risc mínim i els que, per contra, són d’alt nivell.
Com s’ha dit anteriorment, l’objectiu és regular principalment els usos dels sistemes d’IA, i no tant les tecnologies específiques. S’ha posat l’accent en aquells usos que s’han identificat com a risc elevat o inacceptable:
- Risc inacceptable: aquelles accions amb finalitat intrusiva i discriminatòria, com l’ús de sistemes de reconeixement d’emocions, o vigilància biomètrica en espai públic.
- Alt risc: els sistemes d’intel·ligència artificial poden dur a terme accions que afecten la salut, els drets fonamentals, el medi ambient o la seguretat. Per exemple, els algorismes de recomanació de les xarxes socials.
Quina és la teva feina com a enginyer de programari de gestió?
Estic al mig entre la part tècnica i la part de compliment regulador. Soc un perfil intermedi que intenta tenir un coneixement molt ampli per poder desplegar totes aquestes regulacions. El meu objectiu no és implantar, sinó entendre els requisits del departament regulador i traçar un pla amb el departament tècnic. No puc parlar de tecnologies en detall al departament legal ni de lleis al departament tècnic.
Això tindrà un efecte palpable ara com ara? O ja s’estan complint tots aquests límits que comentes?
Jo crec que sí. L’impacte d’aquesta normativa, quan estigui plenament en vigor, tindrà moltes conseqüències empresarials.
Des d’un punt de vista professional, l’efecte més visible són les multes. Aquestes sancions han de ser efectives, proporcionades i dissuasives, i tenir en compte els interessos de les petites i mitjanes empreses (PIME) i de les empreses de nova creació. L’incompliment de determinades pràctiques d’IA pot provocar multes de fins a 35 milions d’euros o el 7 % del volum de negocis anual d’una empresa. Altres infraccions poden donar lloc a multes de fins a 15 milions d’euros o el 3% del volum de negocis anual d’una empresa. Facilitar informació incorrecta o enganyosa pot donar lloc a multes de fins a 7,5 milions d’euros o lʻ1 % del volum de negocis anual d’una empresa. Les PIME rebran multes més baixes. La gravetat de la multa dependrà de diversos factors, com ara la naturalesa de la infracció, la mida de l’empresa i qualsevol infracció anterior.
Des del meu punt de vista les organitzacions es veuran forçades a revisar les seves iniciatives de IA per tal balancejar la innovació i incorporar els requisits que introdueix la regulació. Per exemple:
- Transparència i etiquetat: Un dels pilars de l’AI Act és la transparència. Les empreses estaran obligades a informar els usuaris quan estiguin interactuant amb una IA, la qual cosa implica canvis en el disseny de les interfícies d’usuari i els sistemes de notificació.
- Supervisió i governança: La nova legislació també exigeix que hagi una supervisió humana adequada en els sistemes d’IA d’alt risc, i que les empreses implantin i mantinguin registres detallats de l’activitat d’IA per facilitar les auditories i assegurar el compliment normatiu.
Per on cal començar, doncs, per adaptar-se a aquest nou marc regulador?
El que jo faria és identificar tots els casos d’ús que tenim sobre la taula relacionats amb la IA i fer-ne una classificació segons els models de risc que diu Europa. Un cop fet això, ja identificarem el que és inacceptable per eliminar-ho posteriorment. S’ha de fer un procés per eliminar allò que és inacceptable i centrar-nos en el que és d’alt risc. Un cop identificats, cal veure quins nous elements ens demana la UE: que hi hagi un equip al darrere, documentació tècnica, transparència… i també guardar un registre de les decisions que pren el sistema. No s’ha de fer tot de cop, però sí dissenyar un pla per a aquells algoritmes més crítics.
Algunes línies de treball que, des del meu punt de vista, resulten claus per iniciar aquesta adaptació són:
- Avaluació d’impacte a la IA: Abans d’implementar qualsevol solució d’IA, les empreses haurien de fer una avaluació d’impacte que inclogui anàlisis de riscos i mitigacions.
- Formació i desenvolupament professional: La formació en ètica de la IA i en el compliment normatiu esdevindrà indispensable.
- Col·laboració amb reguladors i experts: Aquesta col·laboració pot facilitar una millor entesa de les expectatives reguladores i les millors pràctiques a la indústria.
Com valores la llei i la seva aplicació? Estem preparats per al seu desplegament?
És complicat. Ens obliga a introduir, en molts casos, una sèrie de controls que fins ara, amb el tema de la IA, no havíem tingut en compte. Entre ells, un model de governança de la intel·ligència artificial, tractar temes de biaix com ara les barreres de gènere que hi ha hagut històricament, i introduir aspectes de transparència per explicar tecnologies molt complexes. Pararà la forma innovació que s’ha dut a terme fins ara, però donarà ales a altres formes d’innovar. L’aplicació no és gens fàcil. Ara mateix, moltes empreses estan aturant-se per analitzar què fan a partir d’ara i cap a on han d’anar.
La complexitat de la llei d’IA pot ser un repte per a les empreses que implementen eines d’IA a la UE, sobretot tenint en compte el seu impacte en altres sectors i la seva interacció amb altres legislacions de la UE.
Em pots posar exemples d’aquests altres usos que es desenvoluparan?
La generació de dades sintètiques permet crear grans volums de dades que poden ser utilitzats per entrenar models d’IA quan les dades reals són escasses, costoses d’obtenir o presenten problemes de privadesa. Algunes de les possibles aplicacions són la simulació d’escenaris de conducció variats per entrenar sistemes de conducció autònoma, o la generació d’imatges mèdiques sintètiques per entrenar models de detecció de malalties rares.
D’altra banda, les tècniques d’explicabilitat ajuden a entendre com els models d’IA prenen decisions, cosa que és crucial per a la confiança i l’adopció en sectors crítics. L’explicabilitat també permet identificar i corregir biaixos als models d’IA, promovent decisions més justes i equitatives.
En aquest sentit, podem aplicar aquestes tècniques per tal d’explicar algoritmes de selecció de personal per assegurar que no hi hagi biaixos discriminatoris, o a l’ús d’IA en decisions judicials, on la transparència en la presa de decisions és crucial per a l’equitat.
I això de què servirà?
La idea que té la UE és que això esdevingui un estàndard. Que Europa generi un mercat segur de dades, al cap i a la fi. Això està molt lligat amb les injustícies dels ciutadans i l’ètica. Fins ara, tot això estava en un pla voluntari, i ara serà obligatori per tal que les empreses esdevinguin organitzacions ètiques en el compliment d’aquestes normatives i no perjudiquin els ciutadans. El moment de fer-ho és ara; feia molt de temps que parlàvem d’ètica, i ara ha arribat el moment de posar-nos seriosos amb un desplegament d’aquest tipus: per fi tenim l’oportunitat de fer les coses com s’han de fer des d’un pla moral.
📣 Webinar de Data Science: “Impacte de l’EU Artificial Intelligence Act: reptes, oportunitats i idees pràctiques”
✅ Vols saber quins reptes i oportunitats presenta l’AI Act, la nova proposta legislativa de la IA a la Unió Europea? No et perdis el nou webinar de Data Science amb Óscar Alonso Llombart, professor col·laborador dels Estudis d’Informàtica, Multimèdia i Telecomunicació de la UOC. Inscriu-te aquí!
📅 Data i hora: 9 de juliol, de 18:00 a 19:00 h.
👥 Dirigit a: Estudiants i professorat de ciència de dades de la UOC, així com a qualsevol professional interessat.
💻 Format: Sessió online en castellà via Blackboard Collaborate, amb enregistrament disponible a YouTube.