Cinc principis per a una intel·ligència artificial ètica
26/06/2024La revolució de la intel·ligència artificial (IA), ha encès un debat entorn al seu impacte sobre la societat, els mercats laborals, la ciència, la tecnologia i la salut. És urgent identificar els guanyadors i els perdedors d’aquestes tecnologies, considerant que les estadístiques globals poden amagar les bretxes creixents en les disparitats.
Hi ha consens en el fet que la IA ha de ser ètica. Les institucions de recerca i el sector públic han emès principis i directrius per a una IA ètica. No obstant això, no hi ha consens respecte al significat de IA ètica ni quins són els requisits, especificacions o bones pràctiques necessàries perquè ho sigui.
Malgrat la manca de consens, hi ha cinc principis ètics en els quals la majoria de les diferents iniciatives globals coincideixen: transparència, justícia i equitat, no maleficència, responsabilitat i privadesa. En aquest article els comentem i expliquem algunes mesures per a assolir-los.
1. Transparència
Una major transparència en l’ús de la IA és fonamental per identificar, mesurar i reparar els possibles efectes discriminatoris generats per aquests algorismes i per a validar si el seu ús és d’interès públic. La transparència facilita l’atribució de responsabilitat sobre les decisions fetes per algoritmes de IA.
Per assolir una major transparència, se suggereix que els desenvolupadors o les persones que despleguen sistemes d’IA publiquin informació respecte a l’ús, el codi font, les dades, les limitacions, i el possible impacte de la IA.
Es recomana reunir dades, estudis, resultats de recerca i altres evidències que mostrin l’eficàcia, la fiabilitat i la idoneïtat de l’ús dels sistemes d’IA per a aplicacions específiques.
Es fomenta la provisió d’explicacions “en termes no tècnics” o comprensibles per humans, per exemple, amb el dret a l’explicació del Reglament General de Protecció de Dades (RGPD).
“In any case, such processing should be subject to suitable safeguards, which should include specific information to the data subject and the right to obtain human intervention, to express his or her point of view, to obtain an explanation of the decision reached after such assessment and to challenge the decision.”
Algunes mesures alternatives se centren en la supervisió, la interacció i la mediació amb les parts interessades i el públic, i la facilitació de la denúncia.
2. Justícia, equitat i igualtat
L’ús indiscriminat de IA per a la presa de decisions, en alguns casos es pot arribar a considerar anticonstitucional, per exemple, en el cas de les eines d’avaluació de riscos en el sistema de justícia penal dels Estats Units. Incloure variables aparentment innòcues com el “codi postal” pot tenir un efecte discriminatori indirecte, ja que poden estar altament correlacionades amb característiques protegides com la raça, en particular, en els barris afroamericans.
Per tant, per a promoure la justícia, s’han de fer proves rigoroses que assegurin que els individus siguin “jutjats” pels seus mèrits propis, i no a partir de tendències dels grups als quals pertanyen, i així evitar que l’ús de IA en la presa de decisions resulti en la denegació d’oportunitats i recursos a individus per les accions d’altres individus pel sol fet de compartir algunes característiques amb ells (com per exemple, el nivell d’ingressos, gènere, origen ètnic, barri, o personalitat).
La justícia es pot expressar principalment en termes d’equitat i de prevenció, supervisió o mitigació de biaixos no desitjats i discriminació. Es pot entendre com a respecte per la diversitat, la inclusió i la igualtat. Però també com a tenir la possibilitat d’apel·lar o impugnar les decisions, i tenir dret a la reparació i el remei. També és important considerar l’accés equitatiu a la IA: a les dades i als seus beneficis.
3. No maleficència
La no maleficència vol dir que la IA mai no ha de causar danys previsibles o no intencionats. En general, està relacionada amb la seguretat i la protecció. S’han d’evitar els riscos o danys específics com la discriminació, la violació de la privacitat, o l’ús intencionat per dur a terme activitats malicioses, en particular, la generació de notícies falses o els ciberatacs. Moltes fonts afirmen que els danys poden ser inevitables, en aquest cas els riscos s’haurien d’avaluar, reduir i mitigar, i s’hauria de definir clarament l’atribució de responsabilitat.
Algunes caracteritzacions alternatives dels riscos inclouen el risc que el progrés tecnològic superi les mesures reguladores, els impactes negatius en el benestar social a llarg termini, els impactes en aspectes psicològics, emocionals o econòmics.
Les directrius de prevenció se centren principalment en mesures tècniques i estratègies de governança. Les solucions tècniques inclouen avaluacions de qualitat de dades o seguretat, i la privacitat per disseny. Les estratègies de governança proposades inclouen la cooperació activa entre els interessats, el compliment de la legislació existent o nova i l’establiment de processos de supervisió, proves, monitoratge i auditories.
4. Responsabilitat
Hi ha moltes referències a “IA responsable” (per exemple a Google o IBM), però habitualment es refereixen a principis ètics generals i no a una definició concreta de responsabilitat. En aquest cas, es recomana actuar amb integritat i deixar palesa l’atribució de responsabilitat i responsabilitat legal de manera anticipada sempre que sigui possible o, en cas contrari, centrar-se en el remei.
S’identifiquen actors molt diferents com a responsables de les accions i decisions de la IA: desenvolupadors de IA, dissenyadors, institucions o la indústria.
També hi ha divergències sobre si la IA hauria de ser considerada responsable d’una manera semblant als humans o si haurien de ser sempre els humans els únics responsables dels artefactes tecnològics.
5. Privadesa
La IA ètica considera la privadesa tant com un valor a defensar com un dret a protegir. Tot i que sovint no està definida, la privadesa es presenta freqüentment en relació amb la protecció de dades i la seguretat de les dades. Algunes fonts vinculen la privadesa amb la llibertat o la confiança.
Se suggereixen tres categories per aconseguir-la: les solucions tècniques, com la privadesa diferencial o la privadesa per disseny, la minimització de dades i el control d’accés; propostes d’investigació i conscienciació; i aproximacions reguladores, amb referències al compliment legal o la creació o adaptació de lleis i regulacions per acomodar les especificitats de la IA.
Per acabar: “The moral machine experiment”
Com a conclusió, per mostrar les dificultats de la presa de decisions automàtiques (basades en IA) comentem breument el “The moral machine experiment”.
És un “joc” en línia multilingüe que es va plantejar per recollir dades sobre com els ciutadans voldrien que els vehicles autònoms resolguessin dilemes morals en el context d’accidents inevitables, és a dir, per avaluar les expectatives socials sobre com els vehicles autònoms haurien de resoldre dilemes morals.
Es presenten situacions en les quals un vehicle autònom ha de decidir entre dos escenaris, com la següent:
A qui hauria de salvar?
Analitzant les més d’un milió de respostes, es veu que hi ha diferències culturals respecte a les preferències per a cada escenari. Algunes cultures prefereixen salvar els joves, altres les dones, i d’altres les persones d’alt estatus.
En qualsevol cas, si el sistema del vehicle autònom té accés a informació personal, qualsevol decisió no aleatòria entre dues vides sempre serà discriminatòria. Si la decisió és aleatòria, ha de considerar totes les possibilitats per igual i, per tant, també haurà d’incloure el conductor del cotxe. Fet que potser no va molt a favor de les vendes de vehicles autònoms. Per altra banda, si les vides dels conductors de cotxes autònoms són sempre prioritzades per sobre les dels vianants, possiblement la gent que “corri el risc” de ser vianant, serà la que no es pugui permetre tenir un vehicle autònom.
______________________
Referències:
[1] Harari, «Reboot for the AI Revolution».
[2] Jobin, Ienca, i Vayena, «The Global Landscape of AI Ethics Guidelines».
[3] Christin, Rosenblat, i Boyd, «Courts and Predictive Algorithms».
[4] Lepri, Oliver, i Pentland, «Ethical Machines».
[5] Awad et al., «The Moral Machine Experiment».
Aquest article és fruit de la Càtedra Internacional ARTEMISA de Ciberseguretat. Una iniciativa finançada per INCIBE a través dels fons del Pla de recuperació, transformació i resiliència, finançats per la Unió Europea (Next Generation), el projecte del Govern d’Espanya que traça el full de ruta per a la modernització de l’economia espanyola, la recuperació del creixement econòmic i la creació d’ocupació, per a la reconstrucció econòmica sòlida, inclusiva i resilient després de la crisi de la COVID-19, i per respondre als reptes de la dècada vinent.