La importància de l’explicabilitat en els models d’IA i els biaixos en l’entrenament de models

23/05/2025
David Masip

En el marc del cicle de seminaris dedicat a l’estudi de la intel·ligència artificial (IA), organitzat pels Estudis de Dret i Ciència Política de la UOC, el passat 15 d’octubre va tenir lloc la sessió titulada La governança de la IA. Aquesta sessió va comptar amb les ponències de quatre acadèmics de la Universitat Oberta de Catalunya (UOC). 

David Masip, director de l’Escola de Doctorat de la UOC, va presentar una ponència sobre l’ús indiscriminat dels algoritmes d’intel·ligència artificial (IA) i la necessitat de desenvolupar arquitectures que expliquin les decisions preses per aquesta tecnologia: La importància de l’explicabilitat en els models d’IA i els biaixos en l’entrenament de models.

Masip va explicar com la IA es fa servir en sectors crítics com les finances, la salut i la seguretat, on les decisions automatitzades poden afectar directament a les persones. Va subratllar la problemàtica dels sistemes actuals, que sovint es comporten com “caixes negres” difícils d’entendre, fet que genera desconeixement. Un punt clau de la seva ponència va ser la relació entre IA i biaixos socials. Va exposar exemples d’algoritmes que han comès errors en classificacions basades en raça o gènere, reflectint els biaixos presents en les dades amb què s’entrenen. Així, va defensar la necessitat de millorar la transparència i l’explicabilitat dels models d’IA per evitar aquests errors, especialment en àmbits crítics.

Finalment, Masip va apel·lar a la creació de protocols ètics i auditories més estrictes per garantir una IA justa, responsable i comprensible. Les seves paraules van deixar clar que l’avenç tecnològic no ha de ser sinònim d’opacitat ni de discriminació.

Pots veure el vídeo complet aquí:

Accedeix a aquest enllaç per veure el vídeo complet de la sessió La governança de la IA del cicle de seminaris sobre la IA.

(Visited 1 times, 1 visits today)
Autor / Autora
Comentaris
Deixa un comentari