Ignasi Beltran: “Una regulació que empari el jo inconscient és el millor llegat que podem deixar als nostres fills”

13/07/2023
Ignasi Bertran, autor del llibre "Inteligencia artificial y neuroderechos: la protección del yo inconsciente de la persona

Ignasi Beltran de Heredia Ruiz és professor i sotsdirector de Docència dels Estudis de Dret i Ciència Política. Aquest mes de juny ha publicat el llibre Inteligencia artificial y neuroderechos: la protección del yo inconsciente de la persona, en què analitza com els algoritmes troben els patrons de conducta de la ment inconscient i com poden fer servir aquesta informació per condicionar el nostre comportament subliminalment. A més, mostra la seva ferma convicció de regular la intel·ligència artificial (IA), una qüestió que ja està a l’agenda imminent del G7

Ets expert en dret del treball. Com passes a interessar-te per les TIC i, en concret, per la intel·ligència artificial?

Ha estat un camí una mica llarg i, potser, també tortuós… Sempre he pensat que és important avaluar l’eficiència de les normes. Quan es fa una llei, també s’ha de mesurar si aconsegueix els objectius que persegueix i si ho fa amb els recursos adequats. Amb el temps, vaig començar a pensar que hi ha una estreta relació entre la psicologia i el dret. Perquè, si estem fent normes perquè les persones es comportin d’una determinada manera, és imprescindible conèixer la psicologia de la conducta dels destinataris d’aquestes regles, i així tractar d’anticipar-ne la reacció i avaluar-ne el comportament. Això em va portar a investigar sobre els avenços de la neurociència i, especialment, sobre com la tecnologia ens està ajudant a entendre el funcionament del cervell. Tot i que és un òrgan molt esquiu i encara hi ha moltes incògnites sobre el seu funcionament, a mesura que avanci el coneixement en aquest àmbit podrem aspirar a fer normes millors que permetin anticipar el comportament de les persones i, d’aquesta manera, estarem en millor disposició per aconseguir els objectius de política legislativa.

Interessant… 

D’altra banda, el dret del treball és una disciplina jurídica que ha hagut de bregar amb l’impacte dels avenços tecnològics en les relacions laborals i, òbviament, en els drets fonamentals de les persones treballadores. Per exemple, la implementació de mecanismes de vigilància i control de l’activitat laboral genera conflictes constants i es troba en revisió permanent. I, per posar un altre exemple, el debat sobre l’automatització del treball i el seu impacte en l’ocupació és una qüestió amb un llarg recorregut històric, com testifica el moviment vuitcentista luddita i la destrucció de maquinària.

El teu nou llibre va més enllà dels drets dels treballadors, perquè se centra en com s’ho fan els algoritmes per desxifrar els patrons inconscients de conducta de les persones. Però comencem pel principi. Què és l’inconscient?

És difícil de respondre. La literatura especialitzada que jo he fet servir afirma que el nostre cervell actua en un 95 % en mode inconscient. Encara que sigui una afirmació que ens incomodi, la nostra ment conscient té un paper molt secundari. De fet, s’ha suggerit que, a vegades, opera com un mer portaveu de les decisions que ja ha pres la ment inconscient. Això afecta el fet de caminar pel bosc, parlar o veure-hi amb els ulls. Ho fem sense esforç, totalment aliens a la bullícia de milers d’estímuls i ordres per segon que ha de processar el cervell per fer-ho possible. Però també succeeix quan adquireixes molta pràctica. Fixa’t quan condueixes un cotxe. Al principi, estàs totalment concentrat en el fet de canviar les marxes, en el volant, el retrovisor, el trànsit… Però, a mesura que passa el temps i adquireixes experiència, aquest comportament queda imprès en circuits neuronals a què ja no tens accés, i actues de manera automàtica al marge de la ment conscient, excepte quan hi ha un imprevist. Quan condueixes, de manera inconscient, el teu cervell processa i gestiona el moviment de les mans, els peus, l’estat del trànsit, acceleres, frenes…

Portada del llibre Inteligencia artificial y neuroderechos: la protección del yo inconsciente de la persona, en versió paper i format digital.

El nostre cervell actua en un 95 % en mode inconscient. Encara que sigui una afirmació que ens incomodi, la nostra ment conscient té un paper molt secundari. De fet, s’ha suggerit que, a vegades, opera com un mer portaveu de les decisions que ja ha pres la ment inconscient.

Però pensant en altres coses.

I arribes a casa i no saps gaire com t’ho has fet! No tenim accés a la manera com fem moltes d’aquestes coses. Està dipositada en una capa del nostre cervell insondable. Per tot això, es pot dir que la ment conscient és només l’actor secundari que es creu el protagonista de la pel·lícula. En conseqüència, el jo inconscient té un paper transcendental en la nostra vida diària i ha de ser preservat.

Les aplicacions que baixem al mòbil ens escolten i escruten el nostre comportament aparentment conscient. Desxifren com naveguem per internet i per les xarxes socials, com comprem i amb qui ens relacionem. Fins i tot podem témer que els dispositius intel·ligents que tenim a casa, tipus Alexa o Roomba, siguin petits espies. Però que arribin al nostre inconscient…

Hi ha molts dispositius que parametritzen la nostra vida personal i familiar: l’aspiradora automàtica, la nevera, els aparells d’aire condicionat, ninos, les càmeres per vigilar nadons, teteres, papereres, roba, maletes de viatge, el cotxe i, òbviament, el telèfon. I això només és el principi! Si se n’activa la connexió a la xarxa, la recopilació de totes aquestes dades permet una psicometria exhaustiva de les persones. Aquesta cartografia humana està començant a revelar patrons en el comportament, fins i tot els que estan per sota del nivell conscient. Per exemple, el meu programa de música en línia pot tenir informació sobre la meva corba emocional al llarg del temps en funció de la música que escolto. Jo no recordo com estava emocionalment fa 48 mesos, ni tampoc fa sis mesos. Aquest programa informàtic podria revelar un patró i predir els meus moments de més o menys eufòria. Tenim rellotges que, entre altres dades, capten les nostres pulsacions i ho fan mentre utilitzem el mòbil. Per aquest motiu es poden establir correlacions fortes entre aquest ús del dispositiu i les meves reaccions fisiològiques i, de nou, anticipar comportaments. Paradoxalment, lluny de recelar d’aquesta intromissió en la privacitat tan profunda, regalem aquests rellotges a menors, cada vegada més aviat. I passa el mateix amb els telèfons mòbils. D’altra banda, molts dispositius s’activen amb la veu. El registre creixent d’aquestes dades permet accedir a una riquesa d’aspectes brutal: el vocabulari, la pronunciació, l’entonació, la cadència, la inflexió i el dialecte. I això obre la porta a dimensions de la nostra personalitat, estat d’ànim o nivell sociocultural.

Així és com la intel·ligència artificial pot llegir les nostres intencions i condicionar el que farem?

La informació que obtenen aquests algoritmes extractius permet perfilar la conducta, de manera que és possible accedir a les nostres intencions i emocions i, fins i tot, aspirar a condicionar el comportament. De fet, moltes aplicacions fabriquen impulsos. Utilitzo la paraula fabricar perquè estan dissenyades específicament per inhibir l’autocontrol. Per això, moltes d’elles aconsegueixen captar la nostra atenció i, fins i tot, arriben a ser addictives.

Al teu llibre parles d’“empentetes digitals”.

Per exemple, les notificacions de les aplicacions. L’ús del color vermell i la seva ubicació a la cantonada superior dreta no és casual. Aquest disseny té un deliberat propòsit conductual, basat en estudis psicològics i neurocientífics, de generar un impuls irresistible perquè hi cliquis. Amb aquestes notificacions i les gratificacions associades s’aconsegueix enviar un missatge a la teva ment inconscient perquè et comportis compulsivament. En captar la teva atenció més temps, reveles més dimensions de la teva persona, i això permet accedir a estrats de la teva personalitat i de la teva conducta més profunds. Aquesta informació és molt valuosa perquè es pot fer servir per vendre’t coses o per tractar de condicionar el teu estat d’ànim o, fins i tot, el teu vot. De fet, les empreses pioneres en aquest àmbit han obtingut beneficis estratosfèrics gestionant aquesta informació. I ara són moltes les que han aprofitat l’avinentesa i també persegueixen aquest objectiu.

De fet, és una cosa que sempre s’ha intentat fer, no?

És cert. Però mai amb la sofisticació actual ni en aquest ordre de magnitud. De fet, fixa’t que hi ha una llei que prohibeix la publicitat subliminal. En canvi, no n’hi ha cap que faci el mateix amb l’ús d’algoritmes extractius dirigits a condicionar subliminalment la conducta, per exemple, en els videojocs i el pagament de diners per accedir a millores o recompenses. Si la ment inconscient regeix el 95 % de la nostra activitat cerebral, l’amenaça d’aquesta mena d’intromissió subliminal és inaudita. El més curiós és que l’ordenament jurídic es tendeix a ocupar només del 5 % restant. Potser hem de començar a pensar a articular instruments per protegir la resta.

Hi ha una llei que prohibeix la publicitat subliminal. En canvi, no n’hi ha cap que faci el mateix amb l’ús d’algoritmes extractius dirigits a condicionar subliminalment la conducta, per exemple, en els videojocs i el pagament de diners per accedir a millores o recompenses.

En el cas de la intel·ligència artificial, dius que l’àmbit laboral podria ser la “zona zero”.

En efecte. Malgrat que és difícil fer projeccions fiables sobre què ens oferirà el futur, tot apunta al fet que serà un àmbit en què aquest tipus de tecnologia persuasiva subliminal s’expandeixi amb més rapidesa, de manera que es converteixi en l’avantsala del que podria ser la societat del futur. La parametrització exhaustiva del comportament és un primer estadi, i el condicionament per sota del nivell conscient podria ser el següent.

També per a finalitats positives, esperem.

Ja hi ha esportistes que porten una armilla que en parametritza el rendiment físic, i alguns no juguen perquè les dades que recopila adverteixen que si ho fan es poden lesionar. Hi ha màquines que, a través de dispositius no intrusius, controlen l’activitat cerebral de les persones per evitar que tinguin microsons. Aquesta tecnologia està pensada per a conductors de tren, d’autobusos o de grues, per exemple. Recopilar dades no és dolent. Quan faig una anàlisi de sang, l’existència d’un nombre d’indicadors més elevat pot ser positiva per detectar possibles anomalies o malalties. El problema de les dades no és pròpiament que es recopilin, sinó l’ús que se’n fa. Llavors, en un context de capitalisme que vol treure beneficis de tota aquesta informació, la psicometria humana generalitzada pot descriure un escenari amenaçador per a la nostra identitat i la llibertat. Algunes corporacions tenen més informació sobre la meva vida personal de la que mai estaria disposat a compartir amb l’Estat, o bé amb els meus familiars i amics més propers. 

Davant d’aquesta situació, el teu llibre posa en relleu la necessitat de crear una mena d’“escut” respecte de les intromissions per sota de la consciència, de protegir l’“essència de l’essència” humana. Sembla que les administracions s’estan posant les piles per regular la IA. En un article al teu blog, consideres preocupant el canvi que, fa tot just un mes, s’ha introduït a l’esborrany de la pionera proposta de reglament que està preparant la Comissió Europea.

En efecte, a Europa hi ha un reglament molt important en tràmit. Té un article, el número 5, que, entre altres coses, prohibeix l’ús i la comercialització d’intel·ligència artificial que, emprant tècniques subliminals per sota del nivell conscient, condicioni la conducta. L’existència d’aquesta regla és una evidència de l’existència real del risc que tracto d’exposar al llibre. Però la proposta inicial s’ha modificat recentment, i aquesta prohibició ha quedat substancialment diluïda. Jo interpreto que aquest gir ens diu dues coses. La primera, que hi ha empreses el model de negoci de les quals depèn o dependrà d’aquest condicionament subliminal. La segona, que s’està fent pressió perquè la versió inicial es modifiqui. Si finalment s’aprova la redacció d’aquest nou esborrany, significarà que es permetrà el condicionament subliminal sempre que no tingui una “afectació considerable” i no causi un dany “significatiu”. No és un canvi positiu perquè, com a ciutadans, no hauríem de tolerar cap mena de condicionament subliminal. Cap. Ni tan sols els que, eventualment, ens poguessin aportar algun benefici. Especialment perquè s’estaria obrint la porta al fet que, com a El flautista d’Hamelín, ballem sense saber per què. 

 

Cal tallar el flux d’informació sobre la nostra vida personal i impedir que tafanegin en la part més íntima del nostre ésser. Sense aquesta psicometria exhaustiva, la desencriptació dels nostres patrons de conducta per sota del nivell conscient seria molt menys accessible i el condicionament subliminal, més remot.

I com podem mesurar si causen dany? A més, com podem saber què és conscient o inconscient?

Efectivament, aquest és un dels problemes principals. Perquè no podem saber quina part del comportament conscient s’ha vist afectat per la ment inconscient. Per aquest motiu, no s’hauria de tolerar cap mena de condicionament. 

I això com es tradueix a la pràctica?

Al llibre sondejo algunes possibles propostes. No és fàcil perquè, probablement, estem parlant d’una amenaça que encara no ha pres cos o, si ho ha fet, no en tota la seva potencialitat. És una mena d’enemic invisible. A parer meu, cal crear un escut de protecció. Per això parlo dels drets del jo inconscient de les persones. Entre altres possibles mesures, d’alguna manera cal tallar el flux d’informació sobre la nostra vida personal i impedir que tafanegin en la part més íntima del nostre ésser. Sense aquesta psicometria exhaustiva, la desencriptació dels nostres patrons de conducta per sota del nivell conscient seria molt menys accessible i el condicionament subliminal, més remot. Això no és incompatible amb la recopilació de dades per a finalitats legítimes. Per exemple, la UE preveu que els cotxes hauran de tenir una espècie de “caixa negra”, similar a la que ja tenen els avions. Aquesta recopilació de dades es regeix per dos principis molt interessants. Les dades no podran sortir d’aquí ni poden identificar la persona. I, a més, s’exigeix que aquestes dades s’hauran de reescriure constantment, de manera que no se’n podrà obtenir un registre històric. Potser hauríem de començar a exigir que tots els dispositius que ens parametritzen constantment, com el telèfon, l’aspiradora, la nevera o la rentadora, deixin d’informar sobre nosaltres i incorporin aquests principis. Encara que podem ser conscients dels riscos que afecten la nostra privacitat i les seves greus derivacions, necessitem ajuda per part del marc legislatiu per protegir-nos eficaçment enfront dels que volen treure profit de nosaltres. Ens hi juguem molt.

Els països del G7 també treballen en l’anomenat “procés d’intel·ligència artificial d’Hiroshima per tenir a final d’any una regulació per a la intel·ligència artificial generativa i les tecnologies immersives. Però aquí no hi ha ni Rússia ni els gegants asiàtics, la Xina i l’Índia. Et genera confiança? 

És difícil d’avaluar. L’efectivitat de la mesura està condicionada pel nombre d’actors que hi participin. En tot cas, del que no hi ha dubte és que cal establir un marc normatiu que sigui capaç de promoure aquests avenços tecnològics preservant els drets de les persones. Crec que la situació actual presenta, salvant les distàncies, algunes similituds amb l’estat del trànsit als carrers de Nova York a mitjan segle XIX. Com exposo en el llibre, llavors circular per la ciutat era un caos. No hi havia regles. Hi havia accidents i nombrosos embussos de carruatges i genets. Fins que a algú se li va ocórrer fer un codi de circulació perquè el trànsit fos fluid i respectuós amb tots els afectats. Al meu entendre, necessitem una mena de codi de circulació per bregar amb aquest nou context tecnològic. 

També podem fer coses des del punt de vista individual. 

En efecte, també és important conscienciar la societat dels riscos implícits si no valorem la nostra privacitat. Això és el primer pas. Fins ara, hem mostrat una passivitat inaudita. Si fa unes dècades ens haguessin dit que compartiríem aquesta informació amb estranys, no ens ho hauríem cregut. 

Com t’agradaria que estiguéssim el 2030?

M’agradaria que la societat fos conscient del valor de la privacitat i, òbviament, dels riscos associats a l’ús de la IA. En tot cas, hem de tenir molt present que aquesta poderosa tecnologia pot ser molt necessària per satisfer algunes de les mancances que tenim com a Homo sapiens. Ens pot ajudar a superar moltes de les nostres limitacions, però l’hem d’utilitzar amb intel·ligència.

Intel·ligència humana.

Hem de trobar un equilibri, complementar-nos. La intel·ligència artificial pot servir per fer avenços increïbles, però fer-la servir per dirigir la conducta de les persones…, això sobrepassa, de bon tros, el que és admissible. Perquè afecta la nostra essència com a individus. I establir una regulació que empari el jo inconscient és el millor llegat que podem deixar als nostres fills. 

Comencem per Europa…

Sí.

(Visited 128 times, 1 visits today)
Autor / Autora
Redactora de continguts.
Comentaris
Deixa un comentari