Jornada IA en la Administración de Justicia

2 de julio de 2023

Participan de la mesa inaugural, abriendo los trabajos de la Jornada Inteligencia Artificial (IA) en la Administración de Justicia, Luis García de Tejada Ricart, Director General de la Fundación Valentín de Madariaga y Oya; José Antonio Nieto Ballesteros, Consejero de Justicia, Administración Local y Función Pública de la Junta de Andalucía; Francisco Oliva Blázquez, Rector de la Universidad Pablo de Olavide; y Eduardo Gamero Casado, Catedrático de Derecho Administrativo de la Universidad Pablo de Olavide y Director de las Jornadas. Inicialmente, como un hito clave del evento, los presentes destacan la importancia de que exista un uso más humano de la IA cuanto a las acciones y decisiones en la Administración de Justicia de España.

En según lugar, los ponentes enfatizan los retos que tendrán la sociedad española y la europea ante los cambios en los servicios de justicia promovidos por la más reciente revolución digital en todo el mundo. Algo ya en marcha que seguramente afectará a la ciudadanía y a los operadores del derecho y, por lo tanto, materia indispensable a ser discutida. En este sentido, para ellos, es importante que la Administración de Justicia esté preparada e implemente algoritmos para ofrecer mejores servicios a los ciudadanos, pero que los códigos fuente no encadenen a la vez la violación de derechos fundamentales, la producción de sesgos y la discriminación. Sobre el uso de máquinas en decisiones semi o totalmente automatizadas de juzgados y tribunales, conforme ya observamos en los modelos de IA ya operando en Alemania, Estonia, Francia, Reino Unido y Suiza, debemos estar atentos a las posibles amenazas y riesgos que llegan con el uso de los algoritmos.

En tercer punto levantado por los ponentes, a pesar de las amenazas y riesgos decurrentes del uso de la IA en la Administración de Justica, se refiere a la idea de que regular no significa necesariamente impedir el uso de tecnologías que al fin y al cabo sirven para perfeccionar los servicios públicos. La IA ya ha demostrado que tiene la capacidad de mitigar, por ejemplo, los errores humanos en tareas muchas veces repetitivas y disminuir el tiempo de etapas procesales excesivamente mecánicas sea en la organización de documentos, la transcripción de notas o comunicación electrónica. De lejos, la mejora de los servicios es una de las labores más urgentes entre el sistema de justicia español y, especialmente, cuando pensamos en atender a las expectativas ciudadanas por una Administración de Justicia ágil. Nieto Ballesteros, incluso, nos pregunta ¿por qué no Andalucía también, como otras Comunidades Autónomas, ser referencia en el uso de la IA? ¿Por qué no nos inspirar en modelos de IA para una Administración de Justicia más eficiente y moderna?

RESUMEN

Nos recuerda Víctor Moreno Catena, Catedrático de Derecho Procesal de la Universidad Carlos III de Madrid y Presidente de la Fundación Inteligencia Artificial Legal (FIAL), que el uso de la IA es inevitable y los servicios automatizados cada vez más presentes en nuestra sociedad. Eso naturalmente implica riesgos e incertidumbres. Sin embargo, aún frente a algunas barreras y obstáculos generados por visiones fundamentalistas, conservadoras y anti-tecnológicas en el sector público, Moreno Catena entiende que la tarea de trabajar para la superación de sesgos y riesgos, con modelos de IA más transparentes y fiables, es un desafío tanto en el sector público cuanto en el privado. No se trata por tanto de negar y obstaculizar el uso de la IA, pues, como forma de superar posibles violaciones de derechos fundamentales, tenemos todavía alternativas para perfeccionar, por ejemplo, el problema de los datos poco o nada transparentes y, consecuentemente, el mejor entrenamiento de los modelos de IA.

De forma práctica, el Dr. Moreno Catena discute aún que la cantidad de productos algorítmicos basados en servicios de automatización o aquellos más de perfil generativo se multiplican rápidamente como el ChatGPT y el Google Bard. Eso impone al derecho el desafío de regular algo en gran medida aún desconocido para muchos y, así, ante la legítima sensación de inseguridad, propuestas de legislación más restrictivas. Por eso, el papel de la UE en la regulación del uso de la IA, particularmente, sobre el rol de los Estados miembros, es dejar como ejemplo que las normas cuyo control y seguimiento del uso de la IA estén orientadas por la no violación de derechos fundamentales, particularmente, en modelos de lectura biométrica y reconocimiento facial. Para tanto, España no podrá quedarse tan detrás de países como Estados Unidos y China cuyos aportes económicos son significativos en el desarrollo de algoritmos sea para el sector público como el sector privado.

El profesor Dr. Moreno Catena termina su intervención volviendo a la pregunta sobre las decisiones automatizadas. Acrece al debate el tema de que si los juzgados y tribunales en España deberían incorporar racionamientos jurídicos basados en experiencias internacionales comparadas. Si esto se podría hacer desde una perspectiva europea o, caso oportuno y por qué no, desde experiencias globales que hayan tenido éxito y ofrecido soluciones diferentes, innovadoras y más justas en materia de IA.

Yolanda Murillo Paños, Solutions Specific Knowledge Leader, Public Sector, en NTT Data Spain, empieza hablando de la importancia del uso de la IA para manejar grande cantidad de datos y tareas que demandan generalmente una excesiva carga manual de trabajo. Refuerza ella que ya existe suficiente evidencia científica de que algoritmos entrenados con datos de alta calidad pueden ayudar a reducir errores humanos y, por otro lado, perfeccionar la oferta de servicios hacia la ciudadanía. No obstante la positiva experiencia acumulada en este sentido, es indispensable combatir los sesgos, disminuir errores, evitar bancos de información incompletos y las tomas injustas de decisión para, así, ofrecer soluciones automatizadas menos defectuosas y que respecten garantías fundamentales. 

A seguir, Rosa María Rodríguez Curto, miembro del Grupo de Trabajo de Digitalización del Servicio Público de la Justicia de AMETIC y Vice President Sales de T-SYSTEMS Iberia, se ocupa en diferenciar entre la IA enfocada en la automatización de tareas y aquella de perfil generativo o sea modelos predictivos producidos a partir del entrenamiento de algoritmos con bases de datos ya existentes. En el caso de la ejecución de tareas de naturaleza mecánica, identificar errores y sesgos es relativamente algo más objetivo, pero, en cambio, respecto a los modelos generativos, igual a los chatbots y softwares de predicción, muchas veces entrenados por bibliotecas de Natural Processing Language, ni siempre queda claro a los usuarios que quién interactúa con ellos es una IA. Además, conforme Rodríguez Curto, los modelos generativos suelen estar programados para consultar, extraer y organizar una masiva cantidad de información de datos disponibles en internet sin muchas veces mencionar sus fuentes. Eso todavía es un gran reto para las Administraciones Publicas y la Administración de Justicia, pero también para el sector privado.

Luisa María Sanjurjo Santar, Responsable de Justicia Digital de OESIA, propone que el uso de algoritmos debe partir de una premisa solucionadora de problemas y, así, cuanto a la toma de decisiones, la principal finalidad de un modelo de IA es agregar valor a la Administración de Justicia por intermedio de mejores servicios. Sanjurjo Santar esclarece que no se trata de sustituir ni el comando ni la competencia decisoria en el sistema de justicia, pues, si enfocamos en lo que la IA puede aportar, tendremos una justicia más ágil, transparente en el cumplimento de procedimientos formales, capaz de reducir considerablemente elementos conflictivos entre diferentes procesos, ofrecer soluciones lingüísticas y proteger vidas. Sanjurjo Santar menciona el ejemplo de los chatbots que han auxiliado a mujeres víctimas de violencia de género y lo cuanto esta herramienta ha sido humanizadora al ayudar a defender derechos.  

Yolanda Murillo Paños, Solutions Specific Knowledge Leader, Public Sector, en NTT Data Spain, habló sobre el uso de tecnologías como herramienta que puede mejorar los servicios de atención a personas en el sector privado bien como ciudadanos en el sector público. Murillo Paños hace referencia a los chatbots como una posible alternativa para una justicia accesible y con un lenguaje menos técnico reduciendo de esta manera considerablemente el tiempo de espera de ciudadanos. Además, según ella, las tecnologías e implementaciones de IA en chats son perfectamente capaces de ofrecer tales servicios con validad y seguridad jurídica. Es importante resaltar que la digitalización de la justicia debe partir de sistemas estructurados y uso de datos que reflejen la necesidad de los ciudadanos y promuevan su protección. La estrategia presentada por ella como una de las más actuales en el mercado de algoritmos es la automatización de servicios con distintos productos para diferentes perfiles. Ella destaca tres ejes importantes: 1) justicia accesible y cercana a los ciudadanos; 2) justicia eficiente y ágil con el uso de la IA;  3) y la justicia transparente.

Paula Rodríguez Müller, Scientific Officer, Joint Research Centre (Comisión Europea), sin embargo no pudo estar presente, dejó una nota escrita que fue leída por el profesor Dr. Eduardo Gamero Casado. En su mensaje, Rodríguez Müller hizo algunos apuntes sobre los algoritmos de IA ya presentes en Europa y objeto de análisis de la AI Watch, una iniciativa de la Unión Europea y de la Comisión Europea, que busca acompañar el desarrollo y la aplicación del uso de la IA en el espacio europeo en materia de habilitación y evolución de tecnologías, estándares de uso y confiabilidad algorítmica. En seguida, nos recuerda Rodríguez Müller de casos interesantes sobre modelos de IA en UE. Francia, por ejemplo, ya tiene una herramienta con la capacidad de ocultar datos en escritos judiciales sin perjudicar los derechos de protección. También en Francia, un algoritmo que facilita al juez de turno soluciones judiciales más frecuentes y parecidas al caso en que el magistrado se encuentra trabajando.

En Reino Unido, los modelos de redes neuronales ya son capaces de detectar tendencias de conductas en casos que necesitan medidas de soporte y, en Holanda, un modelo de IA pone a disposición de jueces los 10 casos más cercanos a lo que él está decidiendo además de diversas herramientas procedimentales para fiscales e investigadores. En Alemania, hay un modelo que combate la pornografía infantil y combina esta misión con una actuación policial e investigativa. También la utilización de la IA con en el intuito de prevenir suicidio. Estonia, por ejemplo, hace uso de un juez robot que toma las decisiones en demandas cuyos montos sean inferiores a 7 mil euros y, caso las partes no se pongan de acuerdo, un juez de turno revisa la decisión. Suiza dispone de un algoritmo que clasifica los asuntos judiciales organizando así el archivo de su sistema de justicia. Al final, el Dr. Gamero Casado complementa la nota de Rodríguez Müller al reflexionar sobre el hecho de que Europa está comprometida con un enfoque humano del uso de la IA y con el papel antropocéntrico para la protección de los derechos fundamentales, sobre todo, por lo que se refiere a la privacidad y a la tutela judicial.

Fernández Acevedo, abogado y miembro de la Comisión de Derecho Digital del Ilustre Colegio de Abogados de Sevilla, se centra en el tema de la privacidad y la protección de datos, pero aprovecha para acordarnos de que también tenemos que estar atentos a las posibles amenazas en contra los derechos de segunda y tercera generación. Otro punto destacado por él es la idea de que la justicia, como uno de los últimos recursos para que se promueva la protección de los derechos de los ciudadanos, tiene que estar preparada. De este modo, es más que justificar el uso de las tecnologías, sino que conectarla a una consciencia amplia del derecho como se puede ver hoy en día concretamente a partir de las facilidades promovidas por aplicaciones de soporte en la mediación de conflictos jurídicos a distancia. Por otro lado, hay que estar atento a los riegos causados por una directa transposición e implementación de modelos de IA de otros países. Algoritmos, por ejemplo, que ya han afectado negativamente otros sistemas de justicia y violado la confidencialidad de datos de ciudadanos. Para él, personas, empresas y derechos de propiedad intelectual deben estar entre los objetos de nuestra atención.

Miguel Bueno Benedí, letrado de la Administración de Justicia, Juzgado de lo Penal no. 5 de Getafe, empieza su intervención haciendo referencia, por un lado, a los rápidos cambios que se dan en las administraciones públicas y en el sistema de justicia, pero que, por otro lado, lentamente entre los ciudadanos. También señala la importancia de una progresión en los servicios del sistema de justicia. Según él, un expediente judicial electrónico más eficiente puede auxiliar en el propio avance del uso de aplicaciones de IA. El punto es que cuanto más experiencia acumulada en una etapa tecnológica, más se genera know-how en las etapas siguientes. En seguida, el ponente menciona la relevancia de algoritmos que empiecen reduciendo la inmensa carga de trabajo de los funcionarios en el sistema de justicia y, por lo tanto, quizá la nuestra prioridad para una administración eficiente. Así mismo los modelos de IA que ayudan en la tramitación guiada superando al mismo tiempo las carencias de gestión procesuales. Los algoritmos pueden auxiliar en la marcación de todos los pasos previstos en los procesos judiciales y en la resolución de un determinado proceso que llegue al juez para que él solamente dicte sentencia.

Javier Hernández Díez, Subdirector General de Impulso e Innovación de Servicios Digitales de Justicia. Ministerio de Justicia. Representado por Fabiola Solino Días.

Solino Días diserta sobre los expedientes interoperables a partir de proyectos que prioricen la modernización del sistema de gestión procesal en decisiones semi o totalmente automatizadas. Las líneas estratégicas desde el Ministerio de Justicia son tres ya disponibles en https://www.mjusticia.gob.es/es, o sea, la clasificación documental, los procedimientos anonimizados y la búsqueda de similitudes. También resalta que el uso de robots puede sustituir tareas mecánicas y de la IA las tareas más complejas, pero ésta siempre bajo el control humano. La protección de datos se puede hacer con el uso de algoritmos, porque el acceso directo a los datos estará hecho por máquinas. Lenguaje sencillo hacia a la ciudadanía, resumen de documentos, lectura fácil de documentos jurídicos con pictogramas, ilustraciones etc y buscadores para los expedientes judiciales son otros ejemplos presentados por Solino Días. Por fin, concluye sobre como los modelos de IA pueden ayudar en la creación de indicadores de vulnerabilidad social y revisión de procesos.

Carlota Cuatrecasas Monforte, jueza titular del Juzgado de lo Penal no. 1 de Terrasa, y miembro del Grupo de Trabajo “Tecnología, inteligencia artificial y Administración de Justicia”, del CGPJ, subraya que las herramientas de IA deben estar enfocadas en auxiliar el trabajo del juez. Los modelos de perfil mecánico, como el análisis de documentos, textualización y notas de una vista, en el cumplimiento del principio de mediación, organización y clasificación de documentos, ya serian de gran soporte al sistema de justicia en España. Aplicaciones más mecánicas también nos aportaría conocimiento, según ella, ya que es relativamente fácil encontrar errores en algoritmos que realizan tareas repetitivas conforme determinados padrones. Eso ampara la Administración de Justicia como parte del sector público, porque genera, especialmente, el conocimiento necesario proveniente de los desaciertos en materia de programación, entrenamiento y mejora de los algoritmos. En el sector privado, diferentemente, discernir si un algoritmo ha sido utilizado de forma poco o nada transparente es algo más objetivo que en el caso de la Administración Pública. Por eso, es imprescindible pensar en las etapas de implementación de tecnologías en la Administración de Justicia. En caso de insatisfacción, una empresa privada puede decidir contratar con la competencia en cambio que, en la Administración de Justicia, una posible violación de derecho que comete un servicio algorítmico en contra a un ciudadano ya no permitiría la misma agilidad en cuanto a la búsqueda de alternativas en un mercado de softwares algorítmicos. Biogen, herramienta utilizada por la Policía Nacional, por ejemplo, para determinar el grado de reincidencia en caso de violencia de género es un avance y ejemplo del perfeccionamiento algorítmico en la protección de mujeres y niños víctimas de violencia.

Clausura

Eduardo Gamero Casado, Catedrático de Derecho Administrativo de la Universidad Pablo de Olavide y Director de las Jornadas, hace la clausura del evento poniendo de relieve que los algoritmos han de tener criterios de transparencia cuando utilizados en tomas de decisión, especialmente, en la Administración de Justicia. Los modelos de IA que no lo hacen, a la luz de lo que ya se aplica en EU, Sentencia del TJUE, no son válidos. Gamero Casado indica, como resumen de la jornada, tres oportunas líneas de actuación: 1) dar cuenta lo máximo posible de todas las posibilidades de los riesgos provenientes de modelos de IA en la Administración de Justicia, 2) priorizar medidas de apoyo de IA al sistema de justicia; y 3) los limites hasta donde se puede o no llegar un modelo de IA.

Para ver el programa completo del evento, haz click aquí.

Vídeo streaming en YouTube, haz click aquí.


(Visited 186 times, 1 visits today)
Autor / Autora
Wellington Migliari
Etiquetas
Comentarios
Deja un comentario