La Inteligencia Artificial (IA) ChatGTP no sabe nada de la formación en Trabajo Social Sanitario
1 mayo, 2024Al título le viene bien un subtitulo parecido a: «Sin embargo, genera un texto lleno de falsedades reiteradas una y otra vez».
Ni el título, ni el subtítulo son una generalización sobre los chatbots de IA, al contrario, la contextualizan en la −formación universitaria de trabajo social sanitario.
Más allá, los prados puede que sean más verdes, seguro que sí. Por ejemplo, la ayuda de la IA en el análisis de datos obtenidos mediante la clínica es una realidad constatable.
Antecedentes
Otra realidad constatable es que, en España, desde 2013, se imparte el Máster Universitario de Trabajo Social Sanitario en los Estudios de Ciencias de la Salud de la UOC. También es constatable que este máster fue y es un programa pionero a través del cual, a lo largo de estos años se han generado multitud de contenidos en abierto a los que se accede con gran rapidez desde los servidores de búsqueda comunes. Sin embargo, resulta que, para el ChatGTP, este programa universitario no existe y esto también es constatable. ¿Entonces?
Más allá de lo evidente, ¿cómo se garantiza la veracidad de los datos que manejamos? Alguien dirá que soy ingenua. No, no es ingenuidad, es una reflexión retórica para dar relieve a un hecho que cada estudiante debe poder estar al corriente.
Un primer interrogante se abre sobre el individuo, sobre quien confía en esta tecnología que sacude muchos suelos. En este caso se trata de la información referida a la formación universitaria en trabajo social sanitario. Un segundo interrogante ahonda en el primero, cuando el sujeto buscador, además, desconoce los hechos de la historia, quedará enredado en una sarta de mentiras retroalimentadas por su propio desconocimiento. Posiblemente este individuo asumirá todo como verdad. Será su verdad, pero eso ya no importa, la máquina ha emitido veredicto y ya sabemos que, la máquina enamora.
Este es un simple ejemplo de cómo la mentira, el error de los chatbots, por medio de la ignorancia de quien pregunta y, muy especialmente, de quien programa un algoritmo sesgado, se convierte en argumentos y explicaciones que siguen siendo falsas pero que disfrazadas de verdad tendrán un recorrido, incluso puede que largo, en la dimensión de lo pseudo. ¿Entonces?
Esto me ha retrotraído a un congreso sanitario, no recuerdo el nombre, pero se celebró hará unos diez o doce años. Una de las ponencias presentadas giraba alrededor de «la información que algunos profesionales proporcionaban a las personas enfermas que atendían, a sus familias, aun a sabiendas de que era incorrecta o parcial. La intención no era mentir si no evitar asumir ante los afectados que desconocían la respuesta». En otras palabras, a las preguntas de las personas enfermas o de las familias que atendían, los profesionales respondían, supieran o no la respuesta exacta; respondían por aproximación, en vez de asumir que desconocían la respuesta y luego orientar a la persona a quien sí podía darla.
Como el algoritmo lo programan humanos parece que lo han dispuesto para que el chatbot también responda aun sin tener la información que motiva este texto blog.
El susto, la estupefacción, la incredulidad
El azar siempre es juguetón. La cosa se dio inopinadamente. Hace unos días en una reunión con Melinda Jiménez Ibáñez, jefa de la Unidad de Trabajo Social Sanitario del Hospital de Sant Pau de Barcelona, surgió el asunto de la IA generativa y me comentó que en una búsqueda sobre la −formación universitaria en trabajo social sanitario− la información obtenida era nula y de dudosa fiabilidad.
Le pedí que me enviara el resultado de su búsqueda por correo-e y que pusiera en copia al profesor Daniel Rueda Estrada, director del programa del Máster Universitario de Trabajo Social Sanitario de la UOC.
Ni el profesor Rueda Estrada ni yo dábamos crédito a lo que estábamos leyendo.
El sin remedio (de momento)
Se abrió la caja de Pandora. Desde hace unos días, desde que ambos fuimos conscientes del hecho, el profesor Rueda Estrada ha dedicado algún tiempo a analizar respuestas del chatbot básicamente con relación a la formación universitaria en trabajo social sanitario de la cual, se insiste y no es baladí, la UOC es pionera en España. Durante diez años ha sido la única universidad en impartir esta formación y si nos ponemos finos, si los títulos universitarios identifican y diferencian contenidos y competencias, lo sigue siendo: de Máster Universitario de Trabajo Social Sanitario en España no hay otro más que uno, el de la UOC.
Sigo con la historia, pronto llegó un nuevo susto y el sin remedio. Las respuestas eran erróneas una y otra vez. El chatbot emitía frases de disculpa, pero no rectificaba y la información que iba obteniendo también caía en saco roto. Nada de la retroalimentación de la información que va almacenando. No me extiendo en esta parte, para no abonar la falsedad en la red que como no piensa y no discrimina, suelta lo que tiene dentro.
Ante la sorpresa de las respuestas ensambladas por el chatbot preguntamos a algunos conocedores de la IA. La respuesta humana me resultó igual de inquietante, o más, que la respuesta robótica. La respuesta humana justificaba el error del robot con explicaciones de prêt-à-porter, pero no parecía ser consciente de las consecuencias de esa mala información. ¿El humano enamorado de la máquina le permite todo y, además, lo justifica?
Quizás también sobrevaloro el hecho y es una simple anécdota.
«¡Es el algoritmo!», decían los más, conformados como si fueran cebras esperando el zarpazo del león que se huele y ve llegar corriendo a lo lejos.
«Es porque ChatGTP toma información desde antes de 2022», señalaban otros, peor me lo fiais,
Para ilustrar el hecho y la preocupación estas dos respuestas son las «respuestas tipo».
¿Y ahora qué?
Ni idea.
Circunscritos a la formación en Trabajo Social Sanitario la información disponible en el ChatGTP es falsa. La información veraz y los datos están en la red desde 2013 pero ChatGTP la ignora.
Como presentaron en el congreso mencionado y que lamento no recordar el nombre, ChatGTP da la información errónea antes que asumir que carece de los datos que le permitirían responder acertadamente. Claro que el chatbot no es humano, no sabe que miente.
De vez en cuando el profesor Rueda Estrada lo increpa y le pregunta por qué miente, el chatbot articula una disculpa al uso y también al uso, argumenta falazmente sobre sus buenas intenciones y ganas de ayudar y mejorar, pero no lo hace.
¿Quién es responsable de los errores (las pifias) de la información que articula la Inteligencia Artificial? ¿Quién pide disculpas cuando la información es, además, de errónea, claramente falsa sin matices?
¿Qué ocurre cuando el chatbot que revolucionó las navidades del 2022, ChatGTP, proporciona información falsa y sigue, una y otra vez, dicho en lenguaje coloquial, dando «gato por liebre»?
¿Cómo garantiza la legislación la veracidad de los contenidos? La legislación sobre la IA se desarrolla, no obstante, siempre va por detrás de las realidades sociales. Los primeros afectados quedan desprotegidos.
Pero cuando algún chatbot de IA reconstruye información falsa, errónea, sesgada, los afectados tienen que poder exigir su corrección y en caso de que las falsedades sigan, su retirada.
Y el algoritmo debería avisar de posibles errores en la respuesta por falta de datos.
Barcelona, 1 de mayo de 2024
Dolors Colom Masfret. Directora Científica del Máster Universitario de Trabajo Social Sanitario