Despacho 42: Inteligencia artificial y ética de la tecnología

1 febrero, 2022
Foto: Jehyun Sung (@jaysung) en Unsplash.

¡Nuevo episodio del podcast Despacho 42! En esta ocasión los profesores César Córcoles, Daniel Riera y Susanna Tesconi conversan sobre inteligencia artificial y ética de la tecnología con Joan Casas-Roma, profesor de los Estudios de Informática, Multimedia y Telecomunicación e investigador postdoctoral del grupo SmartLearn de la Universitat Oberta de Catalunya (UOC). Casas-Roma centra su investigación en temas de inteligencia artificial (IA) y ética, así como en la filosofía y ética de la tecnología. Puedes escuchar el episodio aquí:

Diseño ético e inteligencia artificial

El diseño ético busca prevenir e impedir, o al menos mitigar, las posibles consecuencias adversas que pueden producirse al integrar un sistema de IA en un cierto contexto. Este trabajo se basa en analizar la forma en que la IA recoge y procesa los datos, en entender cómo el sistema toma decisiones y en evaluar las posibles consecuencias perjudiciales que esas decisiones pueden tener.  

No obstante, según Joan Casas-Roma “el diseño ético es necesario pero no es suficiente”, ya que “no se pueden prever todos los posibles escenarios que una nueva tecnología o la intersección de varias tecnologías nuevas pueden crear”. “El diseño ético puede ser muy útil y necesario para prever problemas éticos en el uso de ciertas tecnologías y limitarlos o controlarlos. Pero la IA cada vez es más autónoma en todas las capas de nuestra vida y, por ello, sería ideal integrar el razonamiento moral en la IA”, explica el profesor. Y añade: “La dimensión ética de una IA equipada con moralidad artificial no solo dependería de aquellas situaciones que los ingenieros o ingenieras hubieran podido prever de entrada, sino que podría, idealmente, entender las consecuencias morales de situaciones genuinamente nuevas en las que se encontrara”.

Ahora bien, ¿cómo tendría que funcionar el razonamiento moral de la IA para identificar este tipo de situaciones? El investigador asegura que “depende de la teoría ética que aceptamos como correcta”. “Si partimos de una teoría deontológica el sistema tiene que cumplir con unas normas y axiomas y si no los cumple o hay conflicto se detecta que hay un problema; si tomamos la teoría de la virtud, que es más constructiva y expansiva, los sistemas de modalidad artificial se basan más en aprendizaje basado en casos y de extrapolación o abstracción a casos generales y, por último, si hablamos de utilitarismo sería cómo codificamos el valor o el beneficio o el perjuicio de una decisión y lo convertimos simplemente en una ecuación matemática“, ejemplifica Casas-Roma. 

El solucionismo tecnológico y los límites del lenguaje

El solucionismo tecnológico es la idea de que todos los problemas actuales y futuros van a poder solucionarse con herramientas tecnológicas, ya sea cuando la tecnología avance más o cuando tengamos más datos. Sin embargo, más allá de limitaciones que pueda haber en el diseño, o en la propia tecnología del momento, el solucionismo tecnológico hereda un problema que ya presentó en su momento el positivismo científico (la creencia de que el conocimiento auténtico sólo puede adquirirse a través de la ciencia): el problema de los límites de los modelos que utiliza.

Casas-Roma apunta algunos ejemplos de estos límites en el episodio como, por ejemplo, en el ámbito de la educación online. “En la educación online se crea un modelo del estudiantado basado en sus actividades en el campus, pero hay toda una serie de actividades que no se capturan y que seguramente no podrían capturarse como, por ejemplo, la forma de aprender de cada persona: hay personas que aprenden mejor a través de ejemplos, otras que aprenden mejor a través de entender la teoría detrás de los ejemplos, etc. Estas diferencias de la aproximación subjetiva que cada uno hace a su aprendizaje no forman parte de este modelo”, explica. 

Esto hace que no podamos tener la radiografía completa de todos los estudiantes porque es imposible. Un modelo de este tipo nos permite funcionar mejor en muchos casos, pero habrá otros casos en los que esto supone un problema porque no conocemos a esta persona y “no le daremos los recursos óptimos para que aprenda”. “Hay un tema de optimización y que al final tienes que quedarte con una representación de la mayoría de los casos y tomar decisiones generalizadas o estadísticamente correctas que nunca serán del 100%”, asegura el investigador. 

Uno de los principales problemas de los modelos es que nos los acabamos tomando como la única manera de describir el mundo y somos incapaces de hacer excepciones. “Cuando estos modelos se automatizan nos encontramos con un problema de identificar cuando las excepciones serían necesarias. Porque si todas las decisiones se automatizan ya usando estos modelos, seguramente la falta de adecuación de estos modelos ya pasa completamente desapercibida y ya ni tan solo nos damos cuenta de que el sistema no está funcionando o que es incompleto o parcial”, relata Casas-Roma. 

¿Pueden empatizar los androides con las emociones humanas?

La comunicación humana está impregnada de emociones y la forma en la que nos comunicamos nos da muchas pistas de lo que estará sintiendo una persona y qué emoción estará experimentando. Ahora bien, ¿algún día podremos llegar a empatizar con objetos de IA? ¿Qué riesgos y oportunidades podría conllevar? Según Casas-Roma, “conseguir que una inteligencia artificial pueda al menos entender o percibir que hay una emoción concreta puede ayudar a convertir estas interacciones en más naturales y más humanas, en el sentido de que quizás no tengo que decir explícitamente “estoy enfadado” cuando estoy hablando con un asistente virtual, sino que ya se percibe orgánicamente a través de la forma en cómo me comunico con esta tecnología”. 

Esto podría ser útil en el campo de la educación a través, por ejemplo, del uso de tutores personales artificiales en temas de aprendizaje en donde es muy importante, cómo profesor/a o tutor/a, identificar cuando un alumno/a siente frustración, miedo a no conocer ciertas cosas o quizás euforia porque le interesa mucho lo que hace y quiere ahondar más en un tema concreto. “Reconocer estas emociones ayudaría a los profesores humanos a proponer ejercicios más personalizados y que permitan mejorar al alumno en cada ámbito”, explica el profesor. Y añade: “Esto también sería de ayuda en los robots en el ámbito sanitario y que tratan con personas muy vulnerables, ya que si el robot puede identificar que una persona siente tristeza o miedo, el sistema puede dar cuenta de ello y puede reaccionar apropiadamente a ello”. 

No obstante, llevar las emociones al campo computacional también puede comportar algunos riesgos como, por ejemplo, la creación de un estándar de formas de relacionarse emocionalmente. “Como la mayoría de las personas reaccionan de una manera cuando están alegres, tristes o tienen miedo, esto se estandarizará y será la única forma aceptable de relacionarse de este modo. Y esto excluirá a las personas que no se relacionan de esta manera, ya sea por un caso concreto de la forma como entienden el mundo, por un tema cultural, de aprendizaje o porque simplemente son personas más introvertidas”, asegura Casas-Roma. Y concluye: “Si delegamos hasta cierto punto la comunicación emocional o las interacciones a una inteligencia artificial que pueda dar respuesta a ello en una mayoría de casos, nos arriesgamos en cierto modo a condenar al olvido, por así decirlo, todos los casos fringe o que no forman parte de este estándar”.

Enlaces del episodio 

 
(Visited 34 times, 1 visits today)
Autor / Autora
Editora de contenidos de los Estudios de Ciencias de la Salud y de los Estudios de Informática, Multimedia y Telecomunicación de la UOC.
Comentarios
Deja un comentario