Daniel Innerarity: “La inteligencia artificial no sabrá pensar por ti”

9 mayo, 2024
Daniel Innerarity

 

Daniel Innerarity es catedrático de filosofía política y social, investigador del Ikerbasque, de la Universidad del País Vasco y director del Instituto de Gobernanza DemocráticaEl año 2004 la revista francesa Le Nouvel Observateur le incluyó en la lista de los 25 grandes pensadores del mundo.

El pasado mes de abril tuvimos la oportunidad de conversar con él en el EdTech Congress donde reflexionamos sobre qué significa la inteligencia en el ser humano y en las máquinas así como cuáles son los desafíos a los que se enfrenta la educación ante la irrupción de la inteligencia artificial (IA) y cómo esta tecnología afectará a la manera en la que enseñamos y aprendemos.

 

En su artículo sobre la inteligencia de la IA y la de los humanos, afirma que no podemos dar por hecho que la IA sea inteligente y que deberíamos preocuparnos de qué hacer con ella para que lo sea lo máximo posible. ¿Podría desarrollar esta idea?

Desde los años 50, cuando aquel famoso grupo de Dartmouth decide que esto se denominará Inteligencia Artificial, arrastramos dos problemas: sobreentender que esta tecnología es inteligente en el sentido en el que nosotros lo somos y entender que es artificial en cuanto a algo etéreo que no ocupa espacio ni lugar en la nube, cuando realmente es una tecnología muy sucia que consume mucha energía, produce mucha basura y en la que hay más gente humana trabajando de lo que el nombre artificial da a entender.

Lo que me parece que nos ha aportado más inconvenientes que ventajas es el hecho de que se llame “inteligencia” como nuestra propiedad, hecho que hace que la comparemos continuamente, que nos sintamos sustituibles por ella, o que compitamos con ella.

 

También menciona la importancia de averiguar lo específicamente humano de la inteligencia humana para saber cuáles son los límites de la IA

La IA es inteligente porque hace cosas que a nosotros nos cuestan, como calcular, gestionar muy bien una gran complejidad y cantidad de datos o descubrir patrones con facilidad. No es inteligente en el sentido de que no es consciente de lo que sabe. Es decir, no tiene un saber reflexivo, sino reflejo.

Otra diferencia es que nosotros somos bastante capaces de enfrentarnos a situaciones novedosas, para las cuales no nos han preparado. Seguramente la educación tiene mucho que ver en esto, ya que preparamos a los estudiantes, o incluso a nuestros hijos e hijas, a que tengan los recursos suficientes para manejar situaciones imprevistas. Esto, en el caso de las máquinas, no se dará, ya que, en principio, hacen aquello para lo que explícitamente se les ha programado.

La IA no es inteligente en el sentido de que no es consciente de lo que sabe: no tiene un saber reflexivo, sino reflejo.

 

¿Es correcto decir que es imposible hacer razonar a la IA?

Siempre depende de lo que se entienda por razón. Douglas Hofstadter decía que nunca nos iban a ganar las máquinas a jugar al ajedrez, y nos han ganado. No sabemos muy bien cuáles son los límites de ese artefacto que hemos diseñado. Pero a mí, personalmente, me cuesta mucho creer que nos vayan a superar.

Aquello que pensamos que es inteligente, muchas veces relacionado con profesiones en concreto, son ideas bastante banales y que ojalá fuéramos liberados de ellas. Hay cierto parecido con el trabajo industrial. La maquinización del siglo XIX, además de producir un grave conflicto social, tuvo un efecto de emancipación, librándonos de trabajos muy mecánicos, duros y manuales, con los que la gente moría. Eso ha permitido un desarrollo de la economía en el cual los humanos nos centramos en aquello que específicamente nosotros podemos aportar, en lugar de hacer cosas mecánicas o banales.

 

¿De qué nos liberará la IA? ¿Qué debería preocuparnos de la llegada masiva de la IA a todos los ámbitos?

Hay cosas que la IA hace muy bien. En el caso de un discurso de inauguración cualquiera, en el que un alcalde tiene entre cinco y diez minutos para decir unas palabras, no se hace una gran aportación intelectual, por lo que seguramente eso lo puede hacer una IA. Ahora, hay que hacerle las preguntas correctas y hay que saber orientarla en una determinada dirección. La IA no sabrá pensar por ti. Manteniendo el ejemplo, no adivinará qué medidas quieres presentar como político o qué decisiones quieres tomar. Pero una vez hemos decidido qué es lo que queremos hacer, hay toda una parte de implementación en la que los robots nos pueden ayudar mucho.

A la IA hay que hacerle las preguntas correctas y saber orientarla en una determinada dirección.

 

¿Cómo cree que la integración de la IA ha afectado a la forma en que enseñamos y aprendemos, especialmente en lo que respecta al desarrollo de habilidades y la manera en que formulamos preguntas y buscamos respuestas?

Cuando empecé a dar clase en la universidad, a principios de los años 80, lo que tenía delante era, fundamentalmente, gente con poca información. Había pocos libros, pocas bibliotecas y aún no existía Google. ¿A qué me dedicaba yo como docente? Durante el 80% de la clase daba información y el resto del tiempo ofrecía alguna clave de interpretación.

Con el transcurso del tiempo la relación se ha invertido, el rol del estudiante y el del docente ha cambiado. No se compite contra Google, porque tiene más datos que nosotros, sino que se ofrecen instrumentos para sobrevivir a la accesibilidad de información. A través de una serie de instrumentos y criterios se enseña qué hay que buscar o cómo saber si se ha encontrado lo que realmente se buscaba.

Los docentes ya no dan información, sino que ofrecen herramientas para sobrevivir a la accesibilidad de los datos.

 

¿Cuál sería el principal desafío al que se enfrenta la educación con la implementación de la IA?

El desafío al que nos enfrentamos todos es el de volver a definir qué significa “inteligente”. La primera pregunta que nos tenemos que hacer es: ¿lo puede hacer una máquina mejor que yo? Si lo puede hacer una mejor que yo, más económico e igual de bien, estamos perdidos. Segundo, ¿en qué puede consistir mi aportación? Porque la IA funciona si nosotros la ayudamos u orientamos. Tercero, ¿cómo colaboro yo con la máquina para hacer un producto mejor? Hay que distinguir bien entre tareas de las que nos podemos y nos debemos librar y aquellas aportaciones que los humanos podemos hacer de una manera significativa.

 

¿Cómo podemos garantizar que la IA se utiliza de forma ética y responsable?

Lo primero de todo, no pensar que esto es algo que viene de fuera. La IA es un producto humano con unas peculiaridades concretas. Los humanos nos hemos hecho a nosotros mismos a lo largo de la historia a través de la tecnología y la hemos incorporado a nuestra vida. Es decir, hay que pensar en la historia de la tecnología como una historia del entrelazamiento entre humanos y máquinas, una historia en la cual ahora estamos escribiendo un capítulo nuevo, con una tecnología especialmente potente y fascinante.

(Visited 19 times, 1 visits today)
Autores / Autoras
Graduada en Periodismo por la Universitat Autónoma de Barcelona (UAB), se encuentra cursando el Máster en Periodismo y Comunicación Digital en la Universitat Oberta de Catalunya (UOC) y realizando prácticas en el Observatorio de Tendencias Educativas e Innovación del eLearning Innovation Center de la UOC.