Richard Benjamins: «Con la IA estamos llegando a resolver problemas cada vez más complejos»
01/07/2025Experto en inteligencia artificial ética, Richard Benjamins impartirá el webinar «El uso responsable de la IA: oportunidades y retos» el próximo 16 de julio. Benjamins cuenta con una dilatada trayectoria profesional como académico en varias universidades, ha colaborado con start-ups desde inicios de los años 2000, ha trabajado en grandes corporaciones como Telefónica y AXA, y también ha sido miembro de varios consejos de organizaciones sin ánimo de lucro.
Además, desde hace unos diez años forma parte de varias organizaciones internacionales (WEF, OCDE, UNESCO) como experto en inteligencia artificial, y participa en cuatro ONGs, una de ellas OdiseIA, que fundó junto a otras nueve personas independientes y que analiza el impacto social en la ética de la IA. En esta entrevista, Benjamins aborda algunos de los aspectos que tratará en el seminario online: cómo hacer un uso responsable de la IA, la importante cuestión de la regulación, y cómo ve el futuro de esta tecnología que, sin duda, ya está transformando el mundo.
Como experto que es, ¿cree que el impacto de la IA será similar al que tuvo la irrupción de internet en la década de los 90?
Yo creo que puede tener el mismo impacto, pero la diferencia que vemos es que va mucho más rápido. La inteligencia artificial está presente en el sector privado desde 2015, y sobre todo en los últimos tres años se ha democratizado muy rápidamente de las corporaciones a todos los ciudadanos. Internet tardó más tiempo en llegar a todos los ciudadanos.
Ahora, la IA generativa va muy rápido. Obviamente, no sabemos todavía si va a tener un impacto igual o mayor que internet, aunque hoy en día ya tiene mucho impacto y parece que puede tener mucho más. No podemos prever cómo va a cambiar los negocios, o la vida en general. Tenemos algunos indicios de lo que podría suceder, pero de momento todo son estimaciones y previsiones. Y opiniones, claro.
¿Cómo podemos hacer un uso responsable de la IA, sobre todo en el ámbito educativo?
No solo afecta a la educación, sino que va mucho más allá. De hecho, esta tecnología se puede aplicar a cualquier sector, y por eso es tan potente. Si afectara solo a la educación, sería una tecnología como cualquier otra, como el blockchain en el sector financiero. Pero se aplica a cualquier sector y a cualquier aspecto de nuestra vida. Esta es justamente la razón por la que es tan poderosa e importante.
Si hablamos del uso responsable, habría que diferenciar tres grandes bloques. El primero es usar la IA para el bien social, como un acto de responsabilidad con la sociedad. Tenemos mucha tecnología y podemos utilizarla para resolver problemas como el cambio climático, temas de salud, pobreza, desigualdad, hambre, etc. Básicamente, los Objetivos del Desarrollo Sostenible de las Naciones Unidas (ODS).
Luego está la segunda parte, que es utilizar esta tecnología para mejorar los productos, los negocios, optimización, que son todos usos lícitos, pero pueden tener impactos negativos no deseados y no intencionados como efectos secundarios. Y ahí entramos en el tema que aparece con frecuencia en la prensa: que la inteligencia artificial discrimina, que es opaca, que nos van a quitar los trabajos… La inteligencia artificial no se diseña para discriminar, aunque puede hacerlo, porque se utiliza de una manera determinada. Entonces, cuando hablamos de un uso responsable, eso quiere decir prever los posibles impactos negativos desde el principio y tomar medidas al respecto. Se debería hacer un gran esfuerzo para minimizar estos efectos negativos.
¿Y cuál es el tercer gran bloque?
El tercer bloque es el uso irresponsable, para hacer el mal. Aquí estamos hablando de delitos, de temas que ya están prohibidos, pero, como siempre pasa en la vida, hay un porcentaje de personas que usa las tecnologías para hacer daño y para sus propios beneficios en detrimento de otros.
Obviamente, esta última parte es un uso irresponsable, y tenemos que hacer todo lo posible para evitarlo, pero hagamos lo que hagamos, va a ocurrir. El bloque que más deberíamos trabajar es el segundo, que es en el que se enfoca la regulación que está viniendo: evitar los efectos secundarios negativos, aunque no sean intencionados.
A la hora de hablar del uso responsable de la IA, hay que diferenciar entre tres grandes bloques: el uso de la IA para el bien social; el uso de esta tecnología para mejorar los productos y los negocios y, por último, el uso irresponsable de la IA para hacer el mal.
¿Podría ampliar la cuestión de la regulación, que obviamente es muy importante? ¿Qué marco regulatorio debería seguirse, en su opinión?
Yo creo que hay que regular el uso de la tecnología y no la tecnología en sí. De hecho, cuando hablamos de la regulación europea, se regulan algunos usos que se consideran de alto riesgo. Por ejemplo, en contratación: si contratas, despides o promocionas a personas, y la recomendación viene de un sistema de inteligencia artificial, se considera de alto riesgo por el impacto que puede tener en las personas. Entonces la regulación dice que el sistema tiene que estar diseñado para que siempre haya una persona que pueda hacer una supervisión adecuada.
La regulación de la IA es importante, porque no todas las empresas que usan esta tecnología intentan minimizar los riesgos éticos por voluntad propia. Si todas las empresas lo hicieran, no haría falta y con la autorregulación sería suficiente. Obviamente, la tecnología va muy rápido, y es difícil regular algo que todavía no sabes cómo va a funcionar o qué podría llegar a hacer.
¿Y la regulación presenta diferencias según la geografía?
Sí, se suele decir que Estados Unidos innova, China copia y Europa regula. En este sentido, mi opinión es que la regulación no es un impedimento para innovar. Aunque es verdad que en Europa sí que hay mucha regulación, porque no solo está el reglamento de inteligencia artificial, sino que hay una cantidad de regulaciones que en su origen son buenas, pero que pueden generar mucha burocracia. Y habría que minimizar la burocracia lo máximo posible para que no obstruya la innovación.
¿Qué diferencias ve entre los diferentes asistentes de IA que existen? Tenemos una oferta bastante amplia: ChatGPT (de OpenAI), Copilot (de Microsoft), Gemini (de Google), MetaAI …
La tecnología sigue el mismo principio, aunque los datos para el entrenamiento que usan son distintos, y por eso las respuestas son ligeramente diferentes. Si tú pones la misma consulta en cuatro o cinco asistentes, todas las respuestas tienen que ver entre ellas. Puede haber distintas formulaciones, distintos hechos, o distintos errores, aunque tampoco son tan diferentes. Obviamente, si buscas algo concreto para una tarea concreta, puede funcionar mejor Gemini, o a lo mejor OpenAI o incluso Perplexity. Hay pequeñas diferencias, pero todos funcionan de la misma manera en su base.
Una cosa que es verdad es que Google es mucho más cauto en lanzar cosas que OpenAI. Por eso OpenAI muchas veces es la primera en llegar, porque la IA es su único negocio. En cambio, Google tiene su negocio tradicional y además tiene Gemini, y si hace algo mal, puede tener un impacto en su negocio tradicional de publicidad. Por este motivo creo que Google suele ser bastante más cauto.
La regulación de la IA es importante, porque no todas las empresas que usan esta tecnología intentan minimizar los riesgos éticos por voluntad propia.
Imagino que todas estas temáticas se abordarán el próximo 16 de julio en el seminario “El uso responsable de la IA: oportunidades y retos”. ¿Qué más nos podría decir del evento?
Para mí es muy importante que las personas entiendan cómo funciona la tecnología, para que luego puedan actuar en consecuencia. Porque si no tienes ningún conocimiento de cómo funciona la IA, o solo lo que lees en prensa o en libros, no tienes el criterio para valorar si lo que lees es verdad o no.
Entonces, en este seminario explicaré cuáles son las bases de esas tecnologías que están hoy en día en el mercado, hablaré de cuáles son las oportunidades, y explicaré algunos de los riesgos, que son fáciles de entender si se entiende cómo funciona la tecnología que está por debajo. Por eso es importante conocer algo, para poder poner los riesgos en contexto. El último punto que abordaré será cómo tratar esos riesgos, a nivel teórico, pero sobre todo a nivel práctico. Responderé a las preguntas: ¿Qué tengo que hacer yo como organización? ¿Si quiero usar la IA, cómo hacerlo de una manera responsable? ¿Y en qué consistirá mi día a día?
Por último, ¿cómo ve el futuro de la IA? ¿Cree que apenas estamos rozando la superficie de lo que vendrá pronto?
Aquí hay dos temas. El primero es que si me hubieras preguntado hace cinco años si sería posible lo que es posible hoy, te habría dicho que no. Porque siempre habíamos estado luchando con el lenguaje natural; los chatbots funcionaban mal en todos los sitios. Y de repente es facilísimo, porque hay algo por detrás en lo que se ha invertido mucho y que funciona muy bien. Si vamos a otra revolución de este estilo, podría ser. Nadie lo sabe. En cualquier caso, la IA generativa es una tecnología muy concreta que tiene su recorrido, y tampoco creo que sea suficiente para hacer otra cosa más importante. Para dar el siguiente salto, yo creo que tendría que venir otro nuevo salto tecnológico.
Lo que sí creo es que con esta tecnología estamos llegando a resolver problemas cada vez más complejos. Pero hablar de una inteligencia artificial que tendrá intenciones, que quiera hacer cosas por sí misma, hacer daño, o hacer el bien, o quitarnos el trabajo, de eso estamos muy lejos. Eso es ciencia ficción.
📣 Webinar de Data Science: El uso responsable de la IA: oportunidades y retos
✅ ¿Cómo podemos asegurarnos de que el desarrollo y uso de la IA se realice de forma ética, inclusiva y responsable? No te pierdas el nuevo webinar de Data Science con Richard Benjamins, experto reconocido en inteligencia artificial ética, CEO y cofundador de OdiseIA, moderado por Antonio Pita Lozano, doctor en Tecnologías de la Computación y profesor de la UOC. ¡Inscríbete aquí!
📅 Fecha y hora: 16 de julio, de 18:00 a 19:00 h.
👥 Dirigido a: Estudiantes y profesorado de ciencia de datos de la UOC, así como a cualquier profesional interesado.
💻 Formato: Sesión online en castellano vía Blackboard Collaborate, con grabación disponible en YouTube.