Inteligencia Artificial en Educación: segura, responsable, justa y eficaz

6 octubre, 2022

Recientemente, se ha creado una nueva alianza internacional llamada EdSAFE AI Alliance formada por todo tipo de organizaciones relacionadas con el mundo de la educación, que ha surgido de la creciente preocupación por la rápida adopción de tecnologías educativas avanzadas basadas en inteligencia artificial (IA). Hablamos de herramientas educativas que incorporan algún componente basado en IA, como agentes conversacionales, robots y chatbots, tutores artificiales, analíticas de aprendizaje, evaluación automática y un largo etcétera, que en general persiguen elevar los niveles de personalización, motivación y eficiencia en los procesos de enseñanza y aprendizaje y de gestión educativa.

Ciertamente, este nuevo mercado tecnológico avanza a un ritmo vertiginoso, pero sin control al ser un mercado todavía no regulado, sin estándares ni marcos de referencia, y por tanto sin conocimiento por parte de sus usuarios sobre su calidad y fiabilidad, y sobre los efectos reales que tienen estas nuevas tecnologías en la educación. En contraste, por ejemplo, cuando adquirimos un nuevo electrodoméstico, sabemos que ha superado diferentes controles y certificaciones tanto de calidad como de seguridad, lo que nos garantiza un funcionamiento correcto durante su tiempo de vida útil. Sin embargo, no ocurre lo mismo en el mercado de herramientas educativas en general y en particular las más innovadoras y avanzadas, las cuales se adquieren y se usan en los entornos educativos sin una garantía que su funcionamiento será el correcto y esperado. Dentro de estas expectativas se encuentra el punto de vista ético que preocupa a diferentes sectores de la sociedad, no solo a la educación, y que los gobiernos han empezado a proponer directrices éticas para una IA fiable.

En este punto nos podemos preguntar ¿por qué preocupa tanto el uso de IA en educación? A estas alturas ya hemos oído e incluso sufrido las consecuencias por el funcionamiento incorrecto o injusto de alguna herramienta educativa basada en IA. Los ejemplos más comunes son sistemas automáticos de tutorización que de forma involuntaria ofrecen más apoyo a un grupo de estudiantes que a otro, o bien evalúan diferentes grupos siguiendo criterios distintos, debido a que el sistema ha sido entrenado con datos incompletos y/o sesgados, y en consecuencia discrimina grupos por sexo, edad, raza, etc, resultando que algunos grupos sean invisibles al sistema o bien mostrando un sesgo importante hacía estos grupos. Sin embargo, la involuntariedad en el desarrollo y/o configuración incorrecta de este tipo de herramientas no exime de la responsabilidad por las consecuencias negativas que puede acarrear al sistema educativo y a todos sus usuarios (alumnado, profesorado, personal de gestión, familias, etc). 

La alianza EdSAFE AI está coordinada por varias organizaciones no gubernamentales y sin ánimo de lucro de Estados Unidos, a los que se está uniendo un creciente número de organizaciones educativas de todo el mundo. La UOC también participa activamente en esta alianza, dado nuestro interés y preocupación con este tipo de tecnologías que se van introduciendo en nuestras aulas fruto de la investigación y la innovación, como también de la adquisición de tecnologías educativas comerciales. El propósito principal de la alianza es construir una red de confianza global para que la IA en educación se utilice de forma segura, equitativa, justa y eficaz. Para ello, está desarrollando definiciones y marcos de trabajo comunes junto con reguladores gubernamentales, comunidades educativas y grupos corporativos para la creación de benchmarks y estándares que permitan certificar estas tecnologías y garantizar a quienes las usan un funcionamiento correcto. Sin duda, es una iniciativa importante y necesaria tanto para concienciar a todos los actores implicados en estas tecnologías como para lograr amplios acuerdos en el mundo educativo en materia de IA en educación.

EdSAFE AI Alliance actualmente trabaja en cuatro ámbitos o categorías llamadas S.A.F.E. (Safety, Accountability, Fairness, Efficacy) acrónimo que forma parte de sunombre para indicar la importancia que tiene cada categoría para lograr el propósito final de garantizar una IA en educación segura, responsable, justa y eficaz.

Fuente: EdSAFE AI.

Se han creado diferentes grupos de trabajo en cada una de estas categorías donde participan expertos en educación de distintas disciplinas tanto del ámbito académico, corporativo como gubernamental, y se comparten puntos de vista y ofrecen recursos, proponen recomendaciones y directrices, así como posibles estándares para asegurar que se cumplen los indicadores de cada ámbito. Las últimas líneas de trabajo van dirigidas a identificar los diferentes sesgos de los algoritmos de IA en educación y en producir explicaciones transparentes de las decisiones que toman estos algoritmos (lo que se conoce como IA explicable o XAI en su acrónimo en inglés) especialmente en la rama de IA de deep learning donde normalmente estos algoritmos se ven como cajas negras altamente complejas e inexplicables para entender cómo la IA la llegado a una decisión concreta. El objetivo de estas líneas de trabajo es proponer indicadores que permitan establecer el tipo y nivel de sesgo de los algoritmos de IA en su proceso de toma de decisiones y proponer medidas de corrección cuando sea necesario.

Las conclusiones de cada grupo de trabajo se discuten y consensúan en el consejo asesor de la alianza que se reúne mensualmente. La UOC es miembro permanente del consejo y también participa activamente en los grupos de trabajo, donde junto con otros expertos proponemos definiciones y vocabulario en este ámbito, identificamos vacíos de regulación, proponemos marcos de trabajo para evaluar y dar apoyo al desarrollo de IA en las regulaciones educativas.

Cualquier persona experta en el campo de la IA y sensible al uso de las tecnologías basadas en IA en educación puede participar en los grupos de trabajo de la alianza EdSAFE rellenando esta solicitud. 

(Visited 40 times, 1 visits today)
Autor / Autora
Santi Caballé es Profesor Catedrático de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, donde es co-Director del Programa de Investigación en e-Learning y también dirige el grupo de investigación SmartLearn. Sus líneas de investigación más activas son: ingeniería de la educación, inteligencia artificial y tecnologías distribuidas para la educación online. 
Comentarios
Miguel10 octubre, 2022 a las 10:46 am

Es muy buena noticia la existencia de la alianza EdSAFE AI. Enhorabuena a la UoC por participar en ella.

Responder
Deja un comentario