Cinco principios para una inteligencia artificial ética

26/06/2024
Principios para una inteligencia artificial ética

La revolución de la inteligencia artificial (IA) ha encendido un debate en torno a su impacto en la sociedad, los mercados laborales, la ciencia, la tecnología y la salud. Es urgente identificar a los ganadores y los perdedores de estas tecnologías considerando que las estadísticas globales pueden esconder las brechas crecientes en las disparidades.

Hay consenso en el hecho de que la IA tiene que ser ética. Las instituciones de investigación y el sector público han emitido principios y directrices para una IA ética. Sin embargo, no hay consenso con respecto al significado de IA ética ni a cuáles son los requisitos, las especificaciones o las buenas prácticas necesarios para que lo sea.

A pesar de la falta de consenso, hay cinco principios éticos en los que coinciden la mayoría de las distintas iniciativas globales: transparencia, justicia y equidad, no maleficencia, responsabilidad y privacidad. En este artículo los comentamos y explicamos algunas medidas para lograrlos.

1. Transparencia

Una mayor transparencia en el uso de la IA es fundamental para identificar, medir y reparar los posibles efectos discriminatorios generados por estos algoritmos, además de para validar si su uso es de interés público. La transparencia facilita la atribución de responsabilidad sobre las decisiones tomadas por algoritmos de IA. 

Para lograr una mayor transparencia, se sugiere que los desarrolladores o las personas que despliegan sistemas de IA publiquen información relativa al uso, el código fuente, los datos, las limitaciones y el posible impacto de la IA.

Se recomienda reunir datos, estudios, resultados de investigación y otras evidencias que muestren la eficacia, la fiabilidad y la idoneidad del uso de los sistemas de IA para aplicaciones específicas.

Se fomenta la provisión de explicaciones en términos no técnicos o comprensibles por humanos; por ejemplo, con el derecho a la explicación del Reglamento General de Protección de Datos (RGPD).

«In any case, such processing should be subject to suitable safeguards, which should include specific information to the data subject and the right to obtain human intervention, to express his or her point of view, to obtain an explanation of the decision reached after such assessment and to challenge the decision.»

Algunas medidas alternativas se centran en la supervisión, la interacción y la mediación con las partes interesadas y el público, además de en la facilitación de la denuncia.

2. Justicia, equidad e igualdad

En algunos casos, el uso indiscriminado de IA para la toma de decisiones se puede llegar a considerar anticonstitucional; por ejemplo, en el caso de las herramientas de evaluación de riesgos en el sistema de justicia penal de Estados Unidos. Incluir variables aparentemente inocuas, como el código postal, puede tener un efecto discriminatorio indirecto, ya que pueden estar altamente correlacionadas con características protegidas como la raza, en particular en los barrios afroamericanos.

Por lo tanto, para promover la justicia, se deben hacer pruebas rigurosas que aseguren que los individuos sean juzgados por sus méritos propios —y no a partir de tendencias de los grupos a los que pertenecen— con el fin de evitar que el uso de IA en la toma de decisiones resulte en la denegación de oportunidades y recursos a individuos a causa de las acciones de otros individuos por el mero hecho de compartir algunas características con ellos (como nivel de ingresos, género, origen étnico, barrio o personalidad). 

La justicia se puede expresar principalmente en términos de equidad y de prevención, supervisión o mitigación de sesgos no deseados y discriminación. Se puede entender como el respeto por la diversidad, la inclusión y la igualdad, pero también como la posibilidad de apelar o impugnar las decisiones y el derecho a la reparación y al remedio. También es importante considerar el acceso equitativo a la IA, tanto a los datos como a sus beneficios.

3. No maleficencia 

La no maleficencia quiere decir que la IA nunca debe causar daños previsibles o no intencionados. En general, está relacionada con la seguridad y la protección. Se deben evitar los riesgos o daños específicos como la discriminación, la violación de la privacidad o el uso intencionado para llevar a cabo actividades maliciosas, en particular, la generación de noticias falsas o los ciberataques. Muchas fuentes afirman que los daños pueden ser inevitables. En este caso, los riesgos se tendrían que evaluar, reducir y mitigar, y la atribución de responsabilidad se debería definir claramente.

Algunas caracterizaciones alternativas de los riesgos incluyen el riesgo a que el progreso tecnológico supere las medidas reguladoras, los impactos negativos en el bienestar social a largo plazo o los impactos en aspectos psicológicos, emocionales o económicos. 

Las directrices de prevención se centran principalmente en medidas técnicas y estrategias de gobernanza. Las soluciones técnicas incluyen evaluaciones de calidad de datos o seguridad, y la privacidad por diseño. Las estrategias de gobernanza propuestas incluyen la cooperación activa entre los interesados, el cumplimiento de la legislación existente o nueva y el establecimiento de procesos de supervisión, pruebas, monitorización y auditorías.

4. Responsabilidad 

Hay muchas referencias a la IA responsable (por ejemplo, en Google o IBM), pero habitualmente se refieren a principios éticos generales y no a una definición concreta de responsabilidad. En este caso, se recomienda actuar con integridad y dejar patente la atribución de responsabilidad y la responsabilidad legal de manera anticipada siempre que sea posible o, en caso contrario, centrarse en el remedio.

Se identifican actores muy diferentes como responsables de las acciones y decisiones de la IA: desarrolladores de IA, diseñadores, instituciones o la industria. También hay divergencias sobre si la IA debería ser considerada responsable de una manera parecida a los humanos o si tendrían que ser siempre los humanos los únicos responsables de los artefactos tecnológicos.

5. Privacidad

La IA ética considera la privacidad tanto un valor a defender como un derecho a proteger. A pesar de que, a menudo, no está definida, la privacidad se presenta frecuentemente en relación con la protección de datos y la seguridad de los datos. Algunas fuentes vinculan la privacidad con la libertad o la confianza. 

Se sugieren tres categorías para conseguirla: las soluciones técnicas, como la privacidad diferencial o la privacidad por diseño, la minimización de datos y el control de acceso; propuestas de investigación y concienciación, y aproximaciones reguladoras, con referencias al cumplimiento legal o a la creación o adaptación de leyes y regulaciones para acomodar las especificidades de la IA.

Para acabar: «The moral machine experiment»

Como conclusión, para mostrar las dificultades de la toma de decisiones automáticas (basadas en IA) comentamos brevemente «The moral machine experiment».

Es un «juego» en línea multilingüe que se planteó para recoger datos sobre cómo querrían los ciudadanos que los vehículos autónomos resolvieran dilemas morales en el contexto de accidentes inevitables, es decir, para evaluar las expectativas sociales sobre la manera en que los vehículos autónomos tendrían que resolver dilemas morales.

Se presentan situaciones en las que un vehículo autónomo tiene que decidir entre dos escenarios, como la siguiente:

Iyad Rahwan – Producción propia, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=98618576.

¿A quién tendría que salvar?

Analizando las más de un millón de respuestas, se ve que hay diferencias culturales respecto a las preferencias para cada escenario. Algunas culturas prefieren salvar a los jóvenes; otras, a las mujeres, y otras, a las personas de alto estatus.

En cualquier caso, si el sistema del vehículo autónomo tiene acceso a información personal, cualquier decisión no aleatoria entre dos vidas siempre será discriminatoria. Si la decisión es aleatoria, tiene que considerar todas las posibilidades por igual y, por lo tanto, también tendrá que incluir al conductor del coche. Quizás este hecho no va muy a favor de las ventas de vehículos autónomos. Por otro lado, si las vidas de los conductores de coches autónomos se priorizan siempre por encima de las de los peatones, posiblemente la gente que «corra el riesgo» de ser peatón será la que no se pueda permitir tener un vehículo autónomo.


Referencias:

[1] Harari, «Reboot for the AI Revolution».

[2] Jobin, Ienca y Vayena, «The Global Landscape of AI Ethics Guidelines».

[3] Christin, Rosenblat y Boyd, «Courts and Predictive Algorithms».

[4] Lepri, Oliver y Pentland, «Ethical Machines».

[5] Awad et al., «The Moral Machine Experiment».


Este artículo es fruto de la Cátedra Internacional ARTEMISA de Ciberseguridad. Una iniciativa financiada por INCIBE a través de los fondos del Plan de Recuperación, Transformación y Resiliencia, financiados por la Unión Europea (Next Generation), el proyecto del Gobierno de España que traza la hoja de ruta para la modernización de la economía española, la recuperación del crecimiento económico y la creación de empleo, para la reconstrucción económica sólida, inclusiva y resiliente tras la crisis de la COVID-19, y para responder a los retos de la próxima década.

(Visited 76 times, 1 visits today)
Autor / Autora
Comentarios
Deja un comentario