Las dificultades éticas en la implementación de la inteligencia artificial

2 de noviembre de 2023
persona-inteligencia-artificial

El despliegue acelerado de tecnologías de IA generativa como ChatGPT ha suscitado preocupaciones sobre posibles daños y mal uso. Existe una presión creciente para que las empresas que desarrollan estas tecnologías lo hagan de manera ética. Sin embargo, lograrlo no es tan sencillo como adherirse a principios éticos preestablecidos.

Una extensa investigación revela que la ética en la IA no se trata solo de seguir principios, sino de establecer estructuras de gestión y procesos que permitan a las organizaciones identificar y abordar amenazas.

Esta aproximación puede decepcionar a quienes buscan orientación clara y precisa, pero proporciona una visión más matizada sobre cómo las empresas pueden perseguir una IA ética.

Desafíos Éticos en Juego

El estudio se centró en profesionales encargados de la ética de la IA en grandes empresas. Estos expertos expresaron preocupaciones sobre privacidad, manipulación, sesgos y otros riesgos asociados al uso comercial de la IA. El ejemplo de Amazon, cuyo sistema de selección de currículos favoreció a candidatos masculinos, subraya estos riesgos.

Además, las empresas adoptan la IA ética principalmente por razones estratégicas, buscando mantener la confianza de clientes, socios comerciales y empleados. Quieren evitar escándalos como el de Facebook y Cambridge Analytica, que demostró el daño que puede causar el uso éticamente cuestionable de la analítica avanzada.

Hacia una Implementación Ética de la IA

La búsqueda de «IA ética» va más allá de principios generales. Los gestores éticos de la IA descubrieron que necesitaban más que principios de alto nivel para tomar decisiones específicas. Intentar traducir principios de derechos humanos en preguntas aplicables a desarrolladores resultó en 34 páginas de interrogantes.

Para abordar incertidumbres éticas, se recurre a estructuras organizativas y procedimientos. Algunos métodos son insuficientes, pero otros muestran promesa, como contratar a un responsable de ética de la IA, establecer comités internos para deliberar sobre dilemas éticos, y llevar a cabo evaluaciones de impacto algorítmico.

Ética como Toma de Decisiones Responsable

La idea central es que las empresas que buscan una IA ética no deben esperar encontrar un conjunto simple de principios que ofrezcan respuestas infalibles. En su lugar, deben concentrarse en tomar decisiones responsables en un mundo de entendimiento limitado y circunstancias cambiantes, incluso si algunas decisiones resultan imperfectas.

En ausencia de requisitos legales explícitos, las empresas deben hacer lo posible para comprender cómo la IA afecta a las personas y al entorno. Buscar aportes de diversas partes interesadas y comprometerse con principios éticos de alto nivel es fundamental.

Esta perspectiva alienta a los profesionales de ética de la IA a centrar sus esfuerzos en adoptar estructuras y procesos de toma de decisiones, en lugar de solo identificar y aplicar principios de IA.

Hacia un Futuro de IA Ética

Aunque se espera que las leyes y regulaciones establezcan pautas concretas, las estructuras y procesos de toma de decisiones responsables son un punto de partida. Con el tiempo, contribuirán a la acumulación de conocimientos necesarios para formular estándares legales sólidos.

El camino hacia una IA ética es un viaje complejo que va más allá de la adopción de principios establecidos. Exige un compromiso arraigado en una comprensión profunda del complejo paisaje ético que rodea a las tecnologías de la IA. Este viaje, aunque desafiante, es indispensable para forjar un futuro en el que la IA sirva como una fuerza positiva.

(Visited 124 times, 1 visits today)
Autor / Autora
Comentarios
Deja un comentario