A medida que la inteligencia artificial ocupa cada vez más lugar en los procesos de toma de decisiones, surge la crítica pregunta ¿Hasta dónde es ético delegar decisiones significativas en los algoritmos?
Desde la bioética, una teoría de la no delegación radicaría en la moral
kantiana, enfatizando la importancia de la autonomía racional y la dignidad
humana. Bajo el imperativo categórico por el cual los humanos deben ser
tratados siempre como fines en sí mismos, no como medios, delegar decisiones
críticas a una IA violaría este principio, ya que, como demuestra Mark
Coeckelbergh y detallo en mi anterior articulo ¿Maquinas Morales?
ética e inteligencia-artificial, los algoritmos o las máquinas carecen de la
capacidad para comprender la moralidad y actuar en función de juicios éticos
auténticos. Así, la responsabilidad es un concepto central en la teoría de la
no delegación, dado que delegar una decisión en algoritmos diluye la cadena de
responsabilidad, cada vez más dispersa, no dejando finalmente y como afirma
Andreas Matthias, a nadie responsable.
Desde lo jurídico, una teoría de la no delegación es compatible con el
principio por el cual ciertos poderes y deberes inherentes al Estado y a sus
representantes, no pueden ser transferidos a entidades no humanas. Bajo este
principio los tribunales han expresado su reticencia a permitir que las
decisiones judiciales se basen exclusivamente en algoritmos sin la supervisión
humana adecuada.
Además de la opacidad y el sesgo algorítmico que socavan la confianza
pública y la responsabilidad de las decisiones, desplazar el juicio humano en
las decisiones mina la naturaleza de la autonomía humana y el valor intrínseco
del libre albedrío más el juicio moral, tal como se observan en los siguientes
casos reales.
El sistema COMPAS que predice la probabilidad de reincidencia criminal,
ha cometido severos errores por su falta de transparencia y sesgo racial en las
decisiones sobre sentencias y libertades condicionales. El algoritmo de triage
en el Reino Unido durante la pandemia COVID-19, subestimó las necesidades de
ciertos pacientes, especialmente con discapacidades o condiciones
preexistentes, basándose en criterios automatizados que no consideraban
adecuadamente la complejidad de las condiciones individuales afectando por
sobre todo a los más vulnerables. El programa Robo-Debt de Australia, comparaba
ingresos reportados con datos fiscales, generando automáticamente deudas que
los individuos debían pagar, pero con errores tales que afectó a miles de
personas, muchas de ellas socialmente frágiles, culminando en un escándalo
nacional y una demanda colectiva. Facebook-Cambridge Analytica en el 2018
manipuló la información de millones de usuarios violando la seguridad y la privacidad
de datos personales para influir en el juicio de los votantes en las elecciones
de 2016 en Estados Unidos. Algunos países ya predican el reemplazo del sistema
de votación por el resultado algorítmico predictivo de las preferencias
políticas de los ciudadanos mediante data mining y biosurveillance. Ello socavaría
la autonomía y libertad de los ciudadanos más la legitimidad de las
instituciones democráticas. Ciertas tecnologías de reconocimiento facial en Estados
Unidos y el Reino Unido, para identificar sospechosos o prófugos, han provocado
el erróneo arresto policial de personas de color, particularmente mujeres
afroamericanas. En las finanzas, el Flash Crash del 2010 ejemplifica los
riesgos de delegar decisiones de mercado a sistemas automatizados sin
suficiente supervisión humana, exacerbando la volatilidad del mercado y
desencadenando la inestabilidad económica a gran escala. En el sistema educativo
el Reino Unido enfrentó una severa crisis al utilizar un algoritmo para asignar
calificaciones a los estudiantes de secundaria, cuyas evaluaciones fueron
canceladas debido a la pandemia de COVID-19. El algoritmo estandarizaba las calificaciones
basándose en el historial académico de las escuelas y en otros factores
socioeconómicos, en lugar de evaluar el rendimiento individual de cada
estudiante. Miles de estudiantes recibieron calificaciones más bajas de lo
esperado, afectando sus oportunidades de ingreso a universidades. En algunos
sistemas educativos se han implementado algoritmos de evaluación que califican
trabajos de estudiantes en función de patrones y palabras clave, en lugar de un
análisis profundo del contenido y la argumentación.
Los casos descriptos, entre otros, demuestran que, si bien es deseable
aprovechar el uso de la IA para la mejora en la eficiencia y la objetividad en
la toma de decisiones, esto no excluye la advertencia de críticos como Cathy O'Neil
quienes alertan contra la confianza excesiva en los algoritmos perpetuando,
agravando y hasta produciendo mayores desigualdades, erosionando además la
responsabilidad humana.
Existen así suficientes justificaciones éticas, políticas y jurídicas
para una doctrina de la no delegación que preserve las condiciones del juicio
humano en todo ámbito y dominio. Porque en ello se juega la base sobre la cual
residen todos los derechos humanos fundamentales, que es la dignidad humana
como punto original para construir el marco ético y legal para la regulación de
la IA en beneficio de la humanidad, sin sacrificar valores primordiales.
La IA, por su naturaleza, no puede valorar la dignidad humana, ya que
opera sobre la base de cálculos y probabilidades formuladas algorítmicamente,
sin considerar los aspectos éticos y morales inherentes a la condición humana.
Por lo tanto, delegar decisiones que impactan en la dignidad humana a una IA
violaría los principios fundamentales tanto de la Declaración Universal de DDHH
como del Pacto Internacional de Derechos Civiles y Políticos.
En este sentido, un criterio de regulación para la IA y su método
probabilístico en la toma de decisiones es resguardar los casos donde la
probabilidad no es posible, es inadecuada o inútil. Por ejemplo, situaciones de
conflictos o dilemas morales, o donde estén en juego valores humanos dentro de
un contexto específico haciendo que toda decisión sea crucial y no pueda
reducirse a una mera probabilidad. Porque la IA, al basarse en modelos
probabilísticos, puede ofrecer soluciones que sean lógicamente consistentes,
pero no capturan la complejidad ética inherente a estas decisiones. El juicio
humano abarca aspectos como la intuición, la experiencia y la empatía, que no
son traducibles a la sintaxis algorítmica. El método probabilístico de la IA
simplifica estos aspectos resultando en decisiones que carecen de sensibilidad
y comprensión profunda del contexto.
La teoría de la no delegación reconoce estas cruciales limitaciones y
asegura que el juicio humano siga desempeñando un rol central en la toma de
decisiones en áreas donde los cálculos probabilísticos son inadecuados. Es
decir, logrando una integración cuidadosa de la IA como herramienta de apoyo,
pero no como sustituto del juicio humano. Para ello, deben establecerse límites
claros sobre cuándo y dónde se puede utilizar la IA, asegurando que el juicio
humano permanezca en el centro de las decisiones que involucran valores éticos
o tienen un impacto significativo en la vida de las personas.
Concluyendo, la teoría de la no delegación en el uso de la IA no rechaza la
tecnología, sino que aboga por un enfoque ético en su implementación dada la
importancia de mantener la supervisión humana en la toma de decisiones críticas,
estando relacionadas profundamente con el concepto de dignidad humana. Mantener
la agencia humana en este sentido resulta fundamental para preservar la responsabilidad,
la justicia y la dignidad humana en una era tecnocrática, evitando un leviatán
tecnológico. Al preservar la toma de decisiones en manos humanas, la teoría de
la no delegación protege los principios fundamentales y garantiza que la
dignidad humana siga siendo el núcleo de nuestras interacciones en todo ámbito.
Resguardar lo constitutivo de la eticidad y la moralidad, como afirma Nick
Bostrom, es el fundamento para gestionar el futuro del desarrollo tecnológico
cada vez más poderoso, sin perder los aspectos esenciales de nuestra humanidad.