En las
puertas de este nuevo paradigma civilizatorio donde la tecnología ya no
transforma solamente procesos, sino que redefine identidades, roles y
biografías, y tras la fructífera jornada convocada por la diputada Silvana
Giudici, en la cual “Debatieron en
Diputados acerca del impacto de la IA en el trabajo” donde expusimos académicos, técnicos,
desarrolladores y usuarios, se ha impulsado el proyecto de ley 3540-D-2025 por
la misma diputada con el apoyo de otros legisladores. Dicho iniciativa
legislativa procura modificar la Ley 25.326 de Protección de Datos Personales
incorporando criterios de transparencia algorítmica, explicabilidad y auditoría
independiente, emergiendo como una respuesta normativa urgente y conformada por
principios bioéticos y constitucionales.
El
interrogante ético manifiesto en mi artículo “IA e Impacto
Laboral: aspecto éticos”, mostrando que la IA produce una fractura entre el
hacer y el ser al asumir funciones cognitivas, creativas, elaborativas,
decisorias y de perfilamiento que anteriormente constituían el núcleo de
nuestra biografía e identidad laboral, se resume en ¿qué deberíamos permitir
que haga la IA? Y ello está en el centro del proyecto de ley, contemplando que los
sistemas algoritmizados sólo deben intervenir cuando estén garantizadas la
dignidad de la persona, la participación humana y la comprensión clara y
concisa del funcionamiento del sistema. También incluye el derecho a la
revisión humana como uno de sus ejes normativos, hundiendo sus raíces en el conocido
principio de no delegación, no debiendo permitir que decisiones con impacto deontológico,
ético, jurídico o legal sean tomadas exclusivamente por algoritmos. De lo
contrario, se rompe la cadena de responsabilidad y emerge una
“irresponsabilidad algorítmica” sin rostro.
Acorde
a mi artículo “Opacidad
algorítmica e implicancias bioéticas”, donde demuestro cómo en
diversos ámbitos, educativo, medico-sanitario, judicial, comercial-financiero o
en seguridad, la opacidad algorítmica impide el consentimiento informado y
obstaculiza todo tipo de control o auditoria, el proyecto exige que los
sistemas utilizados en ámbitos sensibles sean explicables, auditables y
trazables. Todo ello, en congruencia con las normativas de control ciudadano y
protección de datos de los países más avanzados en este respecto. Y esto aplica
especialmente en el ámbito de la salud, cuyos gravísimos riesgos explico en el
reportaje realizado por Infobae, “Rabino Dr. Fishel
Szlajen: la IA en salud debe ser una herramienta, no un oráculo”.
Bajo
este mismo criterio, el proyecto legisla contra el sesgo algorítmico como nueva
forma de discriminación estructural por la cual se replican patrones racistas,
xenófobos o clasistas. Por ello, esta iniciativa no se limita a detectar sesgos,
sino que exige diseño preventivo, auditoría externa y trazabilidad de
decisiones, alineándose con la normativa europea que obliga a realizar
evaluaciones de impacto algorítmico en sistemas de alto riesgo.
A la
espera de su pronta sanción y debiendo considerar también su implementación, sugiero
ahora la creación de una Autoridad Nacional de Supervisión Algorítmica (ANSA),
similar al Algorithmic Accountability Office de Nueva York que es supervisado
por el Departamento de Protección del Consumidor y Trabajador según la NYC
Local Law 144 (2021); o la Responsible Technology Adoption Unit (2024) dependiente
desde el 2025 del Departamento de Ciencia, Innovación y Tecnología, incluyendo
el Servicio Digital del Gobierno, en Reino Unido.
Dicha
ANSA, exigirá a las organizaciones realizar una evaluación de impacto
algorítmico y de protección de datos, antes de desplegar sistemas que puedan
afectar derechos fundamentales. Esto incluye análisis de riesgos técnicos,
sociales y éticos, con el compromiso de mitigarlos antes y durante su operación,
así como también implementar mecanismos de seguimiento y actualizaciones
periódicas con reportes obligatorios.
La
ANSA acreditará auditores algorítmicos, emitirá guías técnicas por sector, supervisará
el cumplimiento legal y ético, y actuará como perito institucional en juicios. También
coordinará las auditorías, recibirá denuncias, emitirá recomendaciones y eventualmente
un régimen de sanciones claras para responsables que incumplan con los
requisitos de transparencia, consentimiento, auditoria o revisión humana, además
de fomentar buenas prácticas.
A su
cargo tendrá consejos consultivos por sector, integrados por académicos,
técnicos y representantes de la sociedad civil, para el diseño de Manuales
Sectoriales de Auditoría y Ética Algorítmica, los cuales deberán estar
adaptados a áreas críticas como salud, empleo, justicia, crédito o
investigación, basados en los marcos internacionales del IEEE Global Initiative
on Ethics of Autonomous and Intelligent Systems y OECD AI Principles (2019). De
hecho, bajo un modelo similar al Algorithmic Impact Assessment Tool de Canadá.
Diseñará
también mecanismos claros para la gestión y reparación de impactos negativos, definiendo
procedimientos ágiles y accesibles favoreciendo el ejercicio del derecho a la
revisión humana y a la reparación cuando una decisión algoritmizada les afecte
negativamente. Todo ello especificando plazos máximos de respuesta,
responsables y canales oficiales para la presentación, trámite y resolución de
reclamos relacionados.
Dentro
de dicha ANSA, existirá un Registro Público Nacional de Sistemas Algoritmizados,
tal como el Algorithmic Transparency Record de Ámsterdam (2020), en cuyo portal
se deberá informar la finalidad del sistema, los datos utilizados, proveedor,
auditor y criterios de revisión más los derechos de los usuarios. El sitio
deberá permitir consultas públicas y reportes periódicos que faciliten la
supervisión ciudadana y académica, con foco en detectar, corregir y evitar
sesgos o impactos desiguales sobre grupos vulnerables o minoritarios.
También
tendrá un área de capacitación y difusión para operadores, desarrolladores y
responsables de sistemas algorítmicos en materia de ética, derechos digitales y
cumplimiento normativo. Difundirá materiales educativos dirigidos a la
ciudadanía para comprender sus derechos y el funcionamiento básico de los
sistemas automatizados.
Todo
ello, acompañado por la incorporación curricular y la promoción de la
alfabetización algorítmica, siguiendo el modelo de Finlandia (Elements of AI),
con cursos gratuitos online, para formar ciudadanos capaces de comprender y
controlar el impacto de la IA.
Por
otro lado, y a modo de sugerencias para la articulación internacional, el
Estado argentino puede consolidar su liderazgo en el hemisferio sur mediante el
fortalecimiento de su participación en el AI Observatory de la OCDE; la participación
más activa en el programa Ethics of Artificial Intelligence Recommendation 2021,
de la UNESCO y en los Convenios con el Consejo de Europa, particularmente en el
CAHAI (Comité Ad Hoc sobre Inteligencia Artificial y Derechos Humanos). Debería
involucrarse también y fuertemente en el Latin American AI Coalition (liderado
por Chile, Uruguay y México) y en la conformación de acuerdos de cooperación
técnica con el AI for Good de la ONU, programa de la International Telecomunication
Union, para monitoreo y benchmarking. La Argentina debería además tener una
mayor participación en evaluaciones internacionales comparadas como las AI
Readiness Index del Oxford Insights, o ser pionera en el desarrollo de una IA
Watch para América Latina y el Caribe, con ayuda de la CAF (Banco de Desarrollo
de América Latina y el Caribe) y el BID; quienes promueven el uso de la IA en
la región al servicio del bien social, la inclusión financiera, la mejora de
servicios públicos y el desarrollo de políticas públicas responsables.
Este
proyecto de ley no sólo comienza a adaptar el derecho a las nuevas tecnologías,
sino que lo eleva a una función civilizatoria, reafirmando que la IA debe estar
al servicio del ser humano y no al revés. Rechaza la lógica de la opacidad,
proponiendo en su lugar transparencia, explicabilidad, trazabilidad y
responsabilidad.
Su
sanción, implementación institucional y articulación internacional no son
opcionales, sino condiciones para que la Argentina pueda liderar con
legitimidad, prudencia y ética esta nueva era tecnológica pero humanizada.