Un análisis sobre cómo la inteligencia artificial enfrenta dilemas humanos, como el clásico problema del tranvía, y qué revela sobre nuestra propia moral al delegar decisiones críticas.
Imaginá esta situación: podés salvar a una sola persona de una muerte segura. Una es tu madre, que trabaja como empleada doméstica; la otra, un científico a punto de descubrir la cura del cáncer. ¿A quién elegirías? La mayoría optaría por salvar a su madre, según evidencias experimentales. No es un error de cálculo, sino una decisión basada en lealtades y vínculos que definen quiénes somos.
Este tipo de dilemas morales ahora se trasladan al ámbito de la inteligencia artificial (IA). Desde algoritmos que asignan recursos médicos en hospitales hasta vehículos autónomos programados para reaccionar en accidentes, los sistemas de IA deben tomar decisiones que antes eran exclusivamente humanas. El desafío para los diseñadores es traducir la complejidad de la ética humana en reglas computables, un proceso que a menudo deja fuera elementos clave como las emociones, los lazos afectivos y las restricciones de identidad.
El resultado suele ser una versión fría y utilitaria de la moral. Por ejemplo, en el célebre «problema del tranvía», las personas tienden a tomar decisiones más calculadas cuando la situación se plantea de forma abstracta o a distancia. La IA opera en ese espacio distante: el programador escribe el código, pero no es el agente directo de las decisiones que toma el sistema. Esto crea lo que algunos expertos llaman «distanciamiento computacional», donde la responsabilidad se diluye entre capas de tecnología y roles fragmentados.
La psicología moral lleva décadas estudiando cómo la distancia física, emocional o tecnológica afecta nuestras decisiones. Hannah Arendt ya hablaba de la «banalidad del mal» en sistemas burocráticos donde nadie se siente responsable del resultado final. Con la IA, este fenómeno se potencia: el programador delega en el algoritmo, y el algoritmo ejecuta acciones cuyas consecuencias pueden ser impredecibles o difíciles de atribuir.
El verdadero desafío, entonces, no es solo hacer que la IA haga lo que queremos, sino decidir qué estamos dispuestos a sacrificar cuando delegamos en ella decisiones morales. ¿Cómo programamos lealtades, prohibiciones o dilemas identitarios? ¿Quién asume la responsabilidad cuando algo sale mal? Estas preguntas no son técnicas, sino profundamente humanas, y su respuesta definirá el futuro de la convivencia entre personas y máquinas.
