¿Es posible que una IA actúe de manera justa y moral cuando los conceptos de justicia y moralidad no son universales?
por Tatiana Berghmans
El avance de la inteligencia artificial (IA) en los últimos años abrió un mundo nuevo de preguntas filosóficas y éticas. Un punto de debate central es la idea de una “verdad absoluta” en la programación de la IA.
Incluso Elon Musk, conocido por sus opiniones controvertidas sobre la tecnología, comentó recientemente en una entrevista: “Creo que hay un peligro significativo en entrenar a una IA para que sea políticamente correcta o, en otras palabras, entrenarla para que no diga lo que realmente piensa que es verdad”.
Esto resalta uno de los mayores desafíos que enfrenta la IA: la moralidad y los valores culturales, que pueden ser profundamente diferentes de una sociedad a otra.
La moralidad no es una constante universal; lo que en una cultura se percibe como correcto, en otra puede considerarse incorrecto. Esta variabilidad pone a la IA en una posición difícil, ya que su programación debería reflejar los valores humanos, pero ¿cuáles?
En muchas culturas occidentales, la vida de un niño podría considerarse más valiosa que la de un anciano, basándose en el potencial de vida futura del niño. Sin embargo, en Japón, el respeto y cuidado hacia los ancianos es un pilar fundamental de la sociedad. Este respeto no es solo simbólico; se refleja en aspectos tangibles de la vida diaria.
Por ejemplo, en Tokio, la arquitectura de las calles y los espacios públicos está diseñada pensando en la accesibilidad y seguridad de los ancianos, con pasamanos, señalizaciones, inscripciones para ciegos en el asfalto y hasta sonidos que los ayudan a guiarse para cruzar las calles.
Este enfoque subraya la importancia de los ancianos en la sociedad japonesa, donde su vida es considerada sagrada debido a la sabiduría y experiencia que han acumulado a lo largo de los años.
Este dilema se vuelve más complejo cuando consideramos situaciones críticas en las que una IA debe tomar decisiones rápidas. Si se diseñara una IA en Japón, ¿podría priorizar la vida de un anciano sobre la de un niño en un accidente de tráfico? Una decisión que podría ser diferente si la IA hubiera sido entrenada en un contexto cultural occidental.
Esto nos lleva a cuestionar: ¿es posible que una IA actúe de manera justa y moral cuando los conceptos de justicia y moralidad no son universales?
La idea de una “verdad absoluta” sugiere que existe una respuesta correcta en todas las situaciones, pero en el contexto de la IA, esta idea es problemática debido a la diversidad de valores culturales.
Para que una IA funcione de manera ética en un mundo globalizado, necesita ser capaz de entender y adaptarse a diferentes sistemas morales. Esto no implica que deba reflejar todas las culturas al mismo tiempo, sino que su programación debería ser consciente del contexto en el que opera.
Una posible solución es desarrollar un marco ético universal para la IA, que ofrezca cierta flexibilidad y permita adaptaciones según el contexto cultural. Este marco no impondría una moralidad fija, sino que proporcionaría directrices que la IA podría ajustar en función de la situación y los valores locales. Otra opción es crear versiones de IA adaptadas a diferentes regiones, cada una alineada con las normas y valores culturales locales. No obstante, esto podría llevar a una fragmentación tecnológica, con sistemas de IA que actúan de manera diferente en situaciones similares según su ubicación.
Aunque también hay que tener en cuenta el concepto del tiempo dentro de lo que respecta a la moralidad y a la ética, ya que con epocales.
Podemos poner infinitos ejemplos como la esclavitud, la cual era aceptada y practicada en muchas culturas antiguas.
El matrimonio entre personas del mismo sexo, donde incluso hoy sigue siendo rechazado en varias culturas.
En resumen, la idea de entrenar a la IA con una “verdad absoluta” es, en última instancia, un espejismo debido a la naturaleza diversa y relativa de la moralidad humana. En lugar de buscar una única respuesta correcta, el futuro del entrenamiento de la IA debería centrarse en la creación de sistemas que reconozcan y respeten las diferencias culturales, permitiendo que la IA actúe de manera ética y contextualizada en un mundo multicultural y pueda seguir entrenándose con los cambios de enfoque morales que se nos van presentando a través del tiempo, la pregunta es: ¿vamos a llegar al punto donde la propia Inteligencia Artificial dictamine los nuevos enfoques morales y éticos?