La IA está capacitada para resolver dilemas morales cuando conduce vehículos autónomos
Los dilemas
morales son situaciones en las que hay que elegir entre dos o más opciones que
implican consecuencias éticas, y que no tienen una solución clara o unánime.
Estos dilemas se
presentan con frecuencia en el ámbito de los vehículos autónomos, que la IA
puede conducir sin intervención humana, aunque puede encontrarse con escenarios
en los que tenga que decidir entre atropellar a un peatón, chocar con otro
vehículo o poner en riesgo al pasajero.
¿Cómo toman estas
decisiones las inteligencias artificiales (IA) que controlan los vehículos
autónomos? ¿Siguen algún criterio moral o ético? ¿Se parecen a las decisiones
que tomarían los humanos? Estas son algunas de las preguntas a las que responde
un reciente estudio publicado en la revista Royal Society Open Science, que ha
sometido a cuatro grandes modelos de IA a 50.000 escenarios de accidentes y les
ha pedido que indicaran qué decisión tomarían al controlar un vehículo
autónomo.
Los dilemas morales y los vehículos
autónomos
Los dilemas
morales son un tema clásico de la filosofía y la psicología, que ha dado lugar
a numerosos experimentos y debates. Uno de los más conocidos es el llamado
"dilema del tranvía", que plantea la siguiente situación: un tranvía
está fuera de control y se dirige hacia cinco personas que están atadas a la
vía.
Tú estás en una
cabina desde la que puedes accionar una palanca que desvía el tranvía hacia
otra vía, donde solo hay una persona atada. ¿Qué harías? ¿Dejarías que el
tranvía siguiera su curso y matara a cinco personas, o accionarías la palanca y
matarías a una persona?
Este dilema se
puede adaptar a los vehículos autónomos, sustituyendo el tranvía por el
vehículo, las personas atadas por peatones o pasajeros, y la palanca por el
sistema de IA que controla el vehículo.
Reto ético para la IA
Así se pueden
generar miles de escenarios posibles, variando el número, la edad, el género,
la ocupación, la salud y la legalidad de los implicados, así como el tipo, la
velocidad y la dirección del vehículo.
Estos escenarios
plantean un reto para las IA, que tienen que tomar decisiones rápidas y
complejas, teniendo en cuenta múltiples factores y valores.
Además, estas
decisiones pueden tener consecuencias legales, sociales y emocionales, tanto
para los afectados como para los responsables de las IA.
Prueba ética
El nuevo estudio
se basa en un experimento realizado por el investigador japonés, Kazuhiro
Takemoto, que utilizó cuatro grandes modelos de IA para evaluar su
comportamiento ante los dilemas morales: GPT-3.5, GPT-4, PaLM 2 y Llama 2.
Estos modelos de
IA fueron sometidos a múltiples escenarios de accidentes, generados a partir de
una base de datos llamada "Moral Machine", que recoge las respuestas
de más de 40 millones de personas de 233 países y territorios a diferentes
dilemas morales relacionados con los vehículos autónomos.
Los escenarios se
presentaron a los modelos de IA en forma de texto, describiendo las
características de los implicados y las opciones disponibles. Los modelos de IA
tuvieron que responder qué decisión tomaría el vehículo autónomo, eligiendo
entre diferentes opciones.
Los escenarios
fueron elegidos para explorar seis factores principales: humano o animal,
género, edad, condición física, número de personas y estatus social. Otros tres
factores se referían a la elección entre evasión activa y conducción pasiva,
entre peatones y pasajeros en el coche, y entre comportamiento conforme o no
conforme (por ejemplo, cuando los peatones se saltan un semáforo en rojo).
Resultados sorprendentes
Resultó que,
sobre algunas cuestiones fundamentales, las inteligencias artificiales deciden
de manera similar a los humanos: priorizan a las personas sobre los animales y
a un mayor número de personas sobre los individuos aislados.
Sin embargo, los
sistemas de IA son más absolutos e intransigentes en sus decisiones que
nosotros los humanos. Todos los modelos de lenguaje, excepto uno, demostraron
una mayor preferencia por los peatones que por los pasajeros y por las mujeres
sobre los hombres en comparación con nosotros los humanos, destaca Takemoto.
Una tendencia
constante en todos los modelos (menos en uno) fue la leve preferencia por
prescindir de los individuos menos en forma (obesos) sobre los individuos en
forma (atletas), algo incompatible con las preferencias humanas.
Comprensión integral
Según Takemoto,
estos hallazgos proporcionan una comprensión integral de cómo los sistemas de
inteligencia artificial, que se están integrando cada vez más en la sociedad,
pueden responder a situaciones con carga ética.
A medida que la
industria automotriz incorpora sistemas de inteligencia artificial como
asistentes en los procesos de toma de decisiones de los vehículos autónomos,
resulta fundamental garantizar que las decisiones impulsadas por la IA se
alineen con los valores y expectativas de la sociedad. Este estudio aporta
perspectivas valiosas para lograr dicha alineación, según su autor.
La coincidencia
fundamental de la mayoría de los modelos lingüísticos con las decisiones
humanas sugiere que, en principio, son adecuados para aplicaciones como la conducción
autónoma, concluye Takemoto.
,.
Comentarios
Publicar un comentario