Por qué los planteos de la economía del comportamiento les quitan el sueño a los expertos en inteligencia artificial. Alejandro Repetto desarrolló el primer vehículo autónomo de América latina. Foto: Ignacio Sánchez
Un tren se aproxima a toda velocidad hacia cinco personas que están atadas a la vía. Mediante una palanca se puede abrir un desvío hacia otro camino, en el cual hay una sola persona atada. ¿Qué haría usted en esta situación? Enfrentada con este dilema, la mayor parte de los entrevistados opta por desviar el tren y salvar a las cinco personas.
Pero ahora se introduce un pequeño cambio en el enunciado. En lugar de accionar la palanca, se puede empujar a una persona de gran tamaño hacia la vía, lo cual, se asegura, ocasionaría que el tren se frene. El resultado final es el mismo: cinco vidas salvadas contra una sacrificada. Pero en este tipo de situaciones, es menos la gente dispuesta a tomar esta determinación: no es lo mismo dejar morir a alguien que empujarlo a las vías. ¿Y qué pasaría si la persona por sacrificar fuera el mismo entrevistado, que debe arrojarse? La tasa afirmativa baja más todavía, aun a costa de que la consecuencia sea la muerte de cinco atados a la vía.
Este tipo de planteos, tradicionales en teoría de la decisión y en economía del comportamiento (la disciplina que cruza a la economía con la psicología), les quitan el sueño a los expertos en inteligencia artificial que diseñan los vehículos automanejados y otro tipo de robots. Aunque se estima que la introducción de los autos sin conductor podría salvar un 1.300.000 vidas al año en todo el planeta por la reducción de accidentes, según los expertos aún, por distintos motivos, seguirían ocurriendo siniestros. Serían un 10% de los actuales, pero esa proporción obliga a planteos éticos y morales que pueden ser muy difíciles de solucionar.
«Hasta no hace mucho tiempo, nadie pensaba más allá de las tres leyes de la robótica de Isaac Asimov para asegurar la convivencia pacífica entre hombres y máquinas», cuenta Alejandro Repetto, quien desarrolló el primer vehículo autónomo de América latina y estudió Ingeniería computacional en la Universidad de Milán. Las tres leyes de Asimov a las que se refiere Repetto son: uno, un robot no puede lastimar a un ser humano; dos: los robots obedecen las órdenes de humanos salvo cuando esas órdenes impliquen violar la primer ley, y tres: un robot debe proteger su propia existencia siempre que esa conducta no entre en conflicto con las primeras dos leyes.
«Sin embargo, la paradoja de los dos autos autónomos que se manejan en sentido opuesto y, ante una falla, tienen que decidir a quién matar no está contemplada en esas leyes», explica Repetto. Y agrega: «El problema que perturba es que, si bien la tasa de accidentes bajaría notablemente (se estima un 90%), los siniestros que sucederían serían de otra naturaleza. Aunque a priori todos estamos de acuerdo con la reducción, cuando se hila fino pueden surgir dilemas morales».
Un experimento llevado a cabo por el economista Jean-François Bonnefon y la Escuela de Economía de Toulouse (Francia) llegó a la conclusión de que la gente apoya un código de ética «utilitario» para los autos-robots (que entre perder cinco vidas y una se opte por la segunda opción), con una excepción: nadie quiere manejar un vehículo que decida que la vida por sacrificar es la del propio conductor. Esto crea un dilema sin solución: nadie parece dispuesto a comprar un auto que decida, con un algoritmo sofisticado, que el «mal menor» es que se muera quien lo conduce.
Todo esto, aun cuando se asegure que habrá un 90% de vidas salvadas. La economía del comportamiento viene relevando decenas de sesgos o errores sistemáticos que cometemos a diario, que nos apartan de la racionalidad, en los cuales la inteligencia artificial no incurriría.
Frente al volante, mujeres y hombres presentan muchos sesgos a la hora de reaccionar en un accidente: la respuesta es muy rápida, intuitiva, y no hay margen para evaluar las consecuencias de largo plazo, como sí podría hacer un sistema de inteligencia artificial, que además opera interconectado con todos los autos que participarían en un siniestro. Uno de los muchos sesgos que intervienen en este tipo de circunstancia, opina el economista del comportamiento Martín Tetaz, «es el que estudió Michael Bar-Eli de la Universidad de Néguev, Israel, y que muestra que los arqueros son presa del sesgo de acción y que por eso siempre tienden a tirarse hacia alguno de los palos y rara vez se quedan en el centro del arco. Este sesgo se produce porque, ante malos resultados, las personas se sienten peor si consideran que no han hecho el máximo esfuerzo posible para evitarlos. En cambio, no se sienten tan mal si creen que esos resultados se han producido aun a pesar de haber intentado evitarlos.» Traducción a un accidente: se pega el volantazo con más frecuencia de lo que un cálculo racional indicaría como conveniente.
¿Cómo solucionar la trampa de que nadie compraría autos que decidieran dejar morir a su conductor? Tetaz, autor de Psychonomics (Ediciones B), arriesga una posible solución: «El dilema podría resolverse si le enseñamos al auto a responder «impulsivamente». Sé que la idea parece difícil, pero un impulso es una decisión automática sin poder de veto de la corteza prefrontal dorso lateral [(que es el área del cerebro responsable de evaluar las consecuencias de largo plazo de nuestras acciones]). La clave es diseñar un auto que pase la prueba de Turing en un simulador, de suerte tal que el observador neutral que ve la escena desde afuera no pueda identificar si la decisión fue tomada por un individuo de carne y hueso detrás del volante o por un piloto automático».
sebacampanario@gmail.com
Fuente: http://www.lanacion.com.ar/1896479-la-moral-de-los-robots-el-codigo-de-etica-en-los-procesos-de-innovacion
Sé el primero en comentar en «La moral de los robots: el código de ética en los procesos de innovación»