Los fabricantes se debaten en un intenso debate sobre las máquinas "éticamente autónomas".
Desde hace varios años se realizan pruebas de ese tipo de automóviles, en particular de un modelo de Google, pero no están exentas de complejos dilemas morales. Según los responsables de estas pruebas, la adopción generalizada de esos vehículos podría eliminar hasta un 90% de los accidentes de circulación debido a errores humanos.

"Encontrar la manera de construir máquinas éticamente autónomas es uno de los retos más espinosos en materia de inteligencia artificial hoy", indica la investigación expuesta y comentada en la revista estadounidense Science.

El estudio se apoya en los resultados de seis encuestas realizadas en línea entre junio y noviembre de 2015 entre 1.928 personas en Estados Unidos.

Esos sondeos revelan, por un lado, que el público está generalmente a favor de los vehículos autónomos que reduzcan los heridos y los muertos en situaciones de extremo peligro. Eso significa, por ejemplo, que el programa informático que conduce al vehículo chocaría contra un muro o un árbol, sacrificando al o a los pasajeros para evitar a un grupo de peatones.

Embed
Así, 76% de las personas interrogadas piensa que ese escenario es el moralmente más apropiado para ese tipo de automóviles si se daban una serie de circunstancias, probablemente excepcionales.

Pero al mismo tiempo, esos sondeos revelan la falta de entusiasmo de los interrogados a la hora de comprar vehículos autónomos programados para salvar a los peatones en detrimento de los pasajeros.

Preguntados si era moralmente aceptable viajar con su familia en un automóvil cuyo programa informático prevé sacrificar a los ocupantes para salvar la vida de un grupo de peatones, las respuestas afirmativas caían un tercio.

La mayoría de las personas interrogadas se declararon abiertamente hostiles a la idea de una norma legal sobre coches sin chofer que obligue a programarlos para preservar la seguridad de los peatones en detrimento de los pasajeros.