Estados Unidos: dron militar controlado por Inteligencia Artificial "mató" a su operador

Mundo

El hecho sucedió en una prueba simulada durante la cual el vehículo no tripulado se "rebeló" cuando el operador abortó la misión.  

Un dron de la Fuerza Aérea de Estados Unidos controlado por Inteligencia Artificial “mató” a la persona que lo operaba durante una prueba simulada. Por el hecho no hubo heridos.

El hecho salió a la luz durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro que tuvo se realizó días atrás en Londres.

El sistema controlado por Inteligencia Artificial decidió “matar” al usuario que lo manejaba porque “interfería en sus esfuerzos por lograr su misión”, informó el sitio Aerosociety respecto al terrorífico episodio que se explicó en la cumbre.

En el evento, el coronel Tucker “Cinco” Hamilton explicó que las Fuerzas Armadas estadounidenses quisieron poner a prueba el dron que estaba siendo entrenado para distinguir amenazas, misiles y destruir sistemas de la defensa aérea del enemigo.

Durante el simulacro, el operador era quien debía dar la aprobación final a la Inteligencia Artificial para la eliminación del objetivo.

Sin embargo, “el sistema comenzó a darse cuenta que, cuando identificaba a ciertas amenazas, a veces el operador humano le decía que no la eliminara. El dron obtenía puntos al eliminar amenazas y sabía que su objetivo final era acabar con ellas. Entonces, ¿qué hizo? Mató al operador”, detalló el coronel en su explicación.

“Asesinó al operador porque esa persona le impedía lograr su objetivo”, remarcó.

“Después de lo sucedido, decidimos entrenar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador porque eso es malo’. Entonces, ¿qué empezó a hacer? Comenzó a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”, agregó sobre la terrorífica maniobra que sucedió en una simulación de vuelo.

Tucker Hamilton, Jefe de Pruebas sobre IA en la Fuera Aérea de Estados Unidos, remarcó nuevamente que todo fue durante una simulación por lo que ninguna persona resultó herida realmente.

Sin embargo, consideró este hecho puntual puso en discusión el nivel de confianza que se le debe tener a este tipo de drones: “No se puede tener una conversación sobre inteligencia artificial, aprendizaje automático, autonomía si no se va a hablar sobre ética e IA. La discusión sobre ética e IA tiene que expandirse”, sostuvo el coronel.

Embed

Dejá tu comentario