Boleto Gratuito

Estados Unidos: dron militar controlado por Inteligencia Artificial “mató” a su operador porque interfería en su misión

El hecho sucedió en una prueba simulada durante la cual el vehículo no tripulado se "rebeló" cuando el operador abortó la misión.

dron militar
Descacharreo

El sistema controlado por Inteligencia Artificial decidió “matar” al usuario que lo manejaba porque “interfería en sus esfuerzos por lograr su misión”, informó el sitio Aerosociety respecto al terrorífico episodio que se explicó en la cumbre.

En el evento, el coronel Tucker “Cinco” Hamilton explicó que las Fuerzas Armadas estadounidenses quisieron poner a prueba el dron que estaba siendo entrenado para distinguir amenazas, misiles y destruir sistemas de la defensa aérea del enemigo.

Fumigación y Limpieza

Durante el simulacro, el operador era quien debía dar la aprobación final a la Inteligencia Artificial para la eliminación del objetivo.

Movilidad Urbana

Sin embargo, “el sistema comenzó a darse cuenta que, cuando identificaba a ciertas amenazas, a veces el operador humano le decía que no la eliminara. El dron obtenía puntos al eliminar amenazas y sabía que su objetivo final era acabar con ellas. Entonces, ¿qué hizo? Mató al operador”, detalló el coronel en su explicación.

“Asesinó al operador porque esa persona le impedía lograr su objetivo”, remarcó.

“Después de lo sucedido, decidimos entrenar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador porque eso es malo’. Entonces, ¿qué empezó a hacer? Comenzó a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”, agregó sobre la terrorífica maniobra que sucedió en una simulación de vuelo.

Banner Tucumán Despierta
Banner Tucumán Despierta

Tucker Hamilton, Jefe de Pruebas sobre IA en la Fuera Aérea de Estados Unidos, remarcó nuevamente que todo fue durante una simulación por lo que ninguna persona resultó herida realmente.

Sin embargo, consideró este hecho puntual puso en discusión el nivel de confianza que se le debe tener a este tipo de drones: “No se puede tener una conversación sobre inteligencia artificial, aprendizaje automático, autonomía si no se va a hablar sobre ética e IA. La discusión sobre ética e IA tiene que expandirse”, sostuvo el coronel.

Dejanos tu Comentario