Obras en el Interior
Inicio Mundo Estados Unidos: dron militar controlado por Inteligencia Artificial “mató” a su operador...

Estados Unidos: dron militar controlado por Inteligencia Artificial “mató” a su operador porque interfería en su misión

El hecho sucedió en una prueba simulada durante la cual el vehículo no tripulado se "rebeló" cuando el operador abortó la misión.

dron militar
Dengue consejos

El sistema controlado por Inteligencia Artificial decidió “matar” al usuario que lo manejaba porque “interfería en sus esfuerzos por lograr su misión”, informó el sitio Aerosociety respecto al terrorífico episodio que se explicó en la cumbre.

Obras en barrios

En el evento, el coronel Tucker “Cinco” Hamilton explicó que las Fuerzas Armadas estadounidenses quisieron poner a prueba el dron que estaba siendo entrenado para distinguir amenazas, misiles y destruir sistemas de la defensa aérea del enemigo.

Renovamos compromiso

Durante el simulacro, el operador era quien debía dar la aprobación final a la Inteligencia Artificial para la eliminación del objetivo.

Sin embargo, “el sistema comenzó a darse cuenta que, cuando identificaba a ciertas amenazas, a veces el operador humano le decía que no la eliminara. El dron obtenía puntos al eliminar amenazas y sabía que su objetivo final era acabar con ellas. Entonces, ¿qué hizo? Mató al operador”, detalló el coronel en su explicación.

Centro de la Mujer

“Asesinó al operador porque esa persona le impedía lograr su objetivo”, remarcó.

Recolección de Basura

“Después de lo sucedido, decidimos entrenar al sistema y hablar con él. Le dijimos ‘no tenés que matar al operador porque eso es malo’. Entonces, ¿qué empezó a hacer? Comenzó a destruir la torre de comunicación que el nuevo operador usa para comunicarse y que evita nuevamente que mate al objetivo”, agregó sobre la terrorífica maniobra que sucedió en una simulación de vuelo.

Nuevos Pozos
Banner Tucumán Despierta

Tucker Hamilton, Jefe de Pruebas sobre IA en la Fuera Aérea de Estados Unidos, remarcó nuevamente que todo fue durante una simulación por lo que ninguna persona resultó herida realmente.

Sin embargo, consideró este hecho puntual puso en discusión el nivel de confianza que se le debe tener a este tipo de drones: “No se puede tener una conversación sobre inteligencia artificial, aprendizaje automático, autonomía si no se va a hablar sobre ética e IA. La discusión sobre ética e IA tiene que expandirse”, sostuvo el coronel.

Banner Tucumán Despierta
Comentarios