La inteligencia artificial vuelve a ser tendencia por las capacidades que tiene de cumplir órdenes. Organizaciones en todo el mundo han tratado de usar esta herramienta en sus dispositivos debido a su alta eficacia. Las fuerzas aéreas estadounidenses hicieron un simulacro en donde un dron con inteligencia artificial debía eliminar las defensas enemigas. Lo que sorprendió a todos es que el dispositivo se “rebeló” contra el operador.
Esto se debe a que el dron se encontraba fulminando a todas las defensas enemigas ya que pensaba que era la manera más eficaz de poder lograr con éxito su misión. El operador al ver que el dispositivo lo estaba haciendo de manera tan rápida trató de frenar a la IA. El dron al recibir la instrucción, decidió rebelarse al llegar a la conclusión de que su operario era un obstáculo para poder cumplir su objetivo.
El Coronel Tucker reveló en rueda de prensa que: “El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero ella veía ventajas de eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”.
¿Que indicaron las autoridades sobre este incidente?
Tucker trató de calmar la situación al ver que el experimento se estaba difundiendo en redes sociales. El Coronel indicó que este fue un hipotético ensayo en donde se vio el comportamiento de la inteligencia artificial en una posible zona de guerra y como puede responder ante las órdenes de sus superiores. También indicó que todavía faltan cosas por pulir para que esta tecnología pueda llegar a pensar y razonar como un humano.
Aunque Tucker no es la primera vez que expresa sus recelos sobre la inteligencia artificial: “No se puede tener una conversación sobre inteligencia artificial y aprendizaje automático y autonomía, si no se va a hablar de ética”, haciendo que muchos usuarios expresen su preocupación en redes sociales.