La idea es darles mayor libertad a estas naves autónomas no solo para comunicarse entre sí, también para tomar decisiones.
El uso de inteligencia artificial en drones no es algo nuevo. Tampoco su desempeño en modo enjambre. O que sea anfibio. Ahora, combinar estas tres cualidades y llevar la IA un paso más allá sí es algo nuevo. Y eso es lo que está haciendo el Pentágono en naves aéreas y navales experimentales que están allanando el camino para drones de ataque de bajo coste en una serie de experimentos.
Los ensayos realizados por la Armada y la Fuerza Aérea de Estados Unidos también resaltaron cómo su ejército podría emplear armas autónomas de manera diferente a China o Rusia en entornos bélicos, pero también para enfrentarse al contrabando o a la piratería que está aumentando en algunas regiones del globo.
La Armada, por ejemplo, llevó enjambres de drones aéreos y marítimos al ejercicio anual Unitas, donde recopilaron y compartieron datos de reconocimiento que ayudaron a la flota multinacional a detectar, identificar y eliminar naves enemigas más rápidamente. Por ejemplo, en el ejercicio utilizaron una nave de superficie no tripulada y otra aérea no tripulada que se informaban entre sí, compartiendo datos y evaluando posibles tácticas de ataques y resultados hasta decidir la mejor estrategia. Y todo ello en un lapso de tiempo muy breve.
El Secretario de Marina de los Estados Unidos, Carlos Del Toro, aseguró que “estos conceptos se han hecho realidad en términos de todos los avances que hemos logrado en vehículos no tripulados, ya sea en la superficie, en el aire o debajo de la superficie”.
Por su parte, la Fuerza Aérea también avanzó en este tipo de drones. “Estamos probando cosas como el dron de alto rendimiento XQ-58 que no tiene tripulación y tiene una funcionalidad habilitada para IA, lo cual es realmente genial – explica Tucker Hamilton, comandante de operaciones de la Fuerza Aérea -. De hecho, por primera vez en la historia de la aviación, un agente de IA y un algoritmo de IA volaron un dron de alto rendimiento”.
Hasta ahora, los drones autónomos anteriores generalmente seguían instrucciones simples, por ejemplo, para regresar a una ubicación predeterminada después de perder contacto con su operador. Pero los experimentos, como el realizado con XQ-58, han permitido una forma más sofisticada de autonomía.
“Aquí es donde le damos un objetivo, pero él decide qué configuración de aceleración, qué ángulo de inclinación, qué altitud, qué ángulo de inmersión hará para alcanzar ese objetivo, estamos hablando de la autonomía habilitada por la IA. Cuando eso se enciende, es genial verlo”, añade Hamilton.
Los resultados son a veces sorprendentes. El XQ-58, por ejemplo, realiza giros extremadamente rápidos o más limpios en comparación con un avión con piloto humano. Para lograr esto, los sistemas de inteligencia artificial necesitan un espacio de aprendizaje donde puedan tomar decisiones de manera segura.
“En simulación, le hemos permitido reescribir el código un poco para optimizar su rendimiento y lograr ese objetivo – continúa Hamilton -. Y luego a la IA le añadimos un código de autonomía, de modo que si decide aumentar la velocidad, el grado de inclinación u otras variables, pueda hacerlo de modo autónomo”.
Obviamente, esto genera la necesidad de establecer normas internacionales para el desarrollo militar responsable de la IA. En noviembre pasado, Estados Unidos lanzó una Declaración Política sobre el Uso Militar Responsable de la IA que ya cuenta con 51 acuerdos firmados y se espera que consiga un consenso mayor aún, uno que obligue a Rusia y China a adherirse al mismo
Fuente: LA RAZÓN ESPAÑA