26.4 C
Resistencia
31 octubre, 2024

Un avión de guerra controlado por inteligencia artificial sobrevoló California

Un F-16 voló sin control humano directo. “No usar estas tecnologías es un riesgo para la seguridad”, comentó el piloto que estuvo en la cabina de la aeronave.

El vuelo superó los 800 kilómetros por hora. (Foto: AP/Damian Dovarganes)

El vuelo superó los 800 kilómetros por hora. (Foto: AP/Damian Dovarganes)

La Fuerza Aérea de Estados Unidos consiguió hace algunas jornadas un hito relevante en el ámbito de la aviación militar, tras el vuelo exitoso de una aeronave de guerra mediante un sistema de inteligencia artificial. En la prueba, un F-16 atravesó por el aire el desierto de California, alcanzando velocidades superiores a los 850 kilómetros por hora.

Leé también: Warren Buffet dijo que su gemelo digital creado con inteligencia artificial es tan creíble como aterrador

Respecto a estas tecnologías automatizadas, el secretario de aquel organismo estadounidense, Frank Kendal, opinó que es un riesgo de seguridad no tenerlas. “En este punto, es necesario que dispongamos de ellcomentó el hombre que, además, fue quien estuvo dentro de la cabina del avión de combate controlado por una IA.

La inteligencia artificial controla un avión de guerra en Estados Unidos: los detalles de la prueba

En abril, en una conferencia sobre el futuro de la guerra y el despliegue de drones de ataque que operan en forma autónoma, Kendall había anunciado el plan para volar un F-16 con una IA. El ensayo se realizó el viernes 3 de mayo con la presencia de escasos medios de comunicación, NBC y Associated Press, que recibieron el permiso para observar el vuelo “secreto” con la condición de no revelar los detalles hasta que se complete la prueba.

Los aviones de combate se suben a la era de la IA. (Foto: Adobe Stock)

Los aviones de combate se suben a la era de la IA. (Foto: Adobe Stock)

El F-16, en cuya cabina se encontraba Kendall listo para tomar el mando, en caso de ser necesario, es conocido como “Vista”. En las cercanías voló otra nave, en ese caso controlada por humanos. La experiencia se realizó en la Base Edwards de la Fuerza Aérea estadounidense, una instalación en medio del desierto californiano en la que la leyenda de la aviación, Chuck Yaeger, fue el primer humano en romper la barrera del sonido, en 1947.

Siguiendo el repaso de New York Times, al finalizar la prueba Kendall salió de la cabina del F-16 con una sonrisa en el rostro, tras un vuelo que se extendió durante media hora. Al descender, dijo a AP que vio lo suficiente para confiar en que las tecnologías de IA podrán decidir si disparar un arma durante una guerra. El secretario de la Fuerza Aérea dijo al respecto que siempre será necesaria la supervisión humana.

Leé también: A lo Hollywood: la inteligencia artificial está cada vez más cerca de poder hackear sola

De acuerdo a la fuente, la Fuerza Aérea de EE.UU. planea tener una flota de más de 1000 drones operados con inteligencia artificial; se prevé que el primero de ellos esté en funcionamiento hacia el 2028.

¿Quién será responsable de los crímenes de una máquina?

Frente al avance de la automatización en el uso de la fuerza, se alzan voces críticas que se oponen al empleo de IA en la toma de decisiones, en este caso en el marco de conflictos bélicos. Surgen conflictos como los siguientes: ¿qué ocurrirá si una máquina totalmente autónoma comete un crimen? ¿Quién será el responsable de dichos actos?

La campaña Stop Killer Robots procura frenar el avance de la automatización en el uso de la fuerza. (Foto: Archivo)

La campaña Stop Killer Robots procura frenar el avance de la automatización en el uso de la fuerza. (Foto: Archivo)

“Existen preocupaciones graves y generalizadas sobre ceder decisiones de vida o muerte a sensores y softwares”, advirtió al respecto la Cruz Roja y agregó que las armas autónomas “son una causa inmediata de preocupación que exige una respuesta política internacional urgente”. En esa misma línea, Mary Wareham de la ONG Human Rights Watch (HRW) comentó que “eliminar el control humano en el uso de la fuerza es una grave amenaza que merece una acción multilateral urgente”, y que “las armas totalmente autónomas cometerían errores trágicos con consecuencias imprevistas”.

Leé también: Desarrollaron una IA tóxica para pensar las peores preguntas que puedas imaginarte

En declaraciones a TN Tecno, integrantes de la campaña Stop Killer Robots que impulsa HRW, señalaron que es imperioso establecer una obligación general de mantener el control humano significativo sobre el uso de la fuerza. En tal contexto, exigen una prohibición expresa para el “desarrollo, producción y uso que seleccione y ataque objetivos con base en procesamiento de sensores o que sean tan complejos que puedan desarrollar comportamientos no predecibles, o aquellos sistemas que seleccionen el objetivo a atacar, por ejemplo humanos o grupos, según indicadores discriminatorios”.

Últimas Noticias
NOTICIAS RELACIONADAS