Por primera vez, la Fuerza Aérea norteamericana utiliza inteligencia artificial en un avión militar.
La Fuerza Aérea permitió que un algoritmo de inteligencia artificial controlara los sensores y los sistemas de navegación en un avión espía U-2 Dragon Lady en un vuelo de entrenamiento el martes, dijeron las autoridades, marcando lo que se cree que es el primer uso conocido de IA a bordo de un avión militar estadounidense.
No hubo armas involucradas y el avión fue conducido por un piloto.
Aun así, los altos funcionarios de defensa promocionaron la prueba como un momento decisivo en los intentos del Departamento de Defensa de incorporar la inteligencia artificial en aviones militares, un tema que es objeto de intenso debate en las comunidades de control de armas y aviación.
“Esta es la primera vez que esto sucede”, dijo el subsecretario de la Fuerza Aérea Will Roper.
El ex director ejecutivo de Google, Eric Schmidt, quien anteriormente dirigió la Junta de Innovación de Defensa del Pentágono, describió la prueba de vuelo del martes como “la primera vez, que yo sepa, que se tiene un sistema militar que integra IA, probablemente en cualquier ejército“.
El sistema de inteligencia artificial fue diseñado deliberadamente sin una anulación manual para “provocar pensamiento y aprendizaje en el entorno de prueba“, dijo el portavoz de la Fuerza Aérea Josh Benedetti.
Fue relegado a tareas muy específicas y aislado de los controles de vuelo del avión, según las personas involucradas en la prueba de vuelo.
“En su mayor parte, yo seguía siendo en gran medida el piloto al mando“, dijo a The Washington Post el piloto del U-2 que realizó la prueba del martes en una entrevista.
El piloto habló bajo condición de anonimato debido a la naturaleza sensible de su trabajo.
Más tarde, la Fuerza Aérea publicó fotos poco antes del vuelo de prueba con materiales que solo hacían referencia a su distintivo de llamada: “Vudu“.
“El papel [de la IA] era muy limitado … pero, para las tareas que se le presentaron a la IA, funcionó bien“, dijo el piloto.
La prueba de dos horas y media se realizó en una misión de entrenamiento de rutina en la Base de la Fuerza Aérea Beale, cerca de Marysville, California, el martes por la mañana.
Los oficiales de la Fuerza Aérea y el piloto del U-2 se negaron a ofrecer detalles sobre las tareas específicas realizadas por la IA, excepto que se puso a cargo de los sensores de radar y la navegación táctica del avión.
Roper dijo que la IA fue entrenada contra una computadora opuesta para buscar misiles y lanzadores de misiles que se aproximaban.
A los efectos del vuelo de prueba inicial, la IA obtuvo la votación final sobre dónde dirigir los sensores del avión, dijo.
El punto es acercar a la Fuerza Aérea al concepto de “equipo de hombres y máquinas“, en el que los robots son responsables de tareas técnicas limitadas mientras que los humanos mantienen el control de decisiones de vida o muerte como el control de vuelo y la selección de objetivos.
It is also advisable to consult the viagra prescriptions suggestive dosage of this medicine. //kamagradepot.com/ Kamagra is cheap and promising treatment of incapability problem of men and women. Importantly, the herbal pill is natural and has no side effects like drug resistance and kidney http://www.icks.org/data/ijks/1483111470_add_file_1.pdf cialis sales online damages. People, who experience sciatica, usually find that oral ED solution; do not mix well with high blood pressure solutions containing nitrates. viagra canada deliver The ClickBank products pay a much higher commission, as you can download their products, they have very little viagra 50 mg overhead.“Esto realmente tiene la intención de sorprender a la Fuerza Aérea y al Departamento [de Defensa] en su conjunto sobre la seriedad con la que debemos tratar los equipos de IA“, dijo Roper en una entrevista poco antes de la prueba.
La propia IA, denominada ARTUµ en una aparente referencia a Star Wars, se basa en algoritmos de software de código abierto y está adaptada a los sistemas informáticos del avión en el Laboratorio Federal U-2.
Se basa en un algoritmo de acceso público llamado µZero, que fue desarrollado por la empresa de investigación de inteligencia artificial DeepMind para dominar rápidamente juegos estratégicos como Chess y Go, según dos funcionarios familiarizados con su desarrollo.
Y está habilitado por un sistema desarrollado por Google disponible públicamente llamado Kubernetes, que permite que el software de inteligencia artificial se transfiera entre los sistemas informáticos a bordo del avión y el basado en la nube en el que se desarrolló.
A primera vista, el U-2 parece un candidato poco probable para el vuelo habilitado por IA.
Fue desarrollado para la CIA a principios de la década de 1950 y se usó durante la Guerra Fría para realizar vigilancia desde alturas asombrosamente altas de 60,000 o 70,000 pies.
Los aviones fueron adquiridos posteriormente por el Departamento de Defensa.
Pero su función de vigilancia es una que ya ha incorporado el uso de IA para analizar datos complejos.
Un programa de la Fuerza Aérea llamado Proyecto Maven buscó analizar rápidamente montones de imágenes de drones en lugar de humanos.
Google se negó a renovar su contrato con Maven después de una revuelta interna de los empleados que no querían que los algoritmos de la empresa se vieran involucrados en una guerra.
Más tarde, la compañía lanzó un conjunto de principios de inteligencia artificial que no permitían que los algoritmos de la compañía se usaran en ningún sistema de armas.
Schmidt, quien dirigió Google hasta 2011, dijo que cree que es poco probable que los militares adopten sistemas de armas completamente autónomos en el corto plazo.
El problema, dice, es que es difícil demostrar cómo funcionaría un algoritmo de IA en todos los escenarios posibles, incluidos aquellos en los que está en juego la vida humana.
“Si un humano comete un error y mata a civiles, es una tragedia. … si un sistema autónomo mata a civiles, es más que una tragedia“, dijo Schmidt el martes en una entrevista.
“Ningún general asumirá la responsabilidad de un sistema en el que no está realmente seguro de que vaya a hacer lo que dice.
Ese problema puede solucionarse en las próximas décadas, pero no en el próximo año”, dijo.
Fuentes: Washington Post, Futurism