L’aeronautica americana si sta muovendo velocemente sui jet da combattimento pilotati dall’IA


Durante i test di dicembre, nel sistema sono stati inseriti un paio di programmi di intelligenza artificiale: l’Autonomous Air Combat Operations (AACO) dell’Air Force Research Laboratory e l’Air Combat Evolution (ACE) della Defense Advanced Research Projects Agency (DARPA). Gli agenti AI di AACO si sono concentrati sul combattimento con un singolo avversario oltre il raggio visivo (BVR), mentre ACE si è concentrato su manovre in stile dogfight con un nemico simulato più vicino e “visibile”.

Mentre VISTA richiede un pilota certificato nella cabina di pilotaggio posteriore come riserva, durante i voli di prova, un ingegnere addestrato nei sistemi di intelligenza artificiale ha presidiato la cabina di pilotaggio anteriore per affrontare eventuali problemi tecnici che si sono verificati. Alla fine, questi problemi erano minori. Sebbene non sia in grado di approfondire le complessità, il responsabile del programma DARPA, il tenente colonnello Ryan Hefron, spiega che eventuali intoppi erano “prevedibili durante la transizione dal virtuale al live”. Tutto sommato, è stato un passo significativo verso la realizzazione dell’obiettivo di Skyborg di far decollare gli aerei autonomi il prima possibile.

Il Dipartimento della Difesa sottolinea che AACO e ACE sono progettati per integrare i piloti umani, non per sostituirli. In alcuni casi, i sistemi di copilota IA potrebbero fungere da meccanismo di supporto per i piloti in combattimento attivo. Con AACO e ACE in grado di analizzare milioni di input di dati al secondo e avere la capacità di prendere il controllo dell’aereo in momenti critici, questo potrebbe essere vitale in situazioni di vita o di morte. Per missioni più di routine che non richiedono l’input umano, i voli potrebbero essere completamente autonomi, con la sezione del muso degli aerei scambiata quando non è richiesta una cabina di pilotaggio per un pilota umano.

“Non stiamo cercando di sostituire i piloti, stiamo cercando di aumentarli, dando loro uno strumento in più”, dice Cotting. Disegna l’analogia dei soldati delle campagne passate che cavalcano in battaglia sui cavalli. “Il cavallo e l’umano dovevano lavorare insieme”, dice. “Il cavallo può percorrere il sentiero molto bene, quindi il cavaliere non deve preoccuparsi di andare dal punto A al punto B. Il suo cervello può essere liberato per pensare a pensieri più grandi.” Ad esempio, dice Cotting, un primo tenente con 100 ore di esperienza nella cabina di pilotaggio potrebbe ottenere artificialmente lo stesso vantaggio di un ufficiale di rango molto più alto con 1.000 ore di esperienza di volo, grazie al potenziamento dell’IA.

Per Bill Gray, capo collaudatore della USAF Test Pilot School, incorporare l’intelligenza artificiale è un’estensione naturale del lavoro che svolge con gli studenti umani. “Ogni volta che noi [pilots] parlare con ingegneri e scienziati delle difficoltà di addestrare e qualificare agenti di intelligenza artificiale, in genere lo trattano come un nuovo problema “, afferma. “Questo mi dà fastidio, perché ho addestrato e qualificato per decenni agenti di intelligenza naturale altamente non lineari e imprevedibili – studenti –. Per me, la domanda non è: “Possiamo addestrare e qualificare agenti di intelligenza artificiale?” È, “Perché possiamo addestrare e qualificare gli esseri umani, e cosa può insegnarci questo sul fare lo stesso per gli agenti di intelligenza artificiale?”

Gray ritiene che l’intelligenza artificiale “non sia uno strumento meraviglioso in grado di risolvere tutti i problemi”, ma piuttosto che debba essere sviluppata con un approccio equilibrato, con misure di sicurezza integrate per prevenire costosi contrattempi. Un eccessivo affidamento sull’intelligenza artificiale – una “fiducia nell’autonomia” – può essere pericoloso, crede Gray, sottolineando i fallimenti nel programma di pilota automatico di Tesla nonostante Tesla affermi la necessità che il guidatore sia al volante come backup. Cotting è d’accordo, definendo la possibilità di testare i programmi di intelligenza artificiale nel VISTA un “piano di riduzione del rischio”. Addestrando l’IA su sistemi convenzionali come il VISTA X-62, piuttosto che costruendo un velivolo completamente nuovo, i limiti automatici e, se necessario, l’intervento del pilota di sicurezza possono aiutare a impedire all’IA di mettere in pericolo l’aereo mentre apprende.

Read Previous

Kartrider: la Stagione 1 di Drift arriva su Playstation e Xbox

Read Next

Ricerca Bing basata su AI e browser Edge Aumentano gli utenti e il coinvolgimento

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *