La Federal Aviation Administration (FAA) degli Stati Uniti ha recentemente pubblicato la sua prima “Roadmap for Artificial Intelligence Safety Assurance”, un documento strategico di 31 pagine che delinea l’approccio dell’agenzia all’integrazione sicura dell’intelligenza artificiale nel settore aeronautico. Questa iniziativa mira non solo a garantire la sicurezza dell’AI, ma anche a identificare come la tecnologia possa migliorare la sicurezza complessiva del settore.
Per sviluppare questa roadmap, la FAA ha collaborato con esperti del settore e altre agenzie di regolamentazione, tra cui l’Agenzia europea per la sicurezza aerea (EASA), che aveva già pubblicato la propria roadmap per l’AI nel 2020, aggiornandola nel 2023.
Un approccio per step e focus sulla sicurezza (ma senza etica)
Il documento della FAA introduce principi fondamentali per lo sviluppo di metodi di garanzia della sicurezza dell’AI, raccomandando un approccio graduale e focalizzato sulla sicurezza, partendo da applicazioni a basso rischio come gli assistenti pilota. Inoltre, delinea azioni chiave necessarie per l’implementazione sicura dell’AI, tra cui la collaborazione con l’industria, la formazione del personale FAA e la ricerca continua.
Una differenza significativa tra le roadmap di FAA ed EASA riguarda le considerazioni etiche. Mentre la FAA esclude esplicitamente le questioni etiche dalle proprie considerazioni (“The treatment of the ethical use of AI is outside the scope of this roadmap”), l’EASA le considera fondamentali per l’affidabilità e l’accettazione sociale dell’AI nell’aviazione.