Gli assistenti di intelligenza artificiale per programmatori – strumenti come GitHub Copilot o ChatGPT – sono entrati di forza nelle aziende, grazie alla possibilità di scrivere più codice, più in fretta, con meno fatica. Chi usa l’AI produce tre o quattro volte più modifiche rispetto ai colleghi “umani”, con un ritmo di sviluppo che sembra moltiplicato.
Ma dietro questa spinta alla velocità si nascondono molti più rischi. Secondo un’analisi di Apiiro, il codice generato dall’AI, pur velocizzando il lavoro e riducendo da un lato gli errori più banali – quelli di battitura o di logica spicciola – accresce di molto la presenza di falle nella sicurezza. Gli strumenti di intelligenza artificiale tendono a esporre con leggerezza chiavi e credenziali, cioè le password nascoste che permettono di entrare nei sistemi. Gli hacker possono ottenere violare un sito realizzato con AI con un’agilità molto maggiore rispetto a quelli realizzati da persone.
Il fenomeno è diffusissimo. Grandi realtà come Coinbase o Citi hanno già reso obbligatorio l’uso di assistenti AI per i loro sviluppatori senza considerare questi effetti collaterali. Intanto gli attacchi Cyber sono aumentati del 44% in un anno.