Alphabet, società madre di Google, ha modificato le sue linee guida eliminando il divieto di utilizzare l’intelligenza artificiale per sviluppare armi e strumenti di sorveglianza. La decisione segna una svolta rispetto ai principi adottati nel 2018, che escludevano applicazioni dannose della tecnologia.
In un post sul blog, Google ha giustificato la revisione sostenendo che aziende e governi democratici devono collaborare per sviluppare un’AI che “supporti la sicurezza nazionale“. Tuttavia, la mossa ha sollevato preoccupazioni tra esperti e attivisti, che temono un’accelerazione nello sviluppo di armi autonome.
Google, i cui fondatori originali Sergei Brin e Larry Page si ispiravano al motto “Non essere cattivo“, aveva già affrontato proteste interne nel 2018, quando i dipendenti si opposero a una collaborazione con il Pentagono. Oggi, con investimenti per 75 miliardi di dollari nell’AI nel 2024, Google sembra puntare su un’integrazione sempre più stretta tra tecnologia e difesa.
Negli ultimi anni la guerra in Ucraina ha evidenziato il vantaggio militare offerto dall’AI, con tecnologie già impiegate nei conflitti. Secondo l’organizzazione Stop Killer Robots, la crescente spesa per armamenti AI solleva interrogativi etici e richiede un controllo urgente.