La prima giornata dell’AI Safety Summit di Londra, organizzato su iniziativa del premier britannico Rishi Sunak, ha portato alla stesura di uno dei documenti più importanti scritti fino ad ora sull’intelligenza artificiale, la soprannominata “dichiarazione di Bletchley”.
Lo scritto è una traccia per lo sviluppo sicuro dell’AI ed è il primo documento mondiale sottoscritto da più paesi sul tema. La dichiarazione è ancora lontana dal somigliare ad un regolamento o anche solo una vera indicazione etica da seguire, ma rappresenta il primo tassello di un lungo percorso globale nello sviluppo dell’AI. In generale la dichiarazione assomiglia più a un macro manifesto programmatico sull’utilizzo della nuova tecnologia. Inquadrata nel contesto mondiale in cui viviamo oggi include molti non-detti degni di nota.
I temi trattati all’interno dell’articolo
Difendere la pace
Come sottolineato enfaticamente dalla stampa mondiale, Sunakha ha scelto un luogo molto significativo per il Summit: Bletchley Park, il paese a nord ovest di Londra dove durante la seconda guerra mondiale l’unità principale di crittoanalisi guidata da Alan Turing riuscì a decifrare il codice Enigma nazista contribuendo a far cessare la guerra.
In questi tempi di conflitti dolorosi e instabilità uno dei messaggi che Sunak ha voluto suggerire con la scelta di Bletchley Park è proprio quello di impegnarsi per difendere la pace, ricordando che spesso le opportunità possono trasformarsi in pericoli e tracciando un parallelismo tra l’AI e alcuni snodi cruciali, anche drammatici, della storia del novecento.
Più dubbi che certezze
È la prima volta che i rappresentanti di una quantità davvero considerevole di Nazioni, in tutto ventotto, sottoscrivono un documento comune sull’AI. Nello scritto, lungo non più di ottomila battute, i vari Stati si rendono disponibili ad un monitoraggio costante e trasparente della tecnologia generativa.
“L’intelligenza artificiale presenta enormi opportunità globali – riporta la dichiarazione nel primo paragrafo – ha il potenziale di trasformare e migliorare il benessere umano, la pace e la prosperità. Per realizzarlo, affermiamo che, per il bene di tutti, l’AI deve essere progettata, sviluppata, implementata e utilizzata in modo sicuro, in modo da essere centrata sull’uomo, affidabile e responsabile”.
Questo passaggio potrebbe essere considerato il sunto dell’intero documento, che tuttavia prosegue rivelando diversi sottotesti.
Dopo una lettura approfondita la dichiarazione di Bletchley documenta più i dubbi che le certezze mondiali sull’AI. Soprattutto, mette nero su bianco gli equilibri geopolitici tipici di questa epoca, in cui alcuni selezionati operatori privati esercitano un’influenza sul mondo tale da eguagliare talvolta quella degli Stati.
Il messaggio alle big tech
Da un lato il documento è infatti una chiamata a raccolta della coesione tra Nazioni, da un altro è una richiesta di responsabilità alle aziende che lavorano sulla tecnologia di frontiera (un’espressione che torna nel testo diverse volte). Nello scritto è contenuta un’implicita dichiarazione di impotenza della politica di fronte alla regolamentazione del settore tech generativo privato. Più che invitare solo i singoli Stati a vigilare sull’operato delle big tech, raccomanda direttamente a quelle aziende ad agire con responsabilità. Come ad ammettere che il potere economico di queste ultime trascende ogni confine e ogni normativa.
Incoraggiamo tutti gli attori rilevanti a garantire una trasparenza e una responsabilità adeguate al contesto per misurare, monitorare e mitigare le capacità potenzialmente dannose e gli effetti associati che possono emergere, in particolare per prevenire l’uso improprio e i problemi di controllo.
Come ha notato più di un analista, un elemento di perplessità di quello che è stato l’AI Safety Summit, pur nella sua portata storica, è rappresentato proprio dalla presenza relativamente limitata di esponenti del settore industriale. Certo, c’erano personaggi come Sam Altman, CEO di OpenAI certamente protagonista indiscusso di questa stagione e Mustafa Suleyman, co-fondatore di DeepMind, ma ad attirare la maggior parte delle attenzioni è stato Elon Musk, figura poliedrica il cui impatto nell’universo AI è ad oggi però perlopiù mediatico.
La parola evocata e mai pronunciata
È il caso di notare inoltre che la dichiarazione di Bletchley rimane profondamente generica per gran parte della sua stesura. Il documento cita spesso la possibile incombenza di rischi e pericoli ma il più delle volte li sorvola senza approfondirli e di rado entra nel dettaglio.
Non è chiaro se la dichiarazione scelga di proposito di non citare direttamente i rischi dell’AI più immediati per la stabilità mondiale. Ancora prima di scomodare gli scenari fantascientifici in cui le macchine si ribellano all’uomo, infatti, bisognerebbe temere nuove forme politiche autoritarie strutturate attorno alla capacità di controllare l’AI generativa. La parola “dittatura” non viene mai utilizzata ma è piuttosto palese, anche in luce del simbolismo di Bletchley Park, che quest’altro tema aleggi tra le righe del documento.
Le Nazioni che hanno inviato delegazioni a discutere e firmare il documento coprono una buona parte del mondo. Oltre all’intero occidente ci sono Stati, pochi, a rappresentare l’Africa (la Nigeria, il Kenya e il Ruanda) e il Sud America (il Brasile e il Cile). Ha fatto molto discutere poi la presenza al Summit della Cina (una delle possibili ragioni per cui la parola dittatura viene evocata dal documento ma non vi appare mai?), ma vale la pena considerare la sua partecipazione un segnale positivo.
L’inizio di un lungo percorso
La dichiarazione di Bletchley sembra un documento che suggerisce tanto pur dicendo relativamente poco. Non è nemmeno da escludere che l’occasione di parlare dell’AI sia diventata una sorta di pretesto per un momento di confronto internazionale costruttivo in un momento storico costellato di tensioni.
Se davvero c’è una tavola rotonda internazionale aperta sul tema della sicurezza dell’intelligenza artificiale, possiamo dire che i partecipanti si sono appena messi a sedere.