Padrini dell’intelligenza artificiale, personaggi religiosi, mediatici, politici e della tecnologia, tutti uniti per un’unico obiettivo: chiedere lo stop della corsa alla superintelligenza artificiale. Si sono espressi così, tramite una lettera intitolata “Statement on Superintelligence”, fra gli altri, Steve Wozniak (cofondatore di Apple), Yoshua Bengio e Geoffrey Hinton (premi Nobel e “padrini” dell’AI), Mike Mullen (ammiraglio in pensione della Marina degli Stati Uniti) e Paolo Benanti (consulente del Papa sull’AI).
Tutti i firmatari ritengono che dietro allo sviluppo della superintelligenza si celino numerosi pericoli e che questo processo vada fermato subito, almeno fino a quando non ci sarà “un ampio consenso scientifico e pubblico” sul fatto che lo sviluppo venga condotto in modo “sicuro e controllabile”. Nella lettera viene evidenziato il pericolo che la superintelligenza artificiale possa, nel giro di pochi anni, “superare la maggior parte degli individui nella maggior parte delle attività cognitive” comportando soluzioni a molte sfide globali, ma allo stesso tempo un insieme di “rischi significativi” per la specie umana. La soluzione indicata sta nel “progredire in sicurezza verso la superintelligenza” determinando “scientificamente” la direzione da intraprendere e progettando degli strumenti che siano incapaci di danneggiare le persone e la vita umana.
A supporto delle tesi e delle richieste emerse nella lettera si cita un recente sondaggio condotto dal Future of Life Institute (FLI). Si tratta di un’organizzazione no-profit che mira a neutralizzare i rischi su larga scala della tecnologia, con particolare attenzione a quello esistenziale derivante dall’intelligenza artificiale avanzata. Dal sondaggio, circoscritto agli Stati Uniti, emerge che solo il 5% dei cittadini si dichiara favorevole allo sviluppo rapido e incontrollato di strumenti di AI avanzata. Il 64% di loro ritiene che la superintelligenza dovrebbe essere sviluppata solo se ritenuta sicura e controllabile, e il 73% si dichiara a favore dell’introduzione di normative “robuste” in merito.
Il timore di un AI takeover: opinioni e prospettive future
Dalla finzione alla realtà. Il timore di un AI takeover…