Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Una lettera firmata da Elon Musk e altri esperti chiede ai laboratori di ricerca nel campo dell’intelligenza artificiale di sospendere lo sviluppo di modelli più potenti di GPT-4.

L’intelligenza artificiale sta diventando sempre più potente e diffusa, dagli assistenti virtuali ai veicoli autonomi, fino alle applicazioni per le diagnosi mediche.

Tuttavia, molti esperti avvertono che la corsa allo sviluppo dell’AI sta procedendo troppo rapidamente rispetto alla capacità umana di gestirne i rischi. Se da un lato l’AI può offrire enormi benefici per l’umanità, infatti, dall’altro può anche creare rischi esistenziali, etici e sociali che vanno affrontati con responsabilità e cautela.

Ciò è evidente da quanto sottolineato nella lettera aperta pubblicata dal Future of Life Institute.

La lettera aperta di Elon Musk e altri esperti

L’appello, pubblicato sul sito del Future of Life Institute, un’organizzazione no-profit dedicata alla salvaguardia della vita intelligente, è stato firmato da oltre 1400 esperti e personalità del mondo dell’AI, tra cui Elon Musk. Esso esprime la preoccupazione che la corsa alla creazione di AI sempre più grandi e complesse sia fuori controllo e priva di adeguati meccanismi di sicurezza, trasparenza e supervisione.

I firmatari chiedono così ai laboratori di ricerca sull’intelligenza artificiale una pausa di almeno 6 mesi nello sviluppo e nel rilascio di sistemi di AI più potenti di GPT-4, il modello di generazione di testo creato da OpenAI.

Il testo integrale della lettera

AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research and acknowledged by top AI labs. As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.

Contemporary AI systems are now becoming human-competitive at general tasks, and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system’s potential effects. OpenAI’s recent statement regarding artificial general intelligence, states that “At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models.” We agree. That point is now.

Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.

AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt. This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.

AI research and development should be refocused on making today’s powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.

In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.

Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an “AI summer” in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.  We can do so here. Let’s enjoy a long AI summer, not rush unprepared into a fall.

“Pause Giant AI Experiments: An Open Letter” – Future of Life Institute

Le principali preoccupazioni

Nella lettera, si sottolinea come i sistemi di AI moderni stiano entrando sempre più in competizione con gli esseri umani nello svolgimento di task generali. Alcune delle principali preoccupazioni elencate nell’appello, destate soprattutto dall’evoluzione dei chatbot intelligenti, riguardano diversi aspetti, tra i quali:

  • La generazione di contenuti testuali potenzialmente inaccurati da parte di questi modelli. Contenuti pubblicati online e utilizzati, a loro volta, per l’addestramento di altri modelli di linguaggio. Una sorta di circolo vizioso di disinformazione.
  • L’automazione di ogni genere di occupazione, che sta già portando alla sostituzione degli esseri umani in diversi settori.
  • Lo sviluppo di “menti non umane” che potrebbero superarci e sostituirci (AI takeover).

“Potenti sistemi di AI dovrebbero essere sviluppati solo una volta che siamo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili”.

Cosa chiedono gli esperti?

I firmatari dell’appello, come anticipato, chiedono dunque ai laboratori di ricerca di sospendere immediatamente – e per almeno 6 mesi – l’addestramento dei modelli, al fine di poter lavorare allo sviluppo e all’implementazione congiunta di una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni e indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio.

Ciò non significa una pausa nello sviluppo dell’AI in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti. La ricerca e lo sviluppo dell’AI dovrebbero essere riorientati per rendere i sistemi potenti e all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali”.

L’aspetto della governance

Nella lettera si auspica inoltre un’intervento legislativo che possa supportare l’innovazione. Si legge infatti:

“Gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’AI. Questi dovrebbero come minimo includere:

  • autorità di regolamentazione nuove e capaci dedicate all’AI
  • supervisione e tracciamento di sistemi di intelligenza artificiale altamente capaci e di ampi pool di capacità computazionali
  • sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia dei model leaks
  • un solido ecosistema di audit e certificazione
  • responsabilità per danni causati dall’AI (argomento che è anche al centro degli sforzi di regolamentazione europea, ndr)
  • solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’AI
  • istituzioni dotate di risorse adeguate per far fronte ai drammatici disordini economici e politici (soprattutto per la democrazia) che l’AI causerà“.

L’AI è una minaccia?

L’obiettivo della lettera, come esplicitamente dichiarato, non è quello di opporsi all’intelligenza artificiale in quanto tale, ma quello di richiedere il rallentamento del suo sviluppo al fine di prevenire “effetti potenzialmente catastrofici sulla società”.

L’AI apre il campo a numerose opportunità, che, se gestite in maniera attenta e responsabile, potranno essere sfruttate al meglio. Avventarsi in una guerra all’ultima innovazione, cercando di battere i competitor sul mercato, rischia invece di creare effetti indesiderati dalle grandi implicazioni.

Un versante di particolare interesse è sicuramente quello etico. Una riflessione in tal senso nell’editoriale di Andrea Barchiesi, fondatore e CEO di Reputation Manager, su AI news.


In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…