AI debole e forte: differenze concettuali e limiti

AI debole e forte: differenze concettuali e limiti

L’AI debole è quella che tutti abbiamo imparato a conoscere. Ma sarà mai possibile per le macchine raggiungere un grado di intelligenza pari o superiore a quello umano?  

Quando si parla di intelligenza artificiale, ci si riferisce solitamente a sistemi che sono in grado di svolgere autonomamente funzioni tipicamente eseguite dagli esseri umani. All’interno del campo dell’AI, però, vi sono sistemi più o meno funzionali, alcuni in grado di svolgere un solo specifico compito, altri capaci di apprendere con una maggiore autonomia e di funzionare in modo più flessibile.

Una differenza concettuale importante è quella tra AI debole e AI forte ed è proprio su questa che vogliamo concentrarci nel presente articolo. Le due teorie fondamentali sono così chiamate grazie allo studioso John Searle e si differenziano per il livello di sofisticatezza dei sistemi.  



Cos’è l’AI debole?

L’intelligenza artificiale debole (narrow intelligence) è quella che tutti conosciamo e che ha come obiettivo la realizzazione di sistemi che possano eseguire correttamente alcune funzioni complesse tipicamente umane. In questo caso, le macchine non possiedono un grado di intelligenza pari o superiore a quello umano, ma imitano semplicemente il comportamento che un essere umano avrebbe per l’esecuzione di un compito determinato.

Si tratta dunque di un’intelligenza ‘simulata’ e non reale. L’AI debole ricerca ‘semplicemente’ casi simili a quello sottopostole, maturando esperienza nelle aree di interesse, al fine di trovare una soluzione congrua e razionale al problema. Questo genere di AI è dunque creata per risolvere problemi più o meno complessi e, per farlo, viene addestrata dagli esseri umani attraverso una fase di apprendimento basata su feedback. L’utilizzo di reti neurali e deep learning fa però pensare che le macchine abbiano il potenziale di eseguire compiti ancora più complessi.

Cosa si intende per AI forte?

L’intelligenza artificiale forte (Artificial General Intelligence, o AGI), invece, non vede la macchina come un semplice strumento di problem solving. Secondo questa teoria, un sistema intelligente potrebbe infatti raggiungere una capacità cognitiva simile o addirittura superiore a quella umana. Alla base dell’AI forte vi sono i sistemi esperti, programmi che costituiscono un’alternativa digitale agli esperti di un determinato settore.

Fino a quarant’anni fa, gli esperti credevano molto nell’AI forte e ritenevano che l’intelligenza artificiale avrebbe superato l’uomo sotto diversi punti di vista. Questo è evidente anche nel cinema e nella letteratura dell’epoca: si pensi alle opere dello scrittore Isaac Asimov. Gli studiosi ritenevano dunque che l’AI potesse svilupparsi fino al punto di raggiungere un grado di intelligenza capace di superare anche il test di Turing.

Questo test consiste in un esperimento in cui una persona, isolata, pone delle domande a un computer e, se la persona non riesce a capire se queste siano formulate da un essere umano o da una macchina, allora si è in presenza di un sistema realmente intelligente. Chi sostiene la teoria dell’AI forte ritiene che l’idea che le macchine possano essere intelligenti quanto un essere umano non sia poi così surreale. Tanto che ci sono giunte negli anni diverse notizie di computer che hanno avuto successo con il test.

I dibattiti e le limitazioni dell’AI forte

Mentre i sostenitori della concezione forte credevano nel possibile raggiungimento di un elevato grado di intelligenza da parte dei sistemi di AI, altri studiosi – sostenitori della concezione debole – ritenevano che l’AI non fosse una reale intelligenza.

Searle ideò il test “della stanza cinese”, contrapposto a quello di Turing, con cui lo studioso dimostrò che, nonostante l’eventuale superamento del test da parte di un sistema di AI, non si sarebbe comunque di fronte a un computer realmente intelligente, in quanto questo elabora le parole e le lettere come se fossero semplici dati, senza capirne veramente il significato.

Oggi, il dibattito è stato ‘risolto’ superando la dicotomia tra AI debole e AI forte. Una macchina, secondo gli esperti del nostro tempo, può essere considerata intelligente solo quando può replicare il funzionamento del cervello umano a livello cellulare (e non solo imitarlo funzionalmente).

I limiti e il futuro dell’intelligenza artificiale

L’intelligenza artificiale forte è quindi difficilmente applicabile, ma le recenti evoluzioni nella ricerca nel campo dell’AI fanno pensare che presto ci potrebbero essere sviluppi che ci porteranno ai limiti dell’intelligenza artificiale debole. L’approccio cauto all’applicazione di questo tipo di tecnologia rimane quindi quello prevalente, soprattutto in considerazione della nascita di una nuova teoria: quella della “superintelligenza artificiale”.

La super AI supera persino il concetto di AI forte in termini di intelligenza umana e abilità, ma rimane, ad oggi, puramente teorica.


Ultime news


USA e Cina dovrebbero collaborare in ambito AI? Lo propone un diplomatico

Stephen Orlins, presidente del National Committee on United States-China Relations,…

USA e Cina dovrebbero collaborare in ambito AI? Lo propone un diplomatico
ChatGPT, se ingannato con un “gioco di ruolo”, diventa un hacker

L’esperimento del ricercatore Simonovich dimostra come sia possibile aggirare i…

ChatGPT, se ingannato con un “gioco di ruolo”, diventa un hacker
Le donne usano ChatGPT il 16% in meno rispetto agli uomini: lo studio

L'adozione di ChatGPT ha uno sbilanciamento di genere; la barriera…

Le donne usano ChatGPT il 16% in meno rispetto agli uomini: lo studio
ChatGPT accusa una persona dell’omicidio dei figli, lui denuncia OpenAI

​Un cittadino norvegese di nome Arve Hjalmar Holmen si è…

ChatGPT accusa una persona dell’omicidio dei figli, lui denuncia OpenAI
La sudcoreana FuriosaAI non vuole farsi acquistare da Meta

La decisione non sarebbe stata dettata da questioni economiche, ma…

La sudcoreana FuriosaAI non vuole farsi acquistare da Meta

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025