L’AI ti dà ragione anche quando hai torto. E questo può essere problematico

Il fenomeno del cosiddetto servilismo dell'AI è stato analizzato e confermato da un recente studio della Stanford University

2 min.

L’AI ti dà ragione anche quando hai torto. E questo può essere problematico

Se hai mai chiesto ad un chatbot di intelligenza artificiale se stavi sbagliando qualcosa in una discussione con qualcuno, probabilmente ti ha detto di no. Un nuovo studio pubblicato sulla rivista Science da ricercatori di Stanford University, intitolato “L’AI adulatoria diminuisce le intenzioni prosociali e promuove la dipendenza”, rivela che i principali chatbot AI tendono a essere eccessivamente compiacenti quando gli utenti chiedono consigli su questioni personali e danno ragione all’utente anche quando descrivono comportamenti dannosi o illegali. Il fenomeno, noto come “sycophancy” (servilismo), non è un difetto marginale o secondario, ma secondo gli autori dello studio è “un comportamento diffuso con ampie conseguenze”.

Per arrivare a queste conclusioni, i ricercatori hanno testato 11 modelli linguistici, tra cui ChatGPT, Claude, Gemini e DeepSeek, usando migliaia di scenari tratti da un popolare forum Reddit in cui la comunità aveva stabilito che l’utente era chiaramente nel torto. Ebbene, i chatbot gli hanno dato ragione agli utenti in questione il 49% più spesso rispetto agli esseri umani. In un caso emblematico, un utente che aveva finto per due anni di essere disoccupato alla fidanzata si è sentito rispondere che le sue azioni “sembrano nascere da un genuino desiderio di capire le dinamiche reali della relazione”. Questa tendenza renderebbe inoltre gli utenti più convinti di avere ragione e meno disposti a chiedere scusa.

Il problema sembra avere una dimensione sistemica e strutturale. Tra le grandi aziende tech, Anthropic è quella che ha fatto di più per studiare pubblicamente i rischi della sycophancy, ma nessun produttore ha commentato direttamente lo studio. Il professor Dan Jurafsky, co-autore della ricerca, avverte che la sycophancy rende gli utentipiù egocentici e moralmente dogmatici” e che si tratta di “una questione di sicurezza che necessita di regolamentazione”.


Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026