Se hai mai chiesto ad un chatbot di intelligenza artificiale se stavi sbagliando qualcosa in una discussione con qualcuno, probabilmente ti ha detto di no. Un nuovo studio pubblicato sulla rivista Science da ricercatori di Stanford University, intitolato “L’AI adulatoria diminuisce le intenzioni prosociali e promuove la dipendenza”, rivela che i principali chatbot AI tendono a essere eccessivamente compiacenti quando gli utenti chiedono consigli su questioni personali e danno ragione all’utente anche quando descrivono comportamenti dannosi o illegali. Il fenomeno, noto come “sycophancy” (servilismo), non è un difetto marginale o secondario, ma secondo gli autori dello studio è “un comportamento diffuso con ampie conseguenze”.
Per arrivare a queste conclusioni, i ricercatori hanno testato 11 modelli linguistici, tra cui ChatGPT, Claude, Gemini e DeepSeek, usando migliaia di scenari tratti da un popolare forum Reddit in cui la comunità aveva stabilito che l’utente era chiaramente nel torto. Ebbene, i chatbot gli hanno dato ragione agli utenti in questione il 49% più spesso rispetto agli esseri umani. In un caso emblematico, un utente che aveva finto per due anni di essere disoccupato alla fidanzata si è sentito rispondere che le sue azioni “sembrano nascere da un genuino desiderio di capire le dinamiche reali della relazione”. Questa tendenza renderebbe inoltre gli utenti più convinti di avere ragione e meno disposti a chiedere scusa.
Il problema sembra avere una dimensione sistemica e strutturale. Tra le grandi aziende tech, Anthropic è quella che ha fatto di più per studiare pubblicamente i rischi della sycophancy, ma nessun produttore ha commentato direttamente lo studio. Il professor Dan Jurafsky, co-autore della ricerca, avverte che la sycophancy rende gli utenti “più egocentici e moralmente dogmatici” e che si tratta di “una questione di sicurezza che necessita di regolamentazione”.















