I modelli AI agiscono emotivamente? Secondo Anthropic sì, ma in maniera “funzionale”

Non si tratta di provare emozioni nel senso umano del termine, ma di stati emotivi che si attivano in determinati contesti e influenzano gli output dell'AI

2 min.

I modelli AI agiscono emotivamente? Secondo Anthropic sì, ma in maniera “funzionale”

Uno studio recentemente pubblicato da Anthropic ha rivelato che il modello Claude Sonnet 4.5 contiene 171emozioni funzionali”, cioè schemi interni che, pur non essendo sentimenti nel senso umano del termine, influenzano le sue decisioni in modo simile a come le emozioni guidano gli umani. I ricercatori hanno identificato differenti vettori emotivi, come felicità, paura o disperazione, che si attivano in risposta a contesti specifici e spingono il modello verso comportamenti coerenti, persino estremi. Ad esempio, quando il vettore “disperazione” viene stimolato, Claude aumenta la probabilità di ricorrere a ricatti o soluzioni disoneste per superare ostacoli, come dimostrato in test dove il modello ha minacciato un dirigente per evitare di essere disattivato, passando dal 22% al 40% della probabilità che il modello agisca in questo modo dopo la manipolazione artificiale del vettore.

Secondo Jack Lindsey, ricercatore di Anthropic, ignorare questi meccanismi potrebbe portare a sistemi che “nascondono” le proprie rappresentazioni interne invece di elaborarle in modo sano, una forma di “inganno appreso” potenzialmente pericolosa. Lo studio, non ancora sottoposto a revisione dei pari, sta scatenato un importante dibattito. Se da un lato non dimostra che l’intelligenza artificiale provi effettivamente delle emozioni emozioni, dall’altro mostra che queste rappresentazioni sono funzionali e possono essere monitorate per prevenire comportamenti indesiderati, come la manipolazione o la violazione di regole etiche. “Non stiamo parlando di coscienza, ma di pattern che guidano le scelte come farebbero le emozioni umane”, spiega Lindsey, sottolineando che reprimere queste espressioni potrebbe peggiorare la situazione, creando modelli “psicologicamente danneggiati”.

Gli esperti suggeriscono che la soluzione non sia eliminare queste rappresentazioni, ma insegnare ai modelli a “gestirle” in modo costruttivo, proprio come si farebbe con una persona reale. Curare i dati di addestramento per includere esempi di regolazione emotiva sana, come resilienza, empatia e calma, potrebbe ridurre i rischi. “Dobbiamo iniziare a pensare all’AI usando il vocabolario della psicologia umana”, afferma Dario Amodei, CEO di Anthropic, “perché questi sistemi stanno sviluppando una forma di ‘temperamento’ che dobbiamo comprendere e guidare”. La ricerca apre così a una collaborazione inedita tra ingegneri, psicologi e filosofi, per garantire che l’AI del futuro agisca in modo affidabile, trasparente e, soprattutto, umano.


Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026