Intelligenza artificiale e deskilling: quanto siamo consapevoli?

Dalla perdita di abilità operative alla riqualificazione: come prevenire il declino delle competenze umane nell’era dell’AI generativa.

8 min.

Intelligenza artificiale e deskilling: quanto siamo consapevoli?

Mantenere all’interno delle imprese un adeguato livello di competenze rappresenta una delle maggiori sfide per imprenditori e manager. Il know-how tecnico, l’esperienza, la capacità di produrre conoscenza e innovazione, sono fattori determinanti alla base della competitività, fondamentali per assicurare a un progetto d’impresa sostenibilità e posizionamento.

Con l’avvento dell’intelligenza artificiale, abbiamo iniziato a chiederci con più attenzione se i modelli e i programmi che intervengono supportando o automatizzando le attività umane, oltre a incrementare produttività ed efficienza, possano nuocere allo sviluppo delle competenze umane. Se il dibattito degli esperti si è spesso focalizzato nel sostenere che l’AI non potrà che sostenere le persone sul lavoro in un’ottica di augmentation piuttosto che di sostituzione, poco si è discusso dei potenziali svantaggi derivanti dall’interrelazione human-AI. È da qui che diverse ricerche hanno iniziato a preoccuparsi del fenomeno del deskilling, l’impoverimento di competenze per effetto dell’affidamento alle macchine di porzioni del fare umano.

Dall’artigianalità al click

In Addressing Deskilling as a Result of Human-AI Augmentation in the Workplace, Firuza Huseynova mostra, attraverso interviste a manager e ricercatori, che la retorica dell’augmented intelligence e l’erosione delle competenze operative rischiano di mascherare un vero svuotamento del lavoro umano: “il deskilling ha il potenziale di minare il benessere individuale, la coesione sociale e interi sistemi economici”.

Dello stesso avviso sono Kevin Crowston e Francesco Bolici, che in Deskilling and upskilling with generative AI systems confermano che con i sistemi generativi “il deskilling è un risultato piuttosto comune”, laddove l’automazione lascia all’operatore solo residui di attività a basso valore aggiunto. Le conseguenze sarebbero piuttosto scoraggianti: meno occasioni di esperienza pratica, perdita di “senso del mestiere” e crescente dipendenza da workflow prescritti dalla macchina. Non solo, l’eccessivo spazio concesso all’AI generativa darebbe luogo anche a un effetto di livellamento delle competenze che in alcuni casi potrebbe persino produrre un blocco del percorso di apprendimento. Crowston nota che molte applicazioni di AI generativa “aiutano i principianti più degli esperti”, livellando le differenze di performance e dunque le opportunità di crescita.

Nel settore sanitario, il recente paper del marzo 2025 AI-Induced Deskilling in Medicine: A Mixed Method Literature Review for Setting a New Research Agenda, opera di Chiara Natali, Luca Marconi, Leslye Denisse Dias Duran, Massimo Miglioretti e Federico Cabitza, parla di erosione delle competenze mediche e riduzione delle opportunità di acquisizione di competenze a causa dei sistemi di supporto alle decisioni basati sull’intelligenza artificiale”, con il rischio non solo di perdita di abilità mature, ma anche di inibizione dell’intero ciclo di apprendimento delle nuove generazioni.

La perdita di autonomia critica

Non solo potenziale decrescita delle competenze tecniche, un altro rischio concreto che potrebbe derivare dall’eccessivo affidamento sull’AI nelle attività lavorative potrebbe risiedere nel depotenziamento della capacità di autonomia critica, una delle competenze fondamentali del futuro secondo il World Economic Forum.

Sempre a marzo 2025, in De-skilling, Cognitive Offloading, and Misplaced Responsibilities: Potential Ironies of AI-Assisted Design, Prakash Shukla, Phuong Bui, Sean S Levy, Max Kowalski, Ali Baigelenov e Paul Parsonsin documentano la percezione, fra UX designer, di “preoccupazioni relative all’eccessiva dipendenza, allo scarico cognitivo e all’erosione delle competenze di progettazione critiche”. Quando l’AI precompila soluzioni, la valutazione umana scivola verso un ruolo di supervisione perlopiù superficiale, dove si riduce il giudizio esperto e si sposta la responsabilità di errore.

Tornando ancora al mondo della medicina, sempre il paper di Cabitza e colleghi evidenzia “vulnerabilità chiave nell’esame fisico, nella diagnosi differenziale e nel giudizio clinico” nei percorsi di formazione medica esposti a sistemi di supporto decisionale.

L’intelligenza d’appoggio restringe l’esercizio di competenze fondamentali proprio nei casi atipici, dove invece l’esperienza umana è ancora fondamentale. Dunque, se non adeguatamente perimetrato e supportato, l’interazione con sistemi esperti di AI potrebbe realmente causare deskilling, un effetto tutt’altro che improbabile.

L’importanza della dimensione etica

Ci sono anche altri tipi di deskilling che occorre considerare. Già nel 2014, in Moral Deskilling and Upskilling in a New Machine Age: Reflections on the Ambiguous Future of Character, Shannon Vallor introduce il fenomeno di moral deskilling, ossia il rischio che l’uso di tecnologie di automazione sociale possa deteriorare le competenze morali degli utenti, come empatia e capacità di interazione umana.

Vallor avvertiva che le ICT “sono potenziali cause di un complesso modello di dequalificazione economica, riqualificazione e dequalificazione morale” che impoverisce l’attenzione della tecnologia ai modelli etici di riferimento, producendo risultati potenzialmente scollati dal sistema in cui sono stati prodotti.

In Artificial Companionship: Moral Deskilling in the Era of Social AI, Laurence Cardwell riprende questo elemento, estendendo il discorso alle relazioni uomo-macchina ed esplorando il modo in cui chatbot affettivi possano corrodere empatia e senso di agency morale. L’interazione con sistemi di AI che mancano della complessità emotiva umana può rendere difficile per gli utilizzatori lo spendersi in relazioni umane reali, dove le meccaniche possono risultare molto più ricche di varietà.

Deskilling e dipendenza

Non sono ancora molti gli studi sul deskilling da parte delle grandi società di consulenza che si occupano di risorse umane, conferma che in effetti in questo momento gran parte dell’attenzione è spostata sul dibattito tra automation e augmentation.

Tra questi, Trust, Attitudes and Use of Artificial Intelligence: A Global Study 2025 di KPMG indica il deskilling come uno dei nove effetti negativi più osservati dell’adozione di AI, e 4 intervistati su 5 dichiarano di temere, o di aver già sperimentato, la perdita di competenze e dipendenza dall’AI. Sintomatico che il deskilling venga indicato come uno dei maggiori pericoli derivanti dall’adozione dell’AI sul luogo di lavoro insieme a perdita di interazione e connessione umana, rischi per la sicurezza informatica, perdita della privacy o della proprietà intellettuale, disinformazione e manipolazione, produzione di risultati dannosi o inaccurati, perdita del lavoro e svantaggio derivante dall’accesso ineguale all’intelligenza artificiale.

Molto interessante anche il white paper pubblicato nel 2024 da Accenture, Work, Workforce, Workers: Reinvented in the Age of Generative AI, che pone l’accento su un altro aspetto molto importante collegato alla dimensione dell’employer branding e della reputazione. Il paper inserisce infatti il deskilling fra i maggiori rischi reputazionali in cui può incorrere un’organizzazione in seguito all’implementazione di AI.

Un punto di convergenza molto interessante tra i due studi è il legame tra deskilling e dipendenza: dove le persone non sono adeguatamente accompagnate nei processi di adozione dell’AI generativa, un suo utilizzo “inconsapevole” o incauto potrebbe non solo produrre impoverimento delle competenze, ma anche l’accrescimento della dipendenza dai sistemi, un effetto doppiamente dannoso perché insinua il rischio elevato di una perdita di qualità e affidabilità sui risultati prodotti dall’AI.

Se l’AI fa i lavori da principianti, da dove iniziano i giovani?

Un'analisi di Aneesh Raman (Linkedin) fotografa una tendenza in crescita…

Formazione e Responsible AI

Come contrastare il rischio che in un’organizzazione possano innescarsi spirali di deskilling tra i collaboratori? In How Knowledge Workers Think Generative AI Will (Not) Transform Their Industries, Allison Woodruff e i suoi colleghi vedono l’AI generativa come catalizzatore di quattro tendenze già presenti: deskilling, disumanizzazione, disconnessione e disinformazione. Il rischio si avrebbe soprattutto per i ruoli entry-level, dove le attività sono spesso focalizzate su compiti routinari e ripetitivi in cui l’impatto dell’automazione è molto più elevato.

Quali le possibili soluzioni? Gli autori in primis suggeriscono di migliorare i sistemi human-in-the-loop per garantire una supervisione efficace. In secondo luogo, è fondamentale dare spazio alla formazione, sensibilizzando i lavoratori sulle potenziali trasformazioni dell’AI, promuovendo la riqualificazione e proteggendo quei compiti che producono maggiore soddisfazione e significato. Infine, affrontare le implicazioni etiche e sociali dell’AI generativa, perché è solo tramite l’esplorazione di tematiche di responsible AI che si possono colmare quelle lacune di senso che spesso generano disinformazione, diffidenza e incomprensioni.

Sempre nello stesso white paper citato in precedenza, Accenture pone l’attenzione sui flussi di processo per scongiurare l’avverarsi di effetti di depauperamento delle competenze. Il deskilling è visto infatti come esito probabile se l’adozione di AI generativa segue logiche di puro taglio costi, ma può trasformarsi in upskilling sistemico se l’impresa mette le persone al centro del redesign dei flussi di lavoro, avvia skill-based workforce planning (skill adjacency, micro-learning, job crafting) e adotta governance trasparente perché dipendenti e stakeholder si fidino del processo.


Ultime news


Lo Zugzwang di Google

Integrando l'AI nella ricerca, Google mette in crisi gli editori,…

AI Overview “dichiara deceduto” un primario di Verona: l’ospedale diffida Google

AI Overview è incappata in un omonimo, ma l'errore è…

Intel annuncia il lancio di un nuovo chip AI per il 2026

Il nuovo prodotto con cui Intel cerca di rilanciarsi nel…

I vertici militari iniziano ad affidarsi a ChatGPT per prendere decisioni organizzative

Il comandante dell’8ª armata delle truppe statunitensi in Corea del…

Morgan Stanley rassicura: i maxi investimenti in AI saranno recuperati entro il 2028

La banca d'affari statunitense sconfessa il rischio bolla e definisce…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version