L’AI del fare: “Meno slogan, più adozione concreta”. Intervista a Fabrizio Milano D’Aragona (Datrix) | AI Talks #23

Il CEO di Datrix ci racconta cosa significa portare l'AI dentro i processi aziendali: dati, governance, verticalizzazione e la "via italiana" all'intelligenza artificiale

17 min.

L’AI del fare: “Meno slogan, più adozione concreta”. Intervista a Fabrizio Milano D’Aragona (Datrix) | AI Talks #23

In questo appuntamento di AI Talks, il nostro format di interviste alla scoperta dell’intelligenza artificiale, abbiamo parlato con Fabrizio Milano D’Aragona, CEO e Co-founder di Datrix.

Ex top manager di Google Italia, dove ha attivamente contribuito alla fase di startup e scaleup della sede italiana occupandosi in particolare della crescita del team e dello sviluppo delle relazioni commerciali, attualmente è CEO e Co-founder Datrix Group e membro del consiglio direttivo di Assintel, di cui è anche coordinatore del Think Tank sull’AI, e IAB Italia.

Partiamo con una domanda che poniamo a tutti i nostri ospiti: cos’è l’intelligenza artificiale?

L’intelligenza artificiale, per come la vedo io, non è una magia tecnologica né un’entità astratta: è un insieme di sistemi capaci di elaborare dati, riconoscere pattern, generare previsioni, raccomandazioni, contenuti o supporti decisionali utili all’attività umana. In altre parole, è una tecnologia che trasforma dati in capacità operativa.

Detto in modo ancora più semplice, l’AI serve a far emergere valore da informazioni che già esistono ma che, senza strumenti adeguati, rimangono spesso sottoutilizzate. Oggi le imprese raccolgono enormi quantità di dati da clienti, prodotti, macchine, touchpoint digitali e fisici. Il problema non è più avere dati, ma saperli attivare. E l’intelligenza artificiale è esattamente questo: un sistema per attivare i dati e renderli utili a prendere decisioni migliori, più rapide e più misurabili.

Per questo io tendo a dare una definizione molto concreta: l’AI è una infrastruttura cognitiva che consente alle organizzazioni di migliorare efficienza, qualità delle decisioni, capacità predittiva e personalizzazione. Poi naturalmente esistono diversi livelli, dai modelli predittivi classici fino alla generative AI e ai sistemi agentici. Ma il punto chiave resta lo stesso: non sostituire l’intelligenza umana, bensì aumentarla dove serve davvero.

Lei parla di intelligenza artificiale non come promessa astratta, ma come strumento concreto per migliorare decisioni e processi, quella che in Datrix definite “l’AI del fare”. Cosa significa in termini pratici?

Per noi “AI del fare” significa una cosa molto precisa: passare dall’idea di AI come dimostrazione tecnologica all’AI come capacità industriale, integrata nei processi reali di un’azienda e valutata sulla base di risultati misurabili. Non ci interessa l’AI come vetrina. Ci interessa l’AI che entra nei flussi operativi, nel marketing, nella supply chain, nella logistica, nella produzione, nella finanza, nella gestione del rischio, e produce un impatto verificabile.

In termini pratici, significa lavorare su due fronti. Il primo è l’efficienza: riduzione dei tempi, riduzione degli errori, automazione intelligente, ottimizzazione dei costi, maggiore produttività. Il secondo è la crescita: usare i dati per generare più ricavi, migliorare conversioni, aumentare il lifetime value del cliente, ridurre il churn, personalizzare offerte e decisioni commerciali. Queste due dimensioni – efficienza e monetizzazione del dato – sono il cuore dell’approccio Datrix.

La nostra visione è anche molto legata alla verticalità. Non crediamo che l’AI produca il massimo valore quando è generica e indistinta. Crediamo che funzioni meglio quando è specializzata, cioè quando conosce il contesto applicativo: finanza, sanità, utilities, retail, manifattura, logistica. È per questo che Datrix si definisce un ecosistema di software company verticali potenziate dall’AI e focalizzate su settori mission-critical.

Quindi “AI del fare” vuol dire meno slogan, più adozione concreta; meno proof of concept scollegati dal business, più messa a terra nei processi; meno fascinazione per il modello in sé, più attenzione a ciò che quel modello sposta in termini di performance aziendale e qualità del lavoro.

Dall’algoritmo al valore: l’AI nelle PMI reali

L’AI può diventare una leva di competitività per le PMI,…

Molte aziende dichiarano di voler adottare l’intelligenza artificiale, ma spesso faticano a tradurla in processi reali. Quali sono gli errori più frequenti che incontra quando si passa dalla strategia all’implementazione?

L’errore più comune è partire dalla tecnologia invece che dal problema. Molte aziende dicono “vogliamo fare AI”, ma non hanno chiarito quale processo vogliono migliorare, quale decisione vogliono rendere più efficace, quale KPI intendono spostare. Quando l’adozione parte così, il rischio è produrre demo interessanti, ma poco utili.

Il secondo errore è pensare all’AI come a qualcosa di standard, che si compra e si installa uguale per tutti. In realtà il suo valore emerge davvero quando viene integrata con il patrimonio di conoscenza specifica che ogni azienda già possiede: dati, processi, linguaggio di settore, competenze operative, know-how costruito nel tempo. Anche quando l’AI è veicolata attraverso un software, ciò che fa la differenza è il dominio di campo, perché è quello che consente di capire se il sistema sta lavorando bene, dove genera valore e dove invece rischia di produrre risultati solo apparentemente utili.

Un altro errore frequente è partire da obiettivi troppo ambiziosi o troppo di lungo periodo. Soprattutto per un imprenditore, è spesso più efficace individuare prima le aree in cui l’AI può fare rapidamente la differenza, sulla base delle condizioni interne reali dell’azienda: qualità dei dati disponibili, chiarezza dei processi, predisposizione dei team, possibilità concreta di integrazione. È lì che conviene iniziare, perché i primi risultati costruiscono fiducia, metodo e capacità di estendere poi l’adozione su scala più ampia.

Poi c’è un altro nodo spesso sottovalutato: la qualità dei dati e la governance. Le aziende vogliono sistemi intelligenti, ma a volte lavorano su dati frammentati, silos organizzativi, regole poco chiare, responsabilità non definite. In queste condizioni, l’AI amplifica il disordine invece di creare valore. Per questo la maturità del dato viene prima della sofisticazione del modello.

Infine, vedo spesso una separazione artificiale fra AI, cybersecurity, compliance e organizzazione. In realtà oggi sono temi inseparabili. Un sistema AI mal governato può creare vulnerabilità tecniche, rischi normativi e sfiducia interna. Quindi l’implementazione non è solo una questione tecnologica, è anche cultura, responsabilità, trasparenza e capacità di coordinare funzioni diverse.

Fino al 2009, ha lavorato in Google. Ha vissuto dall’interno l’evoluzione di Google Italia in una fase in cui dati e algoritmi hanno iniziato a trasformare marketing, business e processi decisionali. Cosa è cambiato da allora? E cosa NON è cambiato?

È cambiata anzitutto la scala. Quando lavoravo in Google, stavamo già vedendo con chiarezza che dati e algoritmi avrebbero trasformato il modo in cui le aziende comprendono il mercato, prendono decisioni e costruiscono prodotti. Ma allora questo era percepito soprattutto come un vantaggio competitivo dei grandi player digitali. Oggi non è più così. L’AI è diventata una tecnologia general-purpose, che può e deve entrare anche nelle medie imprese, nelle filiere industriali, nella sanità, nei servizi, nella manifattura.

È cambiata anche la velocità. Oggi il ciclo tra innovazione, adozione e impatto si è compresso enormemente. La generative AI ha reso molto visibile al grande pubblico qualcosa che per anni è rimasto confinato in ambiti più specialistici: il fatto che le macchine non solo classificano o predicono, ma possono anche generare contenuti, sintesi, codice, supporto operativo. Questo ha accelerato aspettative, investimenti e pressione competitiva.

Ma c’è una cosa che non è cambiata: il valore non sta mai solo nell’algoritmo. Sta nella capacità di connettere tecnologia, dati, distribuzione, modello di business e cultura manageriale. Già allora i dati non servivano se non erano tradotti in decisioni. E oggi è lo stesso. L’AI non produce valore automaticamente, lo produce quando è incardinata in una strategia chiara.

Non è cambiato neppure un altro aspetto: le piattaforme e gli ecosistemi contano moltissimo. Allora si vedeva nascere un’economia sempre più guidata da piattaforme digitali. Oggi lo stesso principio vale per l’AI. Chi costruisce ecosistemi, capacità verticali, partnership e distribuzione ha un vantaggio enorme rispetto a chi pensa che basti adottare un tool. È anche su questa convinzione che Datrix ha costruito il proprio modello.

Nel dibattito pubblico, si parla molto di modelli, potenza di calcolo e automazione, ma meno – anche se ultimamente un po’ di più – di governance. Secondo lei, qual è oggi la competenza più sottovalutata per guidare bene l’AI dentro un’organizzazione?

La competenza più sottovalutata oggi è la capacità di governance interdisciplinare. Guidare bene l’AI non significa soltanto capire i modelli o scegliere il fornitore giusto. Significa saper tenere insieme tecnologia, business, diritto, gestione del rischio, organizzazione e cultura aziendale.

Molte organizzazioni pensano ancora all’AI come a un tema tecnico. In realtà è prima di tutto un tema di decisione manageriale. Chi governa l’AI deve saper rispondere a domande molto concrete: dove l’AI crea valore? Con quali dati? Con quali rischi? Con quali responsabilità? Con quale supervisione umana? Con quali metriche di impatto? Questo tipo di competenza è ancora rara, perché richiede figure capaci di stare al confine tra mondi diversi.

Per me, la governance dell’AI ha almeno quattro pilastri. Primo: data governance, cioè qualità, accessibilità, tracciabilità e responsabilità sui dati. Secondo: risk governance, quindi valutazione degli impatti su diritti, sicurezza, reputazione e continuità operativa. Terzo: governance organizzativa, cioè chi decide, chi valida, chi monitora, chi misura. Quarto: governance culturale, cioè formazione diffusa e capacità di far comprendere all’organizzazione come usare l’AI in modo responsabile.

Oggi chi saprà integrare questi piani avrà un vantaggio enorme, perché l’AI non premierà solo chi adotta prima, ma chi adotta meglio.

Negli ultimi anni, sono emerse nuove figure professionali, tra cui Chief AI Officer e formatori AI. Quali sono i ruoli aziendali del futuro?

Vedremo certamente crescere ruoli esplicitamente dedicati all’AI, come Chief AI Officer o AI Program Lead, ma secondo me la vera trasformazione non sarà solo l’emergere di nuove etichette. Sarà la nascita di professionalità ibride, capaci di collegare tecnologia e operation.

Ci saranno sicuramente figure di governo: Chief AI Officer, responsabili di AI governance, AI compliance manager, figure di presidio etico-legale soprattutto nei settori regolati. Ma diventeranno sempre più importanti anche i profili “ponte”: persone che conoscono i processi aziendali e sono in grado di tradurre i problemi del business in casi d’uso intelligenti.

Penso poi a tre famiglie di ruoli. La prima è quella degli orchestratori: figure che coordinano progetti AI trasversali, mettono insieme IT, business, finance, legal, HR e security. La seconda è quella degli specialisti di adozione: formatori, change manager, knowledge architect, persone che aiutano l’organizzazione a usare davvero questi strumenti. La terza è quella degli specialisti verticali aumentati dall’AI: marketer, controller, HR manager, responsabili di produzione, addetti alla logistica che non diventano tecnologi puri, ma imparano a lavorare con sistemi intelligenti integrati nelle loro funzioni.

In sostanza, il futuro non sarà fatto solo di nuovi mestieri. Sarà fatto di mestieri esistenti profondamente trasformati dall’AI. E chi avrà più valore sarà chi saprà unire competenza di dominio, capacità di leggere i dati e comprensione delle logiche di automazione e governance.

Dentro il paradosso delle competenze aumentate

L'AI sta riscrivendo i processi del lavoro ma la transizione…

Dal suo punto di vista, l’Italia sta costruendo un ecosistema capace di competere davvero sull’AI, oppure rischia ancora di restare soprattutto un mercato di adozione?

L’Italia ha competenze eccellenti, ricerca di qualità, imprese molto specializzate e una forte cultura industriale. Quindi il potenziale per essere qualcosa di più di un semplice mercato di adozione c’è. Però dobbiamo essere realistici. Oggi il rischio di rimanere prevalentemente un mercato che compra tecnologie sviluppate altrove esiste ancora.

Dove possiamo essere competitivi davvero? Non nella replica dei grandi modelli generalisti americani o cinesi. Possiamo esserlo invece nell’AI applicata, verticale, integrata ai nostri distretti industriali, alla manifattura, alla salute, all’energia, alla finanza, alla qualità del made in Italy e ai servizi avanzati. È la “via italiana” all’AI: meno orizzontale, più specializzata; meno fondata sulla scala pura, più sulla qualità del dominio e sull’aderenza ai contesti produttivi.

Per questo credo molto in un ecosistema costruito su PMI innovative, software company verticali, ricerca applicata, università, filiere territoriali e partnership europee. Un modello distribuito, non centralizzato. In questo senso, Datrix si muove proprio in questa direzione: aggregare e potenziare software SME verticali con tecnologie AI, accompagnandole nella trasformazione e nella crescita.

Il punto decisivo è evitare due errori: pensare che basti importare tecnologia dall’esterno oppure, all’opposto, inseguire l’illusione di competere sul terreno sbagliato. L’Italia può avere un ruolo forte se investe su dati, competenze, piattaforme verticali, governance e casi d’uso industriali reali. Se invece si limita alla sola adozione di strumenti esterni senza capacità propria, resterà nella parte bassa della catena del valore.

Cosa pensa dell’AI Act e della posizione dell’Europa in questa sfida globale?

Penso che l’AI Act rappresenti un passaggio importante e, in un certo senso, inevitabile. L’Europa ha scelto di posizionarsi non solo come mercato, ma come spazio normativo capace di definire standard. È già successo con il GDPR, e oggi si ripropone con l’intelligenza artificiale. Questo approccio ha un valore: afferma che innovazione e tutela dei diritti non devono essere viste come opposti inconciliabili.

Detto questo, la qualità di una regolazione non si misura solo nelle intenzioni, ma nella sua applicabilità concreta. Il rischio esiste sempre: creare complessità eccessiva, incertezza interpretativa, oneri sproporzionati soprattutto per imprese e startup europee. Per questo sarà fondamentale lavorare bene sulla fase attuativa, sulle linee guida, sulle sandbox, sui codici di condotta, sull’accompagnamento alle imprese.

Io credo che l’Europa abbia ragione a voler presidiare i temi della trasparenza, della sicurezza, della supervisione umana e della tutela dei diritti fondamentali. Ma perché questa scelta sia vincente, deve essere accompagnata da una politica industriale vera: investimenti in calcolo, talenti, infrastrutture, ricerca applicata, trasferimento tecnologico, procurement intelligente, sostegno alle software company europee. La regolazione da sola non basta.

Condivido l’idea di un’AI europea affidabile e human-centric. Ma questa visione ha senso solo se accanto alla regola costruiamo anche capacità competitiva. La vera sfida per l’Europa non è scegliere tra innovazione e responsabilità. È riuscire a tenere insieme entrambe in modo credibile.

Quando si parla di AI applicata al business, spesso si misura il ritorno in termini di efficienza e ROI. Lei invece richiama anche sostenibilità e impatto sulla vita delle persone. Come si tengono insieme vantaggio competitivo e responsabilità?

Io non vedo una contraddizione tra vantaggio competitivo e responsabilità. Vedo piuttosto una convergenza sempre più forte. Nel medio periodo, l’AI che non è responsabile diventa anche meno competitiva, perché genera rischi reputazionali, normativi, organizzativi e perfino economici.

L’impresa che usa bene l’AI deve certamente misurare efficienza, produttività, ROI, riduzione dei costi. Ma deve anche chiedersi se sta costruendo sistemi comprensibili, tracciabili, sicuri, coerenti con il contesto umano in cui operano. In settori come salute, finanza, lavoro, pubblica amministrazione o manifattura critica, questa domanda non è accessoria. È centrale.

La sostenibilità, in questo senso, ha almeno tre livelli. Il primo è economico: l’AI deve creare valore reale e duraturo, non solo entusiasmo iniziale. Il secondo è organizzativo e sociale: deve migliorare il lavoro, non semplicemente comprimere attività senza ridisegnare competenze e responsabilità. Il terzo è etico e normativo: deve rispettare diritti, contesti e proporzionalità d’uso.

Quando queste dimensioni si tengono insieme, l’AI diventa una leva di qualità del sistema impresa. E aggiungo: per una realtà europea come Datrix, questo approccio è anche identitario. Noi vogliamo contribuire a un’innovazione utile, accessibile, responsabile, non a una corsa tecnologica fine a se stessa.

Cosa pensa della bolla AI?

Penso che dentro il fenomeno AI convivano due cose diverse: un’innovazione reale e profonda, e una componente evidente di iperbole. Come accade spesso nelle grandi discontinuità tecnologiche, il mercato tende a sovrastimare gli effetti di breve periodo e a sottostimare quelli di lungo periodo.

Sì, esiste una dimensione di bolla. Nelle valutazioni, nelle aspettative, nel linguaggio, nella tendenza a chiamare “AI” qualunque automazione un po’ sofisticata. E questo è fisiologico. Ogni volta che emerge una tecnologia abilitante, si crea una fase di euforia in cui capitale, narrativa e posizionamenti corrono più veloce dei fondamentali.

Ma ridurre tutto a una bolla sarebbe un errore. L’AI non è una moda passeggera, è una trasformazione strutturale. Cambierà software, processi industriali, modelli di servizio, marketing, sanità, finanza, produttività individuale e organizzativa. Quello che probabilmente vedremo è una selezione molto netta. Spariranno molte promesse generiche, mentre cresceranno i player capaci di portare l’AI in produzione in modo credibile, misurabile e verticalizzato.

In questo senso, la domanda non è se la bolla si sgonfierà. Alcune componenti speculative si sgonfieranno sicuramente. La vera domanda è: quali modelli di business resteranno in piedi quando finirà l’euforia? Io credo che resteranno quelli fondati su applicazioni concrete, dati proprietari, competenza di dominio, integrazione nei processi e capacità di governo.

AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

Guardando ai prossimi tre-cinque anni, come si immagina il mercato AI e tech?

Nei prossimi tre-cinque anni, vedo un mercato molto più selettivo, più industriale e meno “demo-driven”. La fase che si apre sarà quella del consolidamento: meno fascino per la prova tecnologica in sé, più domanda di soluzioni integrate, affidabili, misurabili e governabili.

Vedo cinque traiettorie principali. La prima è la verticalizzazione: l’AI continuerà a diffondersi, ma il vero valore si concentrerà nelle applicazioni specializzate per settore e funzione. La seconda è l’integrazione: i sistemi AI non saranno più layer esterni, ma componenti native del software enterprise e dei processi decisionali. La terza è la governance: compliance, risk management, cybersecurity e qualità del dato diventeranno parti strutturali dell’offerta. La quarta è il consolidamento industriale: aumenteranno acquisizioni, aggregazioni e alleanze, perché servono scala, distribuzione e asset tecnologici combinati. La quinta è la crescita dell’AI europea applicata, soprattutto nei settori regolati e mission-critical.

Credo anche che il confine tra software tradizionale e AI software tenderà a sparire. Diremo sempre meno “questo è un prodotto AI” e sempre più “questo prodotto funziona meglio perché incorpora capacità intelligenti”. L’AI diventerà una dimensione pervasiva del software, non una categoria separata.

In parallelo, il mercato premierà chi saprà unire due cose: potenza tecnologica e fiducia. Le imprese compreranno non solo performance, ma anche affidabilità, spiegabilità, sicurezza, continuità operativa e capacità di adattarsi ai contesti normativi. È qui che si giocherà la partita vera, soprattutto in Europa.

Per chiudere, qual è il cliché, il falso mito sull’AI, che più la infastidisce e che, se avesse una bacchetta magica, sfaterebbe una volta per tutte?

Il falso mito che mi infastidisce di più è questo: che l’AI sia o una bacchetta magica che risolve tutto, o una minaccia inevitabile che toglierà senso al lavoro umano. Entrambe queste narrazioni sono sbagliate, e soprattutto sono poco utili.

L’AI non è magia. Non basta comprarla per diventare più competitivi. Senza dati, processi, competenze, governo e visione strategica, non funziona. Ma non è nemmeno una forza autonoma che decide da sola il destino delle organizzazioni. L’AI resta una tecnologia progettata, adottata e governata da persone. Bisogna imparare a usarla bene.

Se potessi sfatare un cliché, sfaterei proprio l’idea che il cuore della questione sia “uomo contro macchina”. La vera domanda non è se la macchina sostituirà l’uomo. La vera domanda è quali organizzazioni sapranno ridisegnare meglio il rapporto tra intelligenza umana, dati, automazione e responsabilità. Chi lo farà bene crescerà. Chi resterà fermo tra paura e slogan resterà indietro.

E aggiungo un’ultima cosa: l’AI non deve diventare un privilegio di pochi grandi gruppi o di poche big tech. La sfida vera è renderla uno strumento trasformativo accessibile anche alle PMI, alle filiere, ai settori industriali che costituiscono l’economia reale europea. È lì che si giocherà una parte decisiva del futuro competitivo del nostro continente.


Articoli simili

Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026