“Così l’AI generativa sta cambiando i data center”, la nostra intervista a Cosimo Verteramo | AI Talks #15

“Così l’AI generativa sta cambiando i data center”, la nostra intervista a Cosimo Verteramo | AI Talks #15

Il nuovo appuntamento di AI Talks, il nostro format di interviste alla scoperta dell’intelligenza artificiale, è con Cosimo Verteramo, Life Science & High Tech Division Director di Deerns Italia. Con lui abbiamo parlato di AI e data center.

La prima domanda che poniamo a tutti i nostri ospiti è questa: cos’è l’intelligenza artificiale?

L’intelligenza artificiale è una simulazione dell’intelligenza umana fatta dai computer, progettata e programmata per far sì che vengano svolte dalle macchine alcune attività tipicamente umane, che richiedono un minimo di intelligenza adattiva.

Ovviamente, una semplice intelligenza artificiale potrebbe essere anche Siri, ma quella più interessante è l’intelligenza artificiale generativa, come quella alla base di ChatGPT o di Copilot, perché in grado di simulare meglio l’intelligenza umana.

Qualcuno ritiene che l’architettura dell’AI generativa attuale non possa permettere all’AI di ragionare e di comprendere semanticamente il linguaggio. Altri, invece, pensano che, attraverso le tecnologie attuali, l’AI possa effettivamente apprendere come se fosse un essere umano. Lei cosa ne pensa?

È un po’ prematuro dirlo, però, se guardo alle potenzialità, penso che sia più verosimile la seconda opzione. Saranno sempre degli algoritmi programmati dagli umani, ma, alla fine, se l’intelligenza artificiale può imparare dalle precedenti esperienze, simulerà l’intelligenza umana talmente bene che sarà praticamente impossibile capire che è un algoritmo che sta prendendo quelle decisioni. Sembrerà quasi che sia la macchina a farlo.

Dietro ci sono degli algoritmi di machine learning, lo zampino umano c’è sempre nel programmare queste macchine. Insomma, non mi immagino una situazione alla “Terminator”, ma sarà talmente simile che si farà fatica a capire. Già succede.

Ora passiamo a un tema che interessa da vicino Deerns, quello dei data center. Come stanno cambiando queste infrastrutture in risposta alle esigenze tipiche dell’intelligenza artificiale, e nello specifico quella generativa, rispetto al cloud tradizionale?

Il cloud, se ben ricordo, ha avuto un punto di svolta intorno al 2006, e ai tempi ci si basava sulle central processing units, le famose CPU, che avevano una certa potenza di calcolo ed erano pensate per fare quel tipo di analisi computazionali. E già c’era stato un salto di potenza richiesta per processare i dati, che aveva portato il carico dei singoli rack all’interno dei data center da 6 kW a 14 kW per rack. Adesso, dal 2023 in particolare, dalle CPU si è passati alle GPU, che sono dei processori grafici che supportano l’intelligenza artificiale. Sono molto più potenti e si stima un salto di potenza che andrà dai 45 ai 100 kW per rack.

Il primo requisito è quindi una potenza di calcolo che richiede una potenza elettrica 10 volte superiore a quella con cui si era partiti quando è iniziato il cloud, o 5 volte superiore a quella del cloud se mi riferisco ai 14 kW per rack. Questo poi si traduce nella capacità di raffreddare il data center, perché assorbendo più potenza genererà necessariamente più calore.

Quindi ci sono questi due temi – da un lato la potenza elettrica, dall’altro la necessità di smaltire il calore – che ci obbligheranno ad andare verso delle soluzioni che non sono quelle attuali. Noi che progettiamo data center quotidianamente nell’ultimo anno stiamo ricevendo una richiesta sempre più crescente di riadattare l’infrastruttura sia elettrica che di raffrescamento per essere pronti ad accogliere questi rack che consumeranno molto di più e poterli raffreddare.

Ultimo, ma non ultimo, c’è anche un tema di requisiti di connettività perché con queste applicazioni che devono rispondere sempre più velocemente i tempi di latenza si accorciano, quindi necessariamente ci vorrà molto più banda.

L’aumento di potenza sta cominciando a diventare critico. Andando indietro di qualche anno, si parlava di data center, di campus che erano di 20, 30, 40, magari 50 o 60 mega, mentre adesso si comincia a parlare di campus dai 400 megawatt in su e in alcune regioni in giro per il mondo si comincia già a ragionare di campus con potenza richiesta intorno al gigawatt. Questo creerà problemi potenzialmente all’infrastruttura elettrica.

E molte aziende tech stanno guardando al nucleare.

Sì, l’industria sta cominciando a guardare a queste fonti di generazione – come il mini-nucleare – perché si capisce che quando si passa a campus da 400-500 MW o addirittura da 1 GW diventerà sempre più sfidante provvedere a tali potenze dalla rete nazionale. Bisogna trovare altre forme di generazione.

Dato che la richiesta aumenta sempre di più, quali innovazioni tecnologiche e/o pratiche possono essere utili per migliorare l’efficienza energetica?

Purtroppo abbiamo questa dicotomia: da un lato tutti quanti stanno puntando a essere carbon-neutral entro una certa data, che vuol dire ridurre praticamente a zero l’emissione di carbonio, dall’altro c’è l’intelligenza artificiale che ci obbligherà a consumare più energia. Quindi trovare un equilibrio tra queste due richieste in netta contrapposizione è complicato.

Comunque, da un punto di vista tecnologico, stiamo facendo passi avanti. I server consumeranno gradualmente meno, seppur molto di più di quello che consumavano una volta. Quando si passa a potenze così elevate, però, non si può più optare per soluzioni di condizionamento, di raffrescamento, canoniche, quelle ad aria per intenderci. I server dovranno necessariamente essere immersi in un liquido refrigerante (immersion cooling), o, addirittura, le nuove generazioni di microchip sono già raffreddate dal liquido (chip cooling). Questo consentirà di risparmiare molto di più.

Abbiamo già iniziato a disegnare queste tecnologie perché il mercato ci sta chiedendo di preparare i nuovi data center all’integrazione dell’intelligenza artificiale e questo sarà un buon modo per abbassare i consumi. In più, man mano che i server diventano più resilienti, si possono alzare le temperature di sala. 15 anni fa, dovevi entrarci col cappotto, mentre oggi le temperature medie sono intorno ai 27 gradi.

Dopodiché, c’è il tema della sostenibilità, con l’uso di materiali riciclati e con la diminuzione del consumo di acqua.

In termini funzionali, come può essere utilizzata l’intelligenza artificiale per la manutenzione predittiva, per l’ottimizzazione e l’analisi avanzata dei dati e anche per il miglioramento delle infrastrutture e dei data center?

La manutenzione predittiva è qualcosa a cui si guardava anche prima che arrivasse l’intelligenza artificiale, la vera differenza è che prima era basata su metriche tipiche degli equipment. Per esempio, si mettevano dei sensori di rumore e, se un ventilatore cominciava a fare rumore oltre certi limiti, quello indicava che quel ventilatore poteva andare in default entro un certo lasso di tempo, e quindi si interveniva predittivamente per sostituirlo.

L’intelligenza artificiale farà fare un salto perché, simulando l’intelligenza umana, è in grado di processare una mole enorme di dati, raccolti da esperienze pregresse. Gli operatori di data center hanno una mole di dati e di storico impressionante e con l’intelligenza artificiale si potranno analizzare questi dati anche in tempo reale e fare delle analisi predittive, addirittura senza dover aspettare che il ventilatore faccia rumore.

Quali settori possono beneficiare maggiormente di questa evoluzione dei data center anche attraverso l’intelligenza artificiale?

In generale tutti beneficeranno dell’intelligenza artificiale, ma, secondo me, in particolare l’industria manifatturiera, il campo healthcare e il settore life science. Questo tipo di industrie, così come i data center, gestiscono grandi database e continuano a monitorare i dati in maniera impressionante. Credo che l’healthcare sia la prima industry, in questo senso, a raccogliere dati. E, ovviamente, l’intelligenza artificiale, con questi algoritmi predittivi, potrà addirittura fornire analisi predittive di cure personalizzate per i pazienti.

E come si garantisce la sicurezza di queste infrastrutture?

Questa è una bella domanda. Per quello che facciamo in Deerns, noi siamo più focalizzati sulla sicurezza fisica che su quella dei dati, perché non ci occupiamo direttamente di cybersecurity. Certamente, e questo è pacifico all’interno di data center, la prima cosa è limitare l’accesso solo a chi deve necessariamente accedere a determinate aree, per evitare infiltrazioni che poi potrebbero essere dannose. Dopodiché, si assiste anche a un’evoluzione della sicurezza informatica, che va di pari passo con lo sviluppo dell’intelligenza artificiale.

Infine, guardando al mercato: il campo dei data center quanto è cresciuto negli ultimi anni, con l’avvento dell’AI generativa?

La crescita è stata molto rapida. Noi, in particolare, da quando ci siamo riorganizzati in Divisioni – la divisione data center racchiude tutte le unit in Deerns che globalmente si occupano di questo mercato – in tre anni abbiamo avuto una crescita di più del 50% di fatturato in attività di consulenza sui data center. Una crescita anche trainata dall’intelligenza artificiale.

Questo trend, per fortuna nostra, continuerà – così dicono le indagini di mercato – almeno per i prossimi cinque anni, fino al 2029-2030. Dopodiché, una volta che si costruiscono tutte queste infrastrutture, vanno operate e mantenute e noi continueremo a lavorare su questo.


Ultime news


OpenAI cancella il lancio di o3 e indica una nuova rotta verso GPT-5

Sam Altman ha illustrato i prossimi passi di OpenAI, annunciando…

OpenAI cancella il lancio di o3 e indica una nuova rotta verso GPT-5
Alibaba collabora con Apple per funzionalità AI sugli iPhone: colosso cinese al +9% in borsa

Apple necessitava di un partner locale e l'ha trovato in…

Alibaba collabora con Apple per funzionalità AI sugli iPhone: colosso cinese al +9% in borsa
L’AI Act nelle imprese, la nostra intervista a Licia Garotti | AI Talks #16

Il 2 febbraio è entrato in vigore l’AI Act e…

L’AI Act nelle imprese, la nostra intervista a Licia Garotti | AI Talks #16
Elon Musk ritirerà la sua proposta d’acquisto se OpenAI resta (in parte) non-profit

La condizione per il ritiro dell'offerta di Elon Musk è…

Elon Musk ritirerà la sua proposta d’acquisto se OpenAI resta (in parte) non-profit
DeepSeek sta spingendo il mercato cinese dei chip

Il successo di DeepSeek favorirà i produttori cinesi di chip…

DeepSeek sta spingendo il mercato cinese dei chip

In Evidenza


Microsoft presenta l’AI L.A.B. 2025 a Milano

Ieri, Microsoft Italia ha presentato il programma AI L.A.B. 2025.…

Microsoft presenta l’AI L.A.B. 2025 a Milano
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
OpenAI: anche Mira Murati lascia

L'abbandono di Murati si aggiunge a quelli di Ilya Sutskever,…

OpenAI: anche Mira Murati lascia
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Privacy policy| Cookie policy| Cookie setting| © 2025