Luisella Giani (Oracle): “Come l’AI può supportare le aziende” | AI Talks #1

Luisella Giani (Oracle): “Come l’AI può supportare le aziende” | AI Talks #1

La prima puntata di AI Talks, il format di interviste di AI news alla scoperta dell’intelligenza artificiale, è con Luisella Giani, Head of Commercial Industries di Oracle.

Luisella Giani, laureata nel 2005 all’Università di Bologna con una tesi in intelligenza artificiale, si è concentrata sin dall’inizio della sua ricerca sui motori di ricerca semantici e lavora nel campo della tecnologia e dell’AI da quasi vent’anni. A lei abbiamo chiesto di guidarci attraverso l’evoluzione dell’intelligenza artificiale, con un focus su come l’AI può supportare le aziende e le scelte di business.

Partiamo proprio dalle basi: qual è la definizione di intelligenza artificiale?

Il termine intelligenza artificiale è stato coniato nel 1966, è una disciplina non più giovanissima. L’intelligenza artificiale è una macchina che mostra delle capacità molto simili a quelle che riteniamo tipiche dell’essere umano, come comprendere, parlare, effettuare dei ragionamenti, apprendere. Ho utilizzato il termine mostrare non a caso. Noi siamo infatti abituati, nel valutare l’intelligenza di un essere umano, a basarci sull’output prodotto nel corso di un test. La stessa cosa avviene con le macchine, ad esempio con il test di Turing utile per valutare se un’attività è stata eseguita da un umano oppure da una macchina.

Quindi è possibile distinguere l’attività di un umano da quella di un’intelligenza artificiale?

È chiaro che quando noi andiamo ad analizzare solo l’output di un umano o di una macchina, è facile essere ingannati. È molto facile anche attribuire ad una macchina delle capacità, appunto come quelle dell’essere umano, che magari la macchina non ha. Infatti, ad oggi il dibattito ruota attorno a due domande: dobbiamo chiamare queste macchine “intelligenza”? E perché chiamarla “artificiale”? La scienza ha definito ben nove tipologie di intelligenza umana: si parla ad esempio di intelligenza sociale, di intelligenza emotiva, di intelligenza cinestetica, di intelligenza naturalistica… Quindi è chiaro che l’intelligenza non è un solo la capacità di risolvere un’equazione o di capire un testo.

Spesso inoltre è anche molto confusionario il termine artificiale, perché fondamentalmente è quasi un’imitazione venuta male, ossia una cosa artificiale è un qualcosa che trasmette un senso di finzione. Quindi in realtà, al di là della definizione stessa, dovremmo cercare di cambiare fondamentalmente il nostro approccio.

Come?

Dovremmo iniziare a considerare che le macchine hanno delle capacità che possono essere utili all’essere umano, ad esempio come l’abilità di eseguire calcoli complessi in poco tempo: una macchina è molto più abile e veloce di noi e ha una capacità di memoria sicuramente maggiore dell’essere umano. Soprattutto nell’ultimo periodo, poi, abbiamo assistito allo sviluppo dell’intelligenza artificiale generativa (ad esempio ChatGPT), anche nelle capacità “linguistiche”, quindi di interazione.

Questo significa che la macchina è “intelligente” come l’essere umano?

No. Tutti questi esempi che vediamo oggi sono esempi di quella che in gergo è chiamata Artificial Narrow Intelligence. Di fatto parliamo di un algoritmo addestrato (leggi un focus sul ruolo degli AI trainer) in una disciplina molto specifica e che quindi può diventare molto bravo a dare un output corretto in base al training molto specifico che ha ricevuto. In letteratura, poi, ci sono altri due step di intelligenza artificiale: la general e la super intelligenza artificiale. Quando parliamo di general intelligence ci riferiamo a una serie di algoritmi che sono in grado di emulare in tutto e per tutto il comportamento di un umano, e quindi anche capire le emozioni di un altro e interagire su qualsiasi tipologia di argomento (e non solo su topic specifici). Una capacità, ad oggi, ancora remota.

Infine, è stato teorizzato che nel futuro potremmo essere in grado di sviluppare un sistema che abbia un output superiore a quello del genere umano. Parliamo in questo caso di super intelligence, che però presuppone anche una singolarità, ovvero il punto in cui l’AI assumerà anche un certo grado di coscienza.

Ad oggi quindi siamo ancora nella prima “fase”, quella della narrow intelligence. Per scendere un po’ più nel dettaglio nel campo delle applicazioni dell’intelligenza artificiale… Come può l’AI aiutare concretamente le aziende?

Su questo tema ci sono un paio di distinguo da fare. Negli ultimi mesi, il tema AI è diventato di uso comune perché tutti hanno potuto testarla. Un dato importante perché ha fatto capire a molte persone che ci sono dei sistemi accessibili e semplici da usare, infrangendo in parte la barriera di inaccessibilità su temi come il machine learning. Il secondo distinguo è che, quando invece parliamo di applicazioni dell’AI in campo aziendale, questa è ormai una pratica molto diffusa, per certe realtà consolidate. Parliamo di output meno d’impatto per il pubblico rispetto a un quadro generato dall’AI, ma che permette di ottimizzare e misurare ogni processo dell’attività corporate.

A tal proposito, esistono due approcci differenti…

Esatto, in Oracle negli anni abbiamo sperimentato due modi diversi di integrare l’intelligenza artificiale lato business. Il primo approccio è quello dell’embedded AI: in questo caso, l’intelligenza artificiale è integrata nei nostri sistemi e viene applicata a dei casi studio. Quindi, nel caso in cui venissimo contattati da un’azienda che ha una determinata esigenza, abbiamo già un framework da proporre sulla base dei dati storici in base alle richieste più comuni (CRM, ERP, Human Cloud Management…). In questo caso, il vantaggio è che l’algoritmo è già stato addestrato sui casi storici, apprende più velocemente e, in più, può essere arricchito con dati addizionali di terze parti. Può sembrare un tema teorico, ma parliamo di cose molto concrete per ottimizzare il reporting, la riconciliazione dei libri contabili, la gestione del personale e così via.

In caso di esigenze molto verticali, invece, suggeriamo l’utilizzo di framework e acceleratori presenti in Oracle Cloud e sviluppati sulle specifiche esigenze dell’azienda. Un algoritmo ben addestrato può essere infatti utile anche per decisioni strategiche, analizzando i lead è ad esempio possibile prevedere la capacità di conversione di un contatto e così via. L’obiettivo è addestrare la macchina e fornire al cliente indicazioni sulle migliori decisioni da prendere.

In questo senso, quindi, si potrebbe affermare che la macchina è più efficiente dell’uomo?

Molto spesso la discussione verte su questa dicotomia, ma non è questo il punto. Entrambi hanno caratteristiche che li rendono peculiari. È chiaro che un umano non potrebbe avere la stessa memoria e la stessa capacità di calcolo di una macchina, così come abbiamo detto che, ad oggi, parliamo ancora di narrow intelligence, quindi di AI molto efficace in campi ‘limitati’ e che di certo manca di alcune caratteristiche umane come l’empatia, l’intuizione ecc. Il tema è quello della delega, ovvero di scegliere quali funzioni vogliamo delegare all’intelligenza artificiale. I team del futuro saranno sempre più un mix tra competenze umane e AI.

Il tema della delega e dell’automazione, nella discussione generalista, ha sollevato anche alcuni dubbi e timori sull’impatto che l’AI ha e avrà nella vita delle persone. Quale sarà l’impatto dell’intelligenza artificiale nella nostra società?

Secondo i dati del Decision Dilemma Global Study pubblicato pochi giorni fa, incentrato sul rapporto tra i dati e le scelte strategiche, il 74% degli intervistati afferma che il numero delle decisioni che sono chiamati a prendere nel corso di una giornata è cresciuto di dieci volte negli ultimi tre anni. Allo stesso tempo, il 78% dei lavoratori crede di essere ‘bombardato’ da un’immensa quantità di dati, come mai avvenuto prima. In teoria, questi dati dovrebbero aiutare a indirizzare le scelte, ma l’86% delle persone dichiara che questo stia rendendo il processo di scelta più complesso. È il cosiddetto ‘dilemma della decisione’, ovvero di una correlazione diretta tra l’aumento dei dati a disposizione e la difficoltà nel prendere una decisione. Penso che l’AI in questo processo sarà fondamentale: a fronte di una sempre maggiore creazione di dati, anche grazie allo sviluppo dell’Internet of Things, permetterà all’essere umano e alle aziende di prendere decisioni con maggior facilità.

A fronte, tuttavia, di alcune considerazioni di carattere etico e morale…

Chiaramente tutto questo avrà delle ripercussioni sulla nostra società, penso ad esempio al mondo del lavoro e al grande tema dei bias, gli stereotipi insiti nel nostro mondo ma che l’intelligenza artificiale potrebbe amplificare (scopri di più sui bias dell’AI). Uno degli aspetti più delicati da affrontare è appunto quello del training, ovvero di come queste intelligenze artificiali vengono addestrate. Perché se il dataset di addestramento contiene dati biased, ovvero distorti, questi pregiudizi verranno amplificati all’ennesima potenza dalla macchina, con ripercussioni che non possiamo prevedere. Il dibattito è in corso, la strada per un “algoritmo neutrale” è tracciata ma ancora lunga.

Così come siamo ancora lontani da un punto comune sul grande tema del lavoro. L’intelligenza artificiale sostituirà i lavoratori?

Sì e no. Per certe mansioni è già successo, per altre invece probabilmente non accadrà mai. Spesso si fa il paragone con altre rivoluzioni industriali, ma non dovremmo dimenticare che anche nei casi passati la ricetta non è scritta, ma tutta da costruire. La sfida per le aziende è quella di capire quali attività possono essere svolte dall’AI e quali, invece, no. Si fa presto a dire “Affidiamo il customer care a un chatbot”, ma vi immaginate la conversazione tra un cliente arrabbiato e un assistente virtuale totalmente privo di empatia? Gli Stati, invece, dovranno prevedere corsi di formazione e forme di assistenza per i lavoratori che verranno in parte sostituiti. Un tema da gestire a livello politico.

E per quanto riguarda la privacy?

Anche in questo caso siamo lontani da una risposta univoca. Guardiamo ad esempio a cosa è successo con ChatGPT, con l’intervento del Garante della Privacy e tutto quello che ne è seguito. Ad oggi ci sono ancora troppe zone d’ombra e muoversi in questo contesto non è facile né per il legislatore né per le aziende. Mi auguro che si possa lavorare verso una legislazione comune europea.

Chiudiamo con un commento sull’allarme lanciato da Elon Musk e altri 1400 esperti sui rischi legati all’AI generativa?

Secondo alcuni rumor, Musk starebbe già lavorando ai suoi sistemi di generative AI, quindi mi chiedo se la lettera fosse solo una mossa opportunistica o meno. Il punto, allargando lo sguardo, è che molte persone sono giustamente impaurite da ciò che non conoscono. Questa diffidenza non la combatti con l’allarmismo, ma con l’educazione. La speranza è che non solo le aziende, ma anche le istituzioni, inizino ad affrontare il tema dell’intelligenza artificiale con nuovo slancio e con una conoscenza maggiore, approfondendo anche le questioni più complessi come l’etica dell’AI, i rischi per la privacy e il rapporto con il mondo del lavoro. Serve una visione d’insieme che parta necessariamente dallo studio e dall’educazione.


Ultime news


Anthropic risponde a OpenAI: presto un nuovo modello ‘ragionante’

Secondo indiscrezioni, la new entry sarà disponibile nelle prossime settimane,…

Anthropic risponde a OpenAI: presto un nuovo modello ‘ragionante’
Nuovo asse USA-Regno Unito: l’UE in bilico sulle regole AI | Weekly AI

Weekly AI è la nostra rassegna settimanale sulle notizie più…

Nuovo asse USA-Regno Unito: l’UE in bilico sulle regole AI | Weekly AI
OpenAI cancella il lancio di o3 e indica una nuova rotta verso GPT-5

Sam Altman ha illustrato i prossimi passi di OpenAI, annunciando…

OpenAI cancella il lancio di o3 e indica una nuova rotta verso GPT-5
Alibaba collabora con Apple per funzionalità AI sugli iPhone: colosso cinese al +9% in borsa

Apple necessitava di un partner locale e l'ha trovato in…

Alibaba collabora con Apple per funzionalità AI sugli iPhone: colosso cinese al +9% in borsa
L’AI Act nelle imprese, la nostra intervista a Licia Garotti | AI Talks #16

Il 2 febbraio è entrato in vigore l’AI Act e…

L’AI Act nelle imprese, la nostra intervista a Licia Garotti | AI Talks #16

In Evidenza


Microsoft presenta l’AI L.A.B. 2025 a Milano

Ieri, Microsoft Italia ha presentato il programma AI L.A.B. 2025.…

Microsoft presenta l’AI L.A.B. 2025 a Milano
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
OpenAI: anche Mira Murati lascia

L'abbandono di Murati si aggiunge a quelli di Ilya Sutskever,…

OpenAI: anche Mira Murati lascia
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Privacy policy| Cookie policy| Cookie setting| © 2025