Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

Intelligenza artificiale in mano a pochi: un rischio per l’economia?

Governance - Mercato Edoardo Frasso 20 Settembre 2023

6 minuti

Edoardo Frasso 20 Settembre 2023
6 minuti

digital-economy

La rapida diffusione dell’intelligenza artificiale può avere ricadute negative sui consumatori e sull’economia a causa di un accentramento di potere economico nelle mani di pochi operatori; è la conclusione di uno studio presentato dall’autorità di vigilanza sulla concorrenza del Regno Unito, la Competition and Markets Authority (CMA).

Una turbo-economia

Il rapporto è stato pubblicato il 18 settembre, ha analizzato i modelli di base AI e la loro diffusione nel mercato

I redattori sottolineano il carattere rivoluzionario della nuova tecnologia ed evidenziano come le persone e le imprese possano trarre beneficio dal suo sviluppo: prodotti e servizi nuovi e migliori, un accesso più facile alle informazioni, progressi scientifici e sanitari e prezzi più bassi.

Ma l’osservatorio lancia un monito: la rapidità dei cambiamenti potrebbe non dare il tempo alla maggior parte degli attori economici minori di agire con prontezza in una partecipazione attiva che garantisca innovazione e concorrenza vivace. Questo si traduce in un impatto significativo sui consumatori, che si ritroverebbero bombardati da flussi di informazioni anche potenzialmente dannose propagate da poche aziende di sviluppo dei software.

La velocità con cui l’AI sta diventando parte della vita quotidiana di persone e imprese è straordinaria – ha dichiarato il CEO della CMA Sarah CardellQuesta tecnologia ha il potenziale reale di turboalimentare la produttività e rendere più facili milioni di attività quotidiane, ma non possiamo dare per scontato un futuro positivo. Rimane il rischio concreto che l’uso dell’AI si sviluppi in un modo che mina la fiducia dei consumatori o sia dominato da pochi attori che esercitano un potere di mercato che impedisce che i pieni benefici si facciano sentire in tutta l’economia”.

Il problema del monopolio

Il problema subentrerebbe nel momento in cui queste aziende, in assenza di concorrenza a controbilanciare il mercato, aggirino le leggi sulla protezione degli utenti e i consumatori esponendoli al rischio di frodi.

Insomma, nonostante le big tech come Microsoft, OpenAI (che proprio ieri ha lanciato un appello per collaborare con esperti che migliorino la sicurezza dei loro modelli), Google, Meta, Nvidia e tutte le altre stiano cercando di presentarsi al pubblico come inserite in una profilazione etica nell’uso dell’AI, il loro monopolio sul mercato basterebbe a smentire le intenzioni.

Se le aziende principali che operano in un settore sono poche, le offerte dei servizi proposti possono essere qualitativamente basse e al tempo stesso costose senza che nessuno possa spostare gli equilibri. Quando si parla di ‘servizi qualitativamente bassi’ nel mondo tech non ci si riferisce a performance scadenti dei tool quanto alla trasparenza sulla raccolta e l’utilizzo dei dati degli utenti che li utilizzano. C’è il rischio che ad ottimi tool possa corrispondere un utilizzo non autorizzato dei dati personali dei consumatori.

I sette principi guida

L’osservatorio fornisce anche sette principi guida per orientare lo sviluppo dell’AI andando nella direzione di aiutare le persone, le imprese e l’economia a beneficiare pienamente dell’innovazione:

  • Responsabilità: deve essere una costante di sviluppatori e distributori nei confronti dei consumatori.
  • Accesso: deve essere garantito l’accesso costante agli input chiave e senza restrizioni non necessarie.
  • Diversità: va sostenuta nei modelli di business, sia quelli aperti che quelli chiusi.
  • Scelta: deve essere sempre sufficiente per le imprese, in modo che possano decidere come utilizzare l’AI.
  • Flessibilità: bisogna poterla esercitare per utilizzare più AI in base alle necessità.
  • Trattamento equo: non deve essere perseguita nessuna condotta anticoncorrenziale, inclusi l’autopromozione anticoncorrenziale, legami o raggruppamenti clientelistici.
  • Trasparenza: ai consumatori e alle imprese devono essere fornite informazioni sui rischi e sui limiti dei contenuti generati dall’AI, in modo che possano fare scelte informate.

Nei prossimi mesi, la CMA intraprenderà un significativo programma di coinvolgimento di una vasta gamma di stakeholder nel Regno Unito e a livello internazionale. L’intento andrà nella direzione di sviluppare ulteriormente questi principi per una concorrenza efficace che favorisca le persone, le imprese e l’economia. 

L’importanza di enti super partes

Nei dibattiti internazionali per le regolamentazioni AI, che vedono solitamente organizzazioni governative da una parte e aziende dall’altra, il report dell’osservatorio rappresenta un esempio virtuoso.

È importante che, proprio in virtù della loro natura super partes, questi enti possano fornire contributi e punti di vista.

È fondamentale che ci poniamo all’avanguardia di questo pensiero – prosegue Cardell – piuttosto che aspettare che emergano problemi e solo allora intervenire con misure correttive. Spero che il nostro approccio collaborativo contribuirà a raggiungere il massimo potenziale di questa nuova tecnologia, siamo pronti a intervenire se necessario”.


In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…