L’algoritmo di Google che ha fatto sparire un’autostrada e altre notizie | Weekly AI #108

L’algoritmo di Google che ha fatto sparire un’autostrada e altre notizie | Weekly AI #108

Weekly AI news è la rassegna stampa settimanale curata dai nostri editor sui temi più rilevanti legati al mondo dell’intelligenza artificiale.

Giovedì 30 maggio, sulla strada statale del Trentino che porta da Vipiteno fino al confine costeggiando l’autostrada del Brennero, si è creata una coda di traffico lunga circa sei chilometri. Fino a qui nulla di strano, peccato che l’adiacente autostrada fosse quasi completamente vuota. Come si spiega? Forse per un bug o forse per una perdita del satellite, l’algoritmo di Google Maps ha cancellato inspiegabilmente il tratto autostradale, suggerendo agli automobilisti di uscire e creando un ingorgo del tutto illogico. La storia porta con sé una morale interessante. Siamo convinti di usare la tecnologia, ma molto spesso è lei che guida noi.

Dopo le polemiche che hanno travolto OpenAI, questa settimana è stata Google a ritrovarsi alle prese con gli scivoloni, e non solo per un bug di Maps: gli utenti hanno documentato numerose risposte assurde e surreali del nuovo potenziamento del motore di ricerca con Gemini. L’AI ha consigliato di mettere la colla sulla pizza o di cucinare gli spaghetti con la benzina. L’azienda si trova così nuovamente al centro del ciclone per le basse performance della sua tecnologia. Ma il suo è un disegno preciso, che prevede miglioramenti progressivi.

In casa OpenAI calma piatta solo per pochi giorni, fino a che l’ex membro del consiglio Helen Toner svela durante un podcast le ragioni dell’allontanamento di Altman dello scorso novembre: omissioni e tendenze manipolatorie del CEO che avrebbero creato un tossico clima di sfiducia. Che perdura tutt’ora. A sottolineare le mancanze di Altman spicca la scelta di Jan Leike dopo il suo abbandono dell’azienda: l’ex capo della sicurezza si unisce ad Anthropic dei fratelli Amodei. Altman guarda avanti e per aggiustare il tiro ricrea il comitato per la sicurezza appena sciolto e sulla scia di questa rinnovata attenzione annuncia il blocco di ben cinque tentativi di utilizzo improprio della sua AI per “attività ingannevoli”.

Il suo rivale Elon Musk è più attivo che mai dopo un periodo di stasi. Annuncia ai suoi investitori che costruirà un supercomputer da miliardi di dollari per incrementare la sua xAI. E così facendo raccoglie 6 milioni di dollari, per una startup che in tutto vale ora 24 miliardi. Anche lui si concentra sul tema della sicurezza in tempo di dati e attacca pubblicamente la crittografia end-to-end di WhatsApp. Le sue dichiarazioni portano la società di Zuckerberg a diffondere un comunicato per rassicurare sull’uso della tecnologia. Negli stessi giorni Meta sbandiera con orgoglio nuovi risultati proprio in ambito sicurezza, annunciando di aver individuato e bloccato una rete di influenza su Facebook e Instagram progettata per influenzare attraverso l’uso dell’AI l’opinione pubblica a favore di Israele sulla guerra a Gaza. È la prima volta che il gruppo Meta riesce a individuare contenuti dannosi basati sul testo generato dall’intelligenza artificiale.

Se pubblicamente le aziende enfatizzano le loro contrapposizioni, meno nell’occhio si coalizzano in un obiettivo comune. Intel, Google, Microsoft, Meta e altri colossi della tecnologia si uniscono per creare un nuovo gruppo industriale, l’Ultra Accelerator Link Promoter Group (UALink), per sviluppare componenti di chip AI di ultima generazione. L’obiettivo pubblicamente dichiarato è “fornire l’industria di uno standard condiviso”. Lo scopo reale è spodestare il dominio di NVIDIA nella creazione dei chip, da sola più influente di tutte le aziende del settore.

Le istituzioni del mondo non stanno immobili. L’Unione Europea continua a puntare sulla burocrazia e la Commissione crea l’Ufficio per l’intelligenza artificiale. Sarà una sorta di nucleo operativo per l’adozione dell’AI Act.

Più impetuose le azioni degli Stati Uniti, che dichiarano guerra aperta al pericolo fake con intelligenza artificiale. Il mandante delle migliaia di telefonate deepfake con la voce di Biden di gennaio realizzate per influenzare le elezioni, un consulente politico di nome Steve Kramer, viene condannato a una multa di 6 milioni di dollari dalla Federal Communications Commission. Il motivo per una pena così severa? Lanciare un segnale deterrente.

E gli USA hanno di che essere preoccupati. Il rischio di fake proviene soprattutto dai loro Paesi rivali. In tutta risposta dalla Cina arriva la surreale notizia della creazione di una intelligenza artificiale sviluppata dalla Cyberspace Administration of China che risponde solo ed esclusivamente secondo il pensiero di Xi Jinping. Le differenze nell’applicazione dell’intelligenza artificiale tra Paesi democratici e regimi totalitari si acuiscono sempre di più.



Seguici anche sui social!


Articoli simili

Ultime news


Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld

I fondi saranno investiti per espandere la presenza sul mercato,…

Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld
Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI

Weekly AI è la nostra rassegna settimanale sulle notizie più…

Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI
Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico

La decisione è stata accolta con opinioni contrastanti e i…

Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico
La personalizzazione di Gemini passerà dalle tue ricerche su Google

La funzione Gemini with Personalization sarà resa disponibile gradualmente nel…

La personalizzazione di Gemini passerà dalle tue ricerche su Google
OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

OpenAI ha iniziato un'operazione di influenza del prossimo “Piano d’azione…

OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025