Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

L’algoritmo di Google che ha fatto sparire un’autostrada e altre notizie | Weekly AI #108

Weekly AI news è la rassegna stampa settimanale curata dai nostri editor sui temi più rilevanti legati al mondo dell’intelligenza artificiale.

Giovedì 30 maggio, sulla strada statale del Trentino che porta da Vipiteno fino al confine costeggiando l’autostrada del Brennero, si è creata una coda di traffico lunga circa sei chilometri. Fino a qui nulla di strano, peccato che l’adiacente autostrada fosse quasi completamente vuota. Come si spiega? Forse per un bug o forse per una perdita del satellite, l’algoritmo di Google Maps ha cancellato inspiegabilmente il tratto autostradale, suggerendo agli automobilisti di uscire e creando un ingorgo del tutto illogico. La storia porta con sé una morale interessante. Siamo convinti di usare la tecnologia, ma molto spesso è lei che guida noi.

Dopo le polemiche che hanno travolto OpenAI, questa settimana è stata Google a ritrovarsi alle prese con gli scivoloni, e non solo per un bug di Maps: gli utenti hanno documentato numerose risposte assurde e surreali del nuovo potenziamento del motore di ricerca con Gemini. L’AI ha consigliato di mettere la colla sulla pizza o di cucinare gli spaghetti con la benzina. L’azienda si trova così nuovamente al centro del ciclone per le basse performance della sua tecnologia. Ma il suo è un disegno preciso, che prevede miglioramenti progressivi.

In casa OpenAI calma piatta solo per pochi giorni, fino a che l’ex membro del consiglio Helen Toner svela durante un podcast le ragioni dell’allontanamento di Altman dello scorso novembre: omissioni e tendenze manipolatorie del CEO che avrebbero creato un tossico clima di sfiducia. Che perdura tutt’ora. A sottolineare le mancanze di Altman spicca la scelta di Jan Leike dopo il suo abbandono dell’azienda: l’ex capo della sicurezza si unisce ad Anthropic dei fratelli Amodei. Altman guarda avanti e per aggiustare il tiro ricrea il comitato per la sicurezza appena sciolto e sulla scia di questa rinnovata attenzione annuncia il blocco di ben cinque tentativi di utilizzo improprio della sua AI per “attività ingannevoli”.

Il suo rivale Elon Musk è più attivo che mai dopo un periodo di stasi. Annuncia ai suoi investitori che costruirà un supercomputer da miliardi di dollari per incrementare la sua xAI. E così facendo raccoglie 6 milioni di dollari, per una startup che in tutto vale ora 24 miliardi. Anche lui si concentra sul tema della sicurezza in tempo di dati e attacca pubblicamente la crittografia end-to-end di WhatsApp. Le sue dichiarazioni portano la società di Zuckerberg a diffondere un comunicato per rassicurare sull’uso della tecnologia. Negli stessi giorni Meta sbandiera con orgoglio nuovi risultati proprio in ambito sicurezza, annunciando di aver individuato e bloccato una rete di influenza su Facebook e Instagram progettata per influenzare attraverso l’uso dell’AI l’opinione pubblica a favore di Israele sulla guerra a Gaza. È la prima volta che il gruppo Meta riesce a individuare contenuti dannosi basati sul testo generato dall’intelligenza artificiale.

Se pubblicamente le aziende enfatizzano le loro contrapposizioni, meno nell’occhio si coalizzano in un obiettivo comune. Intel, Google, Microsoft, Meta e altri colossi della tecnologia si uniscono per creare un nuovo gruppo industriale, l’Ultra Accelerator Link Promoter Group (UALink), per sviluppare componenti di chip AI di ultima generazione. L’obiettivo pubblicamente dichiarato è “fornire l’industria di uno standard condiviso”. Lo scopo reale è spodestare il dominio di NVIDIA nella creazione dei chip, da sola più influente di tutte le aziende del settore.

Le istituzioni del mondo non stanno immobili. L’Unione Europea continua a puntare sulla burocrazia e la Commissione crea l’Ufficio per l’intelligenza artificiale. Sarà una sorta di nucleo operativo per l’adozione dell’AI Act.

Più impetuose le azioni degli Stati Uniti, che dichiarano guerra aperta al pericolo fake con intelligenza artificiale. Il mandante delle migliaia di telefonate deepfake con la voce di Biden di gennaio realizzate per influenzare le elezioni, un consulente politico di nome Steve Kramer, viene condannato a una multa di 6 milioni di dollari dalla Federal Communications Commission. Il motivo per una pena così severa? Lanciare un segnale deterrente.

E gli USA hanno di che essere preoccupati. Il rischio di fake proviene soprattutto dai loro Paesi rivali. In tutta risposta dalla Cina arriva la surreale notizia della creazione di una intelligenza artificiale sviluppata dalla Cyberspace Administration of China che risponde solo ed esclusivamente secondo il pensiero di Xi Jinping. Le differenze nell’applicazione dell’intelligenza artificiale tra Paesi democratici e regimi totalitari si acuiscono sempre di più.



Seguici anche sui social!


Articoli simili

In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…