L’agenzia di stampa Associated Press (AP) e OpenAI hanno recentemente annunciato un accordo biennale di collaborazione.
I termini principali della partnership prevedono che AP possa utilizzare gli strumenti di AI generativa sviluppati da OpenAI, mentre quest’ultima potrà avere accesso all’archivio di contenuti di AP a partire dal 1985 per il training dei propri modelli.
I temi trattati all’interno dell’articolo
I vantaggi della partnership tra OpenAI e Associated Press
Questo scambio è vantaggioso per entrambe le realtà per una serie di motivi.
Da una parte, OpenAI potrebbe trarre beneficio dall’utilizzo di dati verificati e affidabili di AP per migliorare l’accuratezza e ridurre i rischi di errore dei propri modelli di intelligenza artificiale (e le cosiddette “allucinazioni”).
Dall’altra, AP potrebbe automatizzare parte del lavoro di produzione di notizie di base a partire dalle “agenzie” e comunicati stampa, tutelando allo stesso tempo la proprietà intellettuale dei contenuti creati dai suoi giornalisti.
Cosa sono le allucinazioni dell’AI e come prevenirle?
Nel campo dell’intelligenza artificiale, per allucinazione, si intende una risposta errata, parzialmente o completamente inventata. L’AI può generare risposte di questo tipo per una serie di motivi.
Potrebbe, per esempio, essere stata addestrata su un ristretto numero di contenuti su una determinata materia. Oppure potrebbe avere interpretato male il prompt inserito dall’utente, proponendo dunque risposte distorte a favore delle sue esigenze personali (si pensi all’avvocato di cui sotto, che era alla ricerca di informazioni che potessero sostenere la propria posizione).
Tra le possibili soluzioni, ci sono:
- la limitazione dei risultati possibili, attraverso l’indicazione della tipologia di risposta desiderata
- la definizione del contesto con informazioni rilevanti
- la creazione di un template di risposta, con la struttura che si desidera ottenere
- l’attribuzione di un ruolo specifico e la richiesta esplicita di non mentire
- l’esclusione di eventuali risposte non desiderate
Le conseguenze (e i rischi) dell’accordo
L’accordo – come altre partnership simili siglate negli ultimi mesi – ha suscitato reazioni contrastanti, tra chi teme un impatto negativo dell’AI sul lavoro umano nel giornalismo e chi invece è ottimista con riferimento alle potenzialità offerte dall’intelligenza artificiale nel settore. Si pensi, come accennato sopra, all’aumento della velocità e della precisione (subordinata però alla condizione che i modelli siano addestrati e “promptati” in modo corretto) nella scrittura di notizie e comunicati stampa.
Bisognerà attendere di vedere nella pratica come la collaborazione influenzerà il lavoro quotidiano nelle redazioni di AP e quali effetti le nuove tecnologie produrranno sulla creazione e distribuzione delle notizie. Il rischio è che simili sistemi, se non supervisionati, possano produrre notizie a cavallo tra realtà e finzione, contribuendo così alla proliferazione di fake news.