OpenAI ha rilasciato nuovi modelli progettati per eseguire compiti di sicurezza

La nuova famiglia di modelli gpt-oss-safeguard permette agli sviluppatori di definire le linee guida più adatte alle loro esigenze
OpenAI ha rilasciato nuovi modelli progettati per eseguire compiti di sicurezza

OpenAI ha annunciato il rilascio di una nuova famiglia di modelli di ragionamento open-weight, gpt‑oss‑safeguard, progettati per permettere agli sviluppatori aziendali di definire il funzionamento dopo la fase di addestramento e indurre i modelli a ragionare secondo quell’indicazione.

I modelli derivano dalla serie gpt‑oss e sono disponibili al momento due versioni, gpt‑oss‑safeguard‑120b e gpt‑oss‑safeguard‑20b, entrambe scaricabili su Hugging Face e utilizzabili con licenza Apache 2.0 che consente l’uso, la modifica e anche la distribuzione commerciale.

Una volta che lo sviluppatore ha definito la politica e il tipo di contenuto da controllare, il modello restituisce una classificazione mostrando anche la catena di ragionamento che ha portato a quel risultato. Secondo la società, i modelli sono utili per gli obiettivi di moderazione, le regole e gli strumenti che piattaforme e aziende utilizzano per salvaguardare la sicurezza degli utenti e il rispetto delle policy interne. Alcuni esempi pratici sono la moderazione dei commenti su un social network, il rilevamento di account falsi o bot, il blocco di contenuti offensivi o illegali (hate speech, pornografia, truffe) e la valutazione automatica di contenuti generati dall’AI prima della pubblicazione.


Ultime news


Getty Images e Perplexity hanno firmato un accordo di licenza sull’uso di immagini

Grazie all'accordo Perplexity potrà integrare la libreria immagini di Getty…

Getty Images e Perplexity hanno firmato un accordo di licenza sull’uso di immagini
Vogliono creare una copia della società: l’accusa di Palantir verso due suoi ex ingegneri

Palantir ha denunciato due suoi ex dipendenti che avrebbero avvantaggiato…

Vogliono creare una copia della società: l’accusa di Palantir verso due suoi ex ingegneri
Secondo la Federal Reserve il boom dell’AI non è paragonabile alla bolla delle dot-com

A differenza delle dot-com degli anni 90', le società di…

Secondo la Federal Reserve il boom dell’AI non è paragonabile alla bolla delle dot-com

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025