OpenAI apre GPT-3.5 Turbo al fine-tuning aziendale

OpenAI ha annunciato che le aziende possono ora ottimizzare GPT-3.5 Turbo utilizzando i propri dati attraverso il fine-tuning del modello.
OpenAI apre GPT-3.5 Turbo al fine-tuning aziendale

Immagine tratta da openai.com

OpenAI, leader nello sviluppo di modelli di linguaggio avanzati, ha annunciato che le aziende possono ora ottimizzare il modello GPT-3.5 Turbo utilizzando i propri dati privati attraverso una tecnica nota come fine-tuning.

Secondo OpenAI, il modello personalizzato risultante dalla specializzazione del suo LLM potrà eguagliare o persino superare le capacità di GPT-4 per attività specifiche.

Cos’è e come funziona il fine-tuning?

Il fine-tuning è un processo attraverso il quale è possibile adattare un modello di linguaggio pre-addestrato su ampi set di dati a un nuovo e più specifico compito o dominio applicativo.

Al fine di ottenere un modello in grado di operare in modo ottimale nell’esecuzione del compito target, è necessario addestrare ulteriormente il modello di base (foundation model) con un dataset più specifico e rilevante per l’attività di interesse, sfruttando il potenziale di un modello pre-addestrato e molto flessibile, evitando dunque di ricominciare da zero il processo di trial and error tipico dell’AI training. Vi sono inoltre altre modalità in cui è possibile adattare un modello di base in funzione delle circostanze.

I vantaggi di questa pratica

Un modello pre-addestrato su ampi set di dati pubblici come GPT-4 fornisce alle aziende una solida base di conoscenza generale e un vasto ventaglio di funzionalità generaliste. Successivamente, i singoli utilizzatori possono alimentare il foundation model, tramite fine-tuning, con i propri dati privati al fine di renderlo più specializzato e adatto all’uso concreto nel contesto del business di riferimento.

Come si può immaginare, un chatbot o un assistente AI formato sui reali contenuti del business risulta più affidabile e coerente rispetto a un modello altrettanto performante, ma che non ‘conosce’ la realtà in cui si trova a operare. Ciò rende particolarmente interessante la prospettiva di un sistema realizzato su misura (custom-tuned).

Perché il modello operi al meglio, però, è necessario alimentarlo con i propri dati privati. Una circostanza che rende i temi della sicurezza e della privacy ancora più rilevanti. Per questo motivo, la società ha sottolineato sul proprio sito:

“Come per tutte le nostre API, i dati inviati in entrata e in uscita dall’API di fine tuning sono di proprietà del cliente e non vengono utilizzati da OpenAI o da qualsiasi altra organizzazione per addestrare altri modelli“.

Le caratteristiche e l’accesso al modello

OpenAI aveva presentato la sua nuova famiglia di modelli GPT-3.5 Turbo all’inizio di quest’anno, sottolineandone la flessibilità al di fuori del classico perimetro ‘chatbot’.

GPT-3.5 può gestire il doppio dei token (4000) rispetto ai modelli precedenti e i primi tester sono stati in grado di fornire istruzioni più brevi del 90% dopo aver preparato GPT-3.5 con istruzioni ottimizzate. Ciò rende l’utilizzo del modello più agevole e immediato nelle attività quotidiane. Il prezzo varia da 0,8 a 1,2 centesimi per 1000 token, a seconda dell’uso.

Ulteriori informazioni disponibili su openai.com.


Ultime news


Datapizza lancia un framework open-source tutto italiano per costruire agenti AI

Datapizza intende contribuire al panorama tecnologico nazionale, dimostrando che anche…

Datapizza lancia un framework open-source tutto italiano per costruire agenti AI
OpenAI ha scelto: il suo chip personalizzato sarà prodotto con Broadcom

Si mira a una produzione di una potenza energetica tale…

OpenAI ha scelto: il suo chip personalizzato sarà prodotto con Broadcom

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025