OpenAI e Microsoft accusano DeepSeek di ‘distillazione’: cosa significa

Il significato della pratica di 'plagio del training' di cui OpenAI e Microsoft hanno accusato DeepSeek in questi giorni.
OpenAI e Microsoft accusano DeepSeek di ‘distillazione’: cosa significa

Negli ultimi giorni, la startup cinese DeepSeek è finita al centro di una controversia internazionale. OpenAI, l’azienda statunitense nota per lo sviluppo di ChatGPT, ha accusato DeepSeek di aver utilizzato i propri modelli linguistici per addestrare il proprio sistema di intelligenza artificiale, sollevando sospetti di violazione della proprietà intellettuale.

Le accuse di OpenAI

Secondo OpenAI, DeepSeek avrebbe impiegato una tecnica nota come “distillazione” per addestrare il suo modello linguistico, denominato DeepSeek V3. Questa pratica, se confermata, potrebbe costituire una scorciatoia per ottenere risultati avanzati a costi ridotti, ma solleva questioni etiche e legali riguardanti la proprietà intellettuale.

Cos’è la distillazione

La distillazione è una tecnica utilizzata nell’ambito dell’intelligenza artificiale per trasferire conoscenza da un modello di grandi dimensioni (noto nel contesto come “teacher”) a uno più piccolo e leggero (chiamato “student”). Il processo prevede che il modello “student” impari a replicare il comportamento del modello “teacher”, spesso utilizzando le sue risposte come dati di addestramento. Questo approccio consente di creare modelli più efficienti in termini di risorse computazionali, mantenendo al contempo elevate prestazioni.

Perché la distillazione è problematica

Sebbene la distillazione offra vantaggi significativi in termini di efficienza, la sua applicazione solleva preoccupazioni riguardanti la proprietà intellettuale. Utilizzare un modello preesistente come “teacher” potrebbe violare i diritti dell’azienda che lo ha sviluppato, soprattutto se il modello “student” viene commercializzato in concorrenza diretta. È esattamente, secondo l’accusa, il caso di DeepSeek: aver utilizzato ChatGPT di OpenAI come modello “teacher” per addestrare il proprio sistema, senza autorizzazione, ottenendo così un vantaggio competitivo sleale.

Complesse implicazioni

Se le accuse fossero confermate, DeepSeek potrebbe affrontare gravi conseguenze legali e reputazionali. La questione evidenzia la necessità di una regolamentazione chiara sull’uso delle tecniche di distillazione e solleva interrogativi sull’equilibrio tra innovazione tecnologica e tutela della proprietà intellettuale.

In conclusione, mentre la distillazione rappresenta una metodologia potente per lo sviluppo di modelli di intelligenza artificiale più efficienti, è fondamentale garantire che il suo utilizzo avvenga nel rispetto delle leggi sulla proprietà intellettuale e degli standard etici del settore.


Ultime news


Data center nello spazio? Secondo Jeff Bezos è possibile

L'idea promossa da Bezos sta prendendo piede in tutto il…

Data center nello spazio? Secondo Jeff Bezos è possibile
Google ha lanciato la piattaforma Gemini Enterprise per le aziende

L'applicazione permette ai dipendenti, fra le altre cose, di creare…

Google ha lanciato la piattaforma Gemini Enterprise per le aziende
L’ex premier britannico Sunak assumerà ruoli di consulenza in Microsoft e Anthropic

Le attività di Sunak saranno fortemente attenzionate da un ente…

L’ex premier britannico Sunak assumerà ruoli di consulenza in Microsoft e Anthropic
L’imperialismo digitale di Israele e altre storie generative | Weekly AI

Weekly AI è la rassegna settimanale di AI news sulle…

L’imperialismo digitale di Israele e altre storie generative | Weekly AI

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025