OpenAI e Microsoft accusano DeepSeek di ‘distillazione’: cosa significa

Il significato della pratica di 'plagio del training' di cui OpenAI e Microsoft hanno accusato DeepSeek in questi giorni.
OpenAI e Microsoft accusano DeepSeek di ‘distillazione’: cosa significa

Negli ultimi giorni, la startup cinese DeepSeek è finita al centro di una controversia internazionale. OpenAI, l’azienda statunitense nota per lo sviluppo di ChatGPT, ha accusato DeepSeek di aver utilizzato i propri modelli linguistici per addestrare il proprio sistema di intelligenza artificiale, sollevando sospetti di violazione della proprietà intellettuale.

Le accuse di OpenAI

Secondo OpenAI, DeepSeek avrebbe impiegato una tecnica nota come “distillazione” per addestrare il suo modello linguistico, denominato DeepSeek V3. Questa pratica, se confermata, potrebbe costituire una scorciatoia per ottenere risultati avanzati a costi ridotti, ma solleva questioni etiche e legali riguardanti la proprietà intellettuale.

Cos’è la distillazione

La distillazione è una tecnica utilizzata nell’ambito dell’intelligenza artificiale per trasferire conoscenza da un modello di grandi dimensioni (noto nel contesto come “teacher”) a uno più piccolo e leggero (chiamato “student”). Il processo prevede che il modello “student” impari a replicare il comportamento del modello “teacher”, spesso utilizzando le sue risposte come dati di addestramento. Questo approccio consente di creare modelli più efficienti in termini di risorse computazionali, mantenendo al contempo elevate prestazioni.

Perché la distillazione è problematica

Sebbene la distillazione offra vantaggi significativi in termini di efficienza, la sua applicazione solleva preoccupazioni riguardanti la proprietà intellettuale. Utilizzare un modello preesistente come “teacher” potrebbe violare i diritti dell’azienda che lo ha sviluppato, soprattutto se il modello “student” viene commercializzato in concorrenza diretta. È esattamente, secondo l’accusa, il caso di DeepSeek: aver utilizzato ChatGPT di OpenAI come modello “teacher” per addestrare il proprio sistema, senza autorizzazione, ottenendo così un vantaggio competitivo sleale.

Complesse implicazioni

Se le accuse fossero confermate, DeepSeek potrebbe affrontare gravi conseguenze legali e reputazionali. La questione evidenzia la necessità di una regolamentazione chiara sull’uso delle tecniche di distillazione e solleva interrogativi sull’equilibrio tra innovazione tecnologica e tutela della proprietà intellettuale.

In conclusione, mentre la distillazione rappresenta una metodologia potente per lo sviluppo di modelli di intelligenza artificiale più efficienti, è fondamentale garantire che il suo utilizzo avvenga nel rispetto delle leggi sulla proprietà intellettuale e degli standard etici del settore.


Ultime news


Google ha lanciato un aggiornamento del suo strumento di generazione video AI Veo

L'aggiornamento apporta miglioramenti su realismo, controllo e continuità nelle scene…

Google ha lanciato un aggiornamento del suo strumento di generazione video AI Veo
Il paradosso di OpenAI: è sempre più centrale ma perde miliardi di dollari

I costi sono ancora fuori controllo, ma secondo Altman è…

Il paradosso di OpenAI: è sempre più centrale ma perde miliardi di dollari
Meta si affida alle infrastrutture di Arm per le raccomandazioni AI sulle sue piattaforme

L'intesa prevede un ampio utilizzo delle architetture di Arm all'interno…

Meta si affida alle infrastrutture di Arm per le raccomandazioni AI sulle sue piattaforme
Anthropic ha lanciato una nuova versione del modello Haiku

Secondo l'azienda Haiku 4.5 offre prestazioni simili a Sonnet 4…

Anthropic ha lanciato una nuova versione del modello Haiku
Lo Zugzwang di Google

Integrando l'AI nella ricerca, Google mette in crisi gli editori,…

Lo Zugzwang di Google

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025