
OpenAI ha dichiarato di avere prove che la start-up cinese DeepSeek abbia utilizzato i suoi modelli proprietari per addestrare un concorrente open-source. La società ha rivelato le informazioni al Financial Times, indicando che la tecnica che la startup cinese avrebbe utilizzato è quella della “distillation”, un metodo che consente a modelli più piccoli di apprendere da quelli più avanzati, ottenendo prestazioni simili a costi ridotti.
L’ipotesi era già stata ventilata da David Sacks, consigliere per l’intelligenza artificiale e le criptovalute sotto la presidenza Trump, in un’intervento a Fox News. Sacks, che tuttavia non ha addotto alcuna prova a sostegno della tesi, aveva spiegato che la tecnica della distillation permette ad un modello di “assorbire conoscenza” da un altro modello più avanzato.
Ora è la stessa OpenAI che indica di aver rilevato segnali che suggeriscono questa pratica da parte di DeepSeek. La società californiana e Microsoft hanno approfondito le attività di alcuni account che si ritiene appartenessero a DeepSeek l’anno scorso e che utilizzavano le API di OpenAI e a cui fu bloccato l’accesso perché sospettati di condurre attività di distillation in violazione dei termini di servizio, che esplicitano che gli utilizzatori non possono copiare i servizi di OpenAI o utilizzare gli output per sviluppare modelli in competizione con i suoi.
Nei giorni scorsi DeepSeek ha attirato le luci dei riflettori con il lancio del nuovo modello di ragionamento R1 che è stato addestrato utilizzando schede NVIDIA H800, le versioni depotenziate e destinate solo al mercato cinese. DeepSeek è riuscita ad allenare il suo modello a costi significativamente inferiori rispetto a quelli sostenuti dai concorrenti statunitensi per addestrare i loro modelli, con prestazioni comparabili.
L’uso degli output generati da modelli commerciali come ChatGPT per addestrare altri sistemi è una pratica comune tra start-up e accademici sia negli Stati Uniti che in Cina poiché consente di risparmiare sui costosi processi di feedback umano necessari per migliorare la qualità delle risposte dei modelli. OpenAI ha dichiarato di essere consapevole dei tentativi costanti da parte di aziende cinesi e altri concorrenti globali di utilizzare la tecnica della distillation con i propri modelli avanzati e di aver già messo in atto una serie di contromisure a protezione della proprietà intellettuale.