OpenAI, fra privacy, libertà e sicurezza: nuovi controlli parentali, limiti per i giovanissimi e sistema di predizione dell’età

In un post sul blog ufficiale di OpenAI, il CEO Sam Altman evidenzia come la protezione della privacy sia una priorità assoluta per la società e per gli utenti dei sistemi di intelligenza artificiale. Le conversazioni con l’AI sono spesso cariche di contenuti personali e sensibili, comparabili a quelli che si condividono con professionisti come medici o avvocati. OpenAI sostiene che questa tipologia di informazioni debba godere di un alto livello di tutela, al pari di altre consulenze professionali, e lo sta promuovendo anche presso i responsabili istituzionali. Per rafforzare la sicurezza, sono stati sviluppati strumenti avanzati affinché i dati rimangano privati anche rispetto ai dipendenti OpenAI. Tuttavia, si stabilisce che alcune eccezioni sono necessarie: per esempio, in caso di gravi rischi come minacce alla vita, piani per nuocere agli altri o incidenti di sicurezza informatica a larga scala, determinati casi potrebbero essere sottoposti a esame umano tramite sistemi automatizzati di monitoraggio.

Il secondo pilastro riguarda la libertà degli utenti adulti. OpenAI desidera che gli utenti possano utilizzare i propri strumenti all’interno di limiti ampi, garantendo la sicurezza di tutti. L’azienda ha lavorato per ampliare le libertà degli utenti e rendere i modelli più gestibili e personalizzabili. Per esempio, la configurazione predefinita di ChatGPT limita conversazioni dal tono flirtante, ma consente agli adulti di accedere a questa funzionalità su richiesta. Allo stesso modo, ChatGPT non fornirà istruzioni su come commettere suicidio, ma può aiutare nella scrittura di storie di fantasia che trattano il tema, di nuovo solo per l’utenza adulta. L’approccio si basa sul principio “trattare gli adulti come adulti”, estendendo la libertà il più possibile, purché non comporti danni o limiti la libertà altrui.

Il terzo principio, invece, si incentra sulla protezione dei minorenni. Per gli adolescenti, la sicurezza viene anteposta sia alla privacy che alla libertà. ChatGPT è destinato a utenti dai 13 anni in su e OpenAI sta sviluppando un sistema di previsione dell’età per distinguere gli utenti sopra e sotto i 18 anni, basandosi sulle modalità d’uso. In caso di dubbi, si privilegerà l’esperienza sotto i 18 anni, anche se ciò può compromettere parzialmente la privacy degli adulti, che potranno dimostrare la propria età tramite documento nei casi previsti. Le regole specifiche per adolescenti prevedono, ad esempio, il blocco delle conversazioni flirtanti o su tematiche come suicidio e autolesionismo, anche nel contesto della scrittura creativa. Qualora emergessero segnali di ideazione suicida da parte di un minorenne, OpenAI si attiverà per informare i genitori e, se non reperibili, le autorità competenti, in caso di pericolo imminente.

L’azienda ha avviato lo sviluppo di controlli parentali che consentiranno ai genitori di collegare il proprio account a quello del figlio (dai 13 anni), gestire le regole comportamentali del modello, disabilitare funzionalità come la cronologia delle chat e ricevere notifiche in situazioni di disagio acuto. In caso di emergenza, qualora il genitore non fosse raggiungibile, potrebbe essere coinvolta la polizia. I controlli comprendono anche la possibilità di impostare “blackout hours” durante cui ChatGPT non è accessibile agli adolescenti.

OpenAI riconosce che queste scelte, frutto anche di confronti e consulti con esperti, possono risultare controverse e difficili da condividere per tutti. Tuttavia, l’azienda desidera essere trasparente sulle proprie intenzioni e ritiene che la strada intrapresa sia quella più idonea per bilanciare i diversi principi in gioco, sempre sotto la pressione di una tecnologia capace di influenzare milioni di persone .