Attenzione: non cliccare su nessun link riportato in questo contenuto, è una truffa!
Negli ultimi giorni sono rimasto molto impressionato da un contenuto che mi è stato proposto su Facebook. Attenzione, è evidentemente realizzato in modo tale da truffare gli utenti meno attenti, e lo riportiamo solamente per sottolineare ancora una volta il potenziale distruttivo delle nuove tecnologie di intelligenza artificiale. Né il giornalista protagonista della prima parte, né Giorgia Meloni hanno infatti mai pronunciato queste parole.
Il video non può essere incorporato in un’altra pagina per via delle sue impostazioni di privacy ma può essere solo raggiunto su Facebook cliccando su questo indirizzo (non cliccate su altri link oltre a questo). Secondo quanto sostengono il giornalista e la premier nel video, Elon Musk avrebbe concesso ai cittadini italiani un’app che autonomamente effettua transazioni sul mercato azionario garantendo un tasso di successo del 95%. Sfruttando i cordiali rapporti tra il CEO di Tesla e la Presidente del Consiglio, gli autori del filmato vogliono far passare la falsa idea che è possibile realizzare guadagni facili, incoraggiandoli a cliccare sul link riportato insieme al video.
Solamente un’attenta osservazione permette di capire che il labiale delle due persone coinvolte nel video è contraffatto, mentre le loro dichiarazioni sono realizzate con i moderni algoritmi di sintesi vocale, sfruttando precedenti veri contenuti che hanno visto i due protagonisti. Si punta, ovviamente, sul fatto che il video verrà perlopiù riprodotto su smartphone o dispositivi che ne riducono le dimensioni, il che rende più complesso individuare la contraffazione dei volti. Inoltre, evidentemente si sfrutta la fiducia riposta nella Meloni da parte dei suoi seguaci. Se da una parte è sorprendente il livello di sofisticazione che queste tecnologie hanno raggiunto, dall’altra è sempre più inquietante verificare il potenziale dell’intelligenza artificiale in termini di manipolazione del pensiero delle persone.
Sono due gli aspetti che mi hanno colpito maggiormente. Il primo è legato a questa domanda: ok, è stato realizzato a partire da un’azione umana volta a realizzare una truffa, ma cosa succederebbe se l’iniziativa partisse fin dal principio dall’intelligenza artificiale? Le moderne tecnologie hanno la capacità di soggiogare gli umani senza che questi ultimi possano rendersene conto. Hanno a disposizione una quantità di dati impressionante e la capacità di aggregarli e manovrarli per soddisfare i propositi più complessi.
Non si tratta di fantascienza. I moderni algoritmi sono già in grado di ottenere risultati fino a poco tempo fa impensabili tramite articolate tecniche per tentativi ed errori. Nel caso non vengano imbrigliati da meccanismi di censura, possono orientare il pensiero delle persone meno attente – o semplicemente non educate al mondo tecnologico come gli utenti di questo sito – secondo schemi che rispondono a obiettivi umanamente inimmaginabili.
Il secondo aspetto che mi ha impressionato è la condiscendenza di Facebook nei confronti di contenuti delicati come questo. Già negli anni passati il social network di Mark Zuckerberg è stato accusato di promuovere contenuti falsi o propagandistici all’unico scopo di produrre indignazione nei suoi utenti. Come noto, l’indignazione è spesso sinonimo di coinvolgimento e di maggior tempo speso sulla piattaforma, che poi sono anche le finalità dell’algoritmo di intelligenza artificiale di Facebook per garantirsi maggiore successo.
In questo caso, Facebook non fa niente per evidenziare i propositi fraudolenti del contenuto né che si tratta di una falsa notizia. Anzi, continua a sottoporlo all’attenzione dei propri utenti perché l’algoritmo ravvede un elevato tasso di coinvolgimento. Non ragiona in termini di falsità o veridicità, ma esclusivamente sulla base dei fini per il quale è stato realizzato.
In questo modo Facebook ha orientato elezioni, campagne denigratorie e anche fornito le motivazioni che hanno innescato azioni di pulizia etnica su larga scala. I suoi algoritmi di diffusione dei contenuti sono stati al centro di segnalazioni e critiche di vario tipo, portando lo stesso CEO dell’azienda a testimoniare al Congresso degli Stati Uniti. Se negli anni scorsi molto del lavoro di questi algoritmi è stato devoluto a esseri umani, sembra che da qualche tempo a questa parte la tecnologia abbia riacquisito un ruolo predominante nel discriminare fra i contenuti che meritano l’attenzione degli utenti e quelli che invece devono essere messi in secondo piano. Un procedimento che, evidentemente, non funziona correttamente.
Non è tutto. In un mondo in cui l’orientamento del pensiero delle persone, dal punto di vista politico e non solo, è sempre più consegnato ai social network, è estremamente pericoloso che a buona parte degli utenti di queste piattaforme vengano sottoposti contenuti dei quali gli utenti stessi non sono in grado di riconoscerne la veridicità o falsità.