Google annuncia PaLM 2, il nuovo modello linguistico concorrente di GPT-4 di OpenAI

Google ha annunciato PaLM 2, l’ultima versione del modello linguistico basato su IA contrapposto a GPT-4 di OpenAI. Il nuovo modello è, secondo il CEO dell’azienda Sundar Pichai, “più robusto in logica e nel ragionamento”, è stato allenato per riconoscere e generare testi in oltre 100 lingue ed è capace anche di insegnarle, secondo l’azienda.

PaLM 2

PaLM 2 è molto migliore in molteplici attività basate su testo, ad esempio nella capacità di capire, generare e tradurre, anche componimenti creativi come poemi o enigmi, in una ampia varietà di lingue. Secondo Google il nuovo modello linguistico è in grado di avere una buona padronanza nelle lingue supportate e di superare senza problemi gli esami di competenza linguistica avanzata.

PaLM 2 è il nuovo modello linguistico di Google

Il modello è stato allenato con un “ampio set di dati” che include articoli scientifici e pagine web contenenti espressioni matematiche. Questo consente di avere migliori capacità nella logica, nel ragionamento e nella matematica in senso stretto. Fra le funzioni di codifica, invece, PaLM 2 è stato addestrato su una grande quantità di codice sorgente disponibile pubblicamente. Secondo l’azienda “eccelle” nei linguaggi di programmazione più diffusi come Python e JavaScript, e può generare codice anche in Prolog, Fortran e Verilog.

Come altri modelli linguistici di grandi dimensioni, che richiedono enormi quantità di tempo e risorse per il training, PaLM 2 non può essere considerato come un singolo prodotto ma come una sorta di famiglia di prodotti molto diversi fra di loro, con diverse versioni che possono essere distribuite in ambienti diversi in base all’uso che ne verrà fatto. Il sistema è infatti disponibile in quattro dimensioni: Gecko, Otter, Bison e Unicorn, in ordine dal più piccolo al più grande, tutti ottimizzati su dati specifici per eseguire determinate attività per i clienti aziendali o privati.

Google ha annunciato una versione di PaLM 2 allenata con dati medici (Med-PaLM 2), che secondo l’azienda può rispondere alle domande dell’US Medical Licensing Examination a livello esperto. C’è poi una versione chiamata Sec-PaLM 2, che invece è allenata su dati di cybersicurezza e può spiegare il comportamento di script malevoli e aiutare a rilevare eventuali minacce nel codice. PaLM 2 viene già utilizzato per alimentare 25 funzionalità e prodotti di Google, tra cui Bard che, come abbiamo già scritto in una news separata, può beneficiare di capacità linguistiche e di codifica migliorate.

Il nuovo modello viene anche utilizzato per potenziare le funzioni delle app Google Workspace come Documenti, Presentazioni e Fogli. La versione di dimensioni inferiori, Gecko, può essere eseguita anche su smartphone ed è capace di elaborare 20 token al secondo (circa 16 o 17 parole) su hardware di nuova generazione, laddove la stragrande maggioranza di modelli generativi è pensata per operare in cloud.