ePrivacy and GPDR Cookie Consent by TermsFeed Generator

GPT-3, il robot intelligente ma non troppo

Il nuovo potente generatore di linguaggi di OpenAI testato dal quotidiano britannico The Guardian

generatore-di-testi-open-ai
La scrittura di articoli e notizie d’agenzia da parte di robot rappresenta una tecnologia ormai consolidata. L’evoluzione dei generatori di testo si sta spingendo ben oltre, verso una scrittura non solo compilativa. L’elaborazione di contenuti originali guidati dall’intelligenza artificiale costituisce il salto evolutivo a cui gli operatori del settore stanno lavorando utilizzando migliori modelli linguistici e cognitivi. Tra questi OpenAI, la no profit finanziata tra gli altri da Microsoft e Reid Hoffman (cofondatore di LinkedIn), è arrivata alla terza generazione degli elaboratori di testo, GPT-3. Ed è al  che il Guardian ha chiesto di elaborare un saggio per convincere gli umani che i robot non hanno mire di onnipotenza. L’articolo, visionabile cliccando su questo link, mette alla prova GPT-3 non solo per la creazione di un testo, ma per l’elaborazione di un pensiero volto a sviluppare una tesi. Nel caso specifico, convincere gli uomini di non sentirsi minacciati dai robot pensanti in grado di prendere decisioni razionali e logiche. Da questo punto di vista si potrebbe nutrire più di qualche dubbio sulla credibilità di questo redattore artificiale, preoccupato di tranquillizzare il genere umano circa i desideri e le aspirazioni di onnipotenza dei robot, soprattutto se questa sorta di difesa d’ufficio sia frutto di ben più dello 0,12% dichiarato di utilizzo della logica e della capacità cognitiva in dotazione.

GPT-3 è l’evoluzione del suo precursore GPT-2, lanciato appena un anno fa, basato su modelli linguistici evoluti e in grado di generare paragrafi di testo coerenti, con una rudimentale comprensione della lettura, traduzione automatica e risposta alle domande. Un grande modello di linguaggio basato sulla trasformazione e combinazione di oltre 1,5 miliardi di parametri, che la nuova versione ha portato a 175 miliardi. Il set di dati alla base del transformer, enfatizza la diversità dei contenuti, estraendoli dall’analisi di decine di milioni di pagine web.

COMPUTAZIONE LINGUISTICA – GPT è un modello di computazione linguistica ancorato alla capacità di prevedere la parola successiva, date le parole precedenti all’interno di un testo. Genera campioni di testo sintetico in risposta al modello che viene innescato con un input arbitrario. Le tecniche usate di Natural Language Processing furono introdotte da Goggle nel 2017 per prevedere statisticamente la sequenza di parole nella traduzione automatica.

L’evoluzione prodotta in appena tre anni ha dell’incredibile, sebbene il progetto abbia abbandonato lo sviluppo di processi di intelligenza artificiale in senso stretto. Il modello lavora sulla sintassi, ignorando la semantica, e individua la più probabile sequenza di termini pur non comprendendone il significato. La grande quantità di dati e modelli statistici alla base, ad oggi non è ancora sufficiente per tenere al riparo da possibili topiche nell’uso dello strumento. Nel corso della sperimentazione ci si è imbattuti in casi limite che hanno visto l’elaborazione di testi razzisti o sessisti e di evoluzioni di processo che potrebbero portare alla scrittura di testi distorsivi.

Il mancato sviluppo di processi di intelligenza artificiale ha portato Elon Musk, uno dei maggiori sostenitori del progetto, a defilarsi. Il progetto di OpenAI, tuttavia, non si è arrestato, arrivando a raccogliere oltre 1 miliardo di dollari per il suo sviluppo, annoverando tra i primi e più importanti clienti la piattaforma social Reddit (nella top ten dei 10 siti più visitati al mondo).

GPT-3, infatti, resta uno strumento potentissimo, con svariati possibili impieghi: dal marketing alla musica, dalla generazione di contenuti per i social al lavoro di agenzia, fino ad arrivare alla redazione di interviste, saggi e manuali tecnici. Un campo di applicazione esteso a qualsiasi attività linguistica, capace di elaborare milioni di testi al giorno, potenzialmente esposto ad un uso non sempre limpido, come la generazione di notizie false e spam.

Il futuro è sempre più vicino, con tutte le potenzialità e i rischi. Ma la strada da percorrere è ancora tanta, sempre che i difetti emersi nella fase di test siano in qualche modo superabili. Ad essere superate, invece, saranno tante figure professionali, destinate a essere soppiantate da uno strumento efficiente, funzionale e non sindacalizzato.
Paolo Carotenuto

You must be logged in to post a comment Login