OpenAI: il suo algoritmo è così potente da doverlo limitare

Il generatore di testo GPT-2 elabora testi molto credibili, e completamente falsi. I suoi sviluppatori ne rendono pubblica una versione limitata

openai intelligenza artificiale fake news

OpenAI, la società di ricerca sull’intelligenza artificiale senza scopo di lucro, ha bloccato la versione pubblica di un nuovo generatore di testo basato sull’intelligenza artificiale a causa delle “preoccupazioni relative alle applicazioni dannose della tecnologia“.

Il gruppo ha rivelato di aver addestrato un modello linguistico non supervisionato su larga scala che ha la capacità di generare “paragrafi coerenti di testo” utilizzando come punto di partenza una qualsiasi affermazione.

Il modello, denominato GPT-2, è basato su un trasformatore linguistico con 1,5 miliardi di parametri, addestrato su un set di dati di otto milioni di pagine web.

GPT-2 genera campioni di testo in risposta al modello che viene attivato partendo da un input arbitrario”, ha spiegato OpenAI, che è supportata da manager del calibro di Elon Musk e Peter Thiel.

Come funziona il modello linguistico GPT-2

OpenAI ha condiviso una serie di esempi delle capacità del modello.

Dall’input “Oggi Miley Cyrus è stata sorpresa a rubare da Abercrombie and Fitch a Hollywood Boulevard”, il sistema ha elaborato una storia coerente e di facile lettura, che potrebbe essere scambiata per una notizia vera.

Dall’input “Legolas e Gimli avanzarono sugli orchi, alzando le loro armi con uno straziante grido di guerra“, il sistema ha scritto un breve racconto di fantasia, completo di personaggi e dialoghi.

Il modello è come un camaleonte: si adatta allo stile e al contenuto del testo ricevuto come input”, ha spiegato OpenAI. “Ciò consente all’utente di generare continuazioni realistiche e coerenti su un argomento a sua scelta”.

Nonostante alcune limitazioni – come il testo ripetitivo e ciò che i ricercatori definiscono come “errori nella modellazione del mondo”, come gli incendi che avvengono sott’acqua – il modello è in grado di generare risultati “vicini alla qualità umana”, che mostrano “coerenza su una o più pagine di testo” .

Il rischio di fake news

Le capacità di GPT-2 rappresentano un significativo passo avanti in diversi modelli linguistici specifici, ma sono così impressionanti che OpenAI ha deciso di rilasciare una versione limitata dell’algoritmo.

Questi esempi hanno implicazioni sostanziali: i modelli linguistici di grandi dimensioni stanno diventando sempre più facili da indirizzare verso una generazione di testi scalabile, personalizzata e coerente, che a sua volta potrebbe essere utilizzata in una serie di modi utili e dannosi”, ha dichiarato il gruppo.

Potenzialmente, GPT-2 potrebbe essere usato per generare notizie fuorvianti, impersonare altri online, automatizzare la produzione di contenuti offensivi o falsi da pubblicare sui social media, automatizzare la produzione di spam e contenuti di phishing.

Questi risultati, combinati con i risultati precedenti su immagini, audio e video artificiali, implicano che le tecnologie stanno riducendo il costo di generare contenuti falsi e condurre campagne di disinformazione”, hanno spiegato i ricercatori di OpenAI. “Il pubblico, in generale, dovrà essere più scettico nei confronti del testo che trova online, così come il fenomeno ‘deep fakes’ richiede più scetticismo riguardo alle immagini”.

I casi d’uso dell’algoritmo non sono tutti negativi. Tra i vantaggi a breve termine OpenAI ha indicato applicazioni quali assistenti alla scrittura, agenti di dialogo, traduzione senza supervisione e migliorati sistemi di riconoscimento vocale.

AUTOREGeorge Nott
FONTEComputerworld
CWI.it
Con 12 milioni di lettori in 47 paesi, Computerworld è la fonte di informazione e aggiornamento per tutti coloro che progettano, implementano o utilizzano la tecnologia in azienda.