Perché l’AI fa così tanta paura? Fabio Rinaldi: «Tra realtà e finzione confine sempre più labile»

Chiara De Carli

15 Maggio 2023 - 17:30

condividi
Facebook
twitter whatsapp

Dobbiamo effettivamente temere lo sviluppo dell’Intelligenza artificiale (AI)? Ne abbiamo parlato con Fabio Rinaldi, responsabile del gruppo di ricerca NLP all’istituto Dalle Molle.

Perché l'AI fa così tanta paura? Fabio Rinaldi: «Tra realtà e finzione confine sempre più labile»

Qualche settimana fa Geoffrey Hinton, uno dei padri fondatori dell’intelligenza artificiale (AI), ha deciso di lasciare dopo 10 anni il suo lavoro a Google. Ha poi messo in guardia il mondo riguardo ai crescenti pericoli che lo sviluppo del settore comporta. La tecnologia dell’AI, negli ultimi anni, ha compiuto dei passi da gigante e ora il rischio di perderne il controllo è davvero molto elevato. Le preoccupazioni sono cresciute sempre di più soprattutto a seguito dell’avvento di ChatGPT,, sistema basato sui cosiddetti Large Language Models, cioè sistemi linguistici di grandi dimensioni, in grado di riprodurre il linguaggio umano. Da allora, le informazioni diffuse sulla sicurezza di questa tecnologia sono state diverse e spesso confuse.
A cominciare dall’allarme lanciato dagli esperti, invitando alla prudenza. Un messaggio che mette inevitabilmente sul chi va là e che spinge a chiedersi: dobbiamo effettivamente averne paura? Se sì, perché?
«Negli ultimi 4-5 anni c’è stata una specie di corsa alle armi - ci spiega Fabio Rinaldi responsabile del gruppo di ricerca Natural Language Processing (NLP) all’Istituto Dalle Molle di studi sull’intelligenza artificiale (IDSIA USI-SUPSI)Questi modelli si basano su un’architettura chiamata “Transformer”, emersa 5 anni fa (2017-2018). Da quel momento le grandi aziende, come Google, Amazon e Facebook, hanno fatto a gara per costruire modelli sempre più grandi e sempre più potenti».

Dottor Rinaldi, perché Geoffrey Hinton ha messo in guardia dai pericoli che questa tecnologia comporta?
«Hinton ha lavorato all’interno di Google per 10 anni, contribuendo al potenziamento dei modelli di linguaggio che stanno alla base anche del noto sistema ChatGPT. Dopo le sue dimissioni, ha fatto presente che questi modelli stanno diventando sempre più potenti e sono in grado di fare attività che solo 3-4 anni fa non avremmo immaginato».

A cosa si riferiva esattamente Hinton?
«Le sue parole fanno riferimento al fatto che i modelli saranno in grado di compiere ragionamenti sempre più fini. Dunque sarà sempre più difficile distinguere quello che riproducono dalle capacità umane. Questo genera due possibili preoccupazioni».

Quali?
«La prima riguarda il timore che la macchina assuma una capacità super umana, nonché il controllo di azioni che possono avere un effetto nel mondo reale. Situazione, dal mio punto di vista, meno probabile. La macchina di per sé non ha una coscienza o la capacità di interpretare il mondo reale. Semplicemente è in grado di generare testo».

L’altra, invece?
«Questo strumento può essere usato da agenti con intenzioni negative: uno Stato o degli hacker potrebbero generare una presa di posizione fittizia, in modo sempre più credibile».

Per esempio?
«Potrebbero scrivere un tweet attribuendolo a un certo politico, utilizzando il suo stile. Così sarà sempre più difficile, se non addirittura impossibile, comprendere se il messaggio sia stato scritto da una persona o da una macchina. Lo strumento ha poi la capacità di generare immagini e video. Quindi potrebbe creare un filmato con un rappresentate politico mentre sostiene delle idee in maniera totalmente realistica, addirittura con la sua voce. Geoffrey Hinton vuole quindi indurre alla riflessione sulla gestione degli strumenti. I rischi sono enormi».

Dunque, piuttosto che della tecnologia bisogna temere chi la usa.
«Chi e come la usa. Non è una tecnologia difficile. Chiunque con delle capacità di calcolo sufficientemente potenti potrebbe servirsi di questi strumenti e generare delle fake news».

Anche Elon Musk si riferiva a questa possibilità quando ha firmato la famosa lettera?
«Ci sono diverse interpretazioni a riguardo. Musk è stato uno dei primi investitori di Open AI. Ne è uscito perché pensava che il progresso della startup fosse troppo lento. Voci dicono che ora si sia reso conto di aver fatto uno sbaglio. Forse vorrebbe recuperare il tempo perso e raggiungere gli altri in questa corsa».

Sarebbe meglio creare un comitato di supervisione. Come fare?
«Dovrebbe arrivare una risposta a livello politico e sociale. Purtroppo, come spesso accade, società e politica non riescono a stare al passo con il progresso della scienza. L’importante è che ci sia un dibattito e che il pubblico si renda conto che tutto quello che vedremo e sentiremo potrebbe essere finto, se non c’è una verifica retrostante. Ci sono degli studi che stanno andando in questa direzione per creare dei metodi di controllo sempre più efficienti. Ma al momento non c’è molto».

È vero che queste macchine saranno più intelligenti di noi?
«Dipende da come definiamo l’intelligenza. Abbiamo assistito a sistemi automatici compiere dei passi ritenuti critici. Come per esempio, giocare a scacchi. Pensavamo fosse un segno di intelligenza umana, ma già più di 15 anni fa alcuni sistemi hanno sconfitto l’allora in carica campione del mondo. La stessa sorte è stata poi riservata al campione del mondo del gioco cinese «Go». La capacità di linguaggio era considerata segno di intelligenza; ora questi sistemi sono in grado di automatizzare il processo. Ci sono tanti altri aspetti che questi modelli ancora non hanno, quale la conoscenza del mondo e della realtà. Un rischio potenziale è che possono essere associati ad altri sistemi capaci di interagire con la realtà».

L’opinione pubblica sostiene che con questa tecnologia alcune figure lavorative non esisteranno più. Sarà così?
«Certi tipi di lavoro potranno essere automatizzati, ma ci vorrà del tempo prima che la società si adatti. Per esempio potrebbe essere utilizzata per redarre testi non molto creativi, come un contratto. Paradossalmente uno dei settori più a rischio potrebbe essere quello degli sviluppatori di software, in quanto questi modelli possono farlo a un costo molto più basso rispetto agli esseri umani».

Non c’è il rischio che utilizzando questi strumenti si creino degli errori?
«Viene sottolineato spesso che è bene non fidarsi di ChatGPT e di questi modelli in generale. Sono dei modelli linguistici, significa che sanno generare del testo stilisticamente perfetto, ma il contenuto potrebbe non esserlo. Il modello cerca di imitare la formulazione del linguaggio umano e nel suo processo segue delle regole statistiche. Quindi potrebbe prendere dei fatti che non hanno nulla a che fare con la realtà. È importante non fidarsi».

Iscriviti alla newsletter