Il padrino dell’intelligenza artificiale lascia Google e avverte: «Ora posso raccontare la verità»

Matteo Casari

2 Maggio 2023 - 16:19

condividi
Facebook
twitter whatsapp

Geoffrey Hinton ha espresso le sue preoccupazioni per lo sviluppo troppo rapido e incontrollato dell’intelligenza artificiale.

Il padrino dell'intelligenza artificiale lascia Google e avverte: «Ora posso raccontare la verità»

L’uomo considerato come “il padrino dell’intelligenza artificiale” ha deciso di abbandonare il suo lavoro a Google, mettendo in guardia il mondo dai crescenti pericoli derivanti dagli sviluppi del settore. Secondo l’esperto, l’intelligenza artificiale sta crescendo a un ritmo incontrollato, rendendo necessario introdurre controlli più stringenti per scongiurare scenari catastrofici.

L’intelligenza artificiale sarà più intelligente di noi?

Geoffrey Hinton, 75 anni, ha annunciato le sue dimissioni da Google, affermando di voler avere la massima libertà per parlare sui pericoli derivanti dall’intelligenza artificiale. Ha dichiarato poi alla BBC che alcuni dei pericoli dei chatbot IA sono spaventosi: «Al momento non sono più intelligenti di noi, per quanto ne so. Ma credo che presto potrebbero diventarlo».
La ricerca pionieristica del dottor Hinton sulle reti neurali e sull’apprendimento profondo ha aperto la strada agli odierni sistemi di intelligenza artificiale come ChatGPT. Nell’intelligenza artificiale infatti, le reti neurali sono sistemi simili al cervello umano nel modo in cui apprendono ed elaborano informazioni. Questi algoritmi consentono all’intelligenza artificiale di imparare dall’esperienza, proprio come farebbe una persona.

Più conoscenze di una persona

Lo psicologo cognitivo e informatico britannico-canadese ha dichiarato alla BBC che i chatbot potrebbero presto superare il livello di informazioni di un cervello umano: «In questo momento, vediamo che sistemi come GPT-4 superano di gran lunga una persona per quanto riguarda la quantità di conoscenze generali».
In termini di ragionamento, non è altrettanto all’altezza, ma è già in grado di formulare «ragionamenti semplici», ha detto, «e dato il ritmo dei progressi, dobbiamo aspettarci che le cose migliorino velocemente. E dovremmo preoccuparci per questo».

Se la tecnologia cadesse in mani sbagliate?

Nell’articolo del New York Times, il dottor Hinton ha parlato di «malintenzionati» che cercherebbero di usare l’AI per «scopi malvagi». Alla richiesta di approfondimento, l’esperto ha risposto che «questo sarebbe una sorta di scenario da incubo», facendo poi riferimento all’ipotetico possesso di una tecnologia avanzata in mano al presidente russo Vladimir Putin.
Lo psicologo ha spiegato i possibili pericoli ragionando sulle differenze tra intelligenza artificiale e umana: a differenza dei sistemi biologici, quelli digitali, pur imparando separatamente, possono condividere le loro conoscenze all’istante. «Sarebbe come avere 10mila persone che quando una impara qualcosa tutti la conoscerebbero automaticamente».

C’è bisogno di pause e controlli

Hinton si unisce a un numero crescente di esperti che hanno espresso preoccupazione per l’IA, sia per la velocità con cui si sta sviluppando sia per la direzione che sta prendendo. A marzo, una lettera aperta co-firmata da decine di persone nel campo dell’intelligenza artificiale, tra cui il miliardario della tecnologia Elon Musk, ha chiesto una pausa su tutti gli sviluppi più avanzati dell’attuale versione di ChatGPT, in modo da poter progettare e implementare misure di sicurezza più solide.
Tuttavia, il dottor Hinton ha dichiarato alla BBC che nel breve termine ritiene che l’AI possa offrire più benefici che rischi: «non credo che dovremmo smettere di sviluppare queste cose». Ha aggiunto però che la concorrenza internazionale renderebbe però difficile una pausa.
Il “padrino dell’intelligenza artificiale” ha poi concluso affermando che è responsabilità dei governi assicurarsi che l’intelligenza artificiale sia sviluppata «pensando bene a come impedire che diventi un’arma pericolosa».

Iscriviti alla newsletter