È eloquente, poliglotta e conciso: ChatGPT sta conquistando il mondo. A cosa serve questa tecnologia nella vita quotidiana e con quanta «libertà di scelta» il chatbot svolge i propri compiti? Parliamo di ChatGPT, il robot di chat di OpenAI, con Prof. Dr. Thilo Stadelmann, responsabile del Centre for Artificial Intelligence della ZHAW.

Signor Stadelmann, ChatGPT è l’argomento di discussione sulla bocca di tutti. Come si spiega questo clamore? 

È uno strumento molto utile e funziona bene. La tecnologia su cui si basa esiste da tempo – da due a cinque anni – ma la novità è rappresentata dalla sua ampia utilità e portata. 

Sembra davvero che possa fare di tutto. Dove intravede il maggiore potenziale per l’economia, la politica o semplicemente per la quotidianità? 

ChatGPT è una sorta di sparring partner per molte attività. Si può usare questo chatbot quasi per tutto: redigere testi di blog, scrivere e-mail e persino programmare. Uno sviluppatore esperto del mio team, ad esempio, è in grado di svolgere il suo lavoro settimanale in un giorno. Per fare lo stesso lavoro gli basta il 20% del tempo. È incredibile. Per farlo, usa CodePilot, un’applicazione con lo stesso background di ChatGPT. Lo strumento non può sostituirlo, ma è incredibilmente utile, perché lui sa come usarlo.

Ed è proprio questo il punto decisivo: ChatGPT non si presta a un’automazione completa, ha i suoi limiti. Infatti, le risposte non sono affidabili al 100%. Alcune delle cose che il chatbot scrive sono completamente sbagliate. 

ChatGPT può anche fornire consulenza finanziaria?

Come si investe in modo redditizio il proprio denaro? Si può usare l’intelligenza artificiale per creare una strategia finanziaria personale? Abbiamo chiesto aiuto a ChatGPT. Leggete qui il risultato.

Forse queste inesattezze faranno presto parte del passato. Dopo tutto, la tecnologia si sta evolvendo con estrema rapidità. 

Con l’attuale tecnologia non è possibile eliminare completamente gli errori, perché il chatbot non è in grado di distinguere tra ciò che si inventa e ciò che esiste effettivamente, perché non conosce il concetto.  Ad esempio, stavamo cercando degli speaker per una conferenza e ci siamo fatti proporre dei nomi da ChatGPT, per divertimento. Conoscevamo i primi sei nomi sulla lista: tutte persone di comprovata esperienza nel settore in questione. Poi c’era una settima persona. Nessuno di noi la conosceva. Tuttavia, secondo ChatGPT, operava esattamente nel campo tematico di nostro interesse.

Ho cercato il suo nome su Google. È emerso che la donna esisteva veramente – era una funzionaria del Parlamento europeo – ma tutto il resto non era vero. Non esisteva né l’università, né l’associazione, né la cattedra indicata. Ci siamo fatti ingannare, perché mentre i dati degli altri relatori erano corretti, per questa donna ChatGPT aveva fornito dati completamente sbagliati.

Questo esempio dimostra che per poter distinguere se le informazioni fornite sono utili e corrispondenti alla realtà dobbiamo disporre di competenze e conoscenze. 

ThiloStadelmann_ChatGPT

Thilo Stadelmann

Il prof. dr. Thilo Stadelmann è responsabile del Centre for Artificial Intelligence presso l’Università di scienze applicate di Zurigo. Lavora come docente, consulente, relatore e scienziato nel campo dell’intelligenza artificiale. 

In sintesi, non è una buona idea usare ChatGPT per scrivere testi su un argomento con cui si ha poca dimestichezza... 

Se chiedo a ChatGPT qualcosa che non conosco affatto, posso farmi fuorviare.

Una nostra conoscente doveva consegnare un progetto e ChatGPT era appena uscito. A quel punto aveva già scritto buona parte del lavoro. Per divertimento, abbiamo eseguito un test per vedere come ChatGPT avrebbe scritto le parti già svolte. Il chatbot ha scritto uno dei capitoli in pochissimo tempo, aggiungendo persino una fonte che mancava nella versione scritta a mano. È stato impressionante. La mia conoscente ci aveva lavorato sei mesi, mentre ChatGPT ha svolto lo stesso compito in pochi minuti.

Congiuntamente all’esperienza fatta con la lista dei relatori, questo esperimento rivela quanto segue per l’utilizzo del bot: se so a quali fini voglio usare ChatGPT e ho una certa conoscenza dell’argomento, questa tecnologia mi farà molto comodo. Se invece non conosco bene una tematica e mi fido ciecamente di ciò che ChatGPT mi propone, potrebbe andarmi male. In sintesi, maggiori sono le proprie conoscenze professionali, superiore sarà l’aiuto che ci potrà offrire. Questa situazione proseguirà anche negli anni a venire. 

ChatGPT fornisce risposte sorprendentemente accattivanti. Non sembra una macchina. Soprattutto, le risposte alla stessa domanda differiscono persino nella formulazione. Sembra quasi che il chatbot abbia una sua personalità. Quanta «libertà di scelta» può avere una macchina del genere?

Bella domanda. Libertà di scelta – autonomia – è una parola interessante in relazione all’intelligenza artificiale. Infatti, con essa ci si stacca da dimensioni difficili da comprendere come la consapevolezza. Si potrebbe porre la domanda in altro modo: «Quanta libertà di scelta è utile in questo caso?».

Supponiamo che, tra qualche anno, ChatGPT e simili diventino una sorta di assistenti personali. Come in Star Trek, i computer che prendevano ordini e con cui si poteva parlare. Allora non ci si è posti la domanda se il computer ne fosse consapevole. Era semplicemente utile.

Per noi esseri umani la libertà di scelta e l’autonomia sono importanti e positive per svariati motivi. Ma sono importanti per la macchina? Un sistema informatico può avere qualsiasi quantità di memoria, può esistere a lungo e può essere attivo contemporaneamente in diversi luoghi del mondo. Si vuole davvero che un sistema del genere abbia libertà di scelta? Non ha molto senso.

La libertà di scelta è importante per gli esseri senzienti, quindi per noi. Tuttavia, per una creazione tecnologica l’obiettivo non dovrebbe essere la libertà di scelta, bensì la sua utilità ai nostri scopi. Ed è proprio quello che si può dire di ChatGPT.

ChatGPT è una sorta di sparring partner per molte attività. Questo strumento è incredibilmente utile, ma dobbiamo disporre di competenze e conoscenze per distinguere se le informazioni fornite sono utili e corrispondenti alla realtà, perché anche ChatGPT commette errori.

Beh, il chatbot ha i suoi limiti. Tuttavia, è utile e soprattutto rivoluzionario. Spesso si dice che la sua importanza è paragonabile a quella dell’introduzione dello smartphone. 

Mi spingerei oltre. Direi che l’ultimo fenomeno di questa portata è stato l’avvento del World Wide Web commerciale. Era il 1993/94. All’inizio, il WWW non aveva un bell’aspetto. Era molto limitato e non aveva app allettanti. Ma non era più solo per i nerd: si vedeva che era utile, che ci avrebbe offerto qualcosa di nuovo e che non sarebbe stato transitorio. Con il lancio del WWW, il mondo è cambiato. E ora ci troviamo nella stessa situazione. Non perché la tecnologia di recente abbia fatto un grande balzo in avanti, ma piuttosto perché ora si è identificato un caso d’uso. ChatGPT è semplicemente un’applicazione vincente. 

Molti, tuttavia, temono che l’intelligenza artificiale presto ci toglierà il lavoro.

Quello che dico ai miei studenti da anni è: per quanto le attività possano essere complesse e difficili, se sono ripetitive, sono automatizzabili. Ciò che abbiamo visto ora lo illustra molto bene. Possiamo sicuramente presumere che in futuro per alcune mansioni non sarà più necessario il lavoro del personale nelle modalità attuali.

Tuttavia, temere questa tecnologia è fuori luogo. Può semplificarci la vita di molto. Microsoft ha recentemente investito dieci miliardi di dollari nel laboratorio di ricerca dei produttori di ChatGPT. Immaginate, ad esempio, che questa tecnologia venga integrata in PowerPoint: potreste creare le slide per la prossima riunione partendo da un file Word in pochi minuti, con un semplice clic. E dopo sarebbe sufficiente rileggerle una volta per ottimizzarle.

Oppure potrei farmi preparare un modello per la lettera d’obbligo a fine anno: «Care collaboratrici e cari collaboratori, grazie per la preziosa collaborazione…». Non si tratta di automatizzare l’apprezzamento e il tocco personale, sarebbe – stupido. Ma l’uso dell’intelligenza artificiale può aiutarmi a superare la sindrome della pagina bianca e a dedicarmi in modo più efficiente a ciò che conta: il mio personale. 

ChatGPT_KI_animation
ChatGPT_KI_animation

Nonostante tutta l’utilità dell’intelligenza artificiale, c’è anche il timore che un giorno l’AI possa prendere il sopravvento su di noi. 

Qualche anno fa Stuart Russell, una delle voci più autorevoli sull’AI e coautore di un manuale essenziale sull’argomento, ha pubblicato un altro libro dal titolo «Human Compatible», in cui spiega quali sono le condizioni nelle quali i sistemi di intelligenza artificiale (se dovessero diventare intelligenti come noi umani o più intelligenti) resterebbero comunque sicuri per noi. In modo dimostrabile. Il professor Russell ritiene – e io concordo – che si tratti di uno scenario poco realistico, ma non completamente escludibile.

Se questa situazione effettivamente si verificasse, e non avessimo prima adottato le dovute precauzioni, saremmo teoricamente in pericolo. Se un sistema d’intelligenza artificiale di questo tipo, ad esempio, seguisse il precetto «rispetta al massimo l’ambiente», potrebbe giungere alla conclusione che le persone sono un problema per l’ambiente, perché bruciano petrolio e commettono altre stupidaggini. Un quadro estremamente artificiale che trovo irrealistico, ma la probabilità non è pari a zero.

Nel suo libro Stuart Russell spiega quindi cosa si può fare oggi per evitare scenari simili. L’unica cosa fattibile è assicurarsi che queste macchine non siano «libere di scegliere», ma che abbiano sempre come punto di riferimento l’essere umano. Occorre inoltre che non abbiano un obiettivo fisso come «rispetta al massimo l’ambiente». Piuttosto, il loro compito deve essere: «Scopri cosa vogliono le persone che sono i tuoi stakeholder o che sono influenzate da te e persegui questo obiettivo». L’istanza suprema di controllo, lo scopo ultimo del sistema deve essere questo: adeguarsi continuamente alle preferenze umane.

Se si considera questo come l’obiettivo centrale del sistema, allora si profila lo scenario opposto a quello della libera scelta. Questi sistemi devono avere un riferimento esterno e devono essere di servizio. L’AI sarà allora assolutamente sicura e potrà raggiungere qualsiasi livello di intelligenza. Il concetto viene denominato «allineamento dell’AI»: come possiamo orientare l’AI agli obiettivi umani? In ChatGPT è stato utilizzato un primo metodo di allineamento dell’AI teso a dominare il bot. 

Per l’intelligenza artificiale l’obiettivo non dovrebbe essere la libertà di scelta, bensì dovrebbe avere sempre come punto di riferimento l’essere umano e i suoi scopi. Se sviluppiamo l’intelligenza artificiale secondo questo principio, è assolutamente sicura e può diventare intelligente a piacimento.

Sembrano grandi cambiamenti. Gli ottimisti direbbero che questa potrebbe anche essere un’opportunità. Se la macchina svolge i nostri compiti e ci allevia, avremo di nuovo più tempo per organizzare liberamente la nostra vita. 

Potrebbe essere. Tuttavia, gli ultimi 70 anni hanno anche dimostrato che con l’aumento dell’automazione non abbiamo necessariamente goduto di più tempo libero. Temiamo di diventare superflui, per cui lavoriamo ancora di più.

Naturalmente, è possibile che un giorno riusciremo a vivere in modo un po’ più rilassato, ma per raggiungere questo obiettivo non basteranno, probabilmente, le possibilità tecniche.

Quel che possiamo constatare è che per 70 anni abbiamo costruito oggetti la cui finalità d’utilizzo ci era nota. Ora disponiamo invece di una macchina che può fare le cose più disparate e che si evolverà rapidamente. È una novità, qualcosa che prima non esisteva. Come si diceva prima, si sta profilando uno scenario singolare secondo il quale in futuro l’intelligenza artificiale potrebbe superare quella umana. Come accennato, non credo che si realizzerà. Ma aumenterà l’utilità generale di sistemi come ChatGPT. Ci stiamo confrontando con una situazione singolare sotto il profilo dell’utilità.

Queste macchine possono aiutarci in molte attività e ci consentiranno di evaderle in modo più veloce ed efficiente. Rimane, tuttavia, un aspetto importante da considerare: anche questi sistemi commettono errori. Quando si utilizzano ChatGPT e bot simili occorre fare tesoro di un consiglio: ragionare con la propria testa e non fidarsi ciecamente.  

Altri siti interessanti

Persone

Questa donna ha proprio un tocco magico per il buon caffè

Per saperne di più

Persone

Addio cifre, benvenuta cannella: storia di una private banker divenuta «maestra di spezie»

Per saperne di più

Persone

Vivere la vita di tutti i giorni con consapevolezza anziché in automatico

Per saperne di più