Navigation

Ritratto di Miriam Meckel

GDI

«Non dobbiamo mai umanizzare l'intelligenza artificiale»

Una vita senza intelligenza artificiale non è né possibile né auspicabile, sostiene l'autrice e docente universitaria Miriam Meckel. Che spiega come l'IA può semplificare la nostra vita quotidiana e quali regole sono oggi necessarie a livello mondiale.

Testo
Katja Fischer De Santi
Immagine
Keystone / Selina Pfrüner
Data
Formato
Cosa facciamo, Intervista

Si può ancora vivere senza l'intelligenza artificiale?
Si può, ma è difficile. Oggi l'intelligenza artificiale è nei motori di ricerca che usiamo, nei sistemi di navigazione, nei filtri antispam delle nostre e-mail, nei feed di notifica personalizzati e negli annunci dei programmi di Netflix. Da tempo, poi, molti processi industriali funzionano con l'IA. Della presenza dell'intelligenza artificiale spesso nemmeno ci accorgiamo, perché opera senza rumore dietro le quinte. Quando qualcuno sostiene di vivere senza IA, è come se dicesse di non usare l'elettricità.

In che modo le app di intelligenza artificiale incidono sulla sua vita quotidiana?
Per me i modelli di IA sono una specie di cassetta degli attrezzi per il pensiero: utili, a volte sorprendenti, ma non la soluzione per tutto. Uso strumenti supportati dall'intelligenza artificiale per la ricerca, per strutturare le idee o come sparring partner nei processi creativi. Possono aiutare a riconoscere i punti ciechi o ad aprire nuove prospettive su un argomento. Però non sostituiscono il pensiero umano, ma lo integrano, un po' come la macchina a vapore non ha sostituito l'ingegnere, ma gli ha aperto nuove possibilità.

Arriveremo a non riuscire più a fare nulla senza assistenza artificiale?
Gli agenti IA, su cui oggi come oggi tutte le principali aziende tecnologiche stanno lavorando alcremente, eseguiranno intere sequenze di compiti in modo autonomo. Sapranno prenotare viaggi, fare acquisti online o gestire progetti. Ci sono già start-up che hanno solo una manciata di dipendenti che a propria volta guidano un team di agenti IA. Nei fatti, credo che questa forma di collaborazione tra esseri umani e IA permeerà ogni cosa.

Il problema non è che l'IA "mente", ma che noi usiamo questi concetti e quindi umanizziamo l'IA.

Miriam Meckel, autrice e docente universitaria

Per molte persone ChatGPT è diventato una sorta di migliore amico. La cosa sta diventando un problema per l'interazione sociale?
La domanda è piuttosto: perché la gente cerca sempre più di parlare con una macchina? Forse perché è più paziente di tante persone, ha sempre tempo e non dà giudizi. Ma questo dimostra anche che le interazioni sociali sono spesso caratterizzate dalla pressione del tempo e dalle aspettative. Il problema lo abbiamo quando i modelli di intelligenza artificiale sostituiscono le relazioni reali. Ci sono stati anche alcuni casi estremi in cui degli strumenti di intelligenza artificiale hanno portato delle persone a lasciare il proprio partner o addirittura a togliersi la vita.

Perché tendiamo a umanizzare così tanto questi modelli linguistici?
Perché spesso sembrano convincenti. I modelli linguistici sono maestri di retorica, ma non custodi della verità. Non hanno idea di cosa stiano parlando, ma sono macchine predittive del tessuto verbale incredibilmente efficaci. Operano con le probabilità statistiche dell'espressione linguistica, non con il suo senso. E tutta l'autorità che hanno ai nostri occhi, siamo noi a dargliela.

ChatGPT ignora i diritti d'autore e genera variazioni da ciò che già esiste. Questo crea davvero qualcosa di nuovo?
Sì e no. Gli esseri umani si sono sempre lasciati ispirare. Ma c'è una differenza tra ispirazione e mera ricombinazione. Un'IA non creerà spontaneamente uno stile artistico completamente nuovo. Le idee rivoluzionarie richiedono coraggio, rotture ed errori. E solo gli esseri umani ne sono capaci.

Quanto alla previsione che l'IA "divorerà se stessa", può spiegarci cosa significa?
Se l'intelligenza artificiale impara solo dai contenuti generati dall'intelligenza artificiale stessa, si crea una camera dell'eco, una specie di incesto algoritmico. Nella ricerca questo scenario è chiamato "dimenticanza catastrofica" o "collasso del modello". È allora un pensiero confortante che l'IA abbia bisogno di noi umani per poter continuare a imparare con dati originali senza crollare.

Lei scrive che l'IA può portare anche a "privazioni di diritti e disumanizzazione". Può fare un esempio?
Basta guardare a ciò che sta succedendo negli Stati Uniti. Milioni di dipendenti pubblici hanno ricevuto un'e-mail dal cosiddetto Department of Government Efficiency, guidato da Elon Musk, alla quale dovevano rispondere entro poche ore per spiegare perché il loro posto di lavoro avrebbe dovuto continuare ad esistere. Un'intelligenza artificiale avrebbe poi valutato se queste persone avrebbero potuto conservarlo o sarebbero state licenziate. Una cosa del genere è lesiva della dignità ed è pure molto discutibile, visto l'attuale stato di sviluppo dell'IA. Ci sono buoni motivi per cui molti ordinamenti giuridici, tra cui quello svizzero, stabiliscono che l'ultima istanza decisionale deve sempre essere rappresentata da un essere umano.

Se potesse partecipare alla stesura di una legislazione mondiale sull'IA, quale sarebbe la regola più importante che imporrebbe?
In una simile eventualità, vorrei una regola globale che affermi: l'IA non dev'essere mai autorizzata a decidere su questioni decise dall'IA stessa. L'intelligenza artificiale è uno strumento potente. Ma non siamo solo noi esseri umani a plasmare il mondo con gli strumenti, perché sono anche gli strumenti a plasmare noi. Per questo spero che tutti si avvicinino all'IA e si rendano conto che è sì una tecnologia molto potente ma resta pur sempre solo uno strumento.

Dalla strategia alla pratica

Ci assumiamo la responsabilità per le persone, l'ambiente e la società. Leggi le nostre storie per scoprire come attuiamo la nostra strategia nelle nostre attività quotidiane.

Tutte le storie