user profile avatar
Enrico Deplano

Il senso dell’allarme al Senato sull’abuso delle chat di intelligenza artificiale

Come al Congresso USA, al Senato della Repubblica italiana un rappresentatnte dimostra all'aula la difficoltà di identificare un testo come scritto da una chatbot di intelligenza artificiale, suscitando utili interrogativi

article photo

Nella seduta del Senato di ieri sera il senatore Marco Lombardo, di Azione, dopo aver letto il suo intervento sull’accordo sui lavoratori transfrontalieri Italia e Svizzera, dichiara che il testo non è suo e nemmeno prodotto da intelligenza umana ma creato con il noto chatbot di intelligenza artificiale generativa Chat GPT-4.

La necessità giornalistica di stare sul pezzo induce i quotidiani a dare il più rapidamente possibile una notizia battuta dalle agenzie: la si dà con i primi commenti a caldo. Subentrano poi le riflessioni a freddo, approfondimenti che colgono meglio il senso dei fatti. Il gesto del senatore Lombardo è apparso a molti eclatante, ed era inteso a suscitare allarme sul possibile abuso dell’IA ovunque, anche in augusti consessi e centri decisionali.

Il senatore ha affermato che si trattava di “un evento storico” nella nostra attività parlamentare. Non è una novità in assoluto: appare replica locale di quanto accaduto a gennaio nel Congresso USA, quando il rappresentante democratico Jake Auchincloss, dopo aver letto il suo intervento su un progetto di ricerca sull'intelligenza artificiale, rivelava che a scriverlo era stata Chat GPT3.

Il merito di Lombardo, professore attento agli sviluppi dell’innovazione, è quello di contribuire a un dibattito anche in Italia. Negli ultimi mesi sono sorte, a livello internazionale, crescenti preoccupazioni riguardo all’impiego senza limiti dei chatbot. Anche tra i più entusiasti sostenitori dell’IA. In Italia le reazioni al provvedimento governativo di chiusura momentanea di ChatGPT hanno paradossalmente sfavorito le voci critiche, tacciate di conservatorismo.

Ma la consapevolezza di una necessità di riflessione e normazione non è retrograda: proviene proprio dai Ceo e dai Paesi protagonisti nello sviluppo e commercializzazione dell’intelligenza artificiale. Senza scomodare Sam Altman e Elon Musk in merito ai rischi di un’intelligenza artificiale senziente oggi non ancora all’orizzonte, si sono già verificati problemi più concreti e immediati, relativi a immagini video fake, e a testi scritti usati impropriamente.

Perfino gli specialisti della ICML (International Conference on Machine Learning) che sta dietro lo sviluppo degli algoritmi di intelligenza artificiale generativa linguistica hanno dovuto proibire l’uso di chatbot come ChatGPT per la creazione di articoli scientifici.

In città simbolo dell’innovazione tecnologica, come New York e Los Angeles, ChatGPT3 è stato vietato dai college perchè troppi studenti spacciavano come propri testi scritti dall’IA, falsificando i test. In Australia scuole e Università hanno reintrodotto i test cartacei. Ma il problema va molto oltre questi ambiti. E’ cronaca il caso dell’avvocato Shwartz di Manhattan sotto processo per aver introdotto in un processo precedenti legali insistenti, compilati da ChatGPT4 a partire da modelli, di fatto inventandoli.

Un’AI generativa usa modelli linguistici addestrati su parole e genera testo in linguaggio naturale. I testi generati dalle chatbot sono pressochè indistinguibili dalla prosa umana, se non per il fatto che manca loro una cifra stilistica individuale. Quindi è assolutamente logico che senatori non riconoscano come AI generated un testo loro letto. Il punto non è solo la paternità di un testo, ma anche la sua attendibilità. In aule di tribunali o di camere di parlamenti, l'accuratezza dei contenuti presentati impatta ovviamente in modo considerevole sulla sicurezza pubblica.

Ingenuamente, seguendo uno storytelling fantascientifico, si è vantata l’oggettività di un’intelligenza artificiale generale senziente onniscente, come preferibile a politici e giudici. Ma "intelligenza artificiale" è un'espressione giornalistica hype, mentre noi ci confrontiamo con algoritmi di apprendimento ed estrazione di modelli, che generano output da prompt, che risultano fallibili. Le AI chatbot date all’uso pubblico sono capaci di errori, definiti in gergo allucinazioni. Questo segnala un pericolo ma anche una soluzione già presente: il controllo umano.

Dall’AI passa il futuro ma pensare di non disciplinare il settore in alcun modo non produrrà utopie tecno economiche né distopie sociali ma più semplicemente problemi. Il progresso è compito delle collettività umane deciderlo e non subirlo. La palla tornerà a ciò che ogni tanto la rincorsa al nuovo fa apparire vecchio: filosofia della scienza e politica. Le cui istanze sono antropologiche e primarie,non aggirabili o surrogabili dalla mera teknè. Giusta, quindi, la posizione di Lombardo contro un certo fascino superficialmente modaiolo dell’AI presso i geek nostrani.

Il problema dell’introduzione in consessi legislativi di testi fatti con chatbot è reale: il pericolo è che le allucinazioni dell’AI possano portare nei due rami della Camera testi con riferimenti normativi inesistenti, dati macroeconomici o sanitari sballati o riferimenti ad analisi geopolitiche fittizie. Più banalmente, populisti e demagoghi privi di competenza potrebbero usare le chatbot per sopperire all’assenza di idee proprie, conquistando autorevolezza apparente. Mentre è bene che una collettività vagli bene le effettive competenze della classe politica, evitando che al governo vadano squadre prive dellecapacità di governare fenomeni complessi.

Sono allo studio nel mondo varie soluzioni al problema. Le aziende del settore IA si sono attivate per consentire di distinguere tra testi generati da esseri umani e dall'intelligenza artificiale. Con il rilevamento di watermarks, ossia segni nascosti introdotti nei testi generati dall’IA o di una rigidità di schema nella ripetizione di parole, come con l’app GPTZero, che misura complessità testuale e variazione delle frasi, o con l’algoritmo Classifiersviluppato da OpenAI.
Ben vengano, ma forse basterebbe passare al vaglio di un dispositivo fuori dall’aula parlamentare i testi da introdurre. E farli leggere ai rappresentanti non in fogli o su telefono - prevendone un’eventuale sostituzione - ma su minitablet privi di connessione wireless, in cui i dati siano caricati ogni volta sul momento, prima di ogni seduta.

In ogni caso sarebbe desiderabile una effettiva competenza nell’uditorio. Nell’aula di tribunale americana si sono accorti degli errori perchè l’intelligenza umana li ha rilevati. In un’aula di Parlamento si potrebbero cogliere le allucinazioni prodotte da un testo generato da IA attraverso analoga competenza. Che peraltro sarebbe postulata in ogni caso, per vagliare e deliberare ogni argomento presentato ai legislatori. La competenza umana si riafferma desiderabile e indispensabile.

L’intelligenza artificiale richiede più intelligenza naturale. Pur senza invocare il mito dei tecnici al governo, a un vero politico non bastano la capacità di mediazione o il possesso di saldi valori ideologici che definiscono l’interesse di una parte di elettorato. E’ stato un errore semplicistico ritenere che la volontà politica potesse scusare l’incompetenza. Tutto ciò che ce lo ricorda, anche ChatGPT al Senato della Repubblica italiana, è utile a correggere la rotta.


RIPRODUZIONE RISERVATA ©

letto 2280 volte • piace a 4 persone0 commenti

Devi accedere per poter commentare.

Scrivi anche tu un articolo!

Articoli Correlati

advertising
advertising
advertising