La sedicente intelligenza artificiale.

Una discussione universitaria più orientata a sperimentare che a vietare la valanga ChatGPT.

Su L’Indro – quotidiano indipendente online di geopolitica

30.3.2023 – https://lindro.it/chatgpt-la-sedicente-intelligenza-artificiale/

Guido Di Fraia alla presentazione di IULM Lab AI

Stefano Rolando [1]

Intelligenza artificiale è un’espressione stupida e falsa – dice Guido Di Fraia, sociologo, prorettore dell’Università IULM, direttore del laboratorio che studia questa rivoluzione – l’hanno inventata 50 anni fa per far notizia, ma si dovrebbe solo parlare di Intelligenza aumentata. Oppure definirla correttamente da un punto di vista tecnico, con il nome che ha: Tecnologia generativa pre-trained. Che vuol dire semplicemente pre-istruita, ovvero addestrata”. [2]

Come si legge nella sua definizione ufficiale: ChatGPT (Chat Generative Pre-trained Transformer, traducibile in “trasformatore pre-istruito generatore di conversazioni“) è un modello di chatbot basato su intelligenza artificiale e apprendimento automatico sviluppato da OpenAI specializzato nella conversazione con un utente umano.

Partenza fulminea. Ha scritto Federico Fubini: “Lanciato il 30 novembre del 2022 ha fatto il primo milione di profili dopo 5 giorni e i primi 5 milioni dopo 20 giorni”. 

Siamo un’ottantina di professori dell’ateneo milanese, che lui ha riunito per ragionare su quale approccio sia oggi più sensato rispetto all’impatto già immenso delle applicazioni, soprattutto di ciò che fa sì “notizia” tutti giorni.  Quella “macchina” (così continua a chiamarla Guido) che, incorporando 160 miliardi di parametri, produce nel mondo un diluvio di testi in qualunque lingua e in qualunque forma richiesta in pochi secondi rispondendo alle caratteristiche delle domande che riceve, ma facendo poi appello all’immensità di dati già immagazzinati.  

Si parla di Chat GPT che ciascuno di noi può sperimentare andando sul sito di Open AI e compilando facilmente le procedure (https://openai.com/blog/chatgpt).

Mentre siamo in riunione i giornali al mattino, la tv in svariati programmi, la rete in forma diffusa e carsica contengono un consistente dibattito su questa “macchina” senza ruote ma con un visibile volante.

Sì, visibile e forte – dice ancora il prof. Di Fraiaperché i costruttori sono andati a razzo, dal 2017, quando la scommessa era di inventare un sistema più robusto per predire meglio la probabilità di uscita della parola seguente quella che stavamo scrivendo. Sono andati molto al di là di questo traguardo, chissà forse senza neanche volerlo. E di rivoluzione in rivoluzione sono riusciti anche a educarla un po’ questa macchina, a farle prendere abitudini che oggi chiameremmo politicamente corrette. Insomma, avendo in pancia immense conoscenze di ogni tempo sarebbe facile che proponesse cose razziste, prodotto di pregiudizi e aspetti retrogradi di un tempo. E invece no. A domande imbarazzanti risponde per lo più con prudenza e una certa saggezza”.

Comunque prima di tutto bisogna imparare ad usarla – dice ancora Di Fraiacioè impegnare tecniche di coinvolgimento per avere sperimentazioni in tutti gli ambiti disciplinati possibili”. Tema lanciato a metà marzo da un editoriale del quotidiano Il Foglio intitolato “I veri somari di ChatCGT”. Questo l’occhiello: “Si può vietare l’intelligenza artificiale nelle università? Perché i veri asini non sono gli studenti che la usano ma i prof. incapaci di trovare un modo per stimolare l’intelligenza naturale degli studenti e governare le innovazioni”. Freccia lanciata sul poco coinvolgimento creativo e produttivo dall’organizzazione ancora troppo tradizionale della didattica. Che tuttavia non è così dappertutto e che ora la valanga ChatCGT scuote profondamente.

Filo spinato è annunciato in varie parti del mondo. Dalle scuole di New York e di Los Angeles alle università australiane o svizzere. Il tema è all’ordine del giorno. In alcune università italiane stupore e sdegno per compiti scritti in lingua perfetta da chi fino al giorno prima stentava non solo con il congiuntivo.

Intanto proprio sui giornali della stessa giornata Paolo Di Stefano sul Corriere prende in giro ChatGPT che non sa nemmeno che Montale ha preso il Nobel e che non riesce ad imitare neanche con il cannocchiale i grandi poeti italiani del ‘900. Ma il linguista Raffaele Simone su “Domani” fa un ragionamento più sottile: “Chat GPT impressiona per elaborazione e qualità della lingua, ma senza avere i tratti che gli stoici attribuivano all’intelligenza: la capacità di vedere a volo d’uccello, saltando passaggi e cogliendo nessi impliciti”. Ferruccio de Bortoli interviene in una discussione promossa nel quadro del gruppo RCS: “Chi ha deciso per me che la ‘macchina’ abbia tenuto conto o non abbia tenuto conto di certi contenuti?”. In senso più generale è una preoccupazione che condivido.

Tanto da chiedere nella riunione se si intravedono meglio i poteri decisionali attorno a questo potente cantiere. Quanta indipendenza si legge? Oppure quanta correlazione con interessi magari commerciali, magari militari, o altro? E chiedendoci, nel nostro piccolo, se nel negoziato attorno agli sbocchi il sistema universitario internazionale (diciamo ricerca più preoccupazione educativa) conti per caso qualcosa.  Risposte secche al riguardo: per ora contano imprese private che hanno sostenuto le implementazioni di metodo e di processo. Le università appaiono lontane per ora da esercitare influenze.

Il meeting universitario è tuttavia meno severo. Ed è anche molto meno severo del sistema universitario nel suo complesso che sembra divorato dal bisogno intanto di “vietare”, “impedire”, “ostacolare” nell’ipotesi che, dilagando, Chat GPT si sostituisca agli studenti nel fare le tesi o altri elaborati assegnati.  Tanto Guido Di Fraia, sociologo, quanto Riccardo Manzotti, filosofo della trasformazione tecnologica, vedono la potenzialità evolutiva di un processo che ha caratteri tali da far presagire adattamenti tanto pazzeschi quanto importanti.

Non tutti gli astanti seguono. C’è chi si attesta su dichiarazioni di preoccupazione per le minacce. Ma soprattutto i più giovani e forse oserei dire le giovani colleghe, accettano la proposta di metodo di studiare, sperimentare, capire, senza anatemi. È chiaro a tutti che si sta costruendo nel mondo una bomba che agisce sull’ampliamento di accesso alla conoscenza che contiene anche ambiguità e potenzialità di incrementare la già temibile produzione di falsificazione.

Anche nell’addestramento che sta avvenendo si riconosce un filo rosso politico, ma più che riferito a disegnabili grandi poteri appare per ora appartenente alla responsabilità professionale e scientifica di non produrre scandali insormontabili che arrestino o ritardino la corsa applicativa.  E su questo aspetto lo stesso Di Fraia mostra molta modernità: “In fondo la cosa peggiore – dice – sarebbe ora che la macchina si profilasse come dichiaratamente neutrale”. Le tre cose che emergono dalla discussione sono una sorta di ragionevole “preliminare negoziato intellettuale” tra fruitori o mediatori della fruizione e il mistero di un cantiere ancora poco indagato.

Primo punto: la trasparenza della sperimentazione. Secondo punto: ampliare la consapevolezza sul profilo dell’algoritmo. Terzo punto: utilizzare il cantiere per promuovere l’evoluzione della didattica del pensiero critico contro il nozionismo.

Su errori e sfondoni che in fase ancora di produzione acerba la “macchina” più volte produce c’è l’idea che da qui a breve – riassume così Riccardo Manzotti – “diventerà parte integrante del nostro nuovo modo di lavorare”.  C’è chi si lamenta della stupidità della macchina. C’è chi le ha chiesto lumi e criteri per produrre un nuovo capolavoro letterario (Alessandro D’Avenia) con risultati brillanti. C’è – tra i partecipanti alla riunione – chi ha provato a ottenere risposte su argomenti non di facile accesso alle fonti, per esempio in quali rapporti fossero Brunelleschi e Leon Battista Alberti, con risposte considerate “strabilianti”.

L’ipotesi di un progressivo adattamento appare insomma la cosa più probabile. Tenendo conto di molti suoi requisiti forse ancora provvisori. ChatGPT è stata concepita infatti come base per la creazione di altri modelli di machine learning. Una delle sue caratteristiche che apre problemi d’uso sia nel sistema universitario che nel sistema dei media è che ChatGPT si presenta come una fonte primaria in quanto non indica i siti a partire dai quali vengono elaborati i suoi risultati. Ma proprio per questi caratteri transitori il cantiere necessita di un approccio di studio serio. Come scrive Wired:Anche se ChatGpt è in grado di capire pressoché qualsiasi cosa digitiate, esistono delle strategie che permettono di ottenere risultati più interessanti e utili. E questa “ingegneria delle richieste” sta diventando una competenza specializzata a sé stante”.

Sull’argomento circola una tonnellata di opinioni. Potrei andare avanti a lungo riferendo i colpi sul freno e sull’acceleratore a cui si assiste giorno per giorno, ora per ora.

Secondo Bill Gates l’intelligenza artificiale sarà “la cosa più importante in questo decennio“, equiparando il suo peso a quello avuto in passato dal personal computer e da internet. E il fatto che Microsoft si sia mossa prima della concorrenza può davvero stravolgere il mercato, attualmente monopolizzato da Google che, con il suo motore di ricerca, detiene il 93% delle quote. Persino il novantenne Henry Kissinger si è scomodato su Wall Street Journal per raccomandare prudenza e attenzione “perché la massa dei dati circolanti ha sempre più bisogno di un trattamento assistito da tecnologie capaci di analisi qualitative diverse da quella prodotta dalla mente umana”.

Siccome il pianeta è asimmetrico su quasi tutto è evidente che a queste prese di posizione se ne oppongono altre. Per esempio, proprio ora mentre scrivo vedo circolare una notizia (da verificare) dell’Agenzia Nova di Pechino secondo cui Elon Musk, il co-fondatore di Apple Steve Wozniak e un gruppo di dirigenti aziendali ed esperti hanno firmato una lettera aperta che chiede una moratoria semestrale allo sviluppo dell’intelligenza artificiale, paventando gravi rischi per le società e l’umanità. “I firmatari dell’appello, patrocinato dall’ente non profit Life Institute e sottoscritto in tutto da un migliaio di personalità ed esperti del settore tecnologico, mettono in guardia dai rischi insiti a loro dire nell’evoluzione di sistemi più sofisticati del modello linguistico multimodale Gpt-4 sviluppato da Open-AI”.

Ho voluto limitarmi a raccontarvi in fondo con poche battute lo spaccato di due ore di un libero seminario tra professori di una nostra qualsiasi università, per cogliere i sentimenti di massima di un fenomeno che, appunto come dice Bill Gates, forse ha le stesse potenzialità di trasformazione che ha avuto 27 anni fa l’avvio dell’era internet. Forse allora con una seduzione più lenta. Qui coscienti che la velocità del nostro tempo non ha mai avuto pari nella storia dell’umanità.


[1] Insegna all’Università Iulm, a Milano, dirigendo l’Osservatorio sulla comunicazione pubblica, il public branding e la trasformazione digitale.

[2] Ne ha scritto, su L’Indro, Massimo Conte Schäcter il 7 marzo (https://lindro.it/chatgpt-robot-che-parlano-con-noi/) citando tra l’altro  Kate Crawford, studiosa dell’impatto visuale dell’IA (Intelligenza artificiale) che afferma non essere né intelligente né tantomeno artificiale: “Nel suo lavoro appunto “Né intelligente né artificiale. Il lato oscuro dell’IA” mette in guardia da due mitologie cui sono in preda molti che non ne sanno molto ma che arrivano solo allo stadio finale quali consumatori di prodotti”.

Leave a Reply

Your email address will not be published. Required fields are marked *