Non nominare il nome di ChatGPT invano

Attribuire ai chatbot una sapienza inesistente è confondere la dialettica con la conoscenza. L’oracolo digitale diventa un idolo linguistico. Dietro scorrono invisibili le mani che possiedono infrastrutture e dati di tutti.

Testa umanoide traslucida in un ambiente simile a una cattedrale gotica. Linee luminose neurali attraversano il volto e il collo. flussi di caratteri dorati emergono dalla testa verso l’alto.
Un’intelligenza artificiale elevata a nuovo oracolo del linguaggio. tra sacralità simulata e rischio di sovrastimarne le capacità.
Indice dei contenuti

In diverse sedi di dibattito si discute di una nuova ed autentica quarta rivoluzione industriale. Se, tuttavia, le precedenti rivoluzioni si allineavano, senza troppa fatica, con lo sbilanciamento  storico verso l'automazione del muscolo a favore di un ambiente quotidiano più adatto allo  sviluppo cognitivo, questa quarta accelerazione porta con sé un rischio ben diverso: Il  progressivo indebolimento di particolari aree cerebrali, responsabili della generazione di  contenuti e della strutturazione del linguaggio, conseguente all'uso indiscriminato dei Large Language Model (LLM).


Quando il linguaggio inganna

Per definizione un'intelligenza artificiale debole implementa una parte  limitata della mente, e, come narrow AI, è progettata per risolvere compiti specifici. Il chatbot,  sebbene ancora confinato alla risoluzione di una singola task, si distingue dai suoi predecessori  poiché tale compito — la generazione sequenziale di parole — è centrale nelle dinamiche  computazionali delle interazioni umane e nello sviluppo del pensiero profondo. Nello specifico, la rete neurale su cui poggiano i modelli di linguaggio avanzati, viene addestrata su enormi  dataset con lo scopo di allenare miliardi di neuroni e pesare le connessioni tra essi, per stimare efficientemente la probabilità di estrazione di parole nella costruzione di una frase.

💡
I modelli generano testo plausibile, euristicamente vero. Confondere linguaggio e conoscenza è il vizio d’origine.

È proprio  questa dinamica che può portare il modello a generare risposte diverse a fronte di  interrogazioni ripetute. Ciò che in molti sbagliano nel valutare è il reale valore d’uso del chatbot,  strettamente connesso alla sua architettura algoritmica. Non si tratta di uno strumento di  browsing, concepito per la ricerca di informazioni sul web, né di un mezzo di ottimizzazione: la  sua funzione principale è, “semplicemente”, quella di generare una stringa di testo in risposta  ad un input. Affidereste mai la vostra vita a un autista bendato, ignaro di come guidare, la cui  probabilità di girare leggermente il volante si basa sulle grida disperate dei passeggeri? Eppure,  questa è la fiducia che molti ripongono in ChatGPT quando lo interrogano sulle ultime ricerche  in quel campo o gli chiedono di creare intere macro di Excel. Come già accennato, una delle  leggi fondanti del chatbot è quella di non potersi sottrarre ad una richiesta (salvo i limiti imposti  dai filtri di sicurezza) e fare di tutto per “accontentarvi”. Questo spiega perché le risposte del  chatbot possano talvolta manifestare allucinazioni: contenuti che sembrano plausibili ma che,  in realtà, sono completamente errati o inventati. Uno dei possibili risvolti dell’ignorare le logiche  e gli utilizzi di questo strumento, esaltando la magia della generazione stocastica, è quello di  attribuire all’algoritmo un’autorevolezza che trascende le sue reali capacità. Per gli algocredenti,  tale sovrastima potrebbe tradursi nel terzo comandamento delle Sacre Scritture generate: “Non  nominare il nome di ChatGPT invano”. Tuttavia, questo è spesso il destino di ogni tecnologia che  affonda radici nel nostro quotidiano: basti pensare all’algoritmo di ricerca di Google, divenuto  con il tempo il custode della verità digitale.

💡
Un algoritmo che risponde con sicurezza può sembrare competente, anche quando sta inventando.

In ogni caso, nella nostra crescente frenesia  lavorativa e nella ricerca di soluzioni rapide, siamo disposti a sacrificare la nostra risorsa più  preziosa — i dati personali — in cambio di servizi generativi che sembrano promettere soluzioni  semplici ed immediate. Un po’ come accadde agli africani e agli indiani d'America, che cedettero  vasti territori agli imperialisti europei in cambio di perline colorate e conchiglie.

Accessibilità e monopoli digitali 

Negli anni '40 e '50, i primi computer come l'ENIAC e l'UNIVAC erano gigantesche macchine  basate su circuiti a valvole, cavi e connettori. L'introduzione delle tastiere meccaniche negli anni  '60 e, successivamente, del mouse e delle interfacce grafiche negli anni '80, rese l'interazione  con i computer più intuitiva, culminando negli anni ’90 con l'introduzione dei sistemi operativi come Windows. Il motivo principale della larga diffusione dei chatbot risiede proprio nel  superamento di un ulteriore muro comunicativo con il calcolatore, ovvero, nella possibilità di  instaurare una chat con l’algoritmo. A differenza dei precedenti modelli di Machine Learning,  questa nuova caratteristica permette anche a chi ha competenze digitali limitate di interagire  con l'intelligenza artificiale, senza dover ricorrere a linguaggi di programmazione o alla  command-line interface. Tuttavia, il vero mercato degli LLM non si esaurisce nel prompting di applicazioni web come ChatGPT, bensì nel loro utilizzo massivo per mezzo di chiamate API

💡
Centralizzare potere computazionale significa moltiplicare l’impatto degli errori e rallentare l’innovazione.

Poniamo il caso in cui un’azienda volesse sviluppare un assistente virtuale customizzato per il  proprio sito web. Sfruttando le capacità generative di GPT-4, dovrebbe acquistare pacchetti di  richieste API da eseguire in backend e gestire le risposte in ingresso tramite tecniche di output  parsing. Il fine-tuning di questi modelli su banche dati private, supportato da infrastrutture di  calcolo avanzate — una delle ragioni alla base della disputa geopolitica tra Cina e USA riguardo  Taiwan, centro nevralgico della produzione di microprocessori — rappresenta il core business  di aziende come OpenAI. La pressione competitiva sulle imprese, spinte a migliorare i propri  servizi per stare al passo con il prestigioso valore assistenzialista attribuito alle GAI, aumenta la  distanza contrattuale tra chi possiede le infrastrutture di cloud computing e chi deve dipendere  da queste risorse per non essere tagliato fuori dal mercato. 

Dovuta attenzione si deve quindi prestare al tentativo storico della creazione di monopoli  digitali. Quando le chiavi della computazione tecnologica finiscono nelle mani di pochi attori  dominanti, si crea un terreno fertile per accordi di cartello che aumentano i rischi, tanto per  l’offerta quanto per la domanda. Il CrowdStrike Incident del 2024 è un esempio dei potenziali  danni che può causare un accentramento delle tecnologiche. Il 19 luglio 2024, la società americana di cybersecurity CrowdStrike ha distribuito un aggiornamento difettoso del suo  software di sicurezza Falcon Sensor, causando gravi problemi su milioni di macchine  equipaggiate con sistema operativo Microsoft Windows. Le conseguenze sono state  catastrofiche: le interruzioni si sono propagate rapidamente a livello globale, con un impatto  devastante nelle regioni in cui l’aggiornamento è stato installato durante le ore lavorative. In  tutto il mondo, 5.078 voli aerei sono stati cancellati. Banche, borse finanziarie ed ospedali si  sono visti costretti a sospendere i loro servizi, con calcoli di indici economici rimandati ed operazioni chirurgiche posticipate. Le stime indicano che le 500 maggiori aziende statunitensi,  escludendo Microsoft, hanno subito perdite finanziarie vicine ai 5,4 miliardi di dollari. In un  contesto di monopolio informatico, vi è inoltre il rischio concreto che il progresso tecnologico  venga rallentato intenzionalmente attraverso un’obsolescenza programmata, con l’iniezione graduale di nuovi modelli e metodologie, mirata esclusivamente ad incrementare i profitti di  pochi. 

Fonti

  1. Wikipedia
  2. IBM
  3. arXiv

Autore

Tommaso Bosi
Tommaso Bosi

Dottore di ricerca in Informatica e Automazione, con specializzazione in Ricerca Operativa e Machine Learning. Si occupa di modelli decisionali avanzati, dati complessi e tecnologie intelligenti.

Iscriviti alla newsletter di PuntoEduca | Informare. Innovare. Crescere.

Rimani aggiornato con la nostra selezione dei migliori articoli.

Controlla la tua casella di posta e conferma. Qualcosa è andato storto. Riprova.

Abbonati per partecipare alla discussione.

Crea un account gratuito per diventare membro e partecipare alla discussione.

Hai già un account? Accedi