Non nominare il nome di ChatGPT invano
Attribuire ai chatbot una sapienza inesistente è confondere la dialettica con la conoscenza. L’oracolo digitale diventa un idolo linguistico. Dietro scorrono invisibili le mani che possiedono infrastrutture e dati di tutti.
In diverse sedi di dibattito si discute di una nuova ed autentica quarta rivoluzione industriale. Se, tuttavia, le precedenti rivoluzioni si allineavano, senza troppa fatica, con lo sbilanciamento storico verso l'automazione del muscolo a favore di un ambiente quotidiano più adatto allo sviluppo cognitivo, questa quarta accelerazione porta con sé un rischio ben diverso: Il progressivo indebolimento di particolari aree cerebrali, responsabili della generazione di contenuti e della strutturazione del linguaggio, conseguente all'uso indiscriminato dei Large Language Model (LLM).
Quando il linguaggio inganna
Per definizione un'intelligenza artificiale debole implementa una parte limitata della mente, e, come narrow AI, è progettata per risolvere compiti specifici. Il chatbot, sebbene ancora confinato alla risoluzione di una singola task, si distingue dai suoi predecessori poiché tale compito — la generazione sequenziale di parole — è centrale nelle dinamiche computazionali delle interazioni umane e nello sviluppo del pensiero profondo. Nello specifico, la rete neurale su cui poggiano i modelli di linguaggio avanzati, viene addestrata su enormi dataset con lo scopo di allenare miliardi di neuroni e pesare le connessioni tra essi, per stimare efficientemente la probabilità di estrazione di parole nella costruzione di una frase.
È proprio questa dinamica che può portare il modello a generare risposte diverse a fronte di interrogazioni ripetute. Ciò che in molti sbagliano nel valutare è il reale valore d’uso del chatbot, strettamente connesso alla sua architettura algoritmica. Non si tratta di uno strumento di browsing, concepito per la ricerca di informazioni sul web, né di un mezzo di ottimizzazione: la sua funzione principale è, “semplicemente”, quella di generare una stringa di testo in risposta ad un input. Affidereste mai la vostra vita a un autista bendato, ignaro di come guidare, la cui probabilità di girare leggermente il volante si basa sulle grida disperate dei passeggeri? Eppure, questa è la fiducia che molti ripongono in ChatGPT quando lo interrogano sulle ultime ricerche in quel campo o gli chiedono di creare intere macro di Excel. Come già accennato, una delle leggi fondanti del chatbot è quella di non potersi sottrarre ad una richiesta (salvo i limiti imposti dai filtri di sicurezza) e fare di tutto per “accontentarvi”. Questo spiega perché le risposte del chatbot possano talvolta manifestare allucinazioni: contenuti che sembrano plausibili ma che, in realtà, sono completamente errati o inventati. Uno dei possibili risvolti dell’ignorare le logiche e gli utilizzi di questo strumento, esaltando la magia della generazione stocastica, è quello di attribuire all’algoritmo un’autorevolezza che trascende le sue reali capacità. Per gli algocredenti, tale sovrastima potrebbe tradursi nel terzo comandamento delle Sacre Scritture generate: “Non nominare il nome di ChatGPT invano”. Tuttavia, questo è spesso il destino di ogni tecnologia che affonda radici nel nostro quotidiano: basti pensare all’algoritmo di ricerca di Google, divenuto con il tempo il custode della verità digitale.
In ogni caso, nella nostra crescente frenesia lavorativa e nella ricerca di soluzioni rapide, siamo disposti a sacrificare la nostra risorsa più preziosa — i dati personali — in cambio di servizi generativi che sembrano promettere soluzioni semplici ed immediate. Un po’ come accadde agli africani e agli indiani d'America, che cedettero vasti territori agli imperialisti europei in cambio di perline colorate e conchiglie.
Accessibilità e monopoli digitali
Negli anni '40 e '50, i primi computer come l'ENIAC e l'UNIVAC erano gigantesche macchine basate su circuiti a valvole, cavi e connettori. L'introduzione delle tastiere meccaniche negli anni '60 e, successivamente, del mouse e delle interfacce grafiche negli anni '80, rese l'interazione con i computer più intuitiva, culminando negli anni ’90 con l'introduzione dei sistemi operativi come Windows. Il motivo principale della larga diffusione dei chatbot risiede proprio nel superamento di un ulteriore muro comunicativo con il calcolatore, ovvero, nella possibilità di instaurare una chat con l’algoritmo. A differenza dei precedenti modelli di Machine Learning, questa nuova caratteristica permette anche a chi ha competenze digitali limitate di interagire con l'intelligenza artificiale, senza dover ricorrere a linguaggi di programmazione o alla command-line interface. Tuttavia, il vero mercato degli LLM non si esaurisce nel prompting di applicazioni web come ChatGPT, bensì nel loro utilizzo massivo per mezzo di chiamate API.
Poniamo il caso in cui un’azienda volesse sviluppare un assistente virtuale customizzato per il proprio sito web. Sfruttando le capacità generative di GPT-4, dovrebbe acquistare pacchetti di richieste API da eseguire in backend e gestire le risposte in ingresso tramite tecniche di output parsing. Il fine-tuning di questi modelli su banche dati private, supportato da infrastrutture di calcolo avanzate — una delle ragioni alla base della disputa geopolitica tra Cina e USA riguardo Taiwan, centro nevralgico della produzione di microprocessori — rappresenta il core business di aziende come OpenAI. La pressione competitiva sulle imprese, spinte a migliorare i propri servizi per stare al passo con il prestigioso valore assistenzialista attribuito alle GAI, aumenta la distanza contrattuale tra chi possiede le infrastrutture di cloud computing e chi deve dipendere da queste risorse per non essere tagliato fuori dal mercato.
Dovuta attenzione si deve quindi prestare al tentativo storico della creazione di monopoli digitali. Quando le chiavi della computazione tecnologica finiscono nelle mani di pochi attori dominanti, si crea un terreno fertile per accordi di cartello che aumentano i rischi, tanto per l’offerta quanto per la domanda. Il CrowdStrike Incident del 2024 è un esempio dei potenziali danni che può causare un accentramento delle tecnologiche. Il 19 luglio 2024, la società americana di cybersecurity CrowdStrike ha distribuito un aggiornamento difettoso del suo software di sicurezza Falcon Sensor, causando gravi problemi su milioni di macchine equipaggiate con sistema operativo Microsoft Windows. Le conseguenze sono state catastrofiche: le interruzioni si sono propagate rapidamente a livello globale, con un impatto devastante nelle regioni in cui l’aggiornamento è stato installato durante le ore lavorative. In tutto il mondo, 5.078 voli aerei sono stati cancellati. Banche, borse finanziarie ed ospedali si sono visti costretti a sospendere i loro servizi, con calcoli di indici economici rimandati ed operazioni chirurgiche posticipate. Le stime indicano che le 500 maggiori aziende statunitensi, escludendo Microsoft, hanno subito perdite finanziarie vicine ai 5,4 miliardi di dollari. In un contesto di monopolio informatico, vi è inoltre il rischio concreto che il progresso tecnologico venga rallentato intenzionalmente attraverso un’obsolescenza programmata, con l’iniezione graduale di nuovi modelli e metodologie, mirata esclusivamente ad incrementare i profitti di pochi.
Fonti
- Wikipedia
- IBM
- arXiv
Autore
Dottore di ricerca in Informatica e Automazione, con specializzazione in Ricerca Operativa e Machine Learning. Si occupa di modelli decisionali avanzati, dati complessi e tecnologie intelligenti.
Iscriviti alla newsletter di PuntoEduca | Informare. Innovare. Crescere.
Rimani aggiornato con la nostra selezione dei migliori articoli.