Questo sito utilizza i cookies per migliorare l'esperienza utente. Continuando la navigazione accetti l'utilizzo.

 NewsLetter 

Blog collettivo fondato e coordinato da Nando Cianci - Anno VIII   -  2024

LA SCORCIATOIA

LA SCORCIATOIANello Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, il Mulino, 2023. Riflessioni sull’Intelligenza Artificiale a partire dalla lettura di questo libro.

FIRMA NICOLAIntelligenza significa comportarsi in modo efficace in situazioni nuove. Il che non richiede necessariamente un cervello uguale al nostro. Infatti erbe e piante, colonie di formiche e lumache ma anche i software risultano intelligenti pur non assomigliando a qualcosa di paragonabile alla umana intelligenza. Anzi a questa preesiste – e può esserle perfino superiore – quella di qualsiasi agente in grado di agire (appunto) nel suo ambiente con l’abilità di apprendere attraverso l’esperienza e adattare il comportamento rendendolo viepiù efficace allo scopo di aumentare le probabilità di successo.
Perciò l’idea di comportamento finalizzato a raggiungere un obiettivo sta alla base della cibernetica, che costituisce il primo tentativo di sviluppare una teoria unificata degli agenti intelligenti. I quali sono ritenuti tali sia che nel gioco degli scacchi vincano la partita, sia che si tratti di un batterio (di ciascun organismo che lottando conservi la sopravvivenza dei suoi geni) sia di un algoritmo, giacché la regola fondamentale è sempre quella della interazione tra ambiente e obiettivo da raggiungere. Nei più svariati ambienti, infatti, l’agente si dimostra “robusto” e “intelligente” nella misura in cui il suo comportamento lo fa sopravvivere o vincere al gioco, o gli fa aumentare il profitto.
Cosicché, se per Aristotele il telos atteneva al fine ultimo o alla direzione di moto di una entità, nella cibernetica invece – come pure nella successiva teoria degli agenti intelligenti o (ai giorni nostri) nella Intelligenza Artificiale – si definisce teleologico il comportamento teso al raggiungimento di obiettivi entro un ambiente controllabile e osservabile in cui le azioni appropriate aumentano le possibilità di successo. Perché solo nella regolarità ambientale – e ancor di più se predisposta in condizioni artificiali organizzate dallo sperimentatore (come succede in laboratorio) – un agente può anticipare il futuro e migliorare l’esito delle proprie azioni.
Insomma, siccome perfino l’evoluzione naturale ci sembra procedere in maniera pragmatica e il comportamento di qualsiasi agente pare si rivolga pragmaticamente solo al proprio obiettivo, tanto vale allora che i nostri artefatti intelligenti soddisfino nient’altro che il continuo perseguimento di semplicissimi obiettivi. In fondo un algoritmo a questo serve, dato che è solo una ricetta del tutto indifferente a ogni conseguenza – fasta o nefasta – per noi. Del resto non esistono computer senzienti e dotati di una qualche forma di coscienza (contrariamente a come se li immaginava Stanley Kubrick in 2001: Odissea nello spazio, dove il supercomputer di bordo Hal-9000 addirittura si vendicava per rancore contro gli astronauti che cercavano di disconnetterlo).
L’Intelligenza Artificiale non ha nulla a che vedere con la coscienza nostra e con il libero arbitrio. Essa rassomiglia piuttosto alle colonie di formiche che combinano le informazioni di migliaia di individui per prendere decisioni collettive su dove procacciarsi il cibo e costruire il nido. Perciò sarebbe inutile, secondo Nello Cristianini, sviluppare e regolamentare una forma più alta di coscienza – come auspica invece Federico Faggin attraverso computer quantistici e non meccanici.
Quello che possiamo e dobbiamo fare, secondo l’autore de La scorciatoia, è regolamentare per legge un sistema di convivenza pacifica con l’Intelligenza Artificiale affinché ne risultiamo danneggiati il meno possibile, visto che indietro non si può tornare.

Ma in cosa consiste la scorciatoia che ha favorito l’ideazione dell’Intelligenza Artificiale?
Consiste nel ridurre tutta la complessità dell’intelligenza al solo fatto di dare la risposta corretta allo stimolo proveniente da un determinato ambiente: naturale o immaginato o appositamente creato che sia, purché abbia la maggiore regolarità possibile. Occorre cioè scoprire un preciso ordine per sfruttarlo al meglio e asservirlo a un comportamento teleologicamente orientato. Come dire: un comportamento utilitaristico che, da un lato, sembra ispirarsi alla inesorabilità della legge di natura, dall’altro, razionalisticamente la trasforma in legge capitalistica nonché scientifico-tecnica della ottimizzazione degli obiettivi da raggiungere.
Volendo perseguire uno scopo così ben definito, la nuova scienza delle macchine intelligenti non si attarda sulla logica né sul ragionamento formale né sulla comprensione teorica e perciò – onde evitarne la lungaggine inconcludente e la loro intrinseca inutilità – preferisce usare la utilissima lingua della statistica e soprattutto della ottimizzazione matematica.
Negli ultimi quindici anni del Novecento un simile processo, non solo era già in atto, ma, a tappe forzate, cercava la scorciatoia della statistica e delle reti neurali senza perdere tempo con le complesse domande sulla intelligenza in generale o sulle sue tante possibili definizioni, poiché queste intralciavano e intralciano tuttora lo sviluppo delle applicazioni industriali e non rispondono all’urgenza di come accelerare l’apprendimento automatico (machine learning) addestrando le reti neurali sul modello del sistema nervoso – secondo una vera e propria teoria applicata della ottimizzazione e misurazione rigorosa delle prestazioni.
Si tratta delle basi stesse della Intelligenza Artificiale: un linguaggio matematico che, combinando discipline diverse, è in grado di dare un nome ai modi in cui una macchina può statisticamente imparare dagli esempi, ossia, da uno sterminato numero di dati posti su tabelle in maniera da analizzare campioni di comportamento umano per poter fare probabilistiche previsioni in diversi campi. D’altronde, che cos’è mai un algoritmo se non una ricetta; e il computer a cosa serve se non alla creazione di una tabella a partire da milioni di documenti.
Gli algoritmi, infatti, non hanno la più pallida idea delle parole che “manipolano”, giacché ogni minima possibilità di una loro connotazione semantica viene esclusa e sostituita dal semplice rispetto di centinaia di parametri prestabiliti. Il tutto per ottimizzare e velocizzare le prestazioni sull’altare della sfrenata competitività al servizio dell’utilitarismo imperante: la obbligatoria quanto dissennata corsa allo sviluppo, ovvero all’accumulo capitalistico fine a se stesso.
Non è perciò un caso se da un quarto di secolo anche la scuola risulta strutturalmente invischiata nella logica aziendalistica, a tal punto che l’apprendimento viene inteso pressoché al medesimo modo di quello delle macchine cosiddette intelligenti. E, mentre l’insegnamento dei contenuti disciplinari e il senso critico perdono d’importanza, tutto si trasforma in precise (o fantomatiche) abilità, competenze, prestazioni rigorosamente misurabili attraverso griglie di valutazione standardizzate – come a esempio i Test Invalsi – ossia secondo parametri, ricette, tabelle da computer. Perché, non solo va evitato qualsiasi elemento soggettivo nel rapporto fra alunno e insegnante, ma va evitato pure ciò che le intelligenti macchine non capirebbero. Quel che esula dal pragmatico tecnicismo operativo né va pensato né va lontanamente immaginato, giacché risulterebbe del tutto inutile alle magnifiche sorti e progressive del mondo trasformato in un immenso laboratorio aziendalistico.
Talmente aziendalistico che le aziende stesse dettano la linea da seguire.
Amazon (a esempio), per espandere rapidamente il catalogo di libri in vendita dappertutto e per includere anche musiche, film e quant’altro, ha deciso già da parecchi anni di sostituire la recensione – uno strumento scarsamente funzionale all’aumento delle vendite – con un sistema automatico di raccomandazione personalizzata in maniera da creare «un negozio per ciascun cliente». Così, infatti, non solo il cliente acquista più prodotti seguendo la raccomandazione personalizzata anziché la poco efficiente recensione scritta, ma la scelta di tutti i prodotti da reclamizzare sulle varie pagine vien fatta automaticamente dagli algoritmi in base a relazioni statistiche.
In breve: bisogna ridurre le chiacchiere scritte, gli inutili pensieri e i costi – soprattutto! – affinché aumenti in modo esponenziale il profitto.
È questo il “nuovo” modello di business e di comportamento cosiddetto intelligente: una miscela di lucro e scientismo economicistico che ripropone il “vecchio” utilitarismo (o sedicente “calcolo della felicità”) come nuovo paradigma scientifico da imitare, poiché di successo.
Ma si tratta di un paradigma che di scientifico ha poco o nulla. Perché – se lo si valuta in rapporto ai molti paradigmi nuovi che hanno contrassegnato l’intera storia della scienza, come fondamentali passaggi da una teoria a un'altra che descrivesse (o tentasse di spiegare) più fenomeni della precedente – questo presunto paradigma “nuovissimo” esprime solo la tronfia apoteosi della tecnologizzazione aziendalistica sia della scienza sia della umana intelligenza. Prova ne sia che “esso”, al fine di creare un sistema intelligente (cioè unicamente di successo), sostituisce la teoria, l’idea stessa di teoria, con i soli dati. I quali – in barba a qualsiasi tentativo teorico di comprendere un intero sistema – sono nient’altro che la registrazione delle “scelte” fatte da milioni di utenti. Del resto, il mercato che se ne deve fare di un articolatissimo discorso difficile da capire, quando di ogni frase basta soltanto predire velocemente quale parola segua quella che la precede. Ciò che serve è la parola efficace per avere successo, ossia per incrementare le vendite in base al calcolo statistico dei miliardi di dati raccolti.
Entro un siffatto scenario, appare ridicola persino la concezione scientifica di Albert Einstein.
A lui, più che i singoli fenomeni, interessava conoscere – al pari di Spinoza – i pensieri di Dio o della Natura. Proprio per questo, egli cercava una legge che riunificasse macrocosmo e microcosmo.
Invece, al “nuovo” paradigma “scientifico” interessa agire con successo e senza dover comprendere i pensieri di Dio o il complesso ordine della Natura. 
Agire e basta! Decretando così la fine di ogni teoria. In ciò consiste la scorciatoia definitiva che tutto velocizza fino al parossismo, fino all’ottundimento di qualsiasi altra umana facoltà. Perché si tratta di una scorciatoia che implica necessariamente la riduzione dell’intelligenza al solo apprendimento automatico: a un semplice e agilissimo comportamento in un ambiente tanto regolare (e non caotico) quanto artificiale, poiché ogni naturale irregolarità incepperebbe il funzionamento della macchina intelligente. Che è perciò addestrata su grandi quantità di dati e modelli non-teorici affinché possa individuare quelle regolarità utili alle decisioni di più probabile successo.
Sono macchine che, imparando ogni volta dall’esperienza il comportamento migliore secondo sofisticati parametri matematici di apprendimento automatico, possono fare cose che noi umani non sappiamo eguagliare e nemmeno capire, peraltro in campi di cui non abbiano alcun quadro teorico.
In ciò sta il vantaggio di queste nostre “creature” ma anche la possibile disgrazia nostra, giacché difficilmente riusciamo a interpretare le loro decisioni e ad averne il controllo quando prendono una piega talmente brutta che nemmeno il più scaltrito dei programmatori avrebbe potuto immaginarla.
Quindi: o le si spegne all’occorrenza o addirittura le si elimina totalmente, oppure le si regolamenta.
Ma le prime due ipotesi risultano inconcepibili, perché l’Intelligenza Artificiale serve a ridurre i costi e il personale, dunque a far aumentare la produttività e il profitto in base a quell’unica legge della accumulazione neocapitalistica che il pianeta conosca, ormai.
Resta perciò solo la terza ipotesi – per la quale Nello Cristianini propende, caldeggiandola anche fattivamente. Ma questa (a mio parere) presenta più problemi di quelli affrontati nel corso dei molti anni di ideazione e costruzione degli agenti intelligenti. Bisognerebbe infatti sviluppare (secondo Cristianini) una sorta di «psicometria per macchine», una scienza che ancora non esiste. E soprattutto ogni utente dovrebbe essere rassicurato circa i comportamenti di ciascun agente e tutelato, altresì, dalle possibili conseguenze impreviste durante il suo uso, con tutta la sequela di problemi legali per i danni che ne possono derivare.  
I danni ben più gravi, però, sono quelli derivanti non solo dalla eventuale brutta piega che possono prendere gli agenti intelligenti, bensì dal modo come essi sono costruiti e dalle finalità per cui vengono pensati. Si configurano, infatti, come autentiche macchine psicosociali che prendono cruciali decisioni per noi, su di noi, contro di noi e con criteri difficilmente comprensibili, ma di sicuro carichi di ideologia, di affarismo senza scrupoli e di una ben oliata mistificazione che fa passare per oggettive e neutrali delle decisioni che non lo sono affatto. La stessa Intelligenza Artificiale risulta, per giunta, né intelligente (men che meno cosciente) e neppure artificiale, perché è umanissimamente costruita con procedimenti tecnici che imitano i primi rudimenti dell’intelligenza umano-animale-vegetale, ovvero quella del mero comportamentismo che tutto riduce a stimolo e risposta – come, a esempio, l’esperimento di Pavlov sul riflesso condizionato del cane.
E allora, verrebbe da dire, dove sta il problema?
Se la nostra intelligenza è tutt’altra cosa, se siamo addirittura coscienti di essere coscienti e di avere pure un inconscio sia personale sia archetipico-collettivo, quale mai danno può arrecarci una macchina così deficiente rispetto alla nostra grandiosa capacità financo autoanalitica?   
Ce ne possiamo tranquillamente servire come fosse un utile idiota, uno schiavo pronto a liberarci da ogni lavoro che non vogliamo più fare.
Sennonché le nuove macchine, appunto perché applicano alla lettera tutto quello che viene ad esse richiesto senza che ne comprendano il senso, non solo possono violare le fondamentali norme sociali e provocare disastrose conseguenze non volute, ma possono perseguire – con psicometrico calcolo – una ben oliata persuasione di massa che sospinga gli utenti verso una determinata direzione: che sia quella del marketing, dell’orientamento politico, religioso, sessuale… poco importa. L’obiettivo resta sempre quello di ingenerare una sorta di nuova economia comportamentale che modifichi l’architettura della scelta nella mente, nel corpo e nei gesti dei singoli utenti: plagiati a tal punto da ridursi nella stessa condizione degli insetti che la pianta sfrutta per l’impollinazione, dopo averli attirati a ronzarle attorno e in mezzo alle sue fronde al pari, insomma, di tutti gli utenti sospinti a frotte là dove gli algoritmi decidono di condurli, mediante un vero e proprio controllo personalizzato e un deleterio contagio emotivo attraverso le macchine intelligenti. Sicché ha ragione Marshall McLuhann: «Noi plasmiamo i nostri strumenti e poi i nostri strumenti plasmano noi».
Talmente ci plasmano che, invece di essere noi i soggetti che li governano, veniamo trasformati in oggetti delle loro decisioni. E soprattutto – in una società per la quale razionalità vuol dire solo massimizzare gli utili – risulta altamente razionale ogni agente che li faccia crescere in maniera esponenziale. Perciò gli irrazionali siamo noi, se non imitiamo il comportamentismo meccanicistico di stimolo e risposta, se non riduciamo l’intelligenza nostra allo stesso livello delle macchine: quello del continuo allenamento (come nei giochi) per scoprire quali azioni possano conseguire un punteggio più alto. Dobbiamo, insomma, gareggiare con esse in efficienza e velocità nell’apprendimento automatico. Solo così, siamo finalmente anche noi una montagna di dati statistici, di informazioni prive di senso (e da incasellare sempre) affinché cresca a dismisura la nostra nevrosi – individuale e collettiva – entro un dissennato sviluppo senza progresso.
Anzi, uno sviluppo talmente regressivo da ridurci nella condizione di utili idioti, privi di qualsiasi dignità. Inebetiti. Incapaci perfino di muoverci senza maniacalmente dipendere dalle macchine cosiddette intelligenti.

Per inserire un commento devi effettuare il l'accesso. Clicca sulla voce di menu LOGIN per inserire le tue credenziali oppure per Registrati al sito e creare un account.

© A PASSO D'UOMO - All Rights Reserved.