Quello della IA è un argomento al momento banalizzato nella forma più pericolosa possibile del processo di volgarizzazione di un pensiero complesso, quella resa possibile, anzi inevitabile, dalla mancata comprensione del fenomeno in questione, portando alla presunta e fallace sensazione di averne penetrato a sufficienza sostanza e implicazioni, cosa invece assai lontana dalla realtà.
Di mio penso di possedere i prerequisiti conoscitivi per essere niente altro che uno spettatore attento, quindi posso al massimo azzardare alcune considerazioni di massima che rappresentano più che altro impressioni.
Credo che al momento l'etichetta di IA sia perlomeno prematura, rispondente più ad imperativi economici e di profitto che a criteri scientifici convenientemente saldi, e che ci si trovi di fronte al massimo a "setacci automatici" di fantastica efficienza e potenza, più "servi" che "padroni" secondo la classificazione, credo turingiana, in voga al momento della faticosa e complessa transizione dalla computazione analogica a quella digitale, con un lungo intermezzo ibrido.
E’ affascinante, quasi inevitabile per chi osserva dall’esterno senza nemmeno
un’infarinatura sui principi in azione, pensare che la capacità di “applicazioni IA”
come ChatGPT, un chatbot
dotato di apprendimento automatico, sia la manifestazione di una intelligenza
arcana, mentre in realtà, e per quanto ne so, si tratta di una forma
particolarmente efficiente di processazione di dati già acquisiti, in maniera
non difforme concettualmente dal passaggio di pacchi particolarmente voluminosi
di schede perforate, cui si aggiunge una molto sofisticata procedura di
selezione dei contenuti più conformi al contesto trattato, in base a criteri predefiniti,
in grado di mantenere memoria dei propri successi.
Il processo è fantasticamente performante, i risultati, dipendendo dai dati in
ingresso, potrebbero però essere deludenti, cosa peraltro già verificatasi
quando un prototipo di IA sperimentale è divenuto in poco tempo un becero
razzista dal linguaggio violento, dato che la media dei dati in ingresso è
risultata intossicata dagli interventi di persone che coltivavano xenofobia e
suprematismo come valori di riferimento.
Se di intelligenza umanoide possiamo parlare, e non mi sembra il caso, al
massimo saremmo in presenza di una personalità labile, suggestionabile e con
bassissima autonomia.
E’ pur vero che ciascuno di noi è in larga parte il prodotto di influssi
esterni, ma l’ineffabile inconoscibilità del fenomeno creativo e dell’estrazione
da dati esperienziali comuni di determinazioni originali, che non siano la
semplice “media” dei dati in ingresso, rimane tuttora percepita, ma non
compresa nella sua sostanza.
Premesso che non mi risulta vi sia una definizione unanimemente ritenuta valida di “intelligenza umana”, l'identificazione di cosa possa essere in realtà una "intelligenza artificiale" mi risulta ancor meno concordemente definita e, come quella naturale, variamente contesa da vari rami della conoscenza, che riconoscono la necessità di una inevitabile interdisciplinarietà – filosofia, neurologia, matematica, fisica, ingegneria, psicologia - ma non riescono a concordare su uno schema gerarchico tra queste branche del sapere, e neanche ad astrarsi dalla necessità di concepirla quella gerarchia.
Io non so se in un futuro, non so quanto prossimo, un essere senziente “verrà
alla luce” da una rete neurale ultrasofisticata,
come lo Skynet di Terminator, e non so se quella mente artificiale ci vedrà
necessariamente come un antagonista da eliminare, come un compagno di viaggio
da coadiuvare e con cui convivere, o come un coinquilino di cui non si ha alcun bisogno,
dopo essere “nata” grazie ai nostri maneggi, e non so neanche se si tratterà di
una sola intelligenza o di una comunità di intelligenze artificiali.
Non so se quella possibilità sarà la nostra fine o una benedizione, però penso
che prima di pensare ai rischi, eventuali, che correremo convivendo con quella entità credo che dovremmo attentamente valutare quelli che stiamo correndo
ora, affidandoci più del dovuto a sistemi esperti e ciò che oggi definiamo con
troppo ottimismo IA, perché un processo molto efficiente di catalogazione ed
ordinamento di dati, senza il supporto di un livello discrezionale la cui elevata
raffinatezza è al momento riservata al solo apporto umano, rischia di condurci “automaticamente”
verso esisti disastrosi grazie al fatto che in sede di progetto non siamo stati
in grado di gestire la complessità e la vastità dei possibili esiti
computazionali.
E’ possibile produrre un “libero arbitrio” sintetico? E se sì, quanto sarebbe
assimilabile al nostro? Saprebbe intervenire nell’elaborazione, stolida e
massiva, dei dati in ingresso e sui risultati decisionali che conseguirebbero
sapendo separare una conseguenza “logica” da una “auspicabile” ed operando tra
queste una scelta “intelligente”? E se sì, su quali basi?
Non lo so e credo che nessuno lo sappia ancora, ma per il momento dobbiamo evitare che ciò che viene definito oggi IA ci fornisca brodi ristretti di medie profondamente dipendenti dalla bontà di ciò che immettiamo all’inizio del processo, perché il vecchio detto informatico “garbage in, garbage out”, ovvero se immetti spazzatura otterrai solo altra spazzatura, è sempre valido, e non abbiamo alcun bisogno di appendere i nostri destini ad un idiota molto veloce ed efficiente.
Vero al 90%. Il restante 10%, al di là delle esagerazioni markettare, sono le reazioni inaspettate di queste AI generative, soprattutto nelle ultime versioni che sembrano presentare capacità notevoli di interpretazione delle richieste umane che talvolta vanno oltre le capacità medie di noi scimmie senza pelo. Se a questo associamo il concetto che il funzionamento basilare dei modelli di linguaggio potrebbe assomigliare parecchio al modo in cui nel nostro cervello elaboriamo il linguaggio, la soglia di attenzione si deve innalzare di conseguenza. Ai posteri…
RispondiEliminaPs sono evk
RispondiElimina