IA e umani, a che punto siamo tra lavoro ed educazione?

[di Marco Staffolani, 26/02/2025] Cosa viene in mente se dico IA? La chatbot di ChatGPT in cui fare domande? Oppure qualche scena apocalittica in cui le intelligenze da artificiali diventano senzienti e autonome, e prendono il controllo dell’umano? O semplicemente che come umani siamo tanto “svogliati” (o intelligenti? O sconsiderati?) che delegheremo tutto il lavoro e noi “moriremo di noia” (o “moriremo a causa delle macchine”)?
Sembra che per adesso non c’è nessun pericolo imminente! Gli analisti (cf. Articolo di Wired) che si sono concentrati sulla “capacità di linguaggio” degli LLM (Large Language Model, ossia simulare il linguaggio umano) dicono che i lavori (seri) fatti con ChatGPT e affini, riguardano maggiormente i programmatori informatici e gli addetti alla stesura di documenti tecnici o legati a processi creativi. In pratica, chi investe soldi nel profilo business di queste IA, progetta siti, app, ecc, oppure produce testi “critici” e importanti (su cui i clienti “paganti” devono poter fare affidamento). In definitiva, è l’umano che deve controllare e certificare ogni prodotto che esce dalla filiera mista uomo-IA, sia dal punto di vista del linguaggio ma soprattutto in merito ai contenuti.


Le IA “non possono essere lasciate sole”, non sono ancora in grado di eseguire lunghi processi lavorativi. In generale però l’interessamento da parte delle aziende aumenta in maniera considerevole insieme ai capitali investiti. Si prende in seria considerazione un “nuovo modo di lavorare”, quello con the human in the loop. Un grande processo omnicomprensivo e ripetitivo (loop), permesso e scandito dai tempi (brevissimi) delle macchine, può dare un risultato utile solo se l’umano vi “è in mezzo” con la sua supervisione e a volte anche con la sua interazione/presenza, di modo che la responsabilità finale sia dell’operatore umano.
È chiaro che ci sono infinite potenzialità perché alle intelligenze artificiali si può chiedere “molto”: sicuramente ciò che già chiedevamo al motore di ricerca, ma adesso anche tradurre un testo, fare un riassunto, elaborare una locandina grafica, e, ancora, produrre stralci di programmazione per un sito Internet ecc. Infine, c’è anche la possibilità di generare video, ma qui il rischio, già presente delle fake news, potrebbe evolvere in quello di una fake reality (la fantascienza di BlackMirror 6 ci mette in guardia).
Come proseguire la riflessione? Occorre essere realisti, ma con l’attitudine della speranza. Si verificano curiose, inedite situazioni da gestire nell’imminenza, ma queste non devono trovarci impreparati, scoraggiarci, e tanto meno distoglierci dal pensare a lunga scadenza.
C’è un campo, quello dell’educazione, con particolare riferimento alle giovani generazioni, che è doveroso approfondire perché a grandi, grandissime potenzialità (tecnologiche ma soprattutto umane), sono associati rischi visibili. La riflessione della Chiesa in merito è con il documento Antiqua et Nova di Gennaio 2025, ai numeri 77-84.
Riflettiamo: chi è giovane è tentato dal facile entusiasmo del “tutto e subito”, dal “copia e incolla” di contenuti generati da IA a lui “straniere”, di cui non conosce il funzionamento, le fonti, e gli scopi (secondo il business che vi sta dietro). L’IA rischia di essere invocata come il deus ex machina per noiosi compiti che l’umano non è più disposto a fare. Forse bisognerà rivedere la modalità di valutazione dell’impegno scolastico e dell’acquisizione delle “famose competenze”. Questione complessa, che qui è possibile solo accennare.
Valutiamo i rischi: il primo inerente alla capacità mnemonica umana. Se tutti, democraticamente, possono sapere “tutto” perché hanno uno strumento potentissimo (l’IA) a cui chiedere, si rischia di non saper più quale è il “peso specifico” proprio di ogni informazione, e dunque quale considerare vitale, degna di essere ritenuta, pensata e approfondita.
Secondo, viene “toccata” la capacità di giudizio critico. Affidarsi acriticamente ai risultati della macchina in merito a problemi pratici, ma soprattutto morali, senza fare prima la “fatica umana” di elaborare un giudizio quanto più verosimile sulle entità materiali e spirituali coinvolte, equivale a non prendere in seria considerazione le eventuali “pazzie” della macchina, sempre fallibile perché progettata dall’uomo, o semplicemente i limiti intrinseci di un artefatto.
Infine: è sufficiente parlare delle IA come “strumento”? Personalmente ritengo che la sfida è più grande: stiamo costruendo un nuovo ecosistema mondiale, in cui entra sempre più l’infosfera, per dirla alla maniera di Floridi, in cui sarà normale “farsi aiutare” da agenti informatici. Dovremo capire in maniera variegata quali compiti possiamo delegare, quali può essere utile integrare (come già stiamo facendo), e quali invece dovranno rimanere sempre e solo umani, perché solo l’umano in definitiva ha quella sapienza, speriamo illuminata da Dio, per poter discernere ogni cosa che il futuro riserva.

Lascia un commento