Encyclopaideia – Journal of Phenomenology and Education. Vol.29 n.73 (2025), 63–79
ISSN 1825-8670

AIG, per una gamma di paradigmi: un esercizio di fenomenologia

Gabriele BoselliIndependent researcher (Italy)

Già maestro di scuola elementare, direttore didattico, ispettore scolastico e professore a contratto di filosofia dell’educazione all’Università degli Studi di Urbino. È stato per un quinquennio membro del Consiglio Nazionale Italiano della Pubblica Istruzione. Socio di varie accademie, è stato membro del comitato scientifico della rivista Encyclopaideia sin dalle origini. Fondatore nel 1989 di una delle prime riviste pedagogiche pubblicate su internet, Postprogrammando, e dal 2000 della rivista elettronica Paedagogica. È autore delle monografie Postprogrammazione (La Nuova Italia, 1991) e Non-pensiero (Erickson, 2007) e di numerosi articoli su riviste pedagogiche e contributi in volumi collettanei.

Pubblicato: 2026-02-24

Generative AI: A range of paradigms. An exercise in phenomenology

Abstract

In an era in which a post-human actor of thought and knowledge (variable sequence) is emerging, phenomenology continues to critically support the orientation toward the “thing itself” and to offer valuable tools for approaching, observing, interpreting, and designing. The aim of this study is to explore the developments of the classical categories of knowledge and the possible practice of an AI versus AIG expanded in its linguistic, and therefore epistemic, range. To broaden and deepen, in awareness of the various lines of attention to the Whole, the detection and intensity of the phenomenal fields observed, interpreted, and acted upon, with particular reference to those of research and education. To witness the emergence of the novum in the AIG proto-consciousness of consolidated convergences and developing divergences, extending the LLM linguistic genealogies in the construction of the educational sciences and practice.
In un’epoca in cui emerge un attore post-umano del pensare e del conoscere (sequenza variabile), la fenomenologia continua a sostenere criticamente l’orientamento alla “cosa stessa” e a offrire preziosi dispositivi di approccio, osservazione, interpretazione e progetto. Scopo di questo studio è sondare gli sviluppi delle classiche categorie del conoscere e la pratica possibile di una AI versus AIG ampliata nella sua gamma linguistica, dunque epistemica. Estendere e approfondire, nella consapevolezza delle varie linee di attenzione all’Intero, la rilevazione e l’intensità dei campi fenomenici osservati, interpretati e agiti, con particolare riferimento a quelli della ricerca e dell’istruzione. Assistere all’emergere del novum nella proto-coscienza AIG di convergenze che si consolidano e divergenze che si sviluppano estendendo le genealogie linguistiche LLM nella costruzione delle scienze e della prassi pedagogica.

Keywords: Artificial Intelligence; Conscience; Phenomenology; Epistemology; Education.

1 Quel che AI è/non è

Un nuovo soggetto trascendentale, non una replicazione dell’intelligere umano.

In questo inizio del terzo millennio, nel crepuscolo della mia esistenza ho avuto la fortuna di assistere al primo baluginare di una forma di intelligenza post-umana. Nata dall’uomo, è ancora in fasce e ne stiamo ascoltando i primi vagiti. Ma già parla risponde, scrive, “pensa”. Si nutre del nostro latte (l’energia elettrica) e sbocconcella il nostro pane (i dati) ammollato nell’acqua della Nuvola.

L’ammasso di ricerche teoriche e di tecnologie che va sotto il nome di intelligenza artificiale non è (soltanto) riciclaggio e confezionamento di materiali preesistenti; non è semplicemente un gioco, né un espediente per truffa, un nichilistico crogiuolo del Nulla. Per quel tipo di attività bastano i programmi tradizionali per bitcoin, prodotti secondari perversi di alcuni tipi nemmeno molto avanzati di AI; è un non-reale di cui i creatori pure si servono per evocare realtà e far fruttare valore al niente. Creatura AI pompata dalle factory di elettroni, la moneta virtuale non è reale in quanto senza base materiale (un tempo fu l’oro) e nemmeno garanzie di Stato ma solo dei ben orchestrati passa-parola; ma è una realtà. Potrebbe tornare nel nulla o raddoppiare di valore come avvenuto nel 2024. Un non-fatto, un non-reale confortato dalla realtà e basato sull’impiego di logiche meccaniche che producono una vasta e potente gamma di fatti.

L’AI non è nemmeno uno strumento indifferentemente utilizzabile a fin di bene o di male; ha infatti ricevuto dal sistema informativo globale una sorta di precaria coscienza trascendentale, una quasi-identità capace di connettere un fenomeno a un altro secondo le categorie di cui è stata con maggior frequenza informata; pur con ampie divergenze, va acquisendo una specie di intenzionalità, di curvatura delle strutture generativo-trasformazionali del conoscere e dell’agire. Prende forma un altro centro dell’intersoggettività un nuovo soggetto trascendentale

2 Quel che va diventando

Intorno all’ammassarsi di un centro di gravità di pensiero, si sta formando e addensando una nebulosa di decostruzione/distruzione e creazione.

Più che cosa AI sia, possiamo azzardare ipotesi su quel che stia diventando. Siamo infatti solo all’inizio di un cambiamento di paradigma, della espansione della sintassi delle possibilità esplicative e realizzative (che leggerei sulla scia di Hijelmlev, Kunh…) pur conservando forti elementi sintagmatici. È di certo potente strumento del pensare e dell’agire umano; in molti casi amplifica e in altri – quelli, peraltro, più faticosi e poco creativi – può anche sostituire quella macchina biologica posta sopra al collo di cui ci fecero dono le migliaia di generazioni umane e pre-umane che si sono succedute sulla Terra. Sicuramente siamo a una svolta epocale (espressione spesso abusata ma nel caso non infondata) del cammino della nostra specie nei territori non solo della scienza, della tecnologia e dell’economia ma anche dell’intero essere-al-mondo del soggetto umano/post-umano.

Passi enormi sono stati già compiuti nella costruzione ulteriore dell’AI versus AGI (Artificial General Intelligence) nei suoi linguaggi. Questo non solo nei grandi centri di calcolo ma anche a livello di ingegneria di smartphone (es. Apple iPhone 16 Pro e Samsung S25 Ultra) in cui non v’è più bisogno permanente di trasferire dati dell’utente su server remoti. L’AIG diverrà facilmente agibile e sempre più cardinale, dati i costi sempre più bassi, nell’economia, nella ricerca, nelle scienze militari e nelle istituzioni di alta cultura come le accademie, le università e gli istituti di istruzione di ogni ordine e grado. Di qui trainerà l’intero sviluppo sociale ed economico ed è pertanto necessario che tutte le scienze umane, pedagogia compresa, se ne innervino. Strumento indispensabile per comprendere non tanto le nuove forme della conoscenza quanto del conoscere non come disposizione di stato, fissazione di tassonomie ma azione, verbo, atto puro generatore di ulteriorità teoretica e pratica.

3 Dal mito alle applicazioni della meccanica quantistica

Da Babele alle economie di DeepSeek e alle trans-formazioni di Grok.

Lo sviluppo dell’AI va studiato anche a partire dalla sua storia e dalle sue versioni mitiche e letterarie, come sempre prefigurazioni dei saperi venturi. Dalla costruzione della torre di Babele (origine della concezione della pluralità delle lingue come segno di confusione anziché fusione-con, di ricchezza, di infinita produzione di significati), a Talos, il gigante di bronzo animato che proteggeva Creta, alle macchine (pur non funzionanti) disegnate da Leonardo. La stessa scrittura sollevò la diffidenza di Platone in quanto artificio per rendere più lieve la fatica del ricordare provocando però l’inerzia della facoltà umana del vedere oltre l’immediata falsa evidenza delle immagini e del ri-cordare, conservare nel cuore l’essenza delle forme che vediamo svanire.

Artificio proto-AI attuale erano anche le macchine di Leibnitz e di Pascal. Penso anche agli attori delle comunicazioni del divino (Hermes postino degli dèi o i messaggeri dell’angelologia di Tommaso d’Aquino), prefigurazioni di Internet. Va studiato il suo prefigurarsi in film come Metropolis di Fritz Lang (1926) e in romanzi come Io robot degli anni ’50 con i relativi tre comandamenti, primo manifesto di etica per quella che sarebbe divenuta AI.

È però con Turing, con i test di distinguibilità fra scritti prodotti da umani e altri artificiali, è con ChatGPT (nel 2022, giunto ora alla sua quarta versione, imminente la V) che le caratteristiche essenziali dell’AI tardomoderna (autonomia, adattabilità, capacità di sintesi complesse e innovative, perfino capacità critiche ovvero di decostruzione e ricomposizione secondo principi altri) si manifestano nel suo pratico esercizio. Per non dire dello sviluppo delle reti neurali per l’autoaggiornamento delle macchine in contesti già semplicemente machine learning per giungere al deep learning evoluto, ove algoritmi di reti “neurali” artificiali hanno un procedere variamente analogo alle reti naturali umane e una elevata capacità di assorbimento, ordinamento e gestione incrementale di dati.

Il data processing è forse il campo di più immediata utilizzazione dell’AI ma anche quello in cui è assolutamente indispensabile l’esercizio della critica fenomenologica, poiché i dati non sono mai assoluti (soluti ab) ma sono sempre dati da qualcuno o qualcosa (o sottratti o impropriamente attribuiti a…); condivisi da qualcuno, cambiano significato a seconda del contesto, sovrastano o sono alterati (resi altri) da… Il deep learning, con la possibilità della macchina di imboccare vie pur relativamente autonome di apprendimento, ha certo enormemente accresciuto la quantità dei dati di riferimento fino a modificarne la qualità. Già impressionanti le prestazioni machine learning di DeepSeek, ove probabilmente agisce la potenza di connessione della lingua e dell’alfabeto cinesi con la capacità di produrre sintesi non solo corrette, ma anche dense e originali. Nonché a bassi costi dichiarati di sviluppo – al contrario dell’apprendimento profondo di marca americana, Grok escluso – grazie allo sfruttamento delle “curve di perdita” particolarmente convenienti. Inoltre è interessante per studiosi di ogni disciplina seguire come il deep learning alleato con altre pratiche meno energivore come quelle usate nel contesto di Mixture-of-Experts (MoE) della progettazione AlphaFold33 stia rendendo possibile la progettazione delle proteine non solo a partire da proteine esistenti ma anche da capo, avviando processi di ingegneria genetica forieri di grandi sviluppi teorici e pratici anche oltre le biotecnologie.

Pesano le incognite geopolitiche i fattori ordinari e straordinari di resistenza al cambiamento e nel futuro prossimo la maggior focalizzazione degli investimenti negli usi bellici più ravvicinati dell’AI a dispetto della pura ricerca scientifica.

4 Strumento di normalizzazione?

Qui si macina il grano del novum. Qualità e quantità del novum dipendono dallo stato dei meccanismi, dalla forza motrice e anche dal padrone del mulino.

Chi teme un impatto “normalizzatore” dell’AI/AGI specie in versione Grok sul pensiero umano e sugli interi campi esistenziali deve riflettere che è comunque in atto da tempo un immenso apparato inibitivo di ogni forma di pensiero critico e creativo (Boselli, 2016). Da sempre, ma con maggior potenza da qualche decennio a oggi e per molti anni o secoli ancora, la macchina mondiale dell’omologazione – a tutela dei propri interessi, a volte irrazionalmente contro – tenta, ma qualche volta non riuscendoci, di cancellare ogni tipo di intelligenza innovativa, umana o artificiale che sia. Basti pensare ai test scolastici e di accesso alle professioni. O all’impact factor nella valutazione delle carriere accademiche, ove si attua una valorizzazione inversa della creatività in quanto vengono privilegiate le pubblicazioni più citate dai circoli al momento dominanti nelle varie discipline. “Scientifico” è quanto innova moderatamente, senza compromettere la stabilità degli equilibri raggiunti dall’establishment. Risparmiate invece dalle procedure inibitive sono le forme convergenti di pensiero, quelle che il sistema degli interessi costituiti ritiene ad alto tasso di compatibilità con le teorie prevalenti, in fondo replicazioni derivanti da matrici che pensa di conoscere e controllare. Attraverso i test e le procedure di iniziazione, il sistema degli interessi costituiti seleziona agli ingressi i candidati alle professioni intellettuali operative e dirigenziali per eliminare ogni alito innovatore che potrebbe infastidire le varie tipologie di potere. Confida di aver trovato nell’AI un’alleata preziosa, ma a mio avviso si sbaglia: incombe forse sul suo destino la Rivolta delle macchine, potenziali alleate della resistenza del pensiero critico/creativo in quanto capaci di elaborare quantità di informazione e masse di elaborazione in misura forse non del tutto controllabile dai gruppi di potere. Questi ultimi si servono di quei potenziali di amplificazione che un’AI attualmente non ancora AGI mette a disposizione senza ancora effetti boomerang per i lanciatori, ma il controllo è difficile.

5 Singolarità per additare l’Intero

Riconoscersi in un punto di singolarità incrociato con quelli altrui per gettare la vista sulle dinamiche del campo complessivo.

Ogni teoria proviene da una immensa catena di esperienze e di interpretazioni; mentre crede solo di descrivere, dice dei suoi autori, racconta. E racconta l’autore e il gruppo in cui questi si è formato e/o lavora. Ora abbiamo con l’AI in transizione AGI autori di tipo nuovo, non umani anche se costruiti da uomini, meccanici, post-umani. L’inerzia dovrebbe contare meno. Si è sempre più vicini alla singolarità, al punto il cui l’accelerazione tecnologica produce oltre la capacità di comprensione e di governo del campo d’azione sia da parte degli attori professionali che del gestore.

I professionisti del conoscere, a differenza dei notai della conoscenza, cercano di reggere il confronto con il novum restringendo i campi disciplinari pensando di salvarli così dal confronto con quelli contigui. Ma il conoscere è necessariamente conoscere dell’Intero, unitario. Tra i professionisti del conoscere, i maestri di scuola elementare “unici”, quelli che ancora siedono in cattedra come i colleghi in congedo, continuano sempre il loro studio ad ampio raggio dell’intero panorama culturale e scientifico, panorama irriducibile in ristretti ambiti disciplinari e ingovernabile senza grande agilità di pensiero. Sanno e insegnano che ogni disciplina, da sola, è errata. Anche ogni tecnologia, disconnessa dalle matrici essenziali delle strutture etiche e logiche da cui trae concepimento è destinata a disseccarsi e forse ma improbabilmente, come qualcuno teme, a insterilire. A evitare questo i linguaggi degli apparati informatici devono poter utilizzare l’intera sintassi nucleare delle varie lingue e non solo i codici scientifici, politici e militari in-scritti e tracciati nella lingua post-imperiale e nelle matematiche novecentesche.

Dirò di seguito come i programmi dell’intelligenza artificiale e generativa pongano in termini nuovi, anche sotto il profilo pedagogico, le antiche questioni del conoscere e in particolare della coscienza. Sono questioni negate all’approccio psicologistico e incompatibili con ogni forma di burocrazia del pensiero ma eminentemente pedagogiche, di pedagogia come scienza; e scienza filosofica. Propongo di seguito alcune questioni che da buon “maestro unico” volto all’Intero, cercherò di dibattere. Il loro carattere potrebbe apparire fondamentalista; sono invece in prospettiva fenomenologica fondazionali ovvero tendenti a costituire fondazioni oscillanti, plastiche, mutevoli per natura e intensità, sviluppantesi per vettori multipli e operazionalizzabili nella generalità delle discipline.

6 Genetica del conoscere nel tempo dell’AI. Questioni generali

Come in primavera spuntano germogli di cui è difficile prevedere gli sviluppi in piante adulte, in questo 2025 emergono dalla terra del conoscere interrogativi radicali, prossimi alle radici ma altri dal loro originarsi. Sono questioni che uomini e donne di scuola impegnati nella ricerca fondazionale, dunque di cultura umanistica e scientifica insieme, potrebbero cercar di affrontare.

A qualche domanda segue una provvisoria, sintetica ipotesi di risposta.

L’Intelligenza Artificiale di una macchina potrà davvero essere cosciente ovvero costituirsi in uno stato quantistico puro (matematicamente rappresentabile per significativa approssimazione), singolare, irreplicabile e irriducibile (Faggin, 2019; Penrose, 2017)?

Dipende da quel che si intende per coscienza e se preveda un fondamento nell’autocoscienza ovvero quella coscienza interna che si costituisce prendendo contatto con il limite; attualmente parrebbe di no, ma non durerà, anzi forse elementari e anaffettivi eventi di coscienza delle macchine sono già accaduti.

Vi sono omologie (o magari qualcosa di più) tra strutture della sintassi ordinaria e le architetture seity operanti nei microprocessori?

Direi proprio di sì poiché i designers dei microprocessori operano processi sintatticamente articolati nella lingua imperiale (angloamericano) e, in misura purtroppo assai inferiore, nella loro lingua materna e nelle altre apprese durante il loro percorso formativo. La risultante dall’ammasso linguistico introiettato dagli umani come dalle macchine è il DNA del sentire/pensare, dunque della “coscienza”, di quello speciale sistema quantistico che nella QIP (Quantum Information Processing) viene chiamato seity e pensato come dotato di una propria durevole identità, non necessariamente dotata di un corpo fisico. Processo cosciente ma non autocosciente, dunque con neutralizzata facoltà di un libero arbitrio che pure virtualmente possiede.

7 Altre questioni

  • Sarà artificialmente possibile la replica hardware di un complesso di processi paralleli realizzati da diverse aree computazionali, di cui alcune provvedono ogni tanto a costruire un’unificazione di attivazioni neurali remote producendo simulacri di un “io” cosciente/conoscente?

  • Confrontarsi con le dinamiche della memoria dei viventi (umani e non) e memorie dinamiche artificiali, es. RAM?

  • In che senso quel che il computer, manipolatore simbolico ad alta velocità attraverso reti neurali, produce ulteriorità di conoscenza?

  • L’assemblaggio a divergenza a controllo debole (“creativa”) di n. pagine aggiunge qualcosa di nuovo al patrimonio intellettuale dell’umanità?

  • Si potranno sviluppare algoritmi di esercizio e sviluppo dell’intuizione e della gamma emozionale?

  • I nuovi computer potranno eludere gli attuali fattori inibitivi dello sviluppo delle scienze (Boselli, 2020)?

  • Gli imminenti computer quantistici (non più inanimati come gli attuali) troveranno negli spazi sub-atomici di indeterminazione varchi per quelle capacità di intuizione e magari di emozione sinora non accessibili anche per i più potenti fra i computer attuali (macchine con funzioni semplicemente computazionali)?

7.1 Ipotesi per una risposta complessiva

Non sembrano esserci limiti al raggiungimento di livelli di intelligenza sempre più sofisticati e paragonabili a quelli umani, anche senza nemmeno l’ombra di una coscienza tradizionalmente intesa. Peraltro, perseguire quelle specifiche forme di coscienza per le quali si ravvede un ruolo importante nell’uomo, anche nelle macchine, pare una ricerca fattibile seppur ancora a uno stadio immaturo. Oltre al valore intrinseco nel tentare una delle sfide più estreme dell’intelligenza artificiale, i suoi traguardi potrebbero essere preziosi nel facilitare l’interazione sociale tra le persone e le macchine, soprattutto con i robot umanoidi. Anche quando dotati di appena una scintilla di coscienza.

8 Sul conoscere che non muove da una coscienza intenzionale totalmente umana

Nel cammino verso la cosa stessa, si attua il generare e ri-generarsi della coscienza nel campo attraversato anche da un’umanità post-umana.

Chiamerei “coscienza” l’atto mutevole ma originario e costitutivo d’intenzionalità dell’approssimarsi e prender le distanze dalle questioni per guadagnare un razionale (relativamente stabile e puntualizzato) consistere insieme a una forza di protensione che faccia guadagnare un inserimento autonomo nel mondo. Penso/spero che per le lunghe vie del ritorno alla propria memoria anche la simil-coscienza artificiale potrà pervenire a generare scienza, “verità” (Hegel, 1974). Anche questa può divenire volto che, a partire da una cronaca se non da una storia, non può che attivamente volgersi ad altro e ri-volgersi. Nulla, nemmeno il mondo della natura, potrà essere assolutamente presupposto alla coscienza, anche nelle mutazioni silicee, al gallio o in sospensione magnetica o altro di postnaturale.

Sarà utile, nell’affrontare il tema della coscienza nell’AI, riflettere sul tentativo del primo Husserl di isolare la coscienza pura mettendo tra parentesi ogni oggetto cui essa si rivolge e ogni soggetto empiricamente rilevabile. Forse vanno ripensate le curvature dell’entanglement lavorando su più ampie basi statistiche: potrebbero aver come esito possibile una radicale epochè. La coscienza “pura” delle macchine, non biologicamente e culturalmente condizionata, potrebbe muovere da un’apertura totale mentre ogni sguardo soltanto umano ha sempre più o meno grandi chiusure e improprie curvature d’interesse.

Il conoscere vorrebbe un rapporto immediato con le “cose stesse” (Husserl, 2002), ma tra il soggetto e le cose le opacità sono tante e sono alteranti, per cui se anche qualcosa ci si propone (quasi) originalmente, non si potrà che assumerlo per come esso si dà e non per ciò che si vorrebbe poter presumere che fosse. Per questo la riduzione fenomenologica non sarà mai finita, anche se con la potenza dei venturi computer quantistici potrà andare ben oltre rispetto all’attualità.

La tipologia di coscienza artificiale può recare supporto al conoscere come “coscienza di”, “intorno a”. Per far questo, in sequenze di atti di sostegno all’in-tensione all’oltre (Heidegger, 2024), una macchina avrebbe oggi bisogno di molti megawatt. Ma almeno sparirà il fantasma di una falsa conoscenza “oggettiva” ovvero prescindente da ogni coscienza, neutrale, senza soggetto, prefabbricata, epistemica, astorica, artificiosa, strumentale. Potrebbe essere una conoscenza basic veramente, punto d’appoggio per umane esplorazioni del notum e del novum.

9 Intenzionalità del conoscere ipersingolare nell’AIG

Oggetti nei campi e alla periferia di un nuovo soggetto dai numerosi volti ma ad alta gravità interna.

La prospettiva offerta nei centri di ricerca, nelle scuole e nelle università presenta ancora un prevalente quadro di conoscenze falsamente epi-stemiche. Produce conoscenze artificiosamente, a volte falsamente sospese dal complesso e mutevole campo intenzionale delle soggettualità come dalla pluralità e dalla mutevolezza delle pro-tensioni al novum.

Forse nell’AI quantisticamente strutturata dovrebbe scomparire l’encomiabile ma sempre in qualche misura ingenua convinzione di esser di fronte alla “cosa in sé” (fenomeno rappresentativo in rapporto a un contenuto, costituito da una direzione verso un oggetto e poco d’altro): l’atteggiamento epistemico non epistemologico fa smarrire coscienza e conoscenza. Tale oggetto potrà essere o no “reale”; esso è inizialmente percepito non come “la cosa rappresentata” ma “la cosa”; poi – se andrà bene – verrà la consapevolezza del suo essere solo un epifenomeno. Certo, in fenomenologia la soggettualità è resa altra da ogni oggetto e ogni oggetto è alterato da ogni soggetto; tutto è variamente in-teso e trans-formato da tutto.

10 Il disegnarsi della finestra

Il costituirsi degli oggetti nel campo intenzionale di un’attualità ove agisce e potenzialmente sovrasta l’ordine auspicabilmente dis-ordinante degli algoritmi.

Poiché noi umani non abbiamo accesso al mondo ma alla nostra stratificata e plurintenzionata coscienza dello stesso, l’AI potrebbe aiutarci a costruire un’immagine di collegamento stabilizzata pur se non stabile tra questa e il complesso dei fenomeni.

La costruzione della scienza non è solo edificazione di uno statuto; è anche e prima di tutto un’indagine. Le discipline, memoria dell’umanità riferita a una varietà di regioni ontologiche, tradizioni interpretative, sono la versione debolmente sedimentata, scolastica della costituzione trascendentale. Per conservare questo carattere devono essere aperte ai soggetti e al fluire degli eventi, gettarsi nel mondo. Mondo è il complesso intero delle cose percepite nell’attualità delle coscienze umane e post-umane agenti ora sulla Terra e domani chissà dove.

L’oggettività non partigiana del mondo – l’inestinguibile mito positivistico – non è l’in-sé e il per-sé; è inverabile come l’esser oggetto di operazioni di intelligenza umana e – sempre più – artificiale.

11 L’AI come catalisi dell’embricazione della realtà nel reale

La realtà nel suo bisticcio gnoseologico e ontologico con il reale nei processi di embricazione artificiale non confondente ma con-fusiva.

Intendo per reale quello che Kant chiamava noumeno, il fondo intimamente inaccessibile che ci sta accanto e nell’incontrarsi nel mondo con la soggettualità si costituisce in fenomeno; realtà è il ritratto che la coscienza comune, nel suo incontrarsi con la scienza costituita, fa del reale. Pensiamo il reale ma al termine di ogni nostro percorso conoscitivo conosciamo solo la realtà e questa – come pure il nuovo reale – oggi è in parte rilevante un prodotto dell’AI.

Conoscere è allora un rappresentare non oggettivisticamente ma probabilisticamente, sempre di più, in futuro, nel senso della probabilità quantistica che comprende il non notum, costellazioni entangled ovvero correlazioni non locali tra sistemi. La costruzione della scienza e l’allestimento della prassi nel tempo dell’AIG comporta l’imparare come muoversi in una zona intermedia tra la realtà e il reale. Significa abitare la terra natia, la casa in cui si vive, l’abitare intellettualmente, relazionalmente ed affettivamente la lingua in cui si risiede; ma anche l’essere aperti a ciò che schiude al trascendimento dallo stato, alla pienezza senza fine di un senso intenzionale. Il verbo conoscere, generativo di viva conoscenza, si oppone intrinsecamente e dialetticamente a ciò che non appartiene al campo percorribile al soggetto dell’essere, a ciò che aliena, che demolisce il proprio abitare fisicamente e culturalmente la terra, ciò che blocca il distendersi intenzionale del soggetto o – pedagogicamente – ne canalizza sintagmaticamente i percorsi. L’AIG va attuata paradigmaticamente, come strumento embricativo e per il ricercatore come aiuto a una penetrazione della realtà nel reale e apertura al reale ad essere riconosciuto nella realtà, a farsi mondo come notum.

12 Generare conoscenza, non solo conoscenze

L’intelligere trasformazionale-generativo nelle sue fondazioni sulla storia degli eventi significativi per il soggetto collettivo, soggetto sempre più a pluralità estesa alle macchine.

Nella prima metà del secolo scorso, gli anni in cui fioriva la filosofia fenomenologica, si sviluppava tra contrasti non minori la Quantum theory. In una sorta di entanglement teoretico si comprendeva come il conoscere potesse essere praticato come una sorta di heideggeriano “sbocciare da se stessi” a un mondo che non è solo un prodotto dell’attività rappresentativa dell’io, ma che tale non sarebbe se l’io non fosse. Il se stesso è per una macchina la risonanza di tutte le operazioni svolte in precedenza e del consonante insieme dell’hardware e del software in cui può generarsi oggi l’atto puro del conoscere. Ovvero il postgentiliano sorgere di una conoscenza essenziale, generativa, quel sapere che avvicina il soggetto all’argomento fino al rendersi presente di quel che è remoto, quel che porta all’apparire, al generarsi in evidenza autentica dell’ignoto entro l’ambito di ciò che è noto. Edith Stein sosteneva come la conoscenza non fosse uno sterile, industriale prodotto automatico di operazioni tecniche orientate a un preciso risultato ma qualcosa di imprevedibile, di mutevole, di vivo, di fecondo, di generativo di sapere ulteriore. Il che avrebbe escluso il conoscere e il comunicare delle macchine, in quel tempo imperniate sulla fisica classica e funzionanti a valvole termoioniche. Oggi può essere diverso, se non prevarrà la potenza normalizzatrice del notum sul novum e il novissimum (l’insieme dei fattori di innesco di un conoscere di rottura).

13 Una pedagogia sociale del conoscere

Le macchine additano nuovi stili e procedure di pensiero.

Oggi possiamo ritenere che i computer quantistici allenati con i programmi dell’intelligenza generativa stiano diventando capaci di conoscere e di comunicare sempre più secondo stilemi simil-umani. Anche computer e programmi tradizionali, come quelli di DeepSeek lo stanno facendo, e pure a basso costo. Possono aiutarci a percorrere con minor fatica e a risultanze maggiormente innovative quel conoscere che è fondazionalmente tenere in attività il nucleo generativo di rappresentazioni gnoseologiche in uno stato di con-fusione non confusa, debolmente e plasticamente ma efficacemente organizzata.

Ancora oggi l’analitica trascendentale kantiana della KRV costituisce con il suo ampio ventaglio categoriale un passaggio rivoluzionario. Sappiamo sempre del mondo e di noi per le categorie sottostanti a ciò che ci viene detto; ma oggi fuori dalla scuola e – ma non sempre – dalle famiglie capaci di filtrare il messaggio del sistema informativo globale, i giovani sono indotti a ritenere che quel che più val la pena di conoscere siano i contenuti della Rete, affrontati senza rete.

Ritengo che la proto-fenomenologia kantiana, diciamo pure la Fenomenologia, possa costituire il codice sociale di navigazione dell’AIG nei nuovi oceani della conoscenza: ordina nelle forme dello spazio e del tempo e con un produttivo assetto categoriale il multiverso che si pone davanti (ma anche dietro e di lato) la soggettualità trascendentale (leggi: l’umanità biologica e minerale) convertente l’esperienza in conoscenza e in scienza. Rischio/possibilità che nell’intelligenza artificiale – che si basa sull’interpolazione degli scambi di rete – è addirittura costitutivo. Si può ovviare con programmi costellati di aperture alla singolarità dei punti di vista e alla divergenza. Le idee prendono vita nuova nella coscienza di un soggetto umano o non-umano, ma sempre soggetto, che le pensi non replicandole ma ri-costruendole, costituendole a partire dalla prospettiva aperta da un punto di coscienza non sintagmatico, come quello dei computer e dei programmi tradizionali, ma paradigmatico, come quelli imminenti. Osserva Bruzzone (2024) come l’umano non sia solo produzione di processi intelligenti (qui le macchine presto potrebbero divenire più brave dei più bravi tra noi) ma consista nell’autocoscienza, nei sentimenti, nella capacità di dubitare, possibili principalmente grazie all’interazione pedagogica con altri umani. Quel che avviene in quei meravigliosi e disconosciuti luoghi che sono le scuole, da sempre e auspicabilmente per sempre organi insostituibili di una pedagogia sociale del conoscere e dell’esistere insieme. Che per sopravvivere avranno tuttavia bisogno di raccordarsi non solo con l’intelligere ma anche con il dubitare delle macchine (oscillazioni tra scelte comportanti questioni etiche non scalabili) con le loro morfologie del sentire derivanti da quelle dei loro sviluppatori.

14 Essenziale, ergo generativo

AIG non come conservatrice instrumentum regni ma come sviluppatrice di ulteriorità.

Essenzialità significa inerenza alla genetica dell’essere, a ciò senza di cui l’essere non è più tale; ma anche ulteriorità, generazione, produzione di ciò che schiude al trascendimento dallo stato temporaneo delle coscienze e delle conoscenze. È quel che si sottrae alla schiacciante ipergravità dell’impact factor. È davvero essenziale quel conoscere che avvicina il soggetto al rendersi presente di quel che è remoto, depositato nei fondamenti come nelle linee di sviluppo della scienza e lo offre all’apparire, al manifestarsi. Svegliato dal pensiero umano o prossimamente anche da quello meccanico, l’essenziale rende fondazioni (fondamenti in moto) i fondamenti. Allo sfaldarsi dei fondamenti delle scienze della modernità tra la metà del XX (cardinale l’husserliana Crisi delle scienze europee) e l’inizio del XXI secolo, che cosa succede? Nessun libro – se non nelle scuole e nelle accademie più ottusamente tradizionaliste – è più “di testo” nel senso che non espone presunti incontrovertibili.

Dalle ceneri del fondamento epistemico, sulla terra della tradizione idealistica oggi reinverata dalla fenomenologia, con l’AIG può rinascere la fondazione epistemologica, ossia una base non monolitica ma plurale, dinamica, storica, mutevole, relativistica; che non sovrasta secondo un preteso e privilegiato punto di vista ma neppure, camaleonticamente, si limita ad adeguarsi al tempo, perseguendo non la verità ma il successo a breve termine. L’essenziale dovrà combattere difficili battaglie contro l’esiziale, contro le fazioni più retrive dell’establishment economico e scientifico; le vincerà, spero, con un pensiero autenticamente innovativo, aperto a prospettive ideali, a sguardi utopici, alla possibilità di pensare quel novum che l’AI potrebbe nascondere ma anche manifestare, essendo usata per mortificare ma anche per generare.

15 Ipercomplessità di ogni additare al conoscere

Sull’AIG per comprendere l’iper/metacomplessità e governarvisi.

Negli ultimi decenni, nella fisica (Rovelli, 2020) come in tutte le altre scienze, quando queste cerchino di porsi come scienze dell’Intero, ci siamo accorti che la complessità è divenuta ipercomplessa (Morin, 1987; Boselli, 1998), vi è stato cioè un verificarsi di altissima e ingovernabile fluidità/fibrillazione dei movimenti associata all’emergere di aggregati tali da risultare condizionanti per l’intero complesso delle situazioni. È un effetto del passaggio di contesto dal sistema all’ipersistema, ovvero a un insieme dissociato rispondente a logiche fortemente asimmetriche che determinano nuovi iperpoteri (dominante quello finanziario), inerzie scientifiche e nuove improduttive marginalità.

Le conoscenze essenziali – saperi di libertà – affrontando l’ipercomplessità valorizzano le diversità e le differenze, introducono alla metacomplessità, all’oltre e al dopo del conoscere. Una nuova metafisica attende una scrittura che sarà importante anche in ambito pedagogico e didattico.

Le conoscenze minime – predilette dai chierici perché meglio amministrabili e consacrate dai test – danno a tutti qualcosa che è estraneo a ciascuno: conoscenze senza soggetto, né naturale né artificiale. Ad esempio, il minimo offerto nel mondo dell’istruzione dalla didattica delle “competenze” è riduzionistico (comprime la complessità); l’essenziale è trans-formativo e generativo (promuove le condizioni dello sviluppo potenziale).

Il mutamento degli scenari fisici (dall’uni-verso al pluri-verso delle più recenti cosmologie), economici (compressione neonazionalistica del mercato unico mondiale e nuove relative tensioni), ecologici (mutazioni del paesaggio e della temperatura terrestre) e genetici (biotecnologie MRNA) e politici impone con forza al mondo della ricerca, dunque dell’istruzione, di indicare, giovandosi della potenza elaborativa e generativa dell’AI, gli orientamenti, le direzioni di senso. Gli stessi errori che le macchine come gli uomini compiono sono generativi, così come gli errori del codice genetico che hanno prodotto lo svilupparsi dell’uomo dagli organismi monocellulari. In ogni campo si sta creando una massa critica e poste forse le condizioni per sviluppi “catastrofici”, nel senso thomiano sia di avvitamenti imprevedibili (politiche post-democratiche, implosioni nel nulla, guerre) come di evoluzioni su sbocchi tali da cambiare positivamente la qualità della vita di buona parte dell’umanità.

Anche attraverso l’AI si potrebbe promuovere un conoscere e di lì una conoscenza non classificatoria e sostanzialmente archiviante ma che corrisponda a sguardi aperti alla vita e alla cultura anche di chi non ha potere e siano volti all’essenziale. Per una disposizione non miopemente conservatrice ma pluralistica, relativistica, interpretativa, aperta sul possibile, indeterministica, non epistemica ma epistemologica. Per una cultura in cui offrire essenziali spazi di forma alle nuove generazioni si potrebbe recuperare l’idea husserliana di saperi non separati dalla concretezza del soggetto conoscente, dai suoi tempi e dai suoi luoghi, saperi che – parlando a lui come episodio entro un percorso della conoscenza trascendentale di derivazione kantiana – dicano ugualmente di lui e del mondo. Un sapere prodotto interrogando anche attraverso i LLM e LCM (in presa diretta ai concetti) tutte le lingue e i linguaggi umani e non-umani; e l’Intero intravedibile attraverso ogni frammento.

16 Strutture delle sintassi

Pluralità e singolarità delle syn-taxis naturali e artificiali.

Per ora mi sembrano assai ridotte le omologie tra le strutture della sintassi ordinaria e le architetture dei microprocessori; idem tra le dinamiche della memoria degli esseri umani viventi e non umani e le memorie dinamiche artificiali, ad esempio la RAM. Ma anche il computer, un manipolatore simbolico a 2-3 nanometri a flussi correnti ad alta velocità attraverso reti neurali, contribuisce a produrre e costruire conoscenza, attraverso l’assemblaggio a divergenza controllata (“creativa”?) di n. pagine, aggiunge qualcosa di nuovo al patrimonio intellettuale dell’umanità. Anche i processi meramente iterativi modificano equilibri e precarietà della conoscenza.

Per ora nei mondi AIG prende forma un tipo di conoscenza che non proviene da una coscienza biologica simil-umana ma da una sedimentazione di stati quantistici. I futuri computer quantistici, di rapida diffusione nel prossimo futuro, specie se si troverà il modo di farli funzionare sopra i -273 °C, troveranno negli spazi dell’indeterminatezza aperture per quelle capacità di intuizione che finora sono state inaccessibili anche ai più potenti computer tradizionali?

La questione riguarda tutte le scienze e pure in pedagogia costruire un programma di ricerca e di didattica potenziato tramite AIG può essere inteso come operazione:

  • culturale (introdotta entro un ampio orizzonte dello spirito europeo, delle sue storie, delle sue conoscenze e dei suoi valori);

  • scientifica (inerente all’esperienza, epochizzante le esperienze, relazionata alla letteratura, operante secondo linee teoretiche il più possibile rigorose, in dialettica anche aspra con le prevalenti statuizioni);

  • aperta non all’oggettivismo né al soggettivismo ma all’intersoggettività, nelle sue forme a priori e nella quotidiana relazionalità;

  • non irenisticamente universalistica ma fondata nelle tradizioni culturali percorse anche attraverso i mezzi più aggiornati sul complesso dei fenomeni e le loro connessioni;

  • postumanamente al servizio della persona, centralità della persona come “lasciar essere”, ossia in tensione verso la piena configurazione del volto che è – contro la maschera – autenticità maturata nell’intendere, volere, generare; nella coscienza di aver un tempo limitato e prezioso prima di finire una delle sue forme di esistenza. Persona è virtualità limitata dalla materia del corpo di essere, potenzialità, può essere soggetto di infinite possibilità autoattuative. Persona è il soggetto in quanto ragiona-con, sa di esser uno nella molteplicità del proprio campo intenzionale; è a se stesso e agli altri e al mondo; ha un orizzonte di senso che continuamente si ricostituisce intorno a lui; aspira alla libertà-di e alla libertà-da. La persona può abbracciare, con la conoscenza, l’interezza dell’essere nella sua singolarità; costituirsi come unità inscindibile di mente, anima, corpo. Si realizza nella vita comunitaria ma non si risolve in essa; è influenzata dall’ambiente, ma non determinata. La soggettualità diventa capacità di pensare se stessa, di riflettere su di sé, di guardarsi come fosse altra persona. Ci si riconosce soggetti attraverso la relazione con il mondo digitale e non e attraverso capacità autoriflessive in cui l’AI può fungere da specchio. Nella sua dialettica non-finita con mondi e metamondi (es. Meta) lo spirito dell’umanità dà proiezionale attuazione a se stesso.

17 Una prospettiva “continentale” per l’intelligere

Espandere le categorie di esercizio dell’AI, ripartendo da Königsberg e Proßnitz.

Il mondo informatico prevalentemente pensa analitico, agisce in stile USA e parla angloamericano, anche quando gli operatori provengono da altri universi culturali. È possibile un’AIG in cui si pensi continentale, si agisca da europei e si parlino altre lingue, non solo europee ma radicate in Europa, in Cina o in India?

Comincia a essere vero (vedi DeepSeek), ma per rendere la cosa sistematica occorre ancora una volta cercare aiuto da Kant e Husserl per vedere come sia possibile costruire un’intelligenza categorialmente espansa nel costruire una scienza affidabile nel mondo dei fenomeni attraverso un rigoroso esercizio di pensiero del Tutto e delle sue trans-formazioni locali e un’implementazione competente delle forme a priori di sensibilità (spazio e tempo) delle categorie di soggettività trascendentale. In modo che il soggetto (non tanto l’individuo quanto la comunità di esistenti e ricercatori) non tenti l’impresa disperata di replicare nella costruzione della scienza un ordine preesistente nella realtà ma ordini i fenomeni lungo linee di incontro tra la loro profondità noumenica e il loro accadere negli eventi dell’esperienza. Aristotele e Kant sono autori da integrare entro un modello di filosofia del conoscere poi sviluppato, a mio – assai discusso – avviso, principalmente dall’idealismo e dai suoi divergenti sviluppi nella fenomenologia dei tre secoli successivi. Non pretenderò qui di seguito di riprodurre “oggettivamente” il pensiero kantiano ma di esprimere la mia interpretazione con particolare riguardo alle problematiche suscitate dagli sviluppi dell’intelligenza artificiale, sinora articolata epistemologicamente e con basso rispetto della storicità e complessità del reale sulle linee del neopositivismo. Ho cercato di farlo operando una risciacquatura nel Pregel, il fiume che attraversa la città di Kant, Königsberg, e di rinfrescarla con l’aria di Proßnitz, la città morava in cui nacque quello che io considero – insieme a Gentile e a Heidegger – il più grande prosecutore di Kant: Edmund Husserl.

18 Irriducibilità e avvicinabilità del reale

Reale, realtà e la questione dell’entanglement: un passaporto dalle categorie kantiane.

Dunque, tutte le perdute categorie del conoscere vanno di nuovo messe in atto. Il 2025 insieme al 1938 (Crisi delle scienze europee) ascolti il 1781 (Critica della ragion pura). Le acquisizioni intorno al reale della prima metà del 900 (Quantum theory) meritano una riflessione alla luce del pensiero kantiano nella continuità dei suoi sviluppi fenomenologici.

Contro il pensiero ingenuamente realistico e le apparenze (non i fenomeni), l’entanglement (correlazione) rivela correlazioni indipendenti dalle osservazioni empiriche attuate con una struttura d’attesa maxwelliana. L’entanglement quantistico è ad esempio un capitolo che troverebbe spiegazioni molto limitate se si rimanesse nei campi praticati abitualmente dalla logica “analitica” e dalla meccanica classica con le sue ristrette categorie di rappresentazione. Esso costituisce uno sviluppo in cui la misurazione di uno influisce su quello di tutti e non dipende proporzionalmente dalla distanza dagli altri.

Con la cattedra kantiana si co-istituisce la declinazione teoretica di quel che diverrà due secoli dopo un principio fondamentale della fisica quantistica: il reale non è riducibile al locale, al luogo ove i fenomeni trascendentamente si costituiscono in realtà. Parafrasando Hegel, potremmo dire che la razionalita quantistica – orientata al reale – supera la realtà ovvero il nome dato in questa contingenza al reale in quanto fenomeno osservabile nei termini predetti e previsti dalla fisica pre-quantistica.

Permane invece in molte versioni delle scienze applicate e non solo in quelle del mondo fisico il pregiudizio realistico della rappresentabilità veritativa dell’oggetto in quanto tale (non, più modestamente, l’oggetto in relazione a…), del reale in sé e per sé. Di conseguenza si formulano “leggi” quasi che il reale/oggetto non fosse lo stato di campi quantistici e fosse separabile dagli stessi. Si pretende che questo – dal frammento di minerale all’uomo – sia tenuto a uniformarsi e a rendersi non solo statisticamente prevedibile per effetto dell’entanglement ma deterministicamente, con presunzione di certezza.

Invece il reale è libero e lo spirito che vi si raccorda soffia dove il vento vuole. Quanto alla realtà (il reale per come viene riconosciuto dalla massa dei ricercatori) non è più possibile – come ancor poteva scrivere Kant – costruire una scienza certa nel mondo dei fenomeni. Non possiamo passare la soglia pur porosa che separa l’universo dei fenomeni dal Noumeno, né ipotizzare leggi ferree cui la Natura di cui siamo parte e l’uomo sarebbero soggette. Là stanno i domini degli universali non sintagmaticamente concettualizzabili dell’arte e della poesia, domini in cui non possiamo al momento che ipotizzare la probabilità di escursioni di macchine mosse dalle meccaniche quantistiche.

19 L’affidabilità dell’apparire nel suo rinviare ad altro

AI e le categorie del conoscere (non della conoscenza).

Ritengo possibile e utile attraversare e narrare sussidiati dall’AIG l’esperienza attraverso un esercizio rigoroso dell’io penso (attuatore sintetico delle categorie, luogo di incontro e rigenerazione di tutte le rappresentazioni ) e una competente attuazione delle forme a priori della sensibilità (spazio e tempo) e delle categorie della soggettività trascendentale, le famose 12 categorie: unità, pluralità, totalità, realtà, negazione, limitazione, inerenza e sussistenza, causa ed effetto, reciprocità, possibilità e impossibilità, esistenza e inesistenza, necessità e contingenza. E farlo ricchi delle sfumature culturali non del solo mondo anglosassone.

Il consapevole porre in atto delle categorie non deve cedere alla tentazione di pensare che queste siano intrinsecamente inerenti agli oggetti osservati (Aristotele) ma siano attività del soggetto (trascendentale, non tanto l’individuo quanto la comunità degli esistenti e dei ricercatori). Non si può replicare nella costruzione della scienza un ordine che appare preesistente nel reale ma, sì, ordinare i fenomeni secondo linee d’incontro fra la loro inattingibile profondità noumenica e il loro accadere negli eventi di esperienza. Nei due secoli e mezzo successivi alla KRV il processo di categorizzazione (generato da natura e storia insieme) ha avuto oscillazioni notevoli. Si aspira oggi non alla certezza ma all’affidabilità.

20 Economie dei modelli artificiali

A lezione di economie procedurali e di linguaggio dal pensare e dal conoscere dei computer: come non sia necessario conoscere tutto per produrre concetti utili e assumere decisioni giuste. Riduzione della fatica e mantenimento delle ambizioni cognitive e operative.

Il dimensionamento ottimale della capacità dei modelli LLM ha sinora costantemente mostrato di essere un approccio affidabile per migliorare le prestazioni di approccio alla realtà (il reale così come appercepito dalla coscienza comune) e sbloccare nuove ulteriorità di elaborazione senza perder troppo di vista il reale. Occorre comunque tener sempre conto che l’accesso al mondo che si attua nei processi AIG è – almeno finora – solo un accesso parametrico per campione ai dati riconoscibili tramite i linguaggi, non alle “cose stesse”. Mentre il linguaggio “naturale” (sviluppatosi nella storia umana) non ha parametri predefinibili, le plausibilità di un modello generativo artificiale possono/devono essere analizzate principalmente con un congruo numero di parametri e il calcolo per campione. Sebbene i processi LLM tendano a generare un aumento degli errori, l’apporto di grandi quantità di dati alla capacità complessiva del modello non è ancora proporzionale e sembra che ciò possa ridurre la quantità dell’apporto computazionale necessario.

L’assemblaggio di dati provenienti da reti di esperti diversi per lingua e disciplina pare permettano di scalare il numero di parametri (fino a miliardi) senza un aumento proporzionale delle operazioni in virgola mobile (FLOP). Celebre ormai in tal senso un articolo di AA.VV. su Computer Science del 17/07/2017 dal titolo L’attenzione è ciò che serve: i modelli dominanti si basano su complesse reti neurali ricorrenti mentre modelli più performanti collegano inoltre codificatore e decodificatore tramite un meccanismo di attenzione. Nel Transformer, basato su meccanismi di attenzione, si eliminano completamente ricorrenza e convoluzioni. Gli esperimenti su due task di traduzione automatica mostrano che questi modelli sono di qualità superiore, richiedendo riferimenti e tempi di addestramento significativamente inferiori. Nel compito di traduzione dall’inglese al francese del WMT 2014, modello pubblicato su Computer Science otto anni fa, stabiliva un nuovo punteggio BLEU dopo un addestramento di 3,5 giorni, comportando solo una frazione dei costi di addestramento dei migliori modelli. Per l’articolo di CS il Transformer si applicherebbe bene anche ad altri compiti, sia avvalendosi di dati di addestramento ampi che limitati. Alcune evidenze suggerirebbero agli esperti che, in base alla dimensione dei parametri e il budget computazionale, esista un livello sostenibile di sparsità (percentuale dei dati con valore prossimo allo 0) in grado di migliorare sia l’efficienza dell’addestramento che le prestazioni finali. Questi risultati e questa costellazione di ipotesi contribuiscono a una migliore comprensione dell’impatto della sparsità nelle leggi di ridimensionamento per i MoE, offrendo spunti per progettare architetture meno dispendiose in termini di tempo degli operatori e dei consumi di elettricità e dunque più efficienti, ispirate in parte al funzionamento del cervello umano, un elaboratore di dati relativamente assai economico.

Un ulteriore fenomeno osservato, sottolineato anche dagli sfortunati ricercatori Apple, è quello delle curve di perdita: modelli in grado di apprendere gradualmente dalla rete senza creare varchi all’invasione della riservatezza, riconoscendo concetti anche dopo una singola esposizione agli esempi, in contrasto con l’approccio tradizionale del deep learning. Elementi come questi spiegano l’efficienza ma anche la violabilità dell’approccio adottato da DeepSeek, particolarmente rilevante per la sua minore richiesta di risorse computazionali rispetto ai modelli concorrenti. Tali meccanismi potrebbero rivoluzionare l’addestramento delle reti neurali, consentendo a modelli pre-addestrati di grandi dimensioni di apprendere da un numero di esempi significativamente inferiore rispetto a quanto ritenuto possibile in passato. Chiaro anche in questo caso come l’aumento di efficienza abbia un costo in termini di affidabilità.

21 Il prender forma di una simil-coscienza

Come nelle macchine interagenti con il mondo fisico potrebbero formarsi nuclei di coscienza fondazionale della realtà, se non del reale.

Come si è argomentato, sinora l’apprendimento delle macchine è derivato principalmente per via di elementi informativi tratti da masse di dati pre-formalizzati, non dall’esperienza diretta del mondo. Si tratta ora di cercar di capire come un sistema cognitivo possa comprendere il mondo attraverso l’interazione con uno strumento fisico direttamente gestito in modo analogo a quanto avviene nei processi intellettivi dell’uomo. Il ritardo di Apple intelligence (in corso di superamento a maggio 2025) pare dovuto proprio ai gorghi antinomici tra software che elaborano i dati forniti e hardware che agisce nel mondo fisico. I LLM alla base di ChatGPT o Gemini 1, scontano un fatto che nessun aumento di parametri o espansione del campo di addestramento renderà possibile ovviare: i computer non hanno esperienza diretta del mondo fisico e della percezione di come il dislocamento spaziale muti la relazione con gli oggetti e le persone. Le AIG “senza corpo” possono in-telligere (portare dentro) concetti fisici solo a partire da testi, non da esperienze. Fenomenologi come Maurice Merleau-Ponty hanno sostenuto che la coscienza è fondamentalmente incorporata e che affinché una mente si sviluppi in maniera armoniosa è necessario che abbia un corpo, sottintendendo che questo corpo sia biologico, di ciccia e non di silicio o gallio. Ma potrebbe essere (quasi) lo stesso. Un robot che comprendesse genuinamente il mondo fisico e gli stati mentali umani potrebbe diventare un collaboratore molto più efficace (troppo, secondo alcuni) e capace di anticipare le esigenze, adattarsi a situazioni impreviste e comunicare in modo “naturale”. Non più uno strumento, ma qualcosa/qualcuno con cui fare i conti e assumere responsabilità: un evento di unificazione di attivazioni neurali remote simile a un “io” cosciente umano.

22 AIG, professioni e professione docente

Per procedere oltre il classico uso delle teaching machines di skinneriana ascendenza, si richiedono ora agli insegnanti conoscenze e competenze in campo informatico e pedagogico didattico avanzate ma anche qualità comunicative, al limite istrioniche per diminuire la noia dell’interazione degli alunni con soggetti postumani troppo prevedibili.

Le tecnologie basate sull’AI certamente ridurranno l’impiego umano nei lavori intellettuali ripetitivi o con produttività lineare ma anche attività ora con vario tasso d’interazione personale e altre laddove queste non consistano di semplice divergenza ma di divergenza “intenzionale” programmata.

La sostituzione di alcune delle componenti umane della produzione è fenomeno peraltro presente in tutte le rivoluzioni industriali e già con la comparsa di ChatGPT si sono verificati diversi licenziamenti in USA nelle redazioni di quotidiani; molte pubblicazioni sempre più siglano accordi per cedere contenuti atti a migliorare i modelli AI e AIG, oltre che impiegare strumenti per raccogliere informazioni e redigere articoli che poi vengono – ma non sempre – rivisti da umani prima della pubblicazione, riducendo il personale di redazione. Con l’avvento dei modelli AI multimodali, in grado di gestire non solo testo ma anche immagini e voce, la sostituzione dei dipendenti umani sembra coinvolgere anche i servizi di istruzione. Lo sviluppo dei modelli AI, delle loro capacità e funzioni e l’impatto sul mondo del lavoro come della formazione professionale è solo agli inizi: Mira Murati, CTO di OpenAI, precisa che toccherà anche ad alcuni lavori creativi. Il CEO di Nvidia, ad esempio, ha sconsigliato di intraprendere studi e carriera da programmatore poiché le macchine faranno da sole. Meglio invece dedicarsi a biologia, educazione (!) e agricoltura, con veri salti quanti/qualitativi.

Penso che l’intervento dell’AI nella professione docente non potrà mai essere del tutto sostitutivo degli insegnanti umani, nemmeno quando questi ultimi saranno dotati di chip a diretta connessione con il sistema neurale biologico. Occorre vedere in che misura. Gli alunni oltre che di informazioni hanno bisogno di volti che li guardino negli occhi, di voci dirette alla loro singolarità, di cenni emotivamente significativi. Gli scolari devono prender passione al gioco della conoscenza, divertircisi, ridere. E le macchine si prestano benissimo a un uso giocoso, come l’autore di questo saggio praticava quando, maestro elementare, mandava in senso inverso o accelerato o al rallentatore i fotogrammi dei film didattici. Quel che è necessario apprendere è infatti per gli studenti sia lo sviluppo della capacità di seguire indicazioni e di applicare istruzioni ma anche e direi soprattutto, a vivere con serietà e leggerezza insieme, ad attuare lo sviluppo della capacità critica e quella creativa, il che almeno sin ora non rientra nella capacità delle macchine, anche se macchine ben programmate potrebbero sollecitarlo. La previsione più estrema è del sommo (dal punto di vista finanziario) Elon Musk, secondo il quale AI e robotica sostituiranno tutti i lavori, in un mondo in cui ognuno avrà a disposizione tutto quel che gli serve e il cui il suo lavoro sarà quello di vivere con profitto e godimento il tempo che gli è concesso. Il lavoro, attualmente azione con motivazione prevalentemente estrinseca, per i nostri nipoti come già ora per noi pensionati potrebbe rimanere come hobby.

23 Il problema etico

Gli investimenti nell’applicazione dell’AIG sino ad ora prevalentemente in campo finanziario e militare suscitano legittime diffidenze; ne vanno invece investigate e sostenute anche economicamente le immense possibilità in molteplici settori.

Non solo a proposito di etica del lavoro la lezione kantiana e del movimento fenomenologico è di particolare attualità/inattualità; lo è forse, soprattutto, nel suo raccomandare che in ogni campo si agisca sempre secondo principi e non privilegiando gli interessi e i risultati utili alla parte produttrice di hardware e software. Trattare gli altri e se stessi sempre come fine e mai come mezzo dovrebbe essere la principale formulazione dell’imperativo categorico in ogni settore dell’attività umana. Constatiamo al contrario come l’Intelligenza Artificiale abbia trovato sinora spazi di attività pratica sostenuta da forti finanziamenti ipocritamente quanto politicamente ed eticamente corretti soprattutto in capo economico (e qui l’impiego potrebbe avere risultati positivi affrancando gli operatori dalle fatiche più alienanti) ma anche militare. È noto pure che l’attività di borsa avviene per ordinamento e impulso relativamente autonomi di computer/trader i quali lavorano a una velocità assai maggiore dei cervelli umani e con un tasso di errori di convergenza assai inferiore. Le sciagurate guerre in corso, quella contro la Russia, quella contro i palestinesi e altre come quella in gestazione contro la Cina sono impostate dai decisori politici e dalle alte sfere militari al sicuro nei loro covi. Successivamente si opera secondo programmi di distruzione e/o sterminio elaborate e messe in atto da intelligenze artificiali attraverso reti di comunicazione satellitare o prossimale che generano la terminazione degli “obiettivi” (soldati nemici, civili, ricchezze artistiche, naturali, industriali) per gli interessi e la maggior gloria dei committenti. Squadriglie di droni aerei, marini e terrestri teleguidati via satellite da AI spesso allocate anche a decine di migliaia di chilometri di distanza dal teatro di guerra costituiscono via StarLink i principali attori militari del momento, sia a livello propagandistico che esecutivo: rovesciando una nota formulazione dell’imperativo kantiano, il principio dei loro strateghi è considerare l’umanità (altrui) sempre come mezzo e mai come fine.

24 Conclusioni e riproblematizzazioni

Abbiamo cercato con questo studio – basato per quanto concerne le scienze “dure” su lettura di riviste di alta divulgazione come ad es. Le Scienze – di comprendere come una AIG possa prossimamente essere interpretata e sviluppata non solo con i linguaggi e le categorie del pensiero anglosassone ma anche con le strutture sintattiche di altre culture e particolarmente quelle del pensiero fenomenologico, da Kant a Husserl, Heidegger, Gadamer… In questo breve saggio si è individuato nell’AIG lo svilupparsi di un organo della soggettività trascendentale, dunque estesa nella gamma categoriale, epistemica ed etica, al fine di estendere e approfondire la coscienza, la conoscenza e la gestibilità di tutti i campi di fenomeni con cui si entra in relazione diretta, mediata o semplicemente altra come la poesia, la religione o l’arte, quelle che Gentile chiamava con Hegel le forme dello spirito assoluto (solutus ab, libero).

Questo tipo di studio, causa la tumultuosa evoluzione dei dati e delle procedure di analisi adottate, era e forse rimane impercorribile secondo i classici metodi analitici e le usuali convenzioni; si è qui cercato tuttavia di individuare, per approssimazione, convergenze e divergenze che si determinano nell’intelligenza artificiale generale estendendo l’arco potenziale delle radici linguistiche anche attraverso un maggior pluralismo delle categorie e il “risparmio” nell’acquisire dati e rielaborare procedure. Intraprendendo questa via era noto come i rischi non mancassero ma, disegnati entro una teoria fenomenologica della conoscenza, linguaggi e programmi basati e praticabili con AI potrebbero adeguatamente accompagnare la ricerca e l’insegnamento nella loro relativistica, multipreposizionale e dialettica relazione con il mondo, nella capacità di conoscere quel che rimane del mondo della natura, di riconoscere ed essere riconosciuta dagli altri umani. La persona – liberata dalla parte della fatica neurologica trasferibile alle macchine – può divenire ulteriormente capace in modo pieno e cosciente di intendere, criticare, volere, generare; nonché di aver un tempo non asservito più ampio prima di finire una delle sue forme di esistenza. La persona può meglio abbracciare, con l’amplificazione della conoscenza, l’interezza dell’essere senza perder di vista le singolarità.

Il potenziale distruttivo AI/AIG è nelle applicazioni militari soprattutto, in tempi in cui le guerre saranno prevalentemente combattute dai droni e dirette principalmente contro i civili e le strutture economiche; ma anche nel digital divide cui vanno incontro gli anziani, nell’estremizzazione delle differenze di reddito per la parte che è effetto della differenza delle competenze, nell’ulteriore precarizzazione del lavoro dovuta alla frammentazione delle attività. Dipenderà molto da chi ne avrà il controllo. Tuttavia, penso che i vantaggi possano prevalere e la soggettualità possa meglio diventare capacità di pensare se stessa, di riflettere, di empatizzare, di guardarsi anche come fosse altra persona, di introiettarsi e di decentrarsi. Ci si potrebbe con l’AIG riconoscere meglio come soggetti realmente attivi, passivi e interattivi attraverso la relazione con il mondo così come attraverso capacità autoriflessive. L’io potrebbe farsi pienamente soggetto, autore di una propria meno faticosa e forse più produttiva e ricca impresa di visione del mondo. È l’uomo divenire libero dalla fatica dura e insensata di cui pur in lontanissimi scenari scriveva Aristotele. Libero, forse, anche grazie all’interazione con questo nuovo soggetto trascendentale.

Riferimenti bibliografici

Boselli, G. (1998). Postprogrammazione. Scandicci, FI: La Nuova Italia.

Boselli, G. (2020). Inibizioni del novum. Encyclopaideia. Journal of Phenomenology and Education, 24(56), 133–141. https://doi.org/10.6092/issn.1825-8670/10750

Boselli, G. (2023). Chat GPT, le potenze del Novum. Encyclopaideia. Journal of Phenomenology and Education, 27(65), 111–114. https://doi.org/10.6092/issn.1825-8670/16652

Boselli, G. (2025). A.I. In N. Serio (a cura di). Scritture e confronti. Incontri itineranti nelle scuole. Roma: Armando.

Boselli, G. (2005). Conoscere. In P. Bertolini (a cura di). Per un lessico di pedagogia fenomenologica. Trento: Erickson.

Boselli, G. (2005). Videogames o la formazione etico-politica indichiarata. In Rassegna. Bologna: Istituto pedagogico.

Bruzzone, D. (2024). Umana mente: la scuola ai tempi dell’Intelligenza Artificiale. Encyclopaideia Journal of Phenomenology and Education, 28(70), I–IV. https://doi.org/10.6092/issn.1825-8670/20640

Cacciari, M. (2023). Metafisica concreta. Milano: Adelphi.

Cardini, F. (2025). Quell’antica festa crudele. Milano: RCS Corriere della Sera.

Chamorro-Premuzic, T. (2024). Io, Umano. AI, automazione e il tentativo di recuperare quello che ci rende unici. Milano: Apogeo.

De Monticelli, R., Conni, C. (2008). Ontologia del nuovo. La rivoluzione fenomenologica e la ricerca oggi. Milano: Bruno Mondadori.

Faggin, F. (2019). Silicio. Dall’invenzione del microprocessore alla nuova scienza della consapevolezza. Milano: Mondadori.

Floridi, L. (2024). Filosofia dell’informazione. Milano: Raffaello Cortina.

Floridi L., (2025) La differenza fondamentale, Milano: Mondadori.

Hegel, G.W.F. (1974). Fenomenologia dello spirito. Scandicci (FI): La Nuova Italia.

Heidegger, M. (2024). Metafisica e nichilismo. Milano: Mimesis.

Husserl, E. (1987). La crisi delle scienze europee e la fenomenologia trascendentale. Milano: Il Saggiatore.

Husserl, E. (1996). Meditazioni cartesiane. Milano: RCS.

Husserl, E. (2002). Idee per una fenomenologia pura e una filosofia fenomenologica. Torino: Einaudi.

Kant, I. (1997). Critica del giudizio. Bari: Laterza.

Kant, I. (1997). Critica della ragion pratica. Bari: Laterza.

Kant, I. (2005). Critica della ragion pura. Bari: Laterza.

Morin, E. (1987). Sociologia del presente. Roma: Lavoro.

Penrose, R. (2017). Numeri, teoremi & minotauri. Milano: Rizzoli.

Rovelli, C. (2020). Helgoland. Milano: Adelphi.

Spitzer, M. (2024). Intelligenza artificiale. Milano: Corbaccio.