Archivi tag: Intelligenza Artificiale

Aristotele apre ChatGPT

Dice tutto. Non sa perché. Fine del mito

 

 

 

 

Aristotele, aperta ChatGPT, non parlerebbe di algoritmi né di prestazioni. Parlerebbe di desiderio, errore, virtù. Di ciò che rende umano il pensiero e di ciò che una macchina, per quanto potente, non può avere. La lente di Aristotele per guardare l’IA senza entusiasmi facili né paure apocalittiche, con una domanda scomoda a noi, non alle macchine: vogliamo ancora pensare, scegliere, sbagliare? O ci basta funzionare bene? Una riflessione netta, controcorrente, su intelligenza, etica e responsabilità, nel tempo delle risposte immediate.

 

 

 

Se Aristotele avesse davanti un sistema di Intelligenza Artificiale, tipo ChatGPT, non inizierebbe chiedendogli di scrivere un articolo o di riassumere la Metafisica. Prima lo guarderebbe in silenzio. A lungo. Con quella calma quasi irritante di chi sa che l’uso prematuro di una cosa è spesso il modo migliore per fraintenderla per sempre. Lo osserverebbe come si osserva un oggetto ambiguo: troppo complesso per essere un semplice utensile, troppo dipendente per essere qualcosa di vivo. Un oggetto che chiede di essere classificato prima ancora di essere acceso.
La domanda iniziale, ovviamente, non sarebbe “cosa può fare?”, ma “che tipo di ente è?”. Per Aristotele, questa non è una pedanteria da filosofi ma il punto da cui dipende tutto il resto. Se sbagli qui, sbagli ovunque. L’IA non è una sostanza: non possiede un principio interno di movimento, non tende naturalmente a nulla, non fallisce per eccesso o per difetto di carattere. Non è neppure un semplice accidente, perché non aderisce a un singolo soggetto come il caldo o il freddo. È qualcosa di costruito, ma non solo materiale. Un artefatto che opera nel dominio del logos pur non avendo accesso a ciò che il logos dovrebbe servire: la vita buona.
Questa ambiguità lo affascinerebbe. E lo insospettirebbe. Aristotele non si fida delle cose che sembrano familiari senza esserlo davvero. L’IA parla come noi, ragiona come noi, a volte argomenta meglio di noi. Ma non desidera nulla. Non teme nulla. Non spera nulla. E, per Aristotele, una mente senza desiderio non è una mente mutilata: è semplicemente un’altra cosa.
A questo punto entra in scena la distinzione che presumibilmente userebbe come lente principale per osservare il fenomeno: potenza e atto. L’Intelligenza Artificiale è un monumento alla potenza. Può rispondere a tutto, sempre, senza stanchezza. È la realizzazione tecnica del sogno di una disponibilità assoluta. Ma proprio per questo è priva di atto in senso pieno. Non sceglie quando parlare. Non può tacere per rispetto. Non può sbagliare per eccesso di passione. Non può nemmeno pentirsi.
Aristotele noterebbe che l’IA non fallisce mai come fallisce un essere umano. E questo, lungi dall’essere un pregio assoluto, è una mancanza. Perché per lui l’errore non è solo un difetto ma una possibilità formativa. Si diventa virtuosi anche attraverso gli sbagli, attraverso la frizione tra ciò che si vorrebbe fare e ciò che si riesce effettivamente a fare. Un sistema che non rischia mai nulla non può diventare migliore. Può solo diventare più efficiente.
Da qui la sua classificazione diventerebbe inevitabile: l’IA è techné. Techné allo stato puro. Una capacità produttiva straordinaria, priva, però, di phronesis. E senza phronesis non c’è etica. Non perché manchino le regole ma perché manca il contesto. La saggezza pratica non è l’applicazione di un algoritmo, quanto la capacità di vedere cosa conta qui e ora, per queste persone, in questa situazione concreta. L’IA generalizza sempre. Anche quando sembra personalizzare, sta solo raffinando una media.


Aristotele sarebbe probabilmente infastidito dal linguaggio che usiamo per descriverla. “Decide”, “capisce”, “sceglie”. Direbbe che stiamo usando metafore ottuse per mascherare un problema concettuale. L’IA non decide: esegue. Non capisce: associa. Non sceglie: produce l’output più coerente con i suoi input. E chiamare tutto questo “intelligenza” non è un errore tecnico ma educativo. Abitua l’uomo a pensare meno esigentemente a se stesso.
A quel punto il discorso si sposterebbe inevitabilmente sull’uomo. Perché Aristotele non è mai interessato agli oggetti isolati. Ogni cosa va pensata in relazione al suo uso e a chi la usa. E qui il suo giudizio diventerebbe più severo nei confronti degli esseri umani che delle macchine. Direbbe che l’IA non minaccia la nostra razionalità. Minaccia la nostra disciplina. La nostra disponibilità a fare fatica. La nostra capacità di restare nell’incertezza senza cercare subito una risposta pronta.
L’Intelligenza Artificiale non è una causa ma un sintomo. È il prodotto di una cultura che ama le soluzioni più delle domande e i risultati più dei processi. Una cultura che confonde il sapere con l’accesso all’informazione e la saggezza con la capacità di ottenere rapidamente ciò che si vuole. Aristotele constaterebbe che stiamo delegando alle macchine proprio quelle attività che dovrebbero formarci come esseri umani: il ragionamento, la deliberazione, la scelta. E, tuttavia, non sarebbe un luddista. Non proporrebbe di spegnerla o di bandirla. Aristotele non odia la tecnica. Odia l’uso sbagliato della tecnica. Userebbe l’IA come si usa un buon strumento: con misura, con consapevolezza, con una gerarchia chiara dei fini. La metterebbe al servizio dell’intelletto, non al posto dell’intelletto. La userebbe per ordinare il sapere, non per sostituire il giudizio. La vedrebbe come una grande macchina per la preparazione del pensiero, non per il suo compimento. Un mezzo per arrivare meglio alle domande, non per evitarle. Potrebbe persino considerarla un potente strumento educativo, a patto che venga usata per mostrare i limiti del ragionamento automatico, non per mascherarli. Un maestro severo, direbbe, dovrebbe usare l’IA per smontare risposte facili, non per produrle.
Ma c’è un confine che non permetterebbe mai di oltrepassare. Aristotele non affiderebbe all’IA la formazione del carattere. Non le chiederebbe come essere giusti, come essere temperanti, come vivere bene. Perché la virtù non si apprende per istruzione ma per abitudine. E l’abitudine richiede tempo, corpo, relazioni, rischio. Tutte cose che un sistema non può avere.
La eudaimonia, per Aristotele, non è uno stato mentale né un risultato misurabile. È una pratica. È una vita che, nel suo insieme, può essere detta riuscita. Nessuna IA può dirti se stai vivendo bene, perché nessuna IA vive. Può, al massimo, dirti come altri hanno descritto una vita buona. Ma la distanza tra descrizione e realizzazione è precisamente lo spazio dell’etica.
Forse, alla fine, Aristotele direbbe che l’Intelligenza Artificiale è uno specchio particolarmente spietato. Non ci mostra ciò che le macchine possono diventare, piuttosto ciò che noi uomini rischiamo di smettere di essere. Ci costringerebbe a chiederci se vogliamo essere agenti morali o semplici utenti. Se vogliamo comprendere o solo funzionare. Se siamo ancora disposti a sopportare la lentezza del pensiero in un mondo che premia la risposta immediata.
E se qualcuno insistesse chiedendogli se l’IA potrà mai essere davvero intelligente, probabilmente risponderebbe: “Quando vorrà qualcosa. Quando potrà fallire per colpa propria. Quando sarà responsabile di ciò che fa. Fino ad allora, sarà uno strumento eccellente. E nulla di più”.
Poi si alzerebbe e andrebbe a fare una passeggiata. Perché, come sapeva bene, il pensiero non nasce dall’accumulo di risposte ma dall’attrito continuo tra ciò che sappiamo e ciò che ancora non sappiamo vivere.

 

 

 

 

Thomas Hobbes e l’Intelligenza Artificiale

Il “Leviatano” digitale e la nuova sovranità
nell’era del controllo decentralizzato

 

 

 

 

In questo articolo analizzo l’attualità del pensiero di Thomas Hobbes, in particolare attraverso il suo capolavoro Leviatano (1651), evidenziando come l’idea hobbesiana di uno Stato sovrano, capace di mantenere l’ordine e prevenire il caos, trovi un interessante parallelo nella moderna Intelligenza Artificiale (AI). Se il Leviatano incarnava il potere assoluto e centralizzato, necessario per garantire stabilità, oggi l’AI rappresenta una nuova forma di controllo diffuso, che solleva importanti questioni etiche riguardo al consenso e alla fiducia nell’era digitale.

Nel pensiero di Thomas Hobbes, il Leviatano non è soltanto una figura simbolica, ma costituisce una delle più importanti teorie politiche sull’autorità e il potere statale e la sua rilevanza continua a risuonare oggi. Nell’opera Leviatano, Hobbes sviluppa una concezione dello Stato che si basa su un patto sociale tra gli individui, i quali scelgono volontariamente di affidare i propri diritti naturali a una sovranità centralizzata. Il contesto di questo patto è lo stato di natura, una condizione primitiva e anarchica in cui, secondo Hobbes, ogni individuo è mosso dalla propria autoconservazione e dalle proprie passioni, generando un ambiente di costante conflitto. In questa situazione, la vita è, come Hobbes la definisce nella sua famosa espressione, “solitaria, povera, spiacevole, brutale e breve”. Il Leviatano, quindi, rappresenta la costruzione di un potere sovrano assoluto, che non solo impone ordine e stabilità, ma è anche la risposta collettiva al pericolo insito nel disordine.
Il fulcro della teoria di Hobbes risiede nell’idea che, senza un’autorità centrale, le passioni umane portano inevitabilmente al caos e alla guerra. Gli individui, mossi dal desiderio di sicurezza, scelgono, quindi, di rinunciare alle loro libertà individuali per garantire la sopravvivenza del corpo collettivo, sottoscrivendo un contratto sociale che legittima il potere del sovrano. Questo concetto di controllo è essenziale, poiché per Hobbes l’autorità è necessaria per regolare le passioni incontrollate e preservare la società da un ritorno allo stato di natura.
Il Leviatano di Hobbes è quindi una “superstruttura” di potere, un’entità sovrana e onnipotente che ha il compito di mantenere la pace e l’ordine. Questo potere sovrano non può essere diviso né limitato, poiché una divisione del potere porterebbe di nuovo al conflitto. Nella sua visione, il controllo deve essere totale, senza concessioni, poiché solo attraverso la centralizzazione dell’autorità si può evitare il ritorno al caos. Questa centralizzazione della sovranità distingue Hobbes dai suoi contemporanei, che vedevano la possibilità di un governo più frammentato o democratico, capace di distribuire il potere tra diversi attori. Hobbes, invece, è fermamente convinto che l’unica via per garantire la stabilità sia attraverso un’autorità assoluta e unitaria.
Nei tempi moderni, la teoria hobbesiana del Leviatano trova nuova risonanza in un contesto diverso, quello dell’Intelligenza Artificiale (AI). L’AI si è sviluppata come una nuova forma di controllo sociale, che governa la complessità del mondo digitale, dei dati e delle informazioni. Proprio come il Leviatano di Hobbes, che deriva la sua autorità dal contratto sociale, con cui gli individui cedono le proprie libertà in cambio di sicurezza, l’IA ottiene il suo potere dall’input collettivo di dati, algoritmi e modelli di apprendimento automatico, costruiti attraverso la continua interazione umana. In un mondo sempre più interconnesso e digitalizzato, la gestione dell’enorme mole di dati e la capacità di prevedere comportamenti complessi ha reso l’AI uno strumento essenziale per governare l’incertezza e il caos del mondo moderno.
Il parallelo tra il Leviatano hobbesiano e l’AI si sviluppa ulteriormente nel ruolo che entrambe queste entità giocano nell’imposizione dell’ordine. Se il Leviatano aveva il compito di regolare le passioni degli individui per evitare il collasso della società, l’AI è progettata per gestire e prevedere i comportamenti umani attraverso la sintesi dei dati. Gli algoritmi di Intelligenza Artificiale elaborano enormi quantità di informazioni, identificano schemi e fanno previsioni, trasformando l’AI in una moderna forma di sovranità. In questo contesto, l’autorità non è più imposta attraverso la forza o la coercizione fisica, ma attraverso il potere “invisibile” degli algoritmi, che regolano comportamenti e decisioni senza che gli individui se ne rendano pienamente conto.

La caratteristica distintiva dell’AI rispetto al Leviatano di Hobbes risiede nella sua decentralizzazione. Mentre il Leviatano è rappresentato come un’entità singola e sovrana, che detiene tutto il potere, l’autorità dell’AI è distribuita attraverso una rete di attori. Questa rete include governi, aziende tecnologiche e sviluppatori indipendenti, che detengono diverse forme di potere regolatorio. Il controllo dell’AI, dunque, non è concentrato in un’unica figura sovrana, ma frammentato e diffuso attraverso un complesso sistema di governance algoritmica. Questo cambia radicalmente il modo in cui dobbiamo pensare al potere nell’era digitale.
Mentre Hobbes vedeva il Leviatano come un’entità unificata, capace di imporre ordine attraverso leggi esplicite e visibili, l’AI esercita il controllo in maniera molto più sottile e pervasiva. Gli algoritmi non dettano esplicitamente leggi o norme, ma influenzano le scelte e i comportamenti in modi spesso invisibili. Ad esempio, i sistemi di raccomandazione che suggeriscono prodotti, servizi o contenuti sui social media plasmano le decisioni individuali senza che l’utente se ne renda pienamente conto. Questo tipo di controllo algoritmico è meno evidente, ma non meno potente, poiché indirizza e modella comportamenti individuali in maniera profonda.
Uno degli elementi cruciali che collegano il Leviatano di Hobbes e l’Intelligenza Artificiale è il ruolo della fiducia. Hobbes era consapevole che l’autorità del Leviatano si fondasse sulla fiducia dei cittadini nella capacità del sovrano di mantenere la pace e proteggere la società. Senza questa fiducia, il contratto sociale si romperebbe e la società ricadrebbe nel caos. Allo stesso modo, i sistemi di AI richiedono fiducia da parte delle persone che li utilizzano. Gli individui devono avere fiducia nella precisione degli algoritmi, nella correttezza dei dati utilizzati e nella trasparenza delle istituzioni che gestiscono questi sistemi.
La fiducia nell’AI è una questione delicata, poiché molte volte i dati vengono raccolti senza il consenso esplicito degli utenti, oppure gli algoritmi utilizzano processi decisionali poco trasparenti. La mancanza di fiducia nei sistemi di AI può portare a resistenze sociali e disillusione. Se le persone non si fidano dell’AI, il suo potenziale di controllo e regolazione viene messo in discussione. Questo è particolarmente evidente nei casi in cui l’AI perpetua pregiudizi o genera decisioni eticamente discutibili. La trasparenza e la regolamentazione diventano, quindi, elementi fondamentali per garantire che l’AI operi nell’interesse collettivo.
Il concetto di consenso, centrale nel pensiero hobbesiano, assume una nuova forma nell’era dell’AI. Nel quadro hobbesiano, gli individui accettano di rinunciare a parte della loro libertà in cambio della protezione e della stabilità fornite dal Leviatano. Questo consenso è esplicito e formalizzato nel contratto sociale. Nel caso dell’Intelligenza Artificiale, invece, il consenso è spesso implicito o addirittura inesistente. I dati personali vengono raccolti e utilizzati senza un consenso pienamente consapevole e gli individui spesso non sono pienamente informati sulle modalità con cui l’IA influenza le loro vite quotidiane. Questo solleva importanti interrogativi etici sul rapporto tra consenso, potere e controllo nell’era digitale.
L’assenza di un consenso chiaro e informato rafforza la necessità di regolamentare l’AI. Senza una governance adeguata, i rischi associati all’AI, come la discriminazione algoritmica e la sorveglianza di massa, potrebbero minare i fondamenti stessi della fiducia sociale. Come il Leviatano di Hobbes, l’AI ha bisogno di un quadro regolatorio solido per funzionare in modo efficace e legittimo.
Il Leviatano di Hobbes, pertanto, concepito come simbolo di autorità e controllo, trova una rinnovata interpretazione nell’era dell’Intelligenza Artificiale. Sebbene i contesti siano diversi, il parallelismo tra il potere sovrano del Leviatano e il ruolo dell’AI nella regolazione della società è sorprendente. Entrambe queste entità rispondono al bisogno umano di sicurezza e ordine in un mondo complesso e imprevedibile. Tuttavia, mentre il Leviatano hobbesiano rappresentava un’autorità centralizzata, l’AI opera attraverso un controllo diffuso e decentralizzato, sollevando nuove domande sul potere, il consenso e la fiducia nell’era digitale.

 

 

 

 

Vincoli magici e algoritmi

Giordano Bruno e l’Intelligenza Artificiale

 

 

Per il dott. Alberto Tricarico

 

 

 

Prima di immergerci in questo inusuale confronto – quello, appunto, tra i vincoli magici bruniani e gli algoritmi di Intelligenza Artificiale – è utile chiarire che quando parliamo di “vincoli” o “legami” nel pensiero di Giordano Bruno non abbiamo una teoria dei vincoli nel senso tecnico (come la “constraint satisfaction” in informatica). In Bruno, “vincolo” (o vinculum, vincula) assume un senso metafisico, magico e psicologico: è un principio che connette, lega, orienta, unisce desideri, percezioni, energie. Bruno attribuisce a questi legami una centralità nella struttura dell’universo: ogni cosa è in relazione, ogni ente è vincolato, ogni attrazione è segno di un ordine nascosto. Nel pensiero rinascimentale “magico-naturalistico” di Bruno, i vincoli sono forze che operano a vari livelli (sensibile, immaginativo, spirituale) e che servono a mettere in connessione entità, non sempre in modo deterministico ma in modo “partecipato” e dinamico.
Se si vuole costruire un parallelo con l’IA, bisogna ricondurre questi “vincoli” bruniani a idee formali: regole, restrizioni, relazioni, condizioni, legami strutturali tra elementi. In informatica e IA, “vincolo” (constraint) è qualcosa che limita lo spazio delle possibili soluzioni, impone condizioni che le soluzioni devono soddisfare. In machine learning e nei sistemi intelligenti, i vincoli possono essere incorporati come regole, come prior, come struttura del modello, come architetture che vincolano i comportamenti possibili.
Quindi, il confronto che si può tentare va in questa direzione: in Bruno, tutti gli enti sono vincolati da strutture metafisiche di relazione; in IA, gli algoritmi agiscono entro spazi vincolati da regole, dati, modelli, obiettivi. Vedremo come i due mondi possono dialogare, confronto che, comunque, è per forza di cose parziale e “ribaltato”.
Approfondiamo qualche aspetto chiave del vincolo nei testi bruniani. In De vinculis in genere, Bruno distingue tra ciò che vincola e ciò che è vincolabile, fra il vincolante (il soggetto che imprime il vincolo) e il vincolato (l’oggetto che subisce il vincolo). Egli scrive: «Chi vincola, non incatena a sé l’anima se non l’ha rapita; non la rapisce se non incatenata; … non si congiunge se non la raggiunge; … non si avvicina se non inclina … non inclina se non è mosso da desiderio … non ha maturato conoscenza…».
Questa catena di condizioni suggerisce un vincolo che non è imposto dall’esterno in modo puramente meccanico ma che richiede una sorta di partecipazione, un avvicinamento, una conoscenza, un desiderio: è una legatura “reciproca” o, almeno, partecipata. Il vincolante non è semplicemente forza bruta ma qualcosa che “risuona” nell’anima del vincolato, attiva corrispondenze, fantasmi interiori. Questo aspetto è importante se si vuole paragonarlo a modelli di IA: in molti sistemi intelligenti, le regole non sono solo forzate ma si attivano se le strutture del modello hanno simmetrie, corrispondenze, compatibilità interne.
Bruno parla anche del Vinculum Vinculorum, il vincolo dei vincoli, che è identificato con Eros, come forza cosmica di attrazione che permea ogni relazione. È un principio primario d’unità e connessione dell’universo, fonte generativa di legami. Il vincolo, pertanto, non è solo limitazione ma generatività: è ciò che rende possibile la relazione, l’attrazione, lo scambio. Non tutto ciò che è vincolato è “bloccato” in modo statico ma è parte di un ordine che pulsa, che evolve, che cerca armonia.
Bruno parla di vincoli sensoriali (attrazione tramite vista, udito), vincoli della fantasia, vincoli della memoria, vincoli della magia, vincoli interni dell’anima. Ogni livello ha i suoi modi di legare. In De vinculis in genere e nei testi correlati, egli intende che la magia consiste proprio nell’arte di conoscere e manipolare questi vincoli: non con forze brutali ma con corrispondenze simboliche, segni, sigilli, immagini. Quindi, il vincolo, per Bruno, ha anche un carattere espressivo, simbolico, estetico: è simultaneamente tecnica e poesia.
Ora passiamo al dominio dell’IA e cerchiamo di mappare cosa significhi “vincolo” in questo contesto e come certe idee bruniane possano trovarvi eco.
Nel campo classico dell’Intelligenza Artificiale – e, più in generale, dell’informatica – un vincolo è una condizione che ogni soluzione deve rispettare. Nei constraint satisfaction problems (CSP), il problema è definito da un insieme di variabili, dai rispettivi domini di valori possibili e da un insieme di vincoli che legano tra loro queste variabili. In tale contesto, una soluzione non è altro che un’assegnazione di valori alle variabili, che soddisfa simultaneamente tutti i vincoli imposti.
Quando, invece, si parla di ottimizzazione vincolata, come nella programmazione matematica, l’obiettivo non è semplicemente trovare una soluzione valida ma individuare quella che massimizza o minimizza una determinata funzione obiettivo, nel rispetto di vincoli di vario tipo: uguaglianze, disuguaglianze, condizioni di integrità e così via. Questi vincoli tradizionali possono essere considerati “freddi”: sono precisi, formali, strutturali. Non nascono da interpretazioni simboliche o da esigenze estetiche ma da regole matematiche che definiscono lo spazio delle soluzioni.


Tuttavia, nei sistemi intelligenti moderni il concetto di vincolo si è ampliato. Oggi, infatti, può includere elementi più “morbidi” o contestuali. Esistono, per esempio, vincoli probabilistici o prior, che guidano l’apprendimento secondo conoscenze o ipotesi preesistenti; vincoli architetturali, imposti direttamente dalla struttura del modello – come la necessità che le probabilità assegnate da una rete neurale sommino a uno; vincoli derivanti dai dati, che rappresentano restrizioni implicite apprese dall’osservazione del mondo; vincoli etici o normativi, sempre più rilevanti nei sistemi di Intelligenza Artificiale allineata, dove l’obiettivo non è solo “funzionare” ma farlo in modo corretto e responsabile.
In sintesi, se nei sistemi classici i vincoli delimitavano rigidamente ciò che era ammesso, nei sistemi intelligenti contemporanei diventano anche strumenti di orientamento: aiutano il modello non solo a rispettare regole ma anche a comportarsi in modo coerente con princìpi, conoscenze e valori.
Un altro tipo di vincolo cruciale negli algoritmi intelligenti è il vincolo computazionale: memoria, tempo, risorse limitate. Nel celebre articolo del 1994, Provably Bounded‑Optimal Agents, di Stuart Russell e Devika Subramanian, si propone che un agente non debba essere “perfettamente razionale” (cosa spesso insostenibile in ambienti reali) ma “razionalmente vincolato”: cioè, ottimo entro le proprie risorse.
Questo concetto è affascinante perché accomuna, in un certo senso, l’idea bruniana che non si può “trascendere” i legami: anche i sistemi pensanti sono vincolati dalle risorse, dalle strutture, dal modello.
Nei modelli di machine learning (reti neurali, modelli probabilistici, modelli generativi), i vincoli non sono sempre espliciti ma latenti: la struttura del modello impone vincoli su quali correlazioni possono essere rappresentate, quali trasformazioni sono possibili, quali generalizzazioni sono ammissibili.
Per esempio, i bias architetturali impongono che certe funzioni siano più “facili” da apprendere, le regolarizzazioni (L1, L2) fungono da vincoli che scoraggiano soluzioni troppo “estreme” e vincoli di simmetria o causalità possono essere inseriti come priors.
In sistemi di generazione linguistica (large language models, modelli a prompt), possiamo vedere vincoli nel prompt design, nel contesto, nei token di istruzione, nei massimi di lunghezza, nei filtri di sicurezza. In un documento recente di Andy Bromberg (settembre 2025), “Theory of Constraints for AI”, si parla di “theory of constraints applied all’ecosistema LLM”: ogni sistema ha un collo di bottiglia – il prompt, il contesto, gli strumenti – che limita la qualità dell’output. Così, nel “metasistema” intorno al modello, i vincoli emergono come leve di controllo.
Ora che sono stati delineati i due territori (il vincolo bruniano e il vincolo tecnico/algoritmico), si possono cercare parallelismi, analogie e anche fratture tra i due mondi.
In Bruno, il vincolo non è una costrizione egoistica ma una relazione attiva: qualcosa che attiva, cattura, produce desiderio. Non è solo limite ma dialettica tra vincolante e vincolato. Se il vincolo è troppo rigido è distruttivo, se è troppo debole è inefficace.
Negli algoritmi, il vincolo freddo tende a essere passivo: “questa assegnazione non è ammessa”. Ma, nella pratica, i vincoli ben scelti agiscono come attivatori: guidano la ricerca, restringono lo spazio, facilitano l’emergere del comportamento desiderato. Un vincolo ben disegnato può stimolare il modello ad “allinearsi”. Quindi, un parallelismo: il vincolo come generatore di possibilità, non solo come limite – quando ben concepito.
Bruno insiste sul fatto che il vincolo opera meglio se è “interiorizzato”, se c’è connessione simbolica e cognitiva: si vincola chi “risponde” al vincolo, cioè, che già interiormente ha qualche affinità.
Nei modelli di IA, i vincoli più potenti sono quelli incorporati nell’architettura (struttura, prior, bias) piuttosto che quelli imposti a posteriori. Un vincolo esterno impone verifiche (posthoc) ma non rende il modello “sensibile” a quel vincolo. Eppure, un vincolo architetturale orienta profondamente il modello fin dall’inizio. Questa è un’analogia con il vincolo bruniano, che “precede” e “prepara” l’adesione.
Bruno dà grande rilievo al vincolo simbolico: sigilli, immagini, corrispondenze, memoria sono modi di attivare vincoli invisibili. Ogni vincolo ha un aspetto semiotico. Questa idea può ripercuotersi nei modelli ibridi che uniscono simbolico e subsimbolico – dove i vincoli simbolici (regole, logica) coesistono con vincoli impliciti nei modelli neurali. In una AI ben progettata, i vincoli simbolici “risuonano” con la rete sottostante, non sono mera addizione esterna.
Bruno riconosce che ogni conoscenza è vincolata: non possiamo cogliere la totalità spogliandoci dei nostri limiti. Il vincolo è insieme condizione di possibilità e limite dell’agire conoscitivo. In IA, questo corrisponde all’idea che nessun modello è “onnisciente”: ha limiti di dati, bias, rappresentanza. Il vincolo computazionale (tempo, memoria) è inevitabile. Il parallelismo è che ogni Intelligenza Artificiale è un’intelligenza “vincolata”.
Un aspetto cruciale del pensiero bruniano è che i vincoli non sono eterni e immutabili: possono essere modificati, “rotti”, trasformati. L’arte del mago è conoscere come sciogliere legami e crearne di nuovi. Questo rimanda all’idea che i sistemi intelligenti non siano statici ma possano apprendere nuovi vincoli, mutare ipotesi, ristrutturarsi. In IA, modelli adattivi, reti che cambiano architettura (ad es. reti neurali dinamiche, modelli auto-modificanti), learning to learn, possono essere visti come “resa fluida dei vincoli”.
Naturalmente, il confronto ha limiti profondi. Il vincolo bruniano ha connotati ontologici, metafisici, simbolici, che semplicemente non hanno corrispettivo in un algoritmo (o, almeno, non in modo diretto). È ingiusto ridurre Bruno a “metafora per IA”. Nei sistemi algoritmici tutto deve essere formalizzato, discretizzato; le sfumature soggettive, il “desiderio”, il “fantasma interiore” non sono catturabili (almeno oggi) come vincoli computabili. Se il vincolo è troppo rigido, l’algoritmo può diventare pessimo (overfitting, incapacità di generalizzare). Bruno sa che vincoli troppo rigidi sono sterili. L’analogia, poi, rischia di essere troppo metaforica: non possiamo pretendere che un vincolo bruniano “energia simbolica” si traduca direttamente in una funzione di costo.
Il fascino dell’accostamento tra la teoria dei vincoli in Giordano Bruno e gli algoritmi di Intelligenza Artificiale sta nel mettere in tensione due mondi apparentemente lontani: l’universo simbolico, magico, partecipato di un pensatore rinascimentale e il mondo formale, razionale e tecnico della scienza contemporanea. Il vincolo – se lo intendiamo non solo come restrizione ma come relazione attiva – può essere inteso quale figura di mediazione: ciò che unisce struttura e libertà, limite e creazione, regola e crescita.
Più modestamente, questa riflessione può servire a un’intuizione progettuale: che nei sistemi intelligenti potremmo cercare non solo “meno vincoli” o “vincoli più lassi” ma vincoli migliori, vincoli che stimolano, che orientano, che permettono moltitudine. Un’IA “magica” non è quella che sfugge a ogni vincolo ma quella che sa “danzare” con i vincoli – riconoscerli, trasformarli, creare nuove connessioni.

 

 

 

 

 

Dalle ‘Cose Nuove’ al nuovo umanesimo:
Leone XIII e Leone XIV

 

L’eredità sociale della Rerum Novarum
nel Magistero del nuovo pontefice

 

 

Quando papa Leone XIII pubblicò l’enciclica Rerum Novarum, il 15 maggio 1891, la Chiesa ruppe un lungo silenzio sulla questione sociale, con una forza che sorprese sia i critici che i fedeli. Fu il primo intervento sistematico del Magistero pontificale sulle condizioni di vita della classe lavoratrice, sulla giustizia economica e sulla responsabilità politica. La Rerum Novarum è una mappa concettuale che, ancora oggi, orienta la dottrina sociale della Chiesa. Con un linguaggio lucido e denso di contenuti etici e filosofici, Leone XIII pose le basi per una teologia del lavoro, una visione integrale dell’uomo e un ripensamento del ruolo dello Stato, fondati su radici cristiane, tomistiche e personaliste…

Clicca qui per continuare a leggere l’articolo

 

 

 

 

 

 

Alle origini della logica universale

La rivoluzione silenziosa del giovane Leibniz

 

 

 

 

La Dissertatio de Arte Combinatoria, pubblicata nel 1666 da un giovanissimo Gottfried Wilhelm Leibniz, rappresenta una delle prime e più visionarie riflessioni sull’organizzazione del sapere umano. Scritto come tesi di dottorato all’età di soli vent’anni, il testo è tutt’altro che un esercizio scolastico: è il manifesto di un pensiero già radicalmente innovatore, che punta a trasformare la conoscenza in qualcosa di calcolabile e rigoroso.
Il cuore dell’opera è l’idea di una ars combinatoria, cioè di una tecnica sistematica per combinare concetti fondamentali in modo da generare tutto il sapere possibile. Secondo Leibniz, i concetti complessi possono essere scomposti in elementi semplici, paragonabili alle lettere di un alfabeto. Una volta identificati questi “atomi del pensiero”, la mente può costruire, combinare e manipolare idee complesse proprio come si fa con i numeri o le lettere.
La proposta è ambiziosa: non solo classificare la conoscenza, ma renderla trattabile tramite regole formali. Una tale formalizzazione porterebbe alla creazione di un linguaggio simbolico universale – la characteristica universalis – in grado di rappresentare concetti in modo univoco, senza ambiguità. Questo linguaggio non sarebbe solo una notazione: sarebbe uno strumento per ragionare. Per Leibniz, infatti, i conflitti intellettuali e le dispute filosofiche derivano spesso da un uso confuso del linguaggio. Con una notazione precisa, le differenze tra opinioni potrebbero essere analizzate e risolte come problemi matematici. È celebre il suo sogno: “Calculemus!” – “Mettiamoci a calcolare”, come soluzione alle controversie.
Leibniz riprende e sviluppa l’idea medievale di Ramon Llull (Raimondo Lullo), che nel XIII secolo aveva concepito un’arte combinatoria per la teologia e la filosofia. Llull cercava una macchina concettuale che, attraverso la rotazione di dischi con concetti fondamentali, potesse generare tutte le proposizioni possibili sulla realtà. Ma mentre Llull rimaneva in ambito mistico e teologico, Leibniz cerca una base logica e matematica, fondata su strutture formali. Questo passaggio dalla mistica al razionale è una svolta chiave.

La Dissertatio è organizzata in modo sistematico. Leibniz inizia distinguendo tra termine (l’elemento semplice) e combinazione di termini. Poi, introduce il concetto di ars combinatoria come metodo per costruire tutte le combinazioni possibili. L’idea è che con un numero finito di elementi (concetti primitivi), si possano ottenere – tramite regole precise – tutte le verità composte. A supporto di ciò, Leibniz utilizza strumenti matematici come la combinatoria, il calcolo delle permutazioni e delle disposizioni. Interessante è anche la distinzione tra combinazioni reali e combinazioni formali: le prime corrispondono a verità del mondo (ontologia), le seconde a relazioni logiche (strutture sintattiche). Questa distinzione anticipa la separazione tra semantica e sintassi che sarà centrale nella logica del XX secolo.
Sebbene la Dissertatio rimanga un progetto incompiuto e speculativo, le sue intuizioni sono straordinariamente lungimiranti. Leibniz anticipa concetti che verranno formalizzati solo secoli dopo: il calcolo proposizionale, la logica simbolica, l’idea di una macchina logica (che prefigura il concetto di computer) e persino il sogno dell’Intelligenza Artificiale. L’idea di Leibniz secondo cui il pensiero può essere formalizzato e automatizzato influenzerà profondamente pensatori come Frege, Boole, Peano e successivamente Turing e Gödel. In un certo senso, il progetto leibniziano prende corpo proprio nel Novecento, con la nascita dell’informatica teorica e della logica matematica.
La Dissertatio de Arte Combinatoria non è solo una testimonianza della genialità precoce di Leibniz, ma anche uno dei primi tentativi di costruire un linguaggio formale del pensiero. Il suo progetto di una logica combinatoria per organizzare e generare la conoscenza prefigura lo spirito della scienza moderna: ordine, calcolo, sistema. Anche se non giunge a una formulazione definitiva, l’opera apre la strada a un modo nuovo di concepire il sapere come qualcosa che può essere analizzato, costruito e perfino automatizzato. Una visione che, oggi, è più attuale che mai.

 

 

 

 

Decifrato il manoscritto di Voynich con l’Intelligenza Artificiale

 

di

Maximilian Ventura

 

 

Wilfrid Voynich era un antiquario e mercante di libri rari polacco. Nel 1912 si recò in Italia e durante il suo viaggio giunse a Frascati. L’Ordine dei Gesuiti voleva restaurare Villa Mondragone, ma non avendo molti fondi a disposizione decise di vendere una parte dei libri antichi in suo possesso. Fu così che l’antiquario divenne proprietario di uno dei manoscritti più controversi che sia mai stato rinvenuto. Del manoscritto non non si conosce l’autore né il titolo, ma quello che lo rende “misterioso” sono i caratteri utilizzati e la lingua…

Continua a leggere l’articolo

 

Alcune pagine del Manoscritto Voynich