Fabio Lauria

L'Illusione del Progresso: Simulare l'Intelligenza Artificiale Generale Senza Raggiungerla

August 18, 2025
Share on social media

L'Intelligenza Artificiale Generale (AGI) - un sistema con intelligenza paragonabile o superiore a quella umana in tutti gli ambiti - continua a essere considerata il Santo Graal della tecnologia. Tuttavia, nel 2025, sta emergendo con maggiore chiarezza un percorso alternativo: non stiamo raggiungendo l'AGI come sistema unificato, ma piuttosto attraverso un'illusione sempre più convincente creata dalla combinazione di molteplici IA ristrette specializzate.

Il Mosaico dell'Intelligenza Artificiale

L'IA di oggi eccelle in compiti specifici: i Large Language Models (LLM) gestiscono i testi, modelli come Midjourney o DALL-E creano immagini, AlphaFold analizza le proteine. Sebbene individualmente limitate, quando integrate in un ecosistema coordinato, queste IA ristrette creano un'apparenza di intelligenza generale - un "proxy" dell'AGI.

Secondo il rapporto AI Index 2025 della Stanford University, nonostante i progressi significativi, l'IA continua a incontrare ostacoli nel campo del ragionamento complesso.

I modelli più avanzati risolvono problemi altamente strutturati, ma mostrano limiti marcati quando si tratta di ragionamento logico articolato, pianificazione sequenziale e pensiero astratto.

L'Approccio "Society of Minds" e i Sistemi Multi-agente

Nel 2025, l'intelligenza artificiale sta evolvendo velocemente, trasformandosi da tecnologia di nicchia a elemento strategico del panorama tecnologico e sociale, con profonde implicazioni culturali ed etiche.

Questo ha portato all'emergere di sistemi AI agentici che ci avvicinano all'orizzonte dell'intelligenza artificiale generale.

Nei sistemi multi-agente, ogni agente opera in modo indipendente, utilizzando dati locali e processi decisionali autonomi senza dipendere da un controller centrale.

Ciascun agente ha una visione locale ma nessuno possiede una visione globale dell'intero sistema. Questa decentralizzazione consente agli agenti di gestire compiti individualmente mentre contribuiscono agli obiettivi complessivi attraverso l'interazione.

Nel 2025, i sistemi multi-agente - dove più agenti di IA collaborano per raggiungere obiettivi complessi - stanno diventando sempre più diffusi. Questi sistemi possono ottimizzare flussi di lavoro, generare insight e assistere nei processi decisionali in vari settori.

Ad esempio, nel servizio clienti, gli agenti IA gestiscono richieste complesse; nella produzione, supervisionano le linee produttive in tempo reale; nella logistica, coordinano le catene di approvvigionamento in modo dinamico.

Il Plateau Computazionale e le Barriere Fisiche

Nonostante i progressi impressionanti, stiamo iniziando a raggiungere un plateau nello sviluppo computazionale tradizionale. Dal 1959 al 2012, la quantità di energia richiesta per addestrare i modelli AI è raddoppiata ogni due anni, seguendo la Legge di Moore. Tuttavia, i dati più recenti mostrano che dopo il 2012 il tempo di raddoppio è diventato significativamente più rapido - ogni 3,4 mesi - rendendo il ritmo attuale più di sette volte superiore rispetto al tasso precedente.

Questo aumento drammatico della potenza computazionale necessaria sottolinea quanto sia diventato economicamente impegnativo raggiungere progressi significativi nel campo dell'IA.

La Promessa del Quantum Computing

Il quantum computing potrebbe superare questo ostacolo, offrendo un salto di paradigma nella capacità computazionale necessaria per modelli ancora più sofisticati. Nel 2025, il quantum computing sta emergendo come strumento cruciale per affrontare queste sfide, mentre le aziende tecnologiche abbracciano fonti di energia alternative per tenere il passo con il crescente consumo energetico dell'IA.

Secondo una previsione di Arvind Krishna, CEO di IBM, grazie ai rapidi progressi nel quantum computing, il consumo di energia e acqua dell'IA potrebbe essere ridotto fino al 99% nei prossimi cinque anni.

Questa tecnologia promette di sbloccare capacità di calcolo ora inimmaginabili e di aprire nuove frontiere nella ricerca scientifica.

Un importante progresso è stato annunciato a marzo 2025 da D-Wave Quantum, che ha pubblicato un paper peer-reviewed intitolato "Beyond-Classical Computation in Quantum Simulation", dimostrando che il loro computer quantistico annealing ha superato uno dei supercomputer classici più potenti al mondo nella risoluzione di problemi complessi di simulazione di materiali magnetici.

Il 2025 ha visto progressi trasformativi nel quantum computing, con importanti avanzamenti nell'hardware, nella correzione degli errori, nell'integrazione con l'IA e nelle reti quantistiche. Questi progressi stanno ridefinendo il possibile ruolo del quantum computing in settori come la sanità, la finanza e la logistica.

Tuttavia, secondo Forrester, il quantum computing rimane ancora sperimentale nonostante i progressi del 2025 e non ha ancora dimostrato un vantaggio pratico sui computer classici per la maggior parte delle applicazioni.

La Corsa Quantistica: Microsoft vs Google?

Microsoft sostiene di aver compiuto progressi significativi nel quantum computing con il suo chip Majorana 1, introdotto all'inizio del 2025. Questo processore presenta una nuova architettura Topological Core, costruita con otto qubit topologici che manipolano particelle di Majorana, quasi-particelle che agiscono come "mezzi elettroni" note per la loro forte resistenza agli errori.

Google, d'altra parte, ha sviluppato un approccio diverso con il suo chip quantistico rivoluzionario chiamato Willow, che risolve il problema tradizionale dell'aumento del tasso di errore all'aumentare dei qubit - Willow diventa effettivamente più accurato man mano che vengono aggiunti più qubit.

Queste due diverse strategie rappresentano approcci fondamentalmente diversi al quantum computing, con Microsoft che punta sulla topologia e Google sull'ottimizzazione degli errori.

Barriere Cognitive che Persistono

Oltre ai limiti hardware, le IA composite affrontano altre barriere fondamentali:

Comprensione causale: I sistemi correlano variabili ma non isolano vere relazioni causa-effetto. L'IA ha fatto progressi significativi in molti campi, ma continua ad affrontare limitazioni nella comprensione e nella risposta alle emozioni umane, nella presa di decisioni in situazioni di crisi, e nella valutazione di considerazioni etiche e morali.

Apprendimento continuo: Le reti neurali perdono accuratezza quando addestrate sequenzialmente su compiti diversi, mostrando una sorta di "amnesia catastrofica".

Meta-cognizione: Le IA mancano di un modello interno della propria cognizione, limitando il vero auto-miglioramento.

Verso un'AGI "Per Proxy"

La comunità scientifica appare piuttosto divisa in merito a tecnologie e tempistiche necessarie per raggiungere l'obiettivo dell'Intelligenza Artificiale Generale (AGI), ma il dibattito fa emergere nuove interessanti suggestioni, che stanno già trovando un riscontro pratico nella ricerca di nuovi sistemi AI.

Il 2025 potrebbe essere l'anno in cui i primi sistemi di agenti entreranno in produzione nelle aziende.

Mentre l'AGI rappresenta l'obiettivo più ambizioso - sistemi con capacità cognitive paragonabili o superiori a quelle umane, in grado di comprendere, apprendere e applicare conoscenze in modo trasversale.

Piuttosto che attendere un'AGI monolitica, il futuro più probabile vedrà emergere quella che potremmo chiamare "AGI di facciata" - sistemi che sembrano possedere intelligenza generale attraverso:

  1. Orchestrazione di microservizi IA: Diverse IA specializzate coordinate attraverso un livello di astrazione comune.
  2. Interfacce conversazionali unificate: Un'unica interfaccia che nasconde la complessità dei molteplici sistemi sottostanti.
  3. Apprendimento trasversale limitato: Condivisione selettiva di conoscenze tra domini specifici.

Coscienza: Realtà o Illusione Condivisa?

Nel dibattito sull'AGI, tendiamo a dare per scontato che gli esseri umani siano dotati di una "coscienza" che le macchine non possono replicare. Ma forse dovremmo porci una domanda più radicale: la coscienza umana stessa è reale o è anch'essa un'illusione?

Alcuni neuroscienziati e filosofi della mente, come Daniel Dennett, hanno proposto che ciò che chiamiamo "coscienza" potrebbe essere essa stessa una narrazione post-hoc - un'interpretazione che il cervello costruisce per dare senso alle proprie operazioni.

Se consideriamo la coscienza non come una proprietà misteriosa e unitaria, ma come un insieme di processi neurali interconnessi che generano un'illusione convincente di un "sé" unificato, allora il confine tra umani e macchine diventa meno netto.

In questa prospettiva, potremmo considerare le differenze tra l'AGI emergente e l'intelligenza umana come differenze di grado piuttosto che di natura. L'illusione della comprensione che vediamo nei modelli linguistici avanzati potrebbe non essere così diversa dall'illusione della comprensione che sperimentiamo noi stessi - entrambe emergenti da complesse reti di processi, sebbene organizzate in modi fondamentalmente diversi.

Questa prospettiva solleva una questione provocatoria: se la coscienza umana è essa stessa una simulazione emergente da molteplici processi cognitivi interconnessi, allora l'AGI "per proxy" che stiamo costruendo - un mosaico di sistemi specializzati che collaborano per simulare una comprensione generale - potrebbe essere sorprendentemente simile alla nostra stessa architettura mentale.

Non staremmo cercando di replicare una qualità magica e ineffabile, ma piuttosto di ricostruire l'illusione convincente che noi stessi sperimentiamo come coscienza.

Questa riflessione non diminuisce la profondità dell'esperienza umana, ma ci invita a riconsiderare cosa intendiamo veramente quando parliamo di "coscienza" e se questo concetto sia davvero un ostacolo insormontabile per l'intelligenza artificiale, o semplicemente un altro processo che potremmo un giorno riuscire a simulare.

Conclusione: Ripensare il Traguardo

Forse dovremmo riconsiderare radicalmente la nostra definizione di AGI. Se la coscienza umana stessa potrebbe essere un'illusione emergente - una narrazione che il cervello costruisce per dare senso alle proprie operazioni - allora la distinzione netta tra l'intelligenza umana e quella artificiale diventa meno definita.

Gli esperti prevedono che il 2027 potrebbe segnare un momento fondamentale per l'AI. Con il ritmo attuale, i modelli potrebbero raggiungere una generalità cognitiva – la capacità di affrontare qualsiasi compito umano – entro pochi anni.

Questo scenario non dovrebbe essere visto semplicemente come una replica dell'intelligenza umana, ma come l'emergere di un nuovo tipo di intelligenza - né completamente umana né completamente artificiale, ma qualcosa di diverso e potenzialmente complementare.

Questo approccio ci libera dal tentativo di replicare qualcosa che potremmo non comprendere pienamente - la coscienza umana - e ci permette invece di concentrarci su ciò che l'intelligenza artificiale può fare nei propri termini. L'AGI che emergerà non sarà quindi un singolo sistema che "finge" di essere umano, ma un ecosistema tecnologico integrato con le proprie caratteristiche emergenti - un'intelligenza distribuita che, paradossalmente, potrebbe riflettere la natura frammentata e interconnessa della nostra stessa cognizione più di quanto inizialmente pensavamo.

In questo senso, la ricerca dell'AGI diventa non tanto un tentativo di emulare l'umano, quanto un viaggio di scoperta sulla natura stessa dell'intelligenza e della coscienza, sia umana che artificiale.

Fonti

  1. https://www.justthink.ai/artificial-general-intelligence/understanding-agi-vs-narrow-ai-explaining-the-differences-and-implications
  2. https://www.rand.org/pubs/commentary/2024/02/why-artificial-general-intelligence-lies-beyond-deep.html
  3. https://futurism.com/glimmers-agi-illusion
  4. https://ai.stackexchange.com/questions/26007/are-there-any-approaches-to-agi-that-will-definitely-not-work
  5. https://qubic.org/blog-detail/the-path-to-agi-overcoming-the-computational-challenge
  6. https://www.linkedin.com/pulse/amplification-intelligence-recursive-self-improvement-gary-ramah-0wjpc
  7. https://www.investopedia.com/artificial-general-intelligence-7563858

Fabio Lauria

CEO & Founder |  Electe

CEO di Electe, aiuto le PMI a prendere decisioni basate sui dati. Scrivo di intelligenza artificiale nel mondo degli affari.

Most popular
Iscriviti per conoscere le ultime novità

Ricevi ogni settimana notizie e approfondimenti nella tua
casella di posta elettronica. Non fartela sfuggire!

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.