
L’AI “accelera” la matematica: una sinergia che cambia la ricerca. L’intelligenza artificiale e la matematica si influenzano reciprocamente. I matematici utilizzano l’AI per risolvere problemi che prima sembravano irrisolvibili, sfruttando modelli avanzati come LRM.
L’Intelligenza Artificiale e la matematica sono strettamente legate tra loro. La matematica è il linguaggio con cui l’Intelligenza Artificiale “pensa” e impara. Senza algebra, statistica, calcolo e logica, tale dirompente tecnologia non potrebbe esistere.
Allo stesso tempo, l’Intelligenza Artificiale sta diventando uno strumento potente per la matematica stessa, aiutando i ricercatori a esplorare nuove idee, dimostrare teoremi e risolvere problemi complessi.
AI e matematica: l’iniziativa “expMath” del DARPA
Lo scorso aprile, la “US Defense Advanced Research Projects Agency” (l’agenzia statunitense per i progetti di ricerca avanzata della difesa, conosciuta come “DARPA”) ha lanciato una nuova iniziativa chiamata “expMath” (abbreviazione di “Exponentiating Mathematics”) con l’obiettivo di accelerare i progressi in un campo – quello della matematica – che è alla base di numerose applicazioni cruciali, dalla scienza informatica alla medicina, fino alla sicurezza nazionale.
Secondo il DARPA però, per quanto la matematica abbia sempre un impatto enorme nelle vite di tutti noi, viene ancora praticata più o meno come secoli fa, ossia “in solitaria davanti alla lavagna”.
Il mondo moderno si regge sulla matematica. Certo, è un concetto pleonastico, ma utile a ricordarci che la matematica permette di modellare sistemi complessi, come il flusso dell’aria attorno a un aereo, l’andamento dei mercati finanziari, o la circolazione del sangue nel cuore.
E le scoperte nel campo della matematica possono sbloccare nuove tecnologie come la crittografia, essenziale per la messaggistica privata e la sicurezza bancaria online, o la compressione dei dati, che ci consente di trasmettere immagini e video via internet. Tuttavia, tali progressi, in questo settore, possono richiedere anni.
Gli obiettivi di expMath
DARPA vuole “semplicemente” accelerare questo processo. L’obiettivo di expMath è incentivare matematici e ricercatori nel campo dell’Intelligenza Artificiale a sviluppare quello che DARPA chiama “co-autore-IA”, ossia uno strumento in grado di scomporre grandi problemi matematici complessi in sotto-problemi più piccoli e comprensibili (e, si spera, più veloci da risolvere).
I matematici usano i computer da decenni, per velocizzare i calcoli o verificare se certe affermazioni sono vere. Ma oggi si immagina che l’Intelligenza Artificiale possa aiutarli a risolvere problemi finora considerati irrisolvibili. Tuttavia, c’è una grande differenza tra un’Intelligenza Artificiale capace di risolvere i problemi delle scuole superiori e un’Intelligenza Artificiale che potrebbe (in teoria) affrontare i problemi su cui i matematici professionisti lavorano per decenni.
Da una parte ci sono strumenti in grado di automatizzare compiti ripetitivi; dall’altra, strumenti che potrebbero spingere la conoscenza umana oltre i suoi limiti attuali. Vediamo insieme tre modi per capire questo divario.
L’arrivo dei Large Reasoning Model per colmare le lacune matematiche dei LLM

I grandi modelli linguistici LLM, come ChatGPT, non sono famosi per la loro abilità matematica. Come è ormai appurato, a volte “inventano” risposte per compiacere gli utenti, con la possibilità di arrivare a dire che “2 + 2 = 5” solo per dare ragione a chi formula la domanda.
E non dobbiamo nemmeno scomodare il romanzo distopico “1984” di George Orwell – dove il Partito usa questo tipo di manipolazione della realtà per imporre il suo potere – dato che non vi è nessuna imposizione per cui il modello debba rispondere in maniera errata.
È semplice “volontà” di soddisfare le richieste. Tuttavia, al di là degli LLM più popolari, vi sono i cosiddetti Large Reasoning Models (LRM), ossia LLM ulteriormente addestrati per risolvere compiti di ragionamento multi-step (a più passaggi), tra i quali figura o3 di OpenAI e Claude 4 Thinking di Anthropic. E sono proprio questi LRM ad aver acceso l’interesse dei matematici.
Quest’anno, diversi LRM hanno ottenuto punteggi elevati all’American Invitational Mathematics Examination (AIME), un test rivolto al 5% degli studenti più bravi delle scuole superiori statunitensi. Sono emersi anche modelli ibridi che combinano LLM e sistemi di verifica dei fatti. AlphaProof di Google DeepMind, per esempio, combina un LLM con il modello da gioco AlphaZero.
Lo scorso anno, AlphaProof è diventato il primo programma a eguagliare le prestazioni di un medagliato d’argento alle Olimpiadi Internazionali di Matematica. A maggio scorso, invece, un altro modello di DeepMind, AlphaEvolve, ha trovato soluzioni migliori rispetto a quelle umane per oltre cinquanta problemi matematici irrisolti e numerosi problemi concreti di informatica.
LRM, progressi e limiti dell’AI che “ragiona”
I progressi, in questo caso, sono chiari. Mentre GPT-4 non è in grado di fare matematica oltre il livello di uno studente universitario, il LRM o1 (sempre di OpenAI) diventa il “re” della materia. Certo, non dobbiamo esultare nell’immediato. I problemi delle Olimpiadi della Matematica spesso richiedono trucchetti ingegnosi, mentre i problemi di ricerca sono molto più esplorativi e pieni di elementi eterogenei.
L’abilità su un tipo di problema non garantisce il successo su un altro. Anche se vi è da dire che i problemi delle Olimpiadi della Matematica, pur difficili, seguono spesso schemi ripetuti sui quali ci si può allenare. E così come si possono allenare gli esseri umani in campo matematico, anche le macchine possono essere allenate in tal senso.
E con i migliori modelli LRM che ottengono punteggi del 90%, non siamo molto lontano dal successo. Un progresso notevole, ma c’è ancora tanto margine di miglioramento.
Ogni problema di matematica è una “ricerca di percorso”, ossia una sequenza di passaggi che porta alla soluzione. Il problema, chiaramente, è trovarla. Inoltre, la differenza la fa la lunghezza dei diversi passaggi. I problemi delle superiori hanno passaggi corti, quelli universitari più lunghi. Per congetture come quella di Riemann (una dei “sette problemi del millennio”), non abbiamo nemmeno i passaggi iniziali.
Potrebbe servire un percorso che può essere lungo milioni di righe di dimostrazione. Proprio come nel gioco del Go, dove AlphaZero ha imparato a trovare sequenze vincenti tra numeri immensi di mosse possibili, anche nella matematica dura si tratta di cercare tra numeri con milioni di zeri. E nessun modello di Intelligenza Artificiale può ancora esaminare tutte queste possibilità.
Le “super-mosse” che consentono all’AI di gestire i problemi con approccio collaborativo
Così alcuni ricercatori hanno creato un sistema per abbreviare i percorsi usando “super-mosse”: gruppi di passaggi trattati come uno solo. Questo metodo ha permesso di approcciare a un problema, la congettura di Andrews-Curtis (AC) che, pur se non ancora risolta, ha visto dimostrare che un controesempio proposto quaranta anni fa era sbagliato.
Pensare fuori dagli schemi è essenziale nella matematica avanzata. Non si tratta solo di procedimenti meccanici: è un’attività sperimentale, fatta di tentativi, errori e “lampi d’intuizione”. Modelli come AlphaEvolve funzionano con una dinamica a due fasi: un LLM genera codice per risolvere un problema, un secondo modello valuta i risultati, sceglie il migliore e lo rimanda indietro per miglioramenti.
Dopo centinaia di iterazioni, nascono soluzioni che superano quelle umane. Questo approccio è collaborativo, con l’essere umano che può intervenire in ogni fase con suggerimenti e intuizioni.
Le evoluzioni di AlphaEvolve e PatternBoost
PatternBoost di Meta genera variazioni interessanti di un’idea matematica. Questo tipo di esplorazione è alla base della materia. Come il caso dell’icosaedro, un solido a 20 facce triangolari, noto fin dall’antica Grecia, e che ancora oggi influenza profondamente il pensiero matematico.
Strumenti come PatternBoost potrebbero aiutare a scoprire nuovi oggetti matematici rivoluzionari. Le vere scoperte arrivano da nuovi modi di vedere un problema. E non sappiamo ancora da dove vengano queste intuizioni straordinarie.
Per ora, strumenti come AlphaEvolve e PatternBoost sembrano scout avanzati al servizio dell’intuizione umana. Possono esplorare nuove strade e segnalare vicoli ciechi, risparmiando mesi o anni di lavoro. Ma le vere scoperte, almeno per ora, continuano a venire dalla mente umana.
Fonti: expMath: Exponentiating Mathematics. DARPA. https://www.darpa.mil/research/programs/expmath-exponential-mathematics – Si pensi ai cd. “Sette problemi irrisolti del millennio”. Cfr. 7 problemi irrisolti della matematica (oltre alla congettura di Riemann). Wired. https://www.wired.it/scienza/lab/2018/09/26/problemi-irrisolti-matematica-riemann/ – Si legga anche: xAI Researchers Claim: AI Model Grok-3 May Prove the Riemann Hypothesis. Medium. https://ai-engineering-trend.medium.com/xai-researchers-claim-ai-model-grok-3-may-prove-the-riemann-hypothesis-b1d8786f383e – AI Program Plays the Long Game to Solve Decades-Old Math Problems. California Institute of Technology. https://www.caltech.edu/about/news/ai-program-plays-the-long-game-to-solve-decades-old-math-problems – AI maths assistant could help solve problems that humans are stuck on. New Scientist. https://www.newscientist.com/article/2456653-ai-maths-assistant-could-help-solve-problems-that-humans-are-stuck-on/ – What’s next for AI and math. MIT Technology Review. https://www.technologyreview.com/2025/06/04/1117753/whats-next-for-ai-and-math/
Lascia un commento