In un contesto in cui l’intelligenza artificiale sta diventando sempre più presente nella vita quotidiana, è fondamentale comprendere le sue capacità e limitazioni. Recentemente, un esperimento ha messo alla prova alcuni dei più avanzati modelli di IA in un contesto educativo cruciale: la prova di matematica della Maturità 2025.
L’esperimento, condotto da InfoData del Sole 24 Ore, ha coinvolto quattro modelli di intelligenza artificiale: ChatGPT, Gemini, DeepSeek e Claude, i quali sono stati sottoposti alla seconda prova di matematica del liceo scientifico. Le immagini dei problemi e delle domande sono state caricate e i modelli hanno ricevuto l’istruzione di risolverli. I risultati sono stati deludenti: tutti i modelli sono stati “bocciati”.
Gemini ha mostrato le maggiori difficoltà, non riuscendo a elaborare il contenuto delle immagini. ChatGPT ha commesso errori significativi, ignorando parte dei problemi e confondendo termini matematici. DeepSeek e Claude, pur non avendo brillato, hanno ottenuto risultati dignitosi, con voti sotto la sufficienza.
Il professor Domenico Brunetto, coinvolto nell’esperimento, ha osservato che l’unica sufficienza, un 6, è stata data a DeepSeek per la sua sintesi nelle risposte. Al contrario, Claude e DeepSeek hanno mostrato confusione terminologica e approcci non standard. Questo esperimento evidenzia le attuali limitazioni dell’intelligenza artificiale nella comprensione e risoluzione di problemi matematici, soprattutto in un contesto accademico.
Elaborazione AI: StraNotizie.it
Fonte: sapere.virgilio.it
Scopri tutti i gadget e le offerte a tempo su Amazon. Non perdertele! 🔥