12.3 C
Roma
venerdì, 28 Marzo, 2025
HomeTecnologiaGli errori dell'Intelligenza Artificiale: quando ChatGPT si confonde

Gli errori dell’Intelligenza Artificiale: quando ChatGPT si confonde

L’uso di ChatGPT e altri LLM (Large Language Model) sta diventando sempre più comune, grazie ai progressi nel campo dell’Intelligenza Artificiale, che però continua a differire sostanzialmente dall’intelligenza umana. L’AI imita il ragionamento umano senza possedere un vero e proprio pensiero autonomo, non è in grado di “sentire” o avere emozioni. Gli LLM, come ChatGPT, sono addestrati a manipolare testi e possono generare risposte coerenti, ma spesso incappano in errori, noti come “allucinazioni”.

Questi modelli operano suddividendo il testo in porzioni chiamate “token”, il che rende difficile compiti semplici come il conteggio delle lettere in una parola. Tuttavia, con l’attivazione del “reasoning”, come nel caso delle versioni migliori di ChatGPT e DeepSeek, il sistema può elaborare le risposte con maggiore accuratezza grazie alla metodologia denominata “Chain of Thought” (CoT). Questa tecnica consente di scomporre le domande in unità più piccole per facilitare il ragionamento.

Nonostante questi miglioramenti, i modelli di AI possono comunque essere “ingannati”. Ad esempio, a un indovinello sui tre interruttori, DeepSeek R1 risponde correttamente, ma semplificando l’indovinello rendendolo trasparente, il modello fallisce, dimostrando che non sta realmente ragionando ma piuttosto attingendo a risposte precedentemente apprese. Questo fenomeno illustra le limitazioni degli LLM nell’analizzare contestualmente le informazioni, evidenziando che le loro risposte sono probabilistiche piuttosto che basate su un’analisi logica profonda.

🚀 Scopri i migliori gadget tecnologici su Amazon! Acquista subito e risparmia!
ARTICOLI CORRELATI

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

PIÙ POPOLARI