MindLLM è un innovativo sistema di intelligenza artificiale destinato a rivoluzionare la ricerca sulle interfacce cervello-computer. Sviluppato da un team di Yale, Dartmouth e Cambridge, MindLLM decodifica l’attività cerebrale per convertirla in testo, rappresentando un notevole avanzo nella neuroscienza computazionale. Il sistema si basa su un codificatore fMRI che analizza i voxel per identificare le aree cerebrali attivate durante specifici processi cognitivi, e su un modello linguistico di grandi dimensioni che traduce queste informazioni in linguaggio naturale, permettendo una comprensione fluida dei pensieri.
Una caratteristica distintiva di MindLLM è la sua capacità di funzionare senza addestramenti personalizzati, estraendo informazioni rilevanti dalle scansioni fMRI, rendendolo adattabile a tutti gli individui. Il Brain Instruction Tuning (BIT) è un altro elemento chiave, permettendo un’apprendimento avanzato attraverso grandi quantità di dati fMRI e descrizioni testuali, migliorando la correlazione tra attività cerebrale e linguaggio naturale.
I test eseguiti con il Natural Scenes Dataset hanno mostrato un’accuratezza superiore del 12% rispetto ai modelli precedenti, soprattutto nell’analisi di nuovi soggetti. Oltre a tradurre l’attività neurale in testo, MindLLM può descrivere immagini e interpretare pensieri complessi, aprendo la strada a molteplici applicazioni, dalle interfacce cervello-computer a studi clinici e terapeutici.
MindLLM si basa su mappe neuroscientifiche esistenti ma è ancora limitato alla decodifica di momenti singoli di attività cerebrale. I ricercatori prevedono sviluppi futuri, come l’analisi della sequenza temporale dei pensieri, con significative implicazioni per la comprensione della cognizione umana e per migliorare la comunicazione in persone con disabilità.