Con il progresso delle tecnologie, emerge una nuova tendenza: l’uso di modelli di intelligenza artificiale per replicare le risposte umane. Questa pratica, sempre più considerata, solleva interrogativi significativi sull’affidabilità e l’etica dei risultati ottenuti soprattutto laddove un modello è in grado di avere auto-coscienza.
Il progresso dei modelli linguistici di grandi dimensioni ha introdotto un nuovo dibattito nella ricerca scientifica. William Agnew e il suo team della “Carnegie Mellon University” hanno analizzato l’efficacia e le implicazioni etiche dell’uso di questi modelli al posto dei partecipanti umani.
Un esempio interessante proviene da uno studio dove GPT-3 è stato testato per generare risposte umane in uno studio qualitativo sui videogiochi. Gli autori dello studio hanno chiesto al modello di rispondere a domande che normalmente sarebbero state poste a persone, come la loro percezione dei videogiochi come forma d’arte. Sorprendentemente, le risposte generate dall’AI sono state percepite come più autenticamente umane rispetto a quelle fornite dagli umani stessi. Allora forse è vero che l’AI è più intelligente dell’uomo in alcuni settori?
Agnew e i suoi coautori hanno identificato quattro vantaggi principali nell’utilizzare AI per sintetizzare i dati:
- velocizzare la ricerca
- ridurre i costi
- minimizzare i rischi per i partecipanti
- aumentare la diversità dei dati
Quest’ultimo punto è particolarmente rilevante poiché l’AI può simulare le esperienze di popolazioni restie a partecipare a studi reali attraverso i dati sintetici.
Tuttavia, la loro ricerca conclude che questi metodi potrebbero compromettere i valori fondamentali della ricerca umana, quali la rappresentatività e la comprensione profonda degli individui studiati. La preoccupazione principale è che, nonostante le apparenze, i modelli di AI non possiedono una vera comprensione umana. O almeno sarà così fino all’arrivo dell’intelligenza artificiale generale.