scienziati allarme prendera umani studi v4 711706

Con il progresso delle tecnologie, emerge una nuova tendenza: l’uso di modelli di intelligenza artificiale per replicare le risposte umane. Questa pratica, sempre più considerata, solleva interrogativi significativi sull’affidabilità e l’etica dei risultati ottenuti soprattutto laddove un modello è in grado di avere auto-coscienza.

Il progresso dei modelli linguistici di grandi dimensioni ha introdotto un nuovo dibattito nella ricerca scientifica. William Agnew e il suo team della “Carnegie Mellon University” hanno analizzato l’efficacia e le implicazioni etiche dell’uso di questi modelli al posto dei partecipanti umani.

Un esempio interessante proviene da uno studio dove GPT-3 è stato testato per generare risposte umane in uno studio qualitativo sui videogiochi. Gli autori dello studio hanno chiesto al modello di rispondere a domande che normalmente sarebbero state poste a persone, come la loro percezione dei videogiochi come forma d’arte. Sorprendentemente, le risposte generate dall’AI sono state percepite come più autenticamente umane rispetto a quelle fornite dagli umani stessi. Allora forse è vero che l’AI è più intelligente dell’uomo in alcuni settori?

Agnew e i suoi coautori hanno identificato quattro vantaggi principali nell’utilizzare AI per sintetizzare i dati:

  • velocizzare la ricerca
  • ridurre i costi
  • minimizzare i rischi per i partecipanti
  • aumentare la diversità dei dati

Quest’ultimo punto è particolarmente rilevante poiché l’AI può simulare le esperienze di popolazioni restie a partecipare a studi reali attraverso i dati sintetici.

Tuttavia, la loro ricerca conclude che questi metodi potrebbero compromettere i valori fondamentali della ricerca umana, quali la rappresentatività e la comprensione profonda degli individui studiati. La preoccupazione principale è che, nonostante le apparenze, i modelli di AI non possiedono una vera comprensione umana. O almeno sarà così fino all’arrivo dell’intelligenza artificiale generale.



Fonte

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *