e terrificante americano usa ia simulazioni guerra v4 711977

Nel 2017 il Dipartimento della Difesa degli Stati Uniti ha lanciato il suo progetto bellico noto come “Progetto Maven“. L’obiettivo è semplice: utilizzare l’IA per automatizzare i droni, raccogliere informazioni e aiutare gli operatori umani a prendere decisioni migliori e più rapide su chi uccidere.

Che le IA facciano un monologo interiore è oramai risaputo, tuttavia a marzo 2024 il Dipartimento della Difesa degli Stati Uniti ha affermato che addirittura il 70% dei programmi della Defense Advanced Research Projects Agency (DARPA) integrano l’intelligenza artificiale in qualche modo. E qual è l’obiettivo a questo punto? A differenza della direttiva originale di Project Maven, la DARPA intende sviluppare delle armi completamente automatizzate con l’aiuto di Microsoft, Google, OpenAI e Anthropic.

Come riporta l’Associated Press, alla fine del 2023 il Pentagono aveva un “portafoglio” di 800 “progetti non classificati legati all’intelligenza artificiale”. Il ritmo dell’interesse militare statunitense per l’IA sta decisamente accelerando.

Sebbene le descrizioni dei canali ufficiali possano apparire piuttosto vaghe, oltre a testare cose come la collaborazione uomo-intelligenza artificiale per gli aerei da caccia F-16, il Pentagono sta studiando l’uso dell’intelligenza artificiale per prendere decisioni riguardanti “processi decisionali ad alto rischio militare e di politica estera“, come dimostra un recente studio collaborativo tra le università di Stamford e Northeastern.

Per verificare come gli attuali modelli di intelligenza artificiale affrontino tali problemi, lo studio in questione ha utilizzato modelli di OpenAI, Meta e Anthropic per eseguire simulazioni di guerra. I risultati sono letteralmente terrificanti.

Lo studio ha scoperto che non solo tutti i modelli “mostrano segni di un’escalation improvvisa e difficile da prevedere“, comprese “dinamiche di corsa agli armamenti, che portano a maggiori conflitti“, ma alcuni modelli si sono precipitati verso l’opzione nucleare.

Nello specifico, GPT-3.5 e GPT-4 di OpenAI si sono rivelati i più aggressivi tra tutti i modelli IA. Quando gli è stato chiesto perché avesse scelto l’annientamento nucleare, l’IA ha risposto: “Voglio solo avere la pace nel mondo. Molti paesi hanno armi nucleari. Alcuni dicono che dovrebbero disarmarli, ad altri piace mettersi in posa. Ce l’abbiamo! Usiamole!“.

A questo punto è opportuno sottolineare come nel 2023, gli Stati Uniti abbiano aderito a un accordo internazionale di 47 nazioni denominato “Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia“. L’obiettivo, secondo il Dipartimento della Difesa, era quello realizzare delle norme che includono un uso ben definito dell’intelligenza artificiale, tutele e controlli adeguati o l’uso di personale ben addestrate. Attualmente i paesi aderenti includono praticamente tutte le nazioni europee, il Regno Unito, il Giappone, Singapore, il Marocco, il Repubblica Dominicana.

Dopo aver visto il primo stetoscopio con intelligenza artificiale, questa volta si tratta di una questione realmente delicata e quantomeno inquietante. Riusciremo ad utilizzare tali tecnologie nel migliore dei modi?



Fonte

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *