Periodo convulso per il mondo della cybersecurity, dovuto anche al boom dell’intelligenza artificiale. Sono tante le minacce informatiche che stanno emergendo, ma una ricerca in particolare sta attirando l’attenzione per via dell’utilizzo di ChatGPT per inviare e-mail false ai contatti.
Sono fonti come New Scientist e Futurism a riportare, a luglio 2024, che alcuni ricercatori hanno sperimentato il potenziale utilizzo di un virus in grado di generare con l’intelligenza artificiale falsi messaggi di posta elettronica e allegare file malevoli. Le e-mail vengono generate dall’IA in modo da risultare il più realistiche possibile, così da cercare di portare la vittima ad aprire gli allegati.
David Zollikofer (ETH Zurich) e Ben Zimmerman (Ohio State University) affermano di essere persino riusciti a evitare che il file in allegato venga riconosciuto dagli antivirus. Una volta che quest’ultimo ha “preso possesso” del computer della vittima, entra in gioco l’IA: viene aperto Outlook e vengono generate e inviate risposte contestuali alle e-mail ricevute, cercando di espandere la portata del virus lasciando file in allegato.
Per quanto si tratti solamente di un esempio fatto da ricercatori, lo scenario dipinto da Zollikofer e Zimmerman non è di certo passato inosservato, ricordando ancora una volta quanto l’utilizzo dell’intelligenza artificiale in ambito malware possa aprire a nuovi scenari avanzati – in grado anche di diffondere file malevoli con precisione e velocità. L’obiettivo dei ricercatori con questo paper, pubblicato su arXiv, è quello di “mettere in luce i rischi degli LLM in termini di cybersecurity“.
Rimanendo in tema di sicurezza informatica, potrebbe interessarvi dare un’occhiata anche alla recente scoperta di un malware che finge una bomba a grappolo.