Mentre il “veleno digitale” contro l’IA non sembra riuscire a contrastare i progressi nel campo dell’Intelligenza Artificiale, ci sono diversi tool e strumenti che gli artisti possono usare per evitare che le proprie opere vengano usate per il training dei modelli di IA Generativa.
Il primo tool che vi consigliamo è Glaze: si tratta di un progetto sviluppato dall’Università di Chicago, disponibile in modo completamente gratuito. Esso opera dei cambiamenti a livello del singolo pixel nelle immagini: tali modifiche non sono riconoscibili da un occhio umano, ma rischiano di confondere i software IA che cercano di “leggere” le immagini per il training dei modelli di Intelligenza Artificiale. Glaze è disponibile su Windows e macOS, ed è stato rilasciato sia in una versione che richiede una GPU per funzionare che in una variante non-GPU.
Sempre dall’Università di Chicago (e dallo stesso team di Glaze) arriva Nightshade, che adotta un approccio molto simile a Glaze, ma più profondo e impattante sull’IA. Si tratta di un software capace di “avvelenare” le immagini e, di conseguenza, le Intelligenze Artificiali: non solo le vostre opere d’arte digitali non saranno visibili da parte dell’IA, ma i suoi output verranno addirittura compromessi dai metadati applicati di Nightshade. Il software riesce a confondere il riconoscimento degli oggetti da parte dell’IA, rendendola meno precisa nella generazione di immagini e altri contenuti.
Infine, Psyker Group ha sviluppato Mist, un tool di processing che impedisce che l’IA imiti lo stile artistico di un illustratore, oltre ad inibire la copia dei suoi soggetti. A differenza di Nightshade e Glaze, Mist applica un watermark invisibile sulle immagini: un algoritmo IA che viene “allenato” con immagini coperte da questo watermark produce contenuti “annebbiati” da una serie di distorsioni che li rendono inutilibizzabili. Sfortunatamente, però, Mist è un tool piuttosto pesante, dal momento che richiede una VRAM da almeno 6 GB per funzionare correttamente.