Solo poche ore fa, OpenAI ha annunciato che gli utenti di ChatGPT possono ora generare immagini con DALL-E 3. Tuttavia, la società di Sam Altman ha anche pubblicato la sua GPT-4o System Card, un documento che descrive le misure di sicurezza e le valutazioni dei rischi condotte prima del lancio.
La società americana ha spiegato che prima del debutto pubblico di GPT-4o, sono stati condotti con un gruppo esterno ed esperti di sicurezza alcuni test per individuare le possibili falle del sistema. In particolare, questi hanno esaminato i rischi come la possibilità che GPT-4o creasse cloni non autorizzati della voce, contenuti erotici o violenti o frammenti di audio riprodotti protetti dal copyright.
Tali test hanno evidenziato che GPT-4o presenta un rischio complessivo medio. Tale livello prende in considerazione i punteggi di quattro categorie: sicurezza informatica, minacce biologiche, persuasione e autonomia del modello. Tutte queste categorie sono state considerate a basso rischio, eccetto la persuasione, per cui i ricercatori hanno scoperto che alcuni campioni di scrittura di GPT-4o potrebbero essere più efficaci nel convincere i lettori rispetto al testo scritto da esseri umani, sebbene i campioni del modello non fossero complessivamente più persuasivi di quelli generati dagli umani.
La system card di GPT-4o è disponibile anche in italiano, e contiene tutte le informazioni.