A una settimana dall’annuncio di Project Glasswing da parte di Anthropic, OpenAI ha presentato GPT-5.4-Cyber, una variante del suo modello GPT-5.4 ottimizzata per la sicurezza informatica difensiva. Il rilascio non è pubblico: l’accesso è riservato ai livelli più alti del programma Trusted Access for Cyber (TAC), già attivo da febbraio insieme a un fondo da dieci milioni di dollari per iniziative nel settore.
La caratteristica principale del modello è una soglia di rifiuto più bassa rispetto ai modelli generici. Nelle versioni standard, le richieste legate all’analisi di vulnerabilità, al comportamento dei malware o alla ricerca su exploit vengono spesso bloccate anche quando provengono da professionisti legittimi. GPT-5.4-Cyber è stato calibrato per rispondere a queste richieste, a condizione che l’utente abbia superato i controlli di verifica del programma TAC.
// affiliato ▸ Proton Pass · Le tue password, protette sul serio con sconti al 50% · Provalo gratis →
Tra le novità c’è anche la capacità di analisi del codice binario compilato, che consente ai ricercatori di esaminare applicazioni e software alla ricerca di vulnerabilità o comportamenti malevoli senza accedere al codice sorgente. OpenAI inquadra il modello come un passo preparatorio in vista di sistemi ancora più capaci attesi nel corso dell’anno.
Il nodo dei dati
C’è però un aspetto che merita attenzione. Secondo quanto riporta The Next Web, per accedere al tier più alto del programma TAC, quello che sblocca GPT-5.4-Cyber, gli utenti devono rinunciare alla funzione Zero Data Retention. In pratica, OpenAI conserva i log delle sessioni, il che significa che l’azienda avrà visibilità su quali vulnerabilità vengono analizzate, quali sistemi vengono sondati e quali exploit vengono discussi. Per i team che lavorano su infrastrutture critiche o classificate, questa condizione potrebbe essere incompatibile con i requisiti di riservatezza operativa.
Il confronto con Anthropic
OpenAI si posiziona esplicitamente come alternativa più accessibile rispetto ad Anthropic, che con Project Glasswing ha adottato un approccio più restrittivo, limitando l’accesso a Claude Mythos a un numero ridotto di grandi organizzazioni. La narrativa di OpenAI punta sulla distribuzione più ampia come argomento a favore della difesa collettiva. Come riporta CyberScoop, l’azienda dichiara di voler evitare di decidere arbitrariamente chi ottiene accesso per usi legittimi, affidandosi invece alla verifica dell’identità come meccanismo selettivo.
Resta da vedere quanto questa apertura relativa regga nel tempo. Claude Mythos è già stato descritto da esperti di sicurezza statunitensi e britannici come uno strumento con un potenziale offensivo significativo, il che spiega in parte la scelta di Anthropic di limitarne l’accesso. GPT-5.4-Cyber percorre una strada simile, con una platea più ampia ma pur sempre controllata.


Mastodon
Telegram
Bluesky
Lascia un commento