🇬🇧 🇺🇸

Dopo Anthropic, anche OpenAI lancia un modello AI dedicato alla sicurezza informatica difensiva

Dopo Anthropic, anche OpenAI lancia un modello AI dedicato alla sicurezza informatica difensiva

OpenAI ha rilasciato GPT-5.4-Cyber, una variante di GPT-5.4 pensata per i professionisti della sicurezza informatica con accesso verificato. Arriva a pochi giorni dall’annuncio di Claude Mythos da parte di Anthropic.

Nessun login, nessun IP salvato.

A una settimana dall’annuncio di Project Glasswing da parte di Anthropic, OpenAI ha presentato GPT-5.4-Cyber, una variante del suo modello GPT-5.4 ottimizzata per la sicurezza informatica difensiva. Il rilascio non è pubblico: l’accesso è riservato ai livelli più alti del programma Trusted Access for Cyber (TAC), già attivo da febbraio insieme a un fondo da dieci milioni di dollari per iniziative nel settore.

La caratteristica principale del modello è una soglia di rifiuto più bassa rispetto ai modelli generici. Nelle versioni standard, le richieste legate all’analisi di vulnerabilità, al comportamento dei malware o alla ricerca su exploit vengono spesso bloccate anche quando provengono da professionisti legittimi. GPT-5.4-Cyber è stato calibrato per rispondere a queste richieste, a condizione che l’utente abbia superato i controlli di verifica del programma TAC.

// affiliato ▸ Proton Pass · Le tue password, protette sul serio con sconti al 50% · Provalo gratis →

Tra le novità c’è anche la capacità di analisi del codice binario compilato, che consente ai ricercatori di esaminare applicazioni e software alla ricerca di vulnerabilità o comportamenti malevoli senza accedere al codice sorgente. OpenAI inquadra il modello come un passo preparatorio in vista di sistemi ancora più capaci attesi nel corso dell’anno.

Il nodo dei dati

C’è però un aspetto che merita attenzione. Secondo quanto riporta The Next Web, per accedere al tier più alto del programma TAC, quello che sblocca GPT-5.4-Cyber, gli utenti devono rinunciare alla funzione Zero Data Retention. In pratica, OpenAI conserva i log delle sessioni, il che significa che l’azienda avrà visibilità su quali vulnerabilità vengono analizzate, quali sistemi vengono sondati e quali exploit vengono discussi. Per i team che lavorano su infrastrutture critiche o classificate, questa condizione potrebbe essere incompatibile con i requisiti di riservatezza operativa.

Il confronto con Anthropic

OpenAI si posiziona esplicitamente come alternativa più accessibile rispetto ad Anthropic, che con Project Glasswing ha adottato un approccio più restrittivo, limitando l’accesso a Claude Mythos a un numero ridotto di grandi organizzazioni. La narrativa di OpenAI punta sulla distribuzione più ampia come argomento a favore della difesa collettiva. Come riporta CyberScoop, l’azienda dichiara di voler evitare di decidere arbitrariamente chi ottiene accesso per usi legittimi, affidandosi invece alla verifica dell’identità come meccanismo selettivo.

Resta da vedere quanto questa apertura relativa regga nel tempo. Claude Mythos è già stato descritto da esperti di sicurezza statunitensi e britannici come uno strumento con un potenziale offensivo significativo, il che spiega in parte la scelta di Anthropic di limitarne l’accesso. GPT-5.4-Cyber percorre una strada simile, con una platea più ampia ma pur sempre controllata.

Supporta Yoota · link affiliato

Spargi la voce

Fiuta le novità (seguimi 🐾)

YOOTA
YOOTA
@yoota@yoota.it

Fiuto per le tech news

829 articoli
127 follower

Lascia un commento

Puoi lasciare solo commenti senza iscrizione che verranno preventivamente moderati e il tuo indirizzo IP sarà anonimizzato.

Già che ci sei…

Caricamento top zampate…

Biscotti! Non vengono installati cookie di tracciamento né raccolti dati personali ma questo sito è federato con ActivityPub ⁂, visitandolo quindi potresti fare connessioni esterne ai server di Mastodon o altri software.Affiliazioni: Alcuni articoli potrebbero contenere link di affiliazione. Se acquisti tramite questi link, potremmo ricevere una piccola commissione.