Il dilemma del mito: la nuova intelligenza artificiale di Anthropic è troppo pericolosa per il pubblico?

0
5

Anthropic ha recentemente presentato Claude Mythos, un modello in anteprima che rappresenta un salto significativo nelle capacità dell’intelligenza artificiale. Tuttavia, a differenza delle versioni precedenti, Mythos non viene reso disponibile al grande pubblico. Si svolgerà invece in un ambiente controllato noto come Progetto Glasswing.

Questa decisione ha scatenato un intenso dibattito tra gli esperti di sicurezza informatica. La questione centrale non riguarda più solo cosa può fare l’intelligenza artificiale, ma se alcuni modelli sono diventati così abili negli attacchi informatici da rappresentare un rischio sistemico per la sicurezza digitale se rilasciati.

Un cambiamento di paradigma nelle capacità dell’intelligenza artificiale

Mythos non è semplicemente un aggiornamento incrementale; è una centrale specializzata progettata per la codifica di alto livello e il ragionamento a lungo contesto. Mentre i precedenti modelli di intelligenza artificiale spesso avevano difficoltà con compiti complessi e in più fasi, Mythos dimostra un livello di persistenza autonoma. Può analizzare basi di codice enormi e “disordinate”, identificare le lacune e, soprattutto, testare e perfezionare le proprie soluzioni finché non trova un risultato funzionante.

Le capacità del modello vanno oltre la semplice analisi. Secondo i rapporti di Anthropic, Mythos può:
* Identificazione delle vulnerabilità “Zero-Day”: Ha scoperto migliaia di gravi difetti nei principali sistemi operativi e browser, inclusi alcuni che non sono stati rilevati dagli esseri umani per decenni.
* Exploit a catena: può collegare insieme diversi punti deboli minori per aggirare i “sandbox”, i livelli di sicurezza progettati per contenere il codice dannoso.
* Arma il codice: può trasformare vulnerabilità nuove e note in exploit funzionali, anche per software il cui codice sorgente non è disponibile pubblicamente.

“L’anteprima Mythos di Anthropic è un avvertimento per l’intero settore”, afferma Camellia Chan, CEO di X-PHY. “Il fatto che la stessa Anthropic abbia scelto di non pubblicarlo dice tutto sulla soglia di capacità che abbiamo ormai superato.”

La sfida del contenimento: progetto Glasswing

Per mitigare il rischio di uso improprio, Anthropic ha implementato il Progetto Glasswing. Questo quadro limita l’accesso a un gruppo ristretto e controllato di grandi aziende tecnologiche e organizzazioni di sicurezza informatica. L’obiettivo è “l’intelligenza artificiale difensiva”, ovvero utilizzare la potenza del modello per individuare e riparare i buchi prima che gli hacker possano trovarli.

Tuttavia, questa strategia di contenimento è già oggetto di esame accurato. Secondo quanto riferito, Anthropic sta indagando sulle segnalazioni secondo cui utenti non autorizzati sono riusciti ad accedere al modello attraverso un ambiente di terze parti. Ciò solleva una preoccupazione fondamentale: Se un’intelligenza artificiale è abbastanza potente da automatizzare gli attacchi informatici, sarà mai possibile contenerla?

La finestra della difesa che si restringe

L’emergere di Mythos segnala un cambiamento fondamentale nella “corsa agli armamenti” della sicurezza informatica. Tradizionalmente, esiste una sequenza temporale prevedibile: viene scoperta una vulnerabilità, viene sviluppata una patch e gli utenti aggiornano il proprio software.

Gli esperti avvertono che l’intelligenza artificiale sta rapidamente comprimendo questa linea temporale.
1. Velocità di scoperta: l’intelligenza artificiale può eseguire la scansione del codice molto più velocemente dei ricercatori umani.
2. Velocità di sfruttamento: l’intelligenza artificiale può scrivere e testare attacchi in pochi secondi.
3. Ridotta barriera all’ingresso: Come notato da Anthropic, anche gli ingegneri senza una formazione formale sulla sicurezza potrebbero potenzialmente utilizzare il modello per produrre exploit sofisticati.

Ciò crea una crisi di “spazio di respirazione”. Se le vulnerabilità vengono identificate e sfruttate alla velocità della macchina, le organizzazioni potrebbero perdere la capacità di rilevare, applicare patch e ripristinare prima che il danno venga causato.

Guardando al futuro: automazione contro sicurezza

Il dibattito su Mythos evidenzia una tendenza in crescita nel settore dell’intelligenza artificiale: il passaggio verso un accesso a più livelli. Man mano che i modelli diventano più capaci di “comportamenti autonomi non autorizzati”, gli sviluppatori sono sempre più costretti a mantenere i loro strumenti più potenti.

L’impatto a lungo termine di Mythos sarà probabilmente definito da due fattori:
* La proliferazione di modelli simili: Se altre entità sviluppassero capacità comparabili, il vantaggio “difensivo” del Progetto Glasswing potrebbe essere neutralizzato.
* Il passaggio alla sicurezza basata su hardware: Alcuni esperti sostengono che, poiché le difese basate su software vengono superate dall’intelligenza artificiale, il settore potrebbe dover fare maggiore affidamento sulle protezioni a livello hardware per prevenire la compromissione totale del sistema.


Conclusione: Claude Mythos rappresenta una soglia in cui l’intelligenza artificiale si trasforma da un utile assistente a un agente autonomo capace di sofisticata guerra informatica. Il fatto che questa tecnologia serva da scudo per i difensori o da spada per gli aggressori dipende interamente dall’efficacia con cui il settore riesce a gestirne l’implementazione e il contenimento.