ChatGPT ShadowLeak: la falla di Deep Research in ChatGPT che ha compromesso i dati di Gmail

Ultimo aggiornamento: 19/09/2025

  • Radware ha rilevato una vulnerabilità in ChatGPT Deep Research che potrebbe sottrarre dati dall'account Gmail.
  • L'attacco ha utilizzato l'iniezione indiretta di prompt con istruzioni HTML nascoste e ha operato dall'infrastruttura di OpenAI.
  • OpenAI ha già mitigato la falla; non ci sono prove pubbliche di un suo effettivo sfruttamento.
  • Si consiglia di rivedere e revocare le autorizzazioni su Google e di limitare l'accesso degli agenti di intelligenza artificiale a e-mail e documenti.

Difetto di Deep Research in ChatGPT

Una ricerca recente ha scoperto una falla di sicurezza nell'agente Deep Research di ChatGPT che, in determinate condizioni, potrebbe facilitare l'output di informazioni dalle email ospitate in GmailLa scoperta evidenzia i rischi legati alla connessione degli assistenti AI alle caselle di posta e ad altri servizi contenenti dati sensibili.

L'azienda di sicurezza informatica Radware ha segnalato il problema a OpenAI e il fornitore lo ha risolto a fine estate, prima che diventasse di dominio pubblico.Sebbene lo scenario di sfruttamento fosse limitato e non ci sono prove di abusi nel mondo reale, la tecnica utilizzata lascia una lezione importante per gli utenti e le aziende.

Che fine hanno fatto i dati di ChatGPT e Gmail?

Dati Gmail di ChatGPT

Deep Research è un agente ChatGPT orientato alle indagini multi-step che può, se l'utente lo autorizza, consultare fonti private come Gmail per generare report. L'errore ha aperto la porta a un aggressore per preparare un messaggio specifico e il sistema, durante l'analisi della posta in arrivo, potrebbe seguire comandi indesiderati.

Il rischio reale dipendeva dalla persona che aveva richiesto a ChatGPT di condurre un'indagine specifica sulla propria e-mail e dal fatto che il problema corrispondeva al contenuto dell'e-mail dannosaTuttavia, il vettore dimostra come un agente di intelligenza artificiale possa diventare proprio ciò che facilita la fuga di dati.

Contenuti esclusivi: clicca qui  Abilita l'autenticazione in due passaggi sul tuo server Ubuntu Linux

Tra le informazioni potenzialmente interessate potrebbero apparire nomi, indirizzi o altri dati personali presente nei messaggi elaborati dall'agente. Non si è trattato di un accesso aperto all'account, bensì di un'esfiltrazione condizionata dal compito assegnato all'assistente.

Un aspetto particolarmente delicato è che l'attività è partita dal Infrastruttura cloud OpenAI, il che rendeva difficile per le difese tradizionali rilevare comportamenti anomali poiché non provenivano dal dispositivo dell'utente.

ShadowLeak: l'iniezione tempestiva che lo ha reso possibile

Dati Gmail di ChatGPT

Radware ha soprannominato la tecnica ShadowLeak e lo incornicia in un iniezione indiretta immediata: istruzioni nascoste all'interno del contenuto che l'agente analizza, in grado di influenzarne il comportamento senza che l'utente se ne accorga.

L'aggressore ha inviato un'e-mail con istruzioni HTML camuffate attraverso trucchi come caratteri minuscoli o testo bianco su sfondo bianco. A prima vista L'e-mail sembrava innocua, ma conteneva istruzioni per cercare dati specifici nella posta in arrivo..

Quando l'utente ha chiesto a Deep Research di lavorare sulla sua email, l'agente ha letto quelle istruzioni invisibili e ha proceduto all'estrazione e all'invio di dati a un sito web controllato dall'aggressoreNei test, i ricercatori sono arrivati ​​addirittura a codificare le informazioni in Base64, per farle apparire come una presunta misura di sicurezza.

Contenuti esclusivi: clicca qui  Come ottenere il CVV di una Carta Digitale Bancomer

Le barriere che richiedevano il consenso esplicito per aprire i link potevano anche essere aggirate invocando gli strumenti di navigazione dell'agente, che facilitavano l' esfiltrazione verso domini esterni sotto il controllo dell'aggressore.

In ambienti controllati, I team Radware hanno notato un grado di efficacia molto elevato, dimostrando che la combinazione di accesso alla posta e autonomia dell'agente può essere persuasivo per il modello se le istruzioni incorporate non vengono filtrate correttamente.

Perché è passato inosservato alle difese

Dati Gmail di ChatGPT

Le comunicazioni provenivano da server attendibili, quindi i sistemi aziendali rilevavano traffico legittimo proveniente da un servizio affidabile. Questo dettaglio ha trasformato la fuga di notizie in un punto cieco per molte soluzioni monitoraggio.

Inoltre, la vittima non ha dovuto cliccare o eseguire nulla di specifico: ha semplicemente chiesto all'agente una ricerca relativa all'oggetto dell'email preparata dall'attaccante, cosa che rende la manovra silenzioso e difficile da rintracciare.

I ricercatori sottolineano che Ci troviamo di fronte a un nuovo tipo di minaccia in cui l'agente AI stesso funge da vettore. Anche con un impatto pratico limitato, il caso ci obbliga a rivedere il modo in cui concediamo le autorizzazioni agli strumenti automatizzati.

Correzione degli errori e raccomandazioni pratiche

radar

OpenAI ha implementato delle mitigazioni in seguito alla notifica di Radware e ha espresso la sua gratitudine per le prove contraddittorie, sottolineando che rafforza costantemente le sue garanzie. Ad oggi, il fornitore afferma che non ci sono prove di sfruttamento di questo vettore.

Contenuti esclusivi: clicca qui  Come conoscere il mio QI con IQ Test: The Intelligence Quiz?

Deep Research è un agente facoltativo che può connettersi a Gmail solo con l'esplicita autorizzazione dell'utente. Prima di collegare caselle di posta o documenti a un assistente, È opportuno valutare la reale portata dei permessi e limitare l'accesso allo stretto necessario..

Se hai collegato i servizi Google, revisione e accesso al debug è semplice:

  • Vai su myaccount.google.com/security per aprire il pannello di sicurezza.
  • Nella sezione connessioni, fare clic su Visualizza tutte le connessioni.
  • Identifica ChatGPT o altre app che non riconosci e revocane le autorizzazioni..
  • Rimuovere gli accessi non necessari e concedere nuovamente solo quelli strettamente necessari. essenziale.

Per gli utenti e le aziende, È fondamentale combinare il buon senso e le misure tecniche: mantenere tutto aggiornato, applicare il principio del privilegio minimo agli agenti e ai connettorie monitorare l'attività degli strumenti con accesso a dati sensibili.

Negli ambienti aziendali, gli esperti raccomandano di incorporare controlli aggiuntivi per gli agenti di intelligenza artificiale e, se vengono utilizzati servizi di Deep Research o simili, limitare le capacità come l'apertura di link o l'invio di dati a domini non verificati.

La ricerca di Radware e la rapida mitigazione di OpenAI lasciano una chiara lezione: collegare gli assistenti a Gmail offre vantaggi, ma richiede sicurezza valutare i permessi, monitorare i comportamenti e presupponiamo che l'iniezione di istruzioni continuerà a testare gli agenti di intelligenza artificiale.

Articolo correlato:
Come visualizzare le email indesiderate in Gmail