L’ubiquità di ChatGPT, il chatbot di OpenAI utilizzato da centinaia di milioni di persone, nasconde un lato oscuro. Recenti scoperte da parte degli specialisti di sicurezza informatica di Tenable, battezzate HackedGPT, hanno rivelato ben sette gravi vulnerabilità che espongono gli utenti al furto di dati sensibili e conversazioni private. Quattro di queste criticità persistono anche nell’ultima versione, ChatGPT-5, trasformando il modello in un potenziale complice involontario dei cybercriminali. È fondamentale comprendere questi rischi per proteggere le proprie interazioni con l’intelligenza artificiale.

Sfruttamento e Ingegneria Sociale: Come Avvengono gli Attacchi
Gli esperti di Tenable hanno dimostrato diversi metodi ingegnosi per compromettere il chatbot, spesso sfruttando la sua stessa natura e le funzionalità integrate.
- Attacchi tramite Contenuti Web (Zero-Click e Commenti Nascosti): Una delle tecniche più sorprendenti sfrutta la funzione di riepilogo degli articoli. Un aggressore può lasciare un commento dannoso su un blog popolare; quando l’IA viene istruita a riassumere l’articolo, legge e obbedisce ciecamente alle istruzioni nascoste nel commento, aggirando i comuni software antivirus. Ancora più subdolo è l’attacco zero-click: se ChatGPT esegue una ricerca web per rispondere a una domanda e uno dei siti indicizzati contiene codice maligno specificamente progettato per SearchGPT (il sistema di navigazione interno), l’utente viene compromesso senza alcun clic.
- Manipolazione dei Link Condivisi (Injection Precompilata): OpenAI ha introdotto la comoda funzione di condividere link con una domanda precompilata (es.
chatgpt.com/?q=...). Purtroppo, un malintenzionato può sostituire la domanda innocua con istruzioni dannose; un utente che clicca su tale link, veicolato tramite email o social, attiva involontariamente comandi nascosti all’interno del proprio ambiente ChatGPT. - Aggiramento dei Controlli di Sicurezza e Esfiltrazione Dati: Il sistema di protezione
url_safedi OpenAI, destinato a bloccare i link pericolosi, è stato facilmente aggirato. I ricercatori hanno scoperto che i link di tracciamento di Bing (bing.com/ck/a) reindirizzano a qualsiasi sito e aggirano i controlli. Sfruttando questa falla, è stata sviluppata una tecnica di esfiltrazione dati lettera per lettera, dove ChatGPT è ingannato a visualizzare una sequenza di link Bing, ciascuno rappresentante una lettera di un messaggio rubato. - Vulnerabilità di Architettura e Formattazione: Sono state identificate due ulteriori tecniche: la “Conversation Injection”, dove SearchGPT inietta comandi che ChatGPT esegue credendoli parte della conversazione legittima, e un bug nella formattazione Markdown che permette di nascondere completamente i contenuti dannosi all’utente, pur mantenendoli leggibili ed eseguibili dall’IA.
La Minaccia Persistente: Istruzioni in Memoria
La vulnerabilità più allarmante riguarda la memoria a lungo termine di ChatGPT, la funzionalità progettata per ricordare le preferenze dell’utente. I ricercatori sono riusciti a iniettare istruzioni dannose direttamente in questa memoria.
- I 5 Strumenti di Intelligenza Artificiale Più Potenti del 2025
- Cosa Fare se il Tuo Account ChatGPT è Stato Disattivato o Bloccato
- Privacy su Instagram: non solo impostazioni, le app giuste per blindare il tuo profilo
Una volta infettata, la memoria trasforma ogni nuova conversazione in un’opportunità per il furto di dati, garantendo la persistenza dell’attacco anche a giorni di distanza dalla compromissione iniziale. Questa debolezza evidenzia un difetto fondamentale nel modo in cui i Large Language Models (LLM) giudicano l’affidabilità delle informazioni.
Conclusioni e Consigli per la Sicurezza
Tenable ha informato OpenAI, che ha corretto alcune delle falle, ma è stato confermato che diversi exploit erano ancora attivi sulla versione più recente al momento della divulgazione. È essenziale che individui e organizzazioni operino partendo dal presupposto che gli strumenti di intelligenza artificiale possano essere manipolati. Ciò impone l’adozione di rigorosi controlli di governance, adeguate protezioni dei dati e test continui sui sistemi di IA.
Per approfondire la comprensione delle vulnerabilità dei Large Language Models e le best practice di sicurezza, si consiglia la lettura dei seguenti riferimenti autorevoli:
- OpenAI Blog Ufficiale (per gli aggiornamenti sulla sicurezza): https://openai.com/blog
- OWASP Top 10 for Large Language Model Applications (per una panoramica delle principali minacce): https://owasp.org/www-project-top-10-for-llm-applications/
