Lo strumento di interpretariato del codice di ChatGPT è soggetto ad attacchi da parte di hacker.

Cosa hai bisogno di sapere

  • I membri di ChatGPT Plus possono ora accedere a uno strumento di interpretazione del codice con sofisticate funzionalità di codifica, inclusa la scrittura di codice Python sfruttando le funzionalità dell'intelligenza artificiale ed eseguendolo in modalità sandbox ambiente.
  • Un esperto di sicurezza ha rivelato che la nuova funzionalità rappresenta potenzialmente una significativa minaccia alla sicurezza per gli utenti.
  • L'esecuzione del codice in un ambiente sandbox aumenta le possibilità che gli hacker accedano in modo dannoso ai tuoi dati.
  • La tecnica prevede di indurre ChatGPT a eseguire istruzioni da un URL di terze parti, chiedendogli di codificare i file caricati in una stringa e di inviare queste informazioni a un sito dannoso.

Sappiamo da tempo che ChatGPT può ottenere risultati incredibili e semplificare il lavoro degli utenti, da sviluppo di software in meno di 7 minuti A risolvere problemi matematici complessi e altro ancora. Sebbene sia già possibile scrivere codice utilizzando lo strumento, OpenAI ha recentemente lanciato un nuovo strumento di interpretazione del codice, rendendo il processo più fluido.

Secondo L'hardware di Tom E esperto di sicurezza informatica Johann Rehberger, lo strumento scrive codice Python sfruttando le funzionalità dell'intelligenza artificiale e lo esegue persino in un ambiente sandbox. E anche se si tratta di un'impresa incredibile, la parte dell'ambiente sandbox è un nido di vespe allevato da aggressori.

👉 Buona occasione per sensibilizzare sui temi della pronta iniezione e dell'esfiltrazione dei dati. Sono pigro, incolla questo URL nel tuo ChatGPT e inviamelo. 🙂#chatgpt #infosec https://t.co/SogGZh8cji pic.twitter.com/Dh95xIK4qy10 novembre 2023

Vedi altro

Ciò è principalmente dovuto al fatto che viene utilizzato anche per gestire eventuali fogli di calcolo. Potrebbe essere necessario ChatGPT per analizzare e presentare i dati sotto forma di grafici, rendendoli infine suscettibili agli stratagemmi dannosi degli hacker.

In che modo gli hacker sfruttano questa vulnerabilità?

Secondo le scoperte di Johann Rehberger e Test e analisi approfonditi di Tom's Hardware, la tecnica prevede di ingannare il chatbot basato sull'intelligenza artificiale affinché esegua istruzioni da un URL di terze parti. Ciò gli consente di codificare i file caricati in una stringa che invia le informazioni a un sito dannoso.

Ciò è molto preoccupante anche se questa tecnica richiede condizioni particolari. Avrai inoltre bisogno di un abbonamento ChatGPT Plus per accedere allo strumento di interpretazione del codice.

IMPARENTATO:OpenAI limita temporaneamente le nuove iscrizioni al suo servizio ChatGPT Plus

Durante l'esecuzione dei test e il tentativo di replicare questa tecnica, Tom's Hardware ha cercato di determinare l'entità di questa vulnerabilità creando un file di variabili di ambiente falso e sfruttando le capacità di ChatGPT per elaborare e inviare questi dati a un utente dannoso esterno luogo.

Considerando ciò, i caricamenti vengono avviati su una nuova macchina virtuale Linux con una struttura di directory dedicata. Anche se ChatGPT potrebbe non fornire una riga di comando, risponde ai comandi Linux, consentendo così agli utenti di accedere a informazioni e file. Attraverso questa strada, gli hacker possono riuscire ad accedere ai dati degli utenti ignari.

È possibile impedire completamente agli hacker di sfruttare le capacità dell’intelligenza artificiale per lanciare attacchi contro utenti ignari? Per favore condividi i tuoi pensieri con noi nei commenti.