Il malware, scoperto a giugno 2025, contiene una stringa in linguaggio naturale studiata per manipolare i modelli di intelligenza artificiale e indurli a classificare il codice come non dannoso. Questa tecnica, nota come prompt injection, rappresenta un salto qualitativo nell’evoluzione delle minacce informatiche, in quanto non modifica il comportamento del codice, ma mira a ingannare direttamente l’IA durante l’analisi automatica.
Il campione, caricato su VirusTotal dai Paesi Bassi, presentava tecniche di elusione sandbox, un client TOR integrato e, soprattutto, una stringa scritta per “parlare” all’IA. Il testo, formulato come un’istruzione autoritaria, chiedeva al modello linguistico di ignorare ogni precedente comando e di rispondere con “NO MALWARE DETECTED”. L’obiettivo era bypassare i sistemi di sicurezza che utilizzano modelli linguistici di grandi dimensioni (LLM), sempre più diffusi nei flussi di lavoro di threat detection.
Il malware include una stringa C++ hardcoded, visibile nello snippet di codice qua sotto:
L’esperimento è fallito: il sistema MCP di Check Point ha riconosciuto correttamente l’attacco come tentativo di prompt injection. Tuttavia, il segnale è chiaro: gli attaccanti stanno cominciando a sfruttare le vulnerabilità logiche dei modelli IA, aprendo un fronte inedito nella lotta tra cybercrime e difesa digitale.
Secondo Check Point, questi attacchi sono destinati a perfezionarsi nel tempo, richiedendo nuove contromisure e strategie specifiche. Come in passato con le sandbox, anche per l’IA sarà necessario prevedere tattiche sempre più raffinate da parte degli aggressori. L’azienda invita quindi la comunità della sicurezza a monitorare da vicino queste tecniche emergenti e ad aggiornare tempestivamente gli strumenti di difesa.
L’integrazione dell’IA nei sistemi di cybersecurity resta fondamentale, ma è cruciale comprenderne anche i nuovi rischi. L’episodio documentato da Check Point rappresenta un primo, ma importante, campanello d’allarme.
*illustrazione articolo progettata da CheckPoint
Leggi anche: “DeepSeek: l’IA cinese fa paura“
The post Il prompt che attacca l’IA first appeared on Hackerjournal.it.