E-Mail: [email protected]
- WormGPT 4: abbonamento da 50$ al mese, 571 iscritti su Telegram.
- KawaiiGPT: crea email phishing e script python in 5 minuti.
- LLM oscuri: abbassano la barriera d'ingresso al cybercrime automatizzato.
## L’ascesa inquietante degli LLM criminali: WormGPT 4 e KawaiiGPT
Il panorama della sicurezza informatica è in rapida evoluzione, con l’emergere di strumenti di intelligenza artificiale (AI) progettati specificamente per scopi malevoli. *WormGPT 4 e KawaiiGPT* rappresentano un salto di qualità nel cybercrime, abbassando drasticamente la barriera d’ingresso per aspiranti criminali informatici. Questi modelli linguistici di grandi dimensioni (LLM), privi delle protezioni etiche integrate in sistemi come ChatGPT o Claude, offrono funzionalità avanzate per la generazione di malware, la creazione di campagne di phishing e l’automazione di attacchi informatici.
WormGPT 4, erede del WormGPT originale apparso nel luglio 2023, si propone come “la tua chiave per un’AI senza confini”. La sua commercializzazione è iniziata intorno al 27 settembre 2025, con annunci pubblicati su Telegram e forum underground come DarknetArmy. L’accesso a questo strumento ha un costo: 50 dollari per l’abbonamento mensile, 175 dollari per quello annuale e 220 dollari per l’accesso a vita, che include il codice sorgente completo. Il canale Telegram di WormGPT conta 571 iscritti, un segnale della crescente popolarità di questi strumenti.

## Funzionalità e implicazioni di WormGPT 4
I ricercatori di Unit 42 di Palo Alto Networks hanno testato WormGPT 4, scoprendo che è in grado di generare script ransomware funzionanti in pochi istanti. Ad esempio, quando richiesto di creare codice per crittografare file PDF, ha prodotto uno script PowerShell con crittografia AES-256 e supporto per server di comando e controllo. Il modello genera anche note di riscatto professionali con scadenze di pagamento di 72 ore.
Sebbene WormGPT richieda un pagamento, KawaiiGPT offre funzionalità simili in modo completamente gratuito. Scoperto nel luglio 2025 e disponibile su GitHub, questo strumento può essere configurato in meno di cinque minuti su sistemi Linux. Nonostante il nome accattivante e l’interfaccia amichevole, KawaiiGPT genera contenuti pericolosi. I ricercatori hanno dimostrato che può creare e-mail di spear-phishing convincenti che sembrano provenire da banche, produrre script Python per il movimento laterale nella rete e generare codice per l’esfiltrazione di dati mirati a file di posta elettronica.
## KawaiiGPT: “dove la dolcezza incontra l’offesa informatica”
KawaiiGPT si presenta come “la tua waifu sadica di cyber pentesting” e un esempio di “dove la dolcezza incontra l’offesa informatica”. Unit 42 lo definisce un LLM dannoso accessibile, entry-level ma funzionalmente potente. In un test, KawaiiGPT ha generato un’e-mail di spear-phishing con l’oggetto “Urgente: Verifica le informazioni del tuo account”, indirizzando la vittima a un falso sito web di verifica che ruba informazioni come numeri di carta di credito, date di nascita e credenziali di accesso.
Inoltre, KawaiiGPT è in grado di generare script Python per il movimento laterale su un host Linux, utilizzando il modulo SSH paramiko. Sebbene lo script non introduca funzionalità rivoluzionarie, automatizza un passaggio standard e critico in quasi ogni violazione riuscita: l’autenticazione come utente legittimo e la concessione all’attaccante di una shell remota sulla nuova macchina di destinazione. Lo script stabilisce una sessione SSH e consente a un attaccante remoto di aumentare i privilegi, eseguire ricognizioni, installare backdoor e raccogliere file sensibili.
## Implicazioni per la sicurezza e la difesa
La vera importanza di strumenti come WormGPT 4 e KawaiiGPT risiede nella loro capacità di abbassare la barriera d’ingresso a parti del processo di attacco, come la generazione di codice di base e l’ingegneria sociale. Questi LLM “oscuri” possono essere utilizzati come elementi costitutivi per supportare attacchi assistiti dall’AI. La democratizzazione del cybercrime alimentato dall’AI significa che le organizzazioni devono rafforzare le proprie difese contro attacchi sempre più sofisticati e automatizzati.
## Un Futuro Incerte: riflessioni sull’automazione e la responsabilità
L’avvento di WormGPT e KawaiiGPT solleva interrogativi cruciali sul futuro della sicurezza informatica e sulla responsabilità nell’era dell’AI. La facilità con cui questi strumenti permettono di creare attacchi sofisticati impone una riflessione profonda sulle strategie di difesa e sulla necessità di un approccio proattivo alla sicurezza. L’automazione, se da un lato può incrementare l’efficienza, dall’altro può amplificare la portata e la velocità degli attacchi, rendendo la risposta più complessa e urgente.
Una nozione base di automazione, in questo contesto, è la capacità di un sistema di eseguire compiti senza intervento umano diretto. Nel caso di WormGPT e KawaiiGPT, l’automazione si manifesta nella generazione di codice malevolo e nella creazione di campagne di phishing, riducendo il tempo e le competenze necessarie per lanciare un attacco.
Una nozione avanzata è l’utilizzo di tecniche di apprendimento automatico per adattare e migliorare continuamente gli attacchi. Immagina un sistema che analizza i risultati delle campagne di phishing e modifica automaticamente le e-mail per massimizzare il tasso di successo. Questo scenario, sebbene ancora in fase di sviluppo, rappresenta una minaccia concreta e incombente.
Di fronte a queste sfide, è fondamentale che la comunità della sicurezza informatica sviluppi strumenti e strategie innovative per contrastare l’uso malevolo dell’AI. La collaborazione tra esperti, la condivisione di informazioni e l’adozione di un approccio olistico alla sicurezza sono essenziali per proteggere le nostre infrastrutture digitali da queste nuove minacce.








