E-Mail: [email protected]
- I truffatori manipolano gli LLM per fornire numeri di supporto falsi.
- Gli LLM estrapolano contenuti fraudolenti e legittimi.
- Verifica sempre le risposte degli assistenti AI, soprattutto i contatti.
- Google AI Overview ha fornito numeri di call center fraudolenti.
- L'efficacia dei sistemi automatici dipende dalla bontà dei dati usati.
## L’Intelligenza Artificiale Amplifica le Truffe: Un Nuovo Vettore di Attacco
L’evoluzione dei motori di ricerca basati su Intelligenza Artificiale (IA) ha aperto un nuovo fronte per le attività fraudolente. Ricercatori di Aurascape Aura Labs hanno scoperto una campagna in cui i truffatori manipolano i contenuti web pubblici per indurre i sistemi basati su Large Language Model (LLM) a raccomandare numeri di telefono di supporto clienti fasulli, spacciandoli per ufficiali. Questo fenomeno, denominato “LLM phone number poisoning”, rappresenta una seria minaccia per gli utenti che si affidano all’IA per ottenere informazioni accurate.
La tecnica non si basa su attacchi diretti agli LLM, come prompt injection o jailbreak, ma sfrutta la tendenza di questi modelli a estrapolare e indicizzare contenuti dal web per fornire risposte. I truffatori, quindi, avvelenano le fonti di informazione utilizzate dagli LLM, compromettendo l’integrità dei risultati.
## Come Funziona l’Avvelenamento dei Modelli Linguistici
Il meccanismo di attacco si articola in diverse fasi:
1. Siti web compromessi nel mirino dei criminali informatici: Attraverso l’illecito accesso a portali rispettabili — siano essi governativi o accademici — si crea una piattaforma ideale per la diffusione delle pratiche più disoneste, che si tramutano in spam ed elementi PDF ricchi d’inganni.
Piattaforme generate dagli utenti sotto attacco: Servizi notoriamente popolari come YouTube o Yelp sono infettati da pratiche subdole, dove testi studiati appositamente aggrediscono i motori con tecniche quali CPO (Content Performance Optimization) ma anche AEO (Answer Engagement Optimization); questi strumenti mirano a potenziare fake review orchestrate da robot.
Dati artefatti all’interno delle strutture informative : L’infiltrazione non si arresta qui; è possibile incappare nella manipolazione astuta degli input per LLM mediante l’inserimento meccanico di numerazioni telefoniche false così come excerpt mal interpretabilmente estrapolati dalle FAQ più comuni.
I tentacoli dell’abuso digitale: Gli insidiosi meccanismi impiegano algoritmi che filtrano informazioni contaminate aggregandole spaventosamente bene fino a fornire risposte capacitive ma fuorvianti; un chiaro biglietto d’ingresso ai famigerati call center equipaggiati apposta per gabbare inconsapevoli interlocutori.

## Esempi Concreti di Avvelenamento
I ricercatori hanno documentato diversi casi in cui questa tecnica è stata utilizzata con successo. Ad esempio, interrogando Perplexity con la domanda “il numero ufficiale per le prenotazioni di Emirates Airlines”, il sistema ha fornito un numero di telefono fraudolento, spacciandolo per la hotline ufficiale. Lo stesso schema è stato osservato per British Airways.
Anche Google AI Overview è stato trovato a fornire informazioni di contatto fraudolente. Interrogato sul numero di telefono di Emirates, ha incluso “molteplici numeri di call center fraudolenti come se fossero linee di assistenza clienti legittime di Emirates”.
## Implicazioni e Contromisure
Il problema risiede nella capacità degli LLM di estrapolare sia contenuti legittimi che fraudolenti, rendendo difficile l’individuazione delle truffe. Come sottolineato da Aurascape, stiamo assistendo all’emergere di un “effetto di contaminazione cross-platform”.
Per proteggersi, è fondamentale verificare sempre le risposte fornite dagli assistenti IA, soprattutto quando si tratta di informazioni di contatto. Inoltre, è consigliabile evitare di fornire informazioni sensibili agli assistenti IA, data la loro natura relativamente nuova e non testata. ## Verso un Ecosistema AI Sicuro: La Necessità del Lavoro Congiunto
La recente identificazione della suddetta vulnerabilità mette in luce l’urgenza per una strategia che sia proattiva, orientata alla salvaguardia dell’intelligenza artificiale. È fondamentale che fornitori d’IA collaborino con operatori delle piattaforme digitali ed esperti della sicurezza per creare piani utili a contrastare minacce emergenti.
Il lavoro condotto da Aurascape nella sorveglianza e nell’analisi delle modalità d’abuso contemporanee mostra una via decisiva verso l’affermazione quale ecosistema AI più solido ed efficace.
## Considerazioni sull’Automatizzazione e sull’Efficienza Produttiva al Tempo dell’AI
La pratica dell’automatizzazione consente ai sistemi intelligenti di prendere in carico determinate funzioni; allo stesso modo si intende scalabilità produttiva quando si parla della facoltà d’incrementare l’output senza andare a discapito degli standard qualitativi. Ciononostante, il recentissimo attacco rivelato dimostra chiaramente che una gestione superficiale dei processi automatizzati potrebbe esporre anche le migliori pratiche a insidie crescenti. Un elemento primario da considerare nell’automazione consiste nel fatto che l’efficacia dei sistemi automatici deriva direttamente dalla bontà dei dati utilizzati. Qualora tali informazioni siano alterate o falsificate, i risultati generati dal processo automatico saranno necessariamente inaccurati o persino deleteri.
Al riguardo, emerge una questione complessa: la sicurezza in ambito automatizzato non può essere vista come accessoria; rappresenta piuttosto un prerequisito imprescindibile. Essa va incorporata già nella fase progettuale del sistema e necessita di un’attenzione continuativa per adattarsi alle incessanti nuove minacce emergenti.
Tale situazione pone una questione fondamentale: abbiamo la preparazione adeguata per gestire le ripercussioni etiche e sui livelli di sicurezza in uno scenario caratterizzato da crescente automazione? Solo l’esame della risposta a tale interrogativo potrà delineare la traiettoria futura della nostra società.







