La maggior parte degli strumenti di generative AI oggi in circolazione è dotata di solidi guardrails. Non ti spiegano come costruire esplosivi né ti guidano passo dopo passo nella frode digitale. In genere queste regole funzionano bene, e tool come Grok, Claude o Gemini bloccano qualsiasi tentativo di utilizzo malevolo.
Purtroppo, però, i cybercriminali non accettano facilmente un “no”. Mentre alcuni hacker cercano di forzare i limiti degli strumenti più diffusi con prompt ingegnosi, altri hanno scelto una strada diversa: costruire large language models propri, senza restrizioni, progettati appositamente per attività criminali.
Questi chatbot per il cybercrime non sono semplici esperimenti: stanno diventando rapidamente parte integrante del toolkit del cybercrimine moderno.
I Ricercatori Hanno Individuato Modelli AI Pensati Solo per Attaccare
I ricercatori di cybersecurity del team Unit 42 di Palo Alto Networks hanno recentemente analizzato due di questi sistemi underground per capire cosa fossero in grado di fare e quali rischi rappresentassero per le aziende.
I risultati sono stati tutt’altro che rassicuranti.
Questi modelli di malicious AI non sono prototipi rudimentali. Sanno scrivere email di phishing credibili, aiutare nella creazione di malware, generare script di attacco automatizzati e persino guidare hacker inesperti in ogni fase del crimine. In pratica, abbassano drasticamente la barriera d’ingresso e permettono anche ad attori poco qualificati di lanciare attacchi ad alto impatto.
Perché I Criminali Si Stanno Spostando Verso Rogue AI
Considerando le limitazioni imposte agli strumenti di generative AI legittimi, è facile capire perché un cybercriminale scelga di costruire un chatbot “ribelle”.
I chatbot per il cybercrime vengono addestrati su codice rubato, dataset trafugati o campioni di malware già esistenti, e questo permette loro di:
- Bypassare tutti i guardrails
- Fornire istruzioni dettagliate per attività illegali, inclusi attacchi di phishing
- Automatizzare compiti ripetitivi come la ricognizione e la scrittura di script
Sono, di fatto, dei veri e propri copiloti hacker. E come ogni forma di automazione, scalano velocemente, aggravando un panorama di sicurezza già complesso. Gli attaccanti non hanno più bisogno di grandi competenze tecniche: basta l’accesso al chatbot giusto per sviluppare malware più velocemente, sfruttare vulnerabilità in automatico, inviare email di phishing più credibili e lanciare un numero maggiore di attacchi.
Azioni Pratiche Per Restare Un Passo Avanti Nelle Minacce di Cybersecurity
Non puoi impedire ai criminali di sviluppare malicious AI, ma puoi renderti un bersaglio più difficile. Ecco alcune buone pratiche fondamentali:
- Forma i dipendenti sulle nuove tecniche di phishing: I cybercriminali usano l’AI per creare messaggi altamente personalizzati e privi di errori. Insegna al personale a verificare richieste inaspettate, soprattutto se riguardano pagamenti, credenziali o accessi agli account.
- Usa filtri email avanzati ed endpoint security: Molte piattaforme di sicurezza integrano oggi sistemi di rilevamento basati su AI in grado di individuare pattern di scrittura sospetti o allegati malevoli.
- Mantieni software e dispositivi sempre aggiornati: Gli attacchi automatizzati prendono spesso di mira vulnerabilità già note. Aggiornare regolarmente riduce enormemente la superficie di attacco.
- Rafforza gli accessi con MFA: Anche se un attacco di phishing va a segno, la multi-factor authentication (MFA) può impedire l’accesso agli account.
Tenere Il Passo Con Le Minacce Per Difendere L’Azienda
L’AI aiuta i criminali quasi quanto aiuta il tuo business. Man mano che i chatbot per il cybercrime diventano più sofisticati, è fondamentale restare vigili e mantenere difese solide.
La minaccia è reale, ma con buone abitudini di sicurezza e protezioni aggiornate puoi restare un passo avanti rispetto alla malicious AI e agli hacker che la utilizzano. Rafforza i controlli, mantieni un sano sospetto e parti sempre dal presupposto che qualcuno stia cercando una nuova via per attaccare.
