Cyber security e machine learning: più rischi o più sicurezza?

I dati di una ricerca di OnePoll condotta per conto di Eset

MAR 21, 2019 -

Roma, 21 mar. (askanews) – L’80% dei responsabili IT aziendali ritiene che il machine learning (o apprendimento automatico) – una branca dell’intelligenza artificiale – aiuterà la propria organizzazione a rispondere più rapidamente alle minacce sulla sicurezza. Circa il 70% afferma però che questa tecnologia farà anche incrementare il numero di attacchi e renderà le minacce più complesse e difficili da rilevare.

A dirlo sono i dati di una ricerca di OnePoll, condotta per conto di Eset, che ha coinvolto 900 decision maker IT negli Stati Uniti, Regno Unito e Germania. Secondo le rilevazioni, l’82% degli intervistati ha già implementato un prodotto di sicurezza informatica che utilizza il machine learning mentre per il restante 18%, più della metà (53%) dichiara che le loro aziende stanno pianificando di utilizzare questa tecnologia nei prossimi 3-5 anni. Solo il 23% afferma che non è in previsione l’utilizzo di soluzioni di sicurezza basate su machine learning nel prossimo futuro.

Eppure, come la maggior parte delle innovazioni – rileva lo studio – anche l’apprendimento automatico ha degli svantaggi e può essere utilizzata come arma di attacco da parte dei cyber criminali. Questi ultimi riconoscono infatti le opportunità e il valore di questa tecnologia che può essere utilizzata in maniera distorta per creare nuovi ceppi di malware, colpire target specifici ed estrarre dati preziosi, proteggere l’infrastruttura dei criminali informatici – come le botnet – portando scompiglio e causando danni anche molto ingenti. Questo timore, secondo i dati della ricerca, è condiviso anche dai responsabili IT aziendali: il 66% degli intervistati concorda sul fatto che le nuove tecnologie legate al ML farà aumentare il numero di attacchi, mentre il 70% ritiene che il machine learning renderà le minacce più complesse e difficili da rilevare.

Sfortunatamente, sottolinea il report, gli scenari in cui il machine learning viene utilizzato in maniera impropria non sono solo teorici e alcuni casi riscontrati in the wild e già analizzati dai ricercatori di dimostrano che le tecnologie basate su machine learning sono già state utilizzate per scopi fraudolenti. È il caso di Emotet, una famiglia di trojan bancari famosa per la sua architettura modulare, le tecniche di persistenza e il sistema di diffusione automatica simile a quello dei vecchi worm, che utilizzerebbe l’apprendimento automatico per migliorare la propria capacità di colpire vittime specifiche.

(Fonte: Cyber Affairs)