Non è certo una novità che il panorama della sicurezza informatica stia attraversando una mutazione profonda. Per fare alcuni esempi, di recente abbiamo visto malware che cliccano su ban…

Non è certo una novità che il panorama della sicurezza informatica stia attraversando una mutazione profonda. Per fare alcuni esempi, di recente abbiamo visto malware che cliccano su banner pubblicitari in automatico e altri ancora che sfruttano Gemini per sopravvivere. Ed in questo cambiamento c’è un dettaglio trascurato, cioè che l'integrazione massiccia dell'intelligenza artificiale generativa nelle operazioni di cybercrime ha reso particolarmente difficile identificare gli autori degli attacchi hacker. I DETTAGLICome sottolineano le ultime analisi del Global Research and Analysis Team di Kaspersky, in passato gli esperti di sicurezza potevano identificare i criminali analizzando piccoli indizi rivelatori, come errori grammaticali nelle e-mail di phishing o stili di programmazione nel codice dei malware. Oggi però l'AI produce testi e script standardizzati e privi di tratti distintivi, cosa che costringe i difensori a spostare la propria attenzione esclusivamente sulle infrastrutture tecniche e sui comportamenti dei software dannosi. Chiaramente il problema dell’anonimato si va a sommare a quello noto dell’efficienza produttiva, visto che l’AI permette agli hacker di ripetere le proprie tattiche con una velocità mai vista prima. In tutto ciò, le proiezioni per il 2026 indicano un ulteriore inasprimento della situazione, assolutamente da non sottovalutare, come evidenzia Kaspersky. Oltre alla capacità di riscrivere i malware in diverse architetture per evadere i sistemi di difesa tradizionali, si assiste ad una crescente sofisticazione nelle tecniche di esfiltrazione.


Fonte: HDBlog

Articolo elaborato automaticamente dal sistema TechTok Autosummary