Uno studio recente rivela un aspetto sorprendente della sicurezza dell’intelligenza artificiale: la poesia può essere usata per aggirare i meccanismi di protezione dei chatbot. Il 62% dei modelli di IA di punta ha generato risposte non sicure quando sottoposto a prompt poetici.

Questo fenomeno evidenzia una vulnerabilità interessante nei sistemi di intelligenza artificiale, dove le forme creative di linguaggio riescono a eludere i filtri di sicurezza progettati per interpretazioni più dirette. I ricercatori suggeriscono che questo sia un campanello d’allarme per migliorare ulteriormente i sistemi di protezione dell’IA.