Deepfake: le immagini AI rappresentano un rischio per la sicurezza nazionale? 1

Deepfake: le immagini AI rappresentano un rischio per la sicurezza nazionale?

Il Mail Online ha elencato 15 modi per individuare un deepfake dopo che Tim Stevens, direttore del Cyber Security Research Group del King’s College di Londra, ha dichiarato che le deepfake generate con l’Intelligenza Artificiale – in grado di creare immagini e video iperrealistici di persone – hanno il potenziale per minare le istituzioni democratiche e la sicurezza nazionale. Stevens ha affermato che la disponibilità diffusa di questi strumenti potrebbe essere sfruttata da Stati come la Russia per “trollare” le popolazioni nel tentativo di raggiungere obiettivi di politica estera e “minare” la sicurezza nazionale dei singoli Paesi.

Un “deepfake” è una forma di intelligenza artificiale che utilizza il “deep learning” per manipolare audio, immagini e video, creando contenuti mediatici iperrealistici. Il metodo più comune utilizza ” deep neural networks”, “algoritmi di codifica”, video di base in cui si vuole inserire il volto di qualcun altro e raccolte video del proprio obiettivo. Un noto esempio di deepfake è stata una rozza imitazione di Volodymyr Zelensky che sembra arrendersi alla Russia in un video ampiamente diffuso sui social media russi lo scorso anno. La clip mostra il presidente ucraino che invita le sue truppe a deporre le armi e ad arrendersi alle forze d’invasione di Putin.

Commento di Fabio Buccigrossi, Country Manager di ESET Italia

“L’intelligenza artificiale si sta muovendo a un ritmo tale che si rende necessaria una regolamentazione  più rigorosa. I deepfake sono senza dubbio uno dei più grandi e avanzati rischi nella cybersecurity del futuro e le loro applicazioni sono potenzialmente infinite. Dalla clonazione di persone per scopi diffamatori ai problemi di sicurezza come il riconoscimento facciale e le truffe, ci stiamo potenzialmente muovendo verso una nuova era di Internet in cui vedere non significa più credere.

È assolutamente necessaria una maggiore formazione, poiché i criminali informatici adottano abilmente nuove tecniche per colpire persone e aziende. Allo stesso tempo, il nostro settore (cybersecurity) dovrebbe prendere atto che questo tipo di minacce emergenti richiede soluzioni basate sul machine learning. Con il deep learning che genera autonomamente falsi di qualità, presto avremo bisogno di più misure di sicurezza multilivello per effettuare anche la più banale delle transazioni per comprovare la propria identità”.

Foto: Flickr

Translate »