L'EU AI Act ratificato oggi - Il commento di Bernd Greifeneder, CTO di Dynatrace 1

L’EU AI Act ratificato oggi – Il commento di Bernd Greifeneder, CTO di Dynatrace

Questa mattina, due gruppi di legislatori del Parlamento europeo hanno votato un accordo provvisorio sulla legge europea sull’intelligenza artificiale (EU AI Act), in vista del voto dell’assemblea legislativa di aprile.

Di seguito puoi trovare un commento di Bernd Greifeneder, CTO di Dynatrace, su questo importante voto che aprirà la strada alla prima legislazione mondiale su questa tecnologia.

Bernd Greifeneder, CTO di Dynatrace, ha dichiarato:

“Ora che i legislatori hanno manifestato il loro sostegno alla legge europea sull’intelligenza artificiale, è quasi inevitabile che diventi legge. Molte organizzazioni si chiederanno cosa fare per prepararsi durante il periodo di transizione di due anni che probabilmente inizierà nei prossimi mesi. In base alle linee guida stabilite, sembra che l’UE abbia, comprensibilmente, focalizzato la propria regolamentazione sulla riduzione dei rischi geopolitici dell’AI, ma non dei rischi commerciali. Di conseguenza, la maggior parte delle organizzazioni si troverà probabilmente a utilizzare quelli che l’UE definisce modelli di AI “a rischio minimo o nullo”. Questi modelli non ricadono direttamente sotto l’influenza dell’AI Act, ma l’UE sta incoraggiando le organizzazioni a impegnarsi in codici di condotta volontari per gestire meglio il rischio. È fondamentale che prendano sul serio questo consiglio, altrimenti le organizzazioni potrebbero scoprire che, pur essendo “conformi”, si stanno esponendo a rischi.

“Nello sviluppare i propri codici di condotta, è importante che le organizzazioni riconoscano che non tutte le AI sono uguali. Alcuni tipi, come quelli basati su approcci non deterministici, come l’AI generativa, comportano rischi maggiori rispetto ad altri modelli più consolidati. I manager delle aziende devono quindi classificare l’AI in base ai propri parametri di rischio, considerando l’impatto potenziale sui ricavi, sulla reputazione e sulle relazioni con gli stakeholder. A tal fine, devono considerare come l’AI prende le decisioni, se è trasparente e a quali processi ha accesso e controllo. Dovrebbero identificare se i suoi risultati sono deterministici, derivati da dati pertinenti e contestuali aggiornati in tempo reale, e quindi altamente accurati, o se l’AI trae conclusioni da dati casuali e chiusi, rendendola incline a errori e allucinazioni. Senza un quadro di classificazione che delinei chiaramente queste caratteristiche, le organizzazioni faranno fatica a utilizzare l’AI in modo sicuro, a prescindere dal fatto che sia conforme o meno”.  


Fonte immagine.

Translate »