L'ANALISI
24 Novembre 2025 - 16:48
MILANO - Immaginate un futuro non troppo lontano in cui l’intelligenza artificiale non è più solo un programma che risponde alle vostre domande, ma un vero e proprio “agente” autonomo, capace di prendere decisioni, usare strumenti e agire per conto proprio. Agenti che stanno diventando sempre più potenti e presenti nelle nostre vite, dal lavoro alle attività quotidiane. Ma come possiamo essere sicuri che agiscano in modo etico? Come proteggiamo le loro “identità”? E cosa succede quando non servono più?
Yuval Moss, esperto di sicurezza informatica e vice president of solutions for Global Strategic Partners di CyberArk, ci invita a pensare a questi agenti AI come se fossero persone. Hanno un “ciclo di vita”: nascono, imparano, collaborano, “guidano” processi e, infine, vanno in “pensione”. E proprio come succede con le persone, è fondamentale che operino in modo sicuro ed etico in ogni fase.
Quando un agente AI viene creato, è come un neonato: deve nascere in un ambiente protetto, con regole chiare su chi è e cosa può fare. Poi, come i bambini vanno a scuola, gli agenti AI devono imparare. La loro “educazione” è cruciale: se i dati con cui vengono addestrati sono sbagliati, o “avvelenati”, l’agente potrebbe prendere decisioni errate o diventare vulnerabile. È come insegnare a un bambino con informazioni distorte: i risultati non saranno buoni.
Una volta “adulti”, gli agenti AI collaborano con persone e altri sistemi. Per questo, devono avere una sorta di “passaporto digitale” che ne attesti l’identità e le autorizzazioni. Proprio come ci occupiamo della sicurezza delle attività dei dipendenti, così dobbiamo fare con gli agenti AI. Questo ci permette di sapere chi ha fatto cosa e di garantire che agiscano in modo responsabile.
Alcuni agenti AI diventeranno così bravi da operare in autonomia, quasi come dei “manager virtuali” con grandi responsabilità. Ma più potere hanno, maggiore è il rischio. Per questo, è essenziale che abbiano solo i permessi strettamente necessari e che ci siano “interruttori di emergenza” per fermarli in caso di problemi.
E quando un agente AI non serve più? Deve andare in “pensione”, proprio come un dipendente. Se non viene disattivato correttamente, può diventare uno “zombie digitale”, un punto debole che i malintenzionati potrebbero sfruttare. È fondamentale rimuovere tutti i suoi accessi e le sue “credenziali”.
Anche dopo il pensionamento, l’impatto di un agente AI non svanisce del tutto. Le sue azioni e decisioni passate possono influenzare il comportamento di altri agenti futuri. È come un’eredità digitale che deve essere monitorata per evitare che errori o logiche difettose si propaghino.
In sintesi, per sbloccare il potenziale degli agenti AI senza compromettere la nostra sicurezza, dobbiamo trattare le loro “identità” con la stessa serietà con cui trattiamo le nostre. Adottare un approccio di “fiducia zero” – ovvero non fidarsi di nessuno, nemmeno degli agenti AI,– è fondamentale.
Proteggere il futuro degli agenti AI significa imparare dalle nostre esperienze umane. Se gestiamo la loro “vita” con cura, dalla “nascita” al “pensionamento”, potremo sfruttare appieno il loro potere trasformativo, proteggendo al contempo le nostre informazioni, le nostre aziende e, in ultima analisi, la nostra società.
Copyright La Provincia di Cremona © 2012 Tutti i diritti riservati
P.Iva 00111740197 - via delle Industrie, 2 - 26100 Cremona
Testata registrata presso il Tribunale di Cremona n. 469 - 23/02/2012
Server Provider: OVH s.r.l. Capo redattore responsabile: Paolo Gualandris