Microsoft presenta l’Agent Governance Toolkit per la sicurezza runtime degli agenti AI

Microsoft ha annunciato un nuovo progetto open source sotto licenza MIT dedicato alla sicurezza degli agenti AI: l’Agent Governance Toolkit. L’obiettivo è fornire un insieme di strumenti capaci di monitorare e controllare in tempo reale le azioni degli agenti autonomi, affrontando le principali criticità individuate negli ultimi anni nel campo dell’intelligenza artificiale operativa.

Il toolkit nasce per rispondere ai dieci rischi agentici identificati da OWASP, tra cui manipolazione degli obiettivi, uso improprio degli strumenti, abuso dell’identità, vulnerabilità nella supply chain, esecuzione di codice non sicura, avvelenamento della memoria, comunicazioni deboli, errori a cascata, sfruttamento della fiducia e comportamenti deviati. La disponibilità in linguaggi come Python, Rust, TypeScript, Go e .NET amplia la possibilità di integrazione in diversi ambienti di sviluppo.

Componenti principali e approccio alla governance degli agenti

Il cuore del progetto è Agent OS, un motore di policy che intercetta ogni azione prima dell’esecuzione, permettendo di applicare controlli granulari e verifiche dinamiche. A questo si affianca Agent Mesh, pensato per proteggere le comunicazioni tra agenti, e Agent Runtime, che introduce livelli di esecuzione differenziati per limitare comportamenti rischiosi.

Sono presenti anche moduli dedicati alla resilienza operativa, come Agent SRE, e strumenti per la verifica automatizzata della conformità tramite Agent Compliance, che assegna valutazioni basate sulle policy adottate. Agent Marketplace gestisce il ciclo di vita dei plug‑in, mentre Agent Lightning fornisce controlli specifici per i processi di reinforcement learning, garantendo che l’addestramento non sfoci in comportamenti indesiderati.

Il progetto è stato presentato come “open source by design”, con codice pubblicato su repository pubblici e documentazione accessibile alla comunità, un approccio che punta a favorire trasparenza e collaborazione nello sviluppo di strumenti per la sicurezza degli agenti AI.

Lascia un commento