L’ascesa dell’Intelligenza Artificiale Agentica (Agentic AI), con la sua promessa di sistemi autonomi capaci di prendere decisioni e agire nel mondo digitale e fisico, apre le porte a nuove possibilità di perseguire l’efficienza attraverso l’innovazione. Ma la proliferazione di agenti intelligenti, destinati secondo molti analisti a superare numericamente gli esseri umani all’interno delle organizzazioni, solleva una questione fondamentale: come garantire che queste entità operino in modo sicuro, affidabile e allineato con gli obiettivi prefissati? La risposta, secondo Daryl Plummer, VP Distinguished Analyst e Gartner Fellow, risiede in una nuova evoluzione dell’AI stessa: i “Guardian Agents”, sistemi di AI progettati specificamente per monitorare e supervisionare altre AI.
Indice degli argomenti
La necessità impellente di una supervisione intelligente
L’idea che gli agenti AI cambieranno radicalmente il modo in cui le aziende operano – e persino la struttura stessa delle applicazioni software – è ormai più di una semplice opzione. C’è anche chi prefigura la fine delle applicazioni tradizionali e del software-as-a-service (SaaS), che sarebbe sostituito da “sciami” di agenti AI specializzati. In un simile scenario, dove milioni di agenti AI potrebbero operare autonomamente all’interno di un’organizzazione, diventa evidente che la supervisione umana da sola non può bastare. Plummer è categorico su questo punto: non ci sono abbastanza persone sul pianeta per monitorare efficacemente tutti i sistemi AI che verranno impiegati. La soluzione, quindi, deve venire dalla tecnologia stessa: utilizzare l’IA per vigilare sull’IA.
Che cosa sono i Guardian Agents
I “Guardian Agents” sono dei software di AI agentica il cui compito primario è supervisionare le azioni e gli output di altri sistemi di intelligenza artificiale. Il termine più generale è “Guardian AI”. L’aspetto interessante di questo approccio, sottolinea Plummer, è che, se implementato correttamente, non esclude l’essere umano dal ciclo di controllo, ma ne potenzia il ruolo. Invece di essere sommersi da una mole ingestibile di dati e processi da verificare, gli operatori umani possono fare affidamento sui Guardian Agents per filtrare e segnalare solo le situazioni che richiedono effettivamente un intervento o una valutazione umana, rendendo il concetto di “human in the loop” nuovamente praticabile ed efficace.
Pattern di implementazione e architetture agentiche
I Guardian Agents non sono un concetto isolato, ma si inseriscono in un ecosistema più ampio di pattern di implementazione degli agenti. La ricerca Gartner ne identifica diversi: ci sono agenti “solitari” che eseguono compiti in autonomia; sistemi multi-agente in cui diverse IA collaborano per raggiungere un obiettivo comune; e, appunto, i Guardian Agents o “Guardrail Agents”. Questi ultimi possono assumere ruoli diversi: da “giudice e giuria” nel valutare la qualità o la conformità di un output, a “protettori” capaci di intervenire attivamente per bloccare azioni dannose, fino a semplici “supervisori” che informano gli umani su ciò che sta accadendo.
L’efficacia dei Guardian Agents è intrinsecamente legata all’evoluzione delle architetture agentiche stesse. Queste architetture sono tipicamente basate su piattaforme, orientate ai compiti e ai processi, e capaci di gestire flussi di lavoro complessi. Un aspetto distintivo degli agenti più evoluti, evidenzia Plummer, è la memoria. Si va da una memoria a breve termine, necessaria per ricordare informazioni contestuali recenti (come un numero menzionato pochi minuti prima), a una memoria a lungo termine, che permette all’agente di richiamare eventi o interazioni passate, anche quelle dimenticate dall’utente umano. Questa capacità mnemonica è fondamentale per agenti che collaborano attivamente con gli esseri umani, eseguendo compiti per loro conto o al loro fianco. Man mano che questa evoluzione prosegue, emerge la necessità di supporto specifico in tre aree chiave, dove i Guardian Agents giocano un ruolo determinante.
Le tre fasi evolutive dei Guardian Agents
La prima fase di applicazione dei Guardian Agents riguarda il controllo qualità. In questo contesto, i guardiani analizzano l’output di un sistema agentico per valutarne l’adeguatezza e la correttezza. Plummer cita l’esempio di Translated, un’azienda italiana specializzata in traduzioni linguistiche tramite IA. Translated utilizza tecnologie agentiche per tradurre da una lingua all’altra, e impiega Guardian Agents per verificare l’accuratezza delle traduzioni prodotte, la loro correttezza semantica, l’aderenza al tono di voce del brand e l’assenza di contenuti inappropriati. Questo tipo di controllo sull’output è una funzionalità che i Guardian Agents possono fornire con efficacia e scalabilità. Altri esempi includono la revisione di documenti edilizi sottomessi da appaltatori o l’analisi di brevetti da parte di funzionari competenti. Se il risultato di un processo è generato da un’IA, un Guardian Agent può intervenire per verificarne la qualità. Questa fase è destinata a una rapida diffusione, data la crescente adozione di agenti AI il cui operato necessita di supervisione.
La seconda fase evolutiva si spinge oltre il semplice controllo dell’output, concentrandosi sull’osservabilità e il monitoraggio in tempo reale delle operazioni degli agenti. Non basta verificare il risultato finale; è necessario comprendere cosa stanno facendo gli agenti mentre sono in funzione. Questo richiama discipline ben note nell’ambito della sicurezza informatica, come il monitoraggio, l’osservabilità e la “explainability” (spiegabilità). I Guardian Agents possono osservare altri agenti per tracciare le API che utilizzano, misurare la latenza dei processi, identificare output potenzialmente dannosi, o rilevare fenomeni come le “allucinazioni” (informazioni errate o inventate generate dall’IA) durante l’utilizzo. Considerando che si prevede l’implementazione di milioni di agenti nei prossimi anni, l’osservazione continua diventa una prima linea di difesa cruciale per capire cosa sta accadendo e se le operazioni si svolgono correttamente. Plummer evoca l’immagine, tratta dal film Superman 3, del programmatore che modifica gli algoritmi di una banca per dirottare piccole frazioni di transazioni sul proprio conto. In un mondo pervaso da agenti AI che gestiscono processi critici, chi si accorgerebbe di una simile manipolazione? Un Guardian Agent sarebbe in grado di rilevarla molto prima di un essere umano, allertando tempestivamente gli operatori e rafforzandone così il ruolo di controllo.
La terza e più avanzata fase dell’evoluzione dei Guardian Agents li vede trasformarsi in veri e propri sistemi di protezione attiva. In questo stadio, un Guardian Agent potrebbe essere incaricato di “dare la caccia” e disattivare agenti “canaglia” (rogue agents) che stanno compiendo azioni non autorizzate o dannose. Non è sufficiente, infatti, allertare un umano che qualcosa di negativo sta accadendo; è necessario agire per fermare il problema prima che degeneri. Questa capacità di proteggere attivamente i sistemi e le persone dall’IA è un beneficio di cui tutti potranno avvantaggiarsi con il progredire della tecnologia. Sebbene molti agenti attuali siano relativamente semplici e operino singolarmente, rendendo la necessità di protezione meno urgente, la crescente adozione di sistemi multi-agente complessi, che attraversano diversi domini di business e accedono a dati sensibili con differenti livelli di autorizzazione, renderà indispensabile disporre di agenti guardiani capaci di intervenire e bloccare le minacce. Ci si aspetta che i fornitori di soluzioni di sicurezza giochino un ruolo chiave nello sviluppo di queste capacità. In sostanza, quando i “guardrail” (le barriere di sicurezza) esistenti per i sistemi AI diventeranno essi stessi agentici, si trasformeranno in Guardian Agents.
Prepararsi all’era dei guardiani intelligenti
Quali strategie devono quindi adottare le organizzazioni e i loro leader per prepararsi a questa evoluzione? Plummer offre tre consigli fondamentali. Primo, è essenziale formarsi e comprendere a fondo le architetture agentiche. Un aiuto può venire da documenti di ricerca come “Emerging Patterns for Building LLM-based AI Agents” di Gartner, che illustra i diversi pattern di implementazione, incluso il ruolo dei Guardian AI e degli agenti che agiscono come “giudici” sulla qualità.
Secondo, bisogna iniziare a sperimentare le piattaforme agentiche che stanno emergendo sul mercato. La maggior parte dei principali attori nel campo dell’IA sta offrendo piattaforme che supportano modelli multipli, diverse modalità di IA generativa e consentono di affinare i modelli, ottimizzare i prompt o costruire e lanciare i propri agenti. L’esperienza pratica è insostituibile.
Terzo, occorre comprendere che i flussi di lavoro agentici (agentic workflows), che sono parte integrante dell’operato degli agenti, richiederanno un ritorno a una rigorosa gestione dei processi (process management). È necessario pensare attentamente a come viene gestito il flusso, come si collega ai diritti di accesso ai dati, alle regole, alle policy aziendali e persino agli eventi che lo attivano. Questi sono i punti di osservazione che i Guardian Agents utilizzeranno per identificare anomalie: un evento non gestito, una chiamata API non autorizzata, un file di log che viola determinate regole. Un sistema agentico non è un semplice strumento; è un ambiente attivo e autonomo che cerca di raggiungere un obiettivo. È fondamentale che tali obiettivi siano raggiunti secondo le modalità definite dall’organizzazione.