L’attuale evoluzione dell’Intelligenza Artificiale sta colpendo un muro strutturale. Anche se siamo diventati straordinariamente bravi nel costruire potenti modelli individuali e nel “cucirli” insieme in flussi di lavoro, rimane una lacuna fondamentale: gli agenti IA possono connettersi, ma non possono ancora pensare insieme.

Vijoy Pandey, SVP e GM di Outshift di Cisco, sostiene che la prossima grande frontiera dell’intelligenza artificiale non consiste solo nel rendere i modelli più intelligenti, ma nel passare dalla semplice connettività alla cognizione condivisa.

Il problema: connessione contro cognizione

Attualmente, la maggior parte dei sistemi multi-agente opera in silos. È possibile collegare diversi agenti a un unico modello “supervisore”, ma mancano di allineamento semantico e contesto condiviso. Ogni volta che un agente esegue un compito, ricomincia essenzialmente da zero, inconsapevole delle sfumature del “processo di pensiero” o del contesto specifico dell’agente che lo ha preceduto.

Pandey traccia un parallelo con l’evoluzione umana. Gli esseri umani non sono diventati intelligenti solo isolatamente; abbiamo innescato una “rivoluzione cognitiva” attraverso la comunicazione. Sviluppando il linguaggio e gli intenti condivisi, siamo passati dall’intelligenza individuale all’intelligenza collettiva, permettendoci di coordinarci, negoziare e innovare come gruppo.

Per raggiungere questo obiettivo nel silicio, l’intelligenza artificiale richiede molto più del semplice trasferimento di dati ad alta velocità; richiede un modo per trasferire la comprensione.

La soluzione: nuovi protocolli per l’intelligenza distribuita

Per risolvere questo “problema di assistenza distribuita orizzontale”, il team di Pandey sta lavorando a un concetto chiamato “Internet della cognizione”. L’obiettivo è allontanarsi dal semplice scambio di dati e verso un sistema in cui gli agenti possono condividere il loro ragionamento interno e il contesto attraverso un nuovo livello di infrastruttura.

Stanno sviluppando tre protocolli specifici per facilitare questo:

  • Semantic State Transfer Protocol (SSTP): Funziona a livello linguistico, consentendo ai sistemi di analizzare la comunicazione semantica in modo da poter dedurre con precisione gli strumenti o le attività corretti richiesti.
  • Latent Space Transfer Protocol (LSTP): Un metodo più avanzato che trasferisce “l’intero spazio latente” (la rappresentazione matematica interna delle informazioni) da un agente a un altro. Ciò evita la “tassa” di convertire i dati in linguaggio naturale e viceversa, rendendo la comunicazione molto più efficiente.
  • Compressed State Transfer Protocol (CSTP): si concentra sull’efficienza comprimendo i dati e mettendo a terra solo le varianti più rilevanti. Questo è fondamentale per l’edge computing, dove la larghezza di banda è limitata ma è necessario un trasferimento di stato ad alta precisione.

Combinando questi protocolli con “motori cognitivi” (che forniscono guardrail) e un nuovo tessuto infrastrutturale, il team mira a creare una super intelligenza distribuita.

Impatto nel mondo reale: efficienza in trincea

Sebbene l'”Internet della cognizione” sia una visione rivolta al futuro, Cisco sta già vedendo i vantaggi dei flussi di lavoro basati su agenti nelle sue attuali operazioni.

Il team Site Reliability Engineering (SRE) dell’azienda ha dovuto affrontare un classico problema di scalabilità: la produzione di codice era in aumento, ma le dimensioni del team rimanevano statiche. Distribuendo oltre 20 agenti AI, alcuni interni e altri di terze parti, per gestire flussi di lavoro complessi come pipeline CI/CD e implementazioni Kubernetes, Cisco ha ottenuto risultati significativi:

  • Velocità: I tempi di distribuzione sono scesi da “ore e ore a secondi”.
  • Affidabilità: gli agenti hanno ridotto dell’80% i problemi riscontrati in precedenza nei flussi di lavoro Kubernetes.
  • Integrazione: questi agenti utilizzano framework come il Model Context Protocol (MCP) per accedere a oltre 100 diversi strumenti e piattaforme di sicurezza.

La visione pragmatica: l’intelligenza artificiale come strumento, non come sostituto

Nonostante questi progressi, Pandey mantiene una prospettiva fondata sul ruolo dell’intelligenza artificiale. Mette in guardia contro la tentazione di utilizzare l’intelligenza artificiale semplicemente perché è disponibile, sottolineando che “non si va in giro a cercare chiodi solo perché si ha un martello nuovo”.

I sistemi più efficaci non si affideranno esclusivamente alla natura non deterministica dell’intelligenza artificiale (dove i risultati possono variare), ma sposeranno invece l’intelligenza artificiale con un codice deterministico, la logica affidabile e basata su regole che ha sostenuto l’informatica per decenni.

L’obiettivo finale è andare oltre la semplice connettività verso uno stato di intenti condivisi e innovazione collettiva, trasformando modelli isolati in un tessuto sincronizzato e intelligente.