Mastodon

La spinta all’adozione di strumenti di intelligenza artificiale nelle aziende sta creando un nuovo fronte di rischio che le difese tradizionali non riescono più a controllare; Darktrace ha presentato SECURE AI proprio per coprire questo vuoto, estendendo la sua piattaforma ActiveAI alla protezione di tutti gli usi dell’AI in impresa.

Perché la sicurezza dell’AI non può aspettare

L’AI entra ovunque: nei SaaS, nelle piattaforme core, negli strumenti low‑code e persino in iniziative “sperimentali” dei singoli team, ampliando la superficie d’attacco in modi difficili da vedere e governare. Una ricerca Darktrace su 1.500 professionisti mostra che la percentuale di organizzazioni senza una policy di adozione AI è cresciuta dal 55% al 63% in un anno, segnale di un’accelerazione non governata.

Analizzando i propri clienti, Darktrace ha osservato solo in ottobre un incremento del 39% mese su mese nei caricamenti anomali di dati verso servizi di generative AI, con upload medi di 75 MB, quantità che difficilmente dovrebbero lasciare il perimetro aziendale. Questo fenomeno di “shadow AI” riguarda tanto gli usi interni non autorizzati quanto funzionalità AI nascoste in strumenti di terze parti, creando esposizione reale con scarsa o nulla visibilità per i team di sicurezza.

Il ruolo di Darktrace nel proteggere l’AI

Darktrace arriva a questo problema con oltre dieci anni di esperienza in AI comportamentale applicata alla sicurezza enterprise, basata su una piattaforma pensata per ambienti complessi e ambigui come quelli in cui oggi opera l’AI. A differenza di molte tecnologie che tentano di prevedere i nuovi attacchi partendo da quelli storici, Darktrace utilizza una Self‑Learning AI che impara cosa è “normale” per ogni singola organizzazione: utenti, sistemi, applicazioni, flussi di dati e ora anche agenti AI.

Questo approccio permette di cogliere piccole deviazioni significative, particolarmente importanti in un contesto dove l’AI introduce comportamenti non strutturati, percorsi invisibili e una proliferazione di agenti semi‑autonomi. In questo scenario, mettere in sicurezza l’AI non è una “svolta” per Darktrace, ma l’evoluzione naturale dell’intelligenza comportamentale già fornita a migliaia di clienti come ultima linea di difesa contro minacce che altre soluzioni non vedono.

Cos’è Darktrace / SECURE AI

Darktrace / SECURE AI è il nuovo prodotto della piattaforma ActiveAI di Darktrace progettato per mettere in sicurezza l’AI lungo tutto l’ambiente aziendale, combinando visibilità, analisi comportamentale e controllo in tempo reale. L’obiettivo è permettere alle organizzazioni di adottare e sviluppare AI in modo sicuro, assicurando che utilizzo, accesso ai dati e comportamenti restino allineati a baseline di sicurezza, requisiti di conformità e obiettivi di business.

La soluzione riunisce in un’unica vista tutte le interazioni AI – sia quelle degli utenti sia quelle degli agenti – in modo che i team possano comprendere le intenzioni, valutare il rischio, proteggere i dati sensibili ed applicare le policy in modo consistente. Per coprire la complessità del tema, SECURE AI si articola in quattro casi d’uso fondamentali: monitoraggio dei prompt, sicurezza delle identità degli agenti, valutazione del rischio nell’intero ciclo di vita dello sviluppo AI, e scoperta/controllo della shadow AI.

Monitorare i prompt dei GenAI e degli assistenti

Nei sistemi AI, i prompt rappresentano uno dei punti di interazione più sensibili, sia nelle conversazioni uomo‑AI sia nei dialoghi tra agenti che si generano prompt interni per coordinare attività. Poiché il linguaggio naturale non ha una sintassi finita e prevedibile come un’API, la superficie d’attacco è di fatto aperta, rendendo i rischi legati ai prompt molto più complessi delle tradizionali vulnerabilità basate su CVE.

SECURE AI aggrega l’attività di prompt proveniente da strumenti come Microsoft Copilot, ChatGPT Enterprise, ambienti low‑code come Copilot Studio, SaaS come Salesforce e Microsoft 365, e piattaforme high‑code quali AWS Bedrock o SageMaker, fornendo un unico livello di osservabilità. Su questa base, applica analisi comportamentali per capire se un prompt è anomalo o rischioso rispetto all’utente, ai suoi pari e all’organizzazione, individuando attacchi conversazionali, chaining malevolo e tentativi sottili di prompt‑injection, fino a intervenire in tempo reale dove le integrazioni lo consentono.

Proteggere le identità degli agenti AI

Con l’aumento dei workflow guidati dall’AI, crescono gli agenti autonomi e semi‑autonomi che operano sfruttando identità con permessi reali su sistemi, dati e API, spesso con visibilità limitata su configurazioni e privilegi. Questi agenti possono comparire ovunque, dal cloud al SaaS, dall’OT alle postazioni utente, e le autorizzazioni possono evolvere nel tempo in modi difficili da tracciare.

SECURE AI offre una visione in tempo reale, centrata sull’identità, di ciò che gli agenti fanno realmente, non solo di ciò per cui sono stati progettati, scoprendo automaticamente le identità vive in tutto l’ecosistema, incluse quelle in ambienti di terzi. Osservando in modo continuo i loro comportamenti, la piattaforma evidenzia permessi superflui o rischiosi, deviazioni nei pattern di attività e sequenze di azioni non previste, fornendo una sorta di audit trail dinamico per valutare l’allineamento tra comportamento effettivo e parametri operativi desiderati.

Valutare i rischi AI in sviluppo e in produzione

La fase di build dei sistemi AI è per natura dinamica e frammentata: si creano nuove identità, si accumulano privilegi, si compongono componenti distribuiti tra cloud, SaaS e ambienti interni, mentre la logica viene definita tramite prompt e configurazioni. Piccoli errori in questa fase, come una misconfigurazione di un’identità di agente, possono trasformarsi in vulnerabilità importanti una volta che la soluzione va in produzione.

SECURE AI porta visibilità sull’intero ciclo di vita, dall’ideazione al go‑live, consentendo di vedere identità create e relativi accessi su hyperscaler, ambienti low‑code e “laboratori” interni, supportato da funzionalità di AI security posture management che mettono in luce misconfigurazioni, eccessi di privilegi ed eventi anomali in fase di costruzione. Collegando questi insight di sviluppo al monitoraggio dei prompt in esercizio, la piattaforma aiuta a garantire un ciclo di vita più prevedibile, in cui i rischi sono intercettati prima, i guardrail sono applicati in modo uniforme e l’innovazione procede con maggiore confidenza.

Scoprire e governare la Shadow AI

La shadow AI si manifesta ormai in ogni angolo dell’impresa: non è solo l’utente che incolla dati sensibili in un chatbot pubblico, ma anche builder di agenti non autorizzati, server MCP nascosti, deployment di modelli non gestiti e workflow AI che girano su servizi o dispositivi inaspettati. Questo mosaico di utilizzi rende estremamente difficile definire un perimetro chiaro di ciò che l’azienda sta davvero eseguendo in termini di AI.

Analizzando in modo continuativo le interazioni su cloud, rete, endpoint, OT e ambienti SASE, SECURE AI porta alla luce l’uso non approvato dell’AI, distinguendo tra attività legittima su strumenti sanciti e comportamenti ad alto rischio o chiaramente fuori policy. Quando il comportamento lo richiede, la soluzione consente di applicare politiche che guidano gli utenti verso opzioni approvate e contengono le adozioni non governate, riducendo significativamente la superficie d’attacco creata dalla shadow AI.

Strumenti, policy e readiness per l’era dell’AI

Le sole policy di adozione e i framework di governance non bastano: servono strumenti in grado di rilevare minacce legate al comportamento dell’AI, coprendo shadow use, rischi nei prompt, abuso di identità e criticità nel ciclo di sviluppo. Darktrace rivendica una posizione unica, forte di oltre 10.000 clienti che la utilizzano come ultima linea di difesa e di una tecnologia AI che da anni impara le specificità di ogni business, prima ancora dell’esplosione degli agenti generativi.

Per aiutare le organizzazioni a orientarsi, l’azienda propone un Secure AI Readiness Program rivolto a IT e security leader, pensato come forum per prepararsi alle decisioni ad alto impatto, definire guardrail ed accompagnare il business in un contesto di incertezza crescente. Oltre a questo, è possibile ingaggiare direttamente gli esperti Darktrace per ricevere linee guida pratiche sui rischi AI più rilevanti per il proprio contesto e sulle priorità da dare a governance, visibilità, riduzione del rischio e readiness di lungo periodo.

Inferno Mürren 2026: il mio ritorno in pista dopo la frattura tibia 2022 – GoPro POV Schilthorn-Winteregg
Translate »