DeepSeek, startup cinese di intelligenza artificiale, ha conquistato i mercati, affermandosi rapidamente con la cifra record 3 milioni di download dal suo lancio al pubblico il 20 gennaio scorso.
Il suo successo ha sollevato anche preoccupazioni sulla possibilità di raccolta e uso improprio dei dati e una complessa serie di questioni di cyber security legate a privacy, etica, sicurezza nazionale e fuga di dati. Si tratta di problemi che dovranno essere affrontati sempre più spesso, man mano che la tecnologia di AI continuerà a progredire e diffondersi.
L’Italia è stato uno tra i primi paesi ad agire, bloccando la disponibilità dell’app di DeepSeek negli store Apple e Android, a seguito di un’indagine condotta dal Garante della Privacy sulla raccolta e la gestione dei dati personali degli utenti, il quale ha concesso all’azienda cinese 20 giorni per rispondere alle domande su come e dove memorizza e, soprattutto, come utilizza le informazioni sensibili raccolte dall’app.
In attesa delle risposte, che serviranno a capire se DeepSeek viola o meno le norme europee, il Garante si è mosso per eliminare l’applicazione dagli store.
AI nelle attività lavorative: quali sono i rischi
Se aziende e istituzioni sono alle prese con policy e normative per garantire un utilizzo sicuro di GenAI e LLM, nel frattempo, i team di sicurezza sono chiamati a definire e proteggere i propri confini e, comprensibilmente, le imprese mostrano preoccupazione.
Il report Voice of the CISO 2024 di Proofpoint ha evidenziato come il 45% dei CISO italiani ritenga gli strumenti di GenAI uno dei principali rischi per la propria azienda, sottolineando la necessità di solide strategie di protezione.
L’aumento del coinvolgimento degli utenti con GenAI, LLM e altre applicazioni avanzate richiede una risposta di cyber security flessibile, incentrata sull’individuo e altamente personalizzata.
Nella maggior parte dei casi, purtroppo, chi punta a ottimizzare la propria produttività grazie a tool di GenAI metterà in secondo piano i rischi relativi, e il loro potenziale impatto sul business. Questo sta spingendo le aziende a passare da prodotti di DLP (Data Loss Prevention) tradizionali incentrati sui contenuti, a piattaforme focalizzate sul comportamento e la persona, in grado di proteggere rispetto a utenti disattenti, malintenzionati e compromessi su tutti i canali di comunicazione, email, endpoint e cloud.
Protezione dei dati
Forse non sorprende che l’area di maggiore preoccupazione sia la protezione dei dati e la privacy, in particolare quando si tratta di LLM. Strumenti come DeepSeek e ChatGPT richiedono l’inserimento di informazioni da parte dell’utente – potrebbe trattarsi di una domanda o di una richiesta processata poi come dato grezzo.
Il LLM le analizza utilizzando tecniche come elaborazione del linguaggio naturale (NLP) e analisi semantica prima di fornire un output adeguato.
Poiché gli utenti (al momento non in Italia) sono liberi di copiare il testo nella casella di richiesta di DeepSeek, con i divisori prompt che consentono input ancora più grandi, il potenziale per perdita, uso improprio ed esposizione di dati è enorme.
Ad esempio, i dipendenti possono copiare un’email che stanno componendo, per un destinatario interno o esterno, e prima di inviarla, la condividono su uno degli strumenti di GenAI per migliorarne struttura, grammatica e persino il tono.
Se il contenuto include informazioni sensibili personali o dati finanziari dell’azienda, questo comporta esposizione e rischio enormi.
Inoltre, se si considera che gli studenti utilizzano quotidianamente questi approcci e strumenti, è facilmente immaginabile che il rischio correlato possa solo aumentare in un prossimo futuro, sia per il settore privato che per quello pubblico.
Governance e normative
Allo stato attuale, molte aziende italiane non hanno visibilità su chi utilizza le tecnologie di GenAI e in quale misura. Ciò rende impossibile il monitoraggio dei dati immessi o l’adozione di policy relative alla loro applicazione.
Gli input di dati non sono i soli a destare preoccupazione, in quanto anche l’output dell’AI è potenzialmente problematico.
Se i dipendenti utilizzano LLM e altri strumenti di AI per generare codice o contenuti, è assolutamente difficile garantire che qualsiasi risultato sia privo di plagio, vulnerabilità e imprecisioni, lasciando le aziende potenzialmente esposte a violazioni di sicurezza e problemi con brevetti e proprietà intellettuale registrati.
Vettori di minaccia
Purtroppo, l’enorme potenziale dell’AI per aumentare l’efficienza non è a uso esclusivo di dipendenti ben intenzionati.
I modelli NLP e LLM consentono anche agli attori delle minacce di addestrare i loro attacchi su ampi set di dati, come feed dei social media e registri delle chat, per un’iper-personalizzazione ed esche ancora più convincenti.
Tali strumenti aiutano inoltre i criminali informatici a evitare i più comuni segnali di pericolo, come traduzioni errate o errori ortografici e grammaticali.
Il fatto che molte piattaforme siano disponibili gratuitamente elimina anche le barriere tradizionali, quali fondi o livello di competenza, aprendo la possibilità di lanciare un attacco sofisticato a chiunque abbia conoscenze informatiche di base e intenzioni malevole.
Le persone: chiave del problema, ma anche soluzione
Come la maggior parte dei progressi tecnologici importanti, l’intelligenza artificiale è un’arma a doppio taglio. Se da un lato comporta nuovi rischi e assiste gli attori delle minacce nelle loro campagne, dall’altro migliora la nostra capacità di rafforzare le nostre difese ed essere in grado di sventarli.
Sebbene le nuove tecnologie possano modificare il panorama della perdita di dati, al centro di tutto rimane la persona, con le sue caratteristiche: chi, perché e come.
Quanto più si comprende quali utenti interagiscono con l’AI, con quali motivazioni e in che modo, tanto più semplice sarà ridurre i rischi potenziali. Senza contesto, non è possibile determinare l’intento e costruire prove sugli incidenti e gli utenti, indipendentemente dalla loro intenzione. Che si tratti di negligenza o di dolo, per l’azienda è fondamentale poter disporre di elementi oggettivi di prova.
Le aziende devono adottare un approccio differenziato e multilivello che combini threat intelligence, AI comportamentale, detection engineering e AI semantica per bloccare, rilevare e rispondere alle minacce più avanzate e agli incidenti di perdita di dati. Questo approccio olistico incentrato sulla persona segnala comportamenti che di solito non vengono individuati con i sistemi tradizionali, focalizzati solo sui contenuti, garantendo così maggiore efficacia, efficienza operativa e una riduzione dei falsi positivi.
Serve maggiore consapevolezza
Infine, nonostante gli strumenti siano sicuramente importanti, il loro significato è meno rilevante se non c’è consapevolezza da parte degli utenti e cambiamento dei loro comportamenti.
È fondamentale affrontare i rischi legati all’intelligenza artificiale nelle politiche di DLP (Data Loss Prevention), stabilire parametri chiari per il suo utilizzo e offrire una formazione continua sulla sicurezza personalizzata, in base a rischi, ruoli e competenze dei dipendenti.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link