L’AI cambia faccia alla cybersecurity – bizzIT.it


L’intelligenza artificiale non può essere considerata una novità nel settore della cybersecurity. Da anni, infatti, le aziende utilizzano il machine learning per affrontare la crescente mole di minacce informatiche, che sarebbe impossibile gestire manualmente. Tuttavia, fino al rilascio di ChatGPT nel novembre 2022, l’AI era uno strumento prevalentemente riservato agli addetti ai lavori. Con l’introduzione di un’interfaccia di utilizzo intuitiva basata sul linguaggio naturale, l’AI generativa è diventata accessibile a chiunque, innescando un’ondata di sperimentazione che ha generato sia applicazioni rivoluzionarie che rischi inediti.

Paolo Palumbo guida il team WithSecure Intelligence, un gruppo di esperti il cui compito è tracciare e analizzare le attività dei cybercriminali per trasformare queste informazioni in soluzioni di sicurezza avanzate. Il suo team include data scientist e specialisti in machine learning, impegnati a monitorare l’evoluzione del panorama delle minacce informatiche e a sviluppare strumenti di difesa sempre più efficaci.

I tre volti dell’AI nella sicurezza informatica

“Nell’ambito dell’Information Security, noi di WithSecure Intelligence consideriamo l’AI da tre prospettive – osserva Palumbo -. La prima è come strumento di offesa a disposizione di singoli utenti e aziende per automatizzare migliorare l’efficienza operativa delle attività criminali. La seconde è come mezzo di difesa, sfruttato per individuare e contrastare le minacce informatiche, contribuendo così alla protezione di aziende e istituzioni. Infine come possibile elemento di rischio per sé stessa, poiché l’AI può essere manipolata dai criminali per aggirare i sistemi di sicurezza, compiere operazioni di spionaggio o diffondere disinformazione”.

Capire come i criminali informatici utilizzano l’AI non è semplice. Aziende come OpenAI e Google, con il loro accesso diretto ai modelli generativi, hanno una prospettiva privilegiata su queste dinamiche e i rapporti pubblicati da questi giganti della tecnologia mostrano come, attualmente, un suo uso per abilitare attacchi avanzati sia ancora raro, mentre gli hacker stanno sfruttando l’AI soprattutto per ottimizzare attività come la creazione di malware, il phishing avanzato e il social engineering. Alcuni gruppi, supportati da stati come Russia, Iran, Corea del Nord e Cina, hanno già iniziato a integrare questi strumenti nelle loro strategie.

I nuovi rischi portati dall’AI

Uno degli utilizzi più diffusi dell’AI in ambito malevolo è il profiling avanzato delle persone, che consente di condurre attacchi mirati con estrema precisione. Deepfake sofisticati vengono già impiegati per frodi e disinformazione, come ha dimostrato il recente caso del video di Kamala Harris con l’audio manipolato digitalmente ri-postato da Elon Musk a milioni dei suoi follower. La facilità con cui si possono generare contenuti falsificati solleva interrogativi sulla sicurezza dell’informazione e sull’affidabilità delle fonti online.

Capire la portata del fenomeno è ulteriormente complicato dalla difficoltà di valutare la portata dell’uso malevolo che si potrebbe fare dell’AI in modo indiretto. Un esempio è l’uso dell’AIGen per individuare vulnerabilità nel software grazie alla sua capacità di analizzare grandi quantità di codice; si tratta di informazioni che possono essere utilizzate sia dagli sviluppatori per aumentare la sicurezza sia dai cybercriminali per ragioni opposte.

Dilazione debiti

Saldo e stralcio

 

Un approccio, ancora sperimentale, che mostra le possibili evoluzioni delle minacce informatiche nel prossimo futuro è dato dai malware polimorfici capaci di modificare il programma. Un esempio è LLMorpher, un nuovo prototipo di malware che non contiene codice malevolo diretto, ma in grado di sfruttare la connessione con un LLM per generare codice dannoso “on the fly”, eludendo così i sistemi di rilevamento tradizionali.

Un altro aspetto spesso trascurato riguarda la gestione dei dati inseriti nei modelli di AI.

“Nessuno sa con precisione dove finiscono le informazioni che inserisco in ChatGPT e simili – fa osservare Paolo Palumbo -, né chi vi può accedere o sotto quali condizioni. I report di OpenAI e Google confermano come, sotto certe condizioni, sia possibile analizzare i dati inseriti dagli utenti e ciò solleva legittime domande sulla privacy e sul rischio di esposizione di informazioni sensibili”.

Strategie di mitigazione e framework di sicurezza

Con l’AI che evolve rapidamente, l’adozione di strategie proattive, la collaborazione tra esperti di cybersecurity e l’implementazione di framework di mitigazione saranno elementi essenziali per affrontare le sfide del futuro. Sono in via di sviluppo framework e tassonomie per classificare i rischi legati all’AI e gestirli in modo efficace. L’MIT, per esempio, ha proposto un sistema per esplorare le minacce, suddividendole in categorie come attacchi malevoli, discriminazione, disinformazione e sicurezza dei sistemi.

A supporto di queste esigenze WithSecure ha sviluppato Luminen, una funzionalità di intelligenza artificiale generativa basata su un Large Language Model (LLM), integrata nativamente all’interno della piattaforma WithSecure Elements Cloud, che fornisce ai team IT e di cybersecurity spiegazioni in linguaggio naturale degli eventi di sicurezza, suggerendo le opportune azioni correttive e i miglioramenti necessari per rafforzare la postura di sicurezza.

“WithSecure è stata pioniera nell’utilizzo del machine learning e dell’intelligenza artificiale nella cybersecurity fin dal 2006 – ricorda Carmen Palumbo, country sales manager di WithSecure Italia -. I nostri algoritmi e il trattamento dei dati rispettano i più alti standard europei in termini di qualità, conformità e severi protocolli di privacy.”



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Carta di credito con fido

Procedura celere

 

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link