2019 Previsioni di sicurezza informatica: intelligenza artificiale

I chatbots guidati dall’IA diventano canaglia Nel 2019, cyber criminali e hacker black hat creeranno chatbot malevoli su siti legittimi per fare ingegneria  sociale,   vittime inconsapevoli cliccheranno su link dannosi, scaricheranno file contenenti malware o condivideranno informazioni private.

Candace Worley, Chief Technical Strategist, McAfee

Ci sono una miriade di decisioni che devono essere prese quando un’azienda estende  l’uso dell’IA. Esistono implicazioni per la normativa sulla privacy, ma ci sono anche implicazioni legali, etiche e culturali che giustificano la creazione di un ruolo specializzato nel 2019 con la supervisione esecutiva nel uso di AI. In alcuni casi, l’IA ha dimostrato un comportamento sfavorevole come la profilazione razziale, negando ingiustamente prestiti personali e identificando erroneamente le informazioni di base sugli utenti. I CAO e i CDO dovranno supervisionare la formazione dell’IA per garantire che le decisioni dell’IA evitino danni. Inoltre, l’IA deve essere addestrata per affrontare veri dilemmi umani e dare priorità a giustizia, responsabilità,  trasparenza e benessere, rilevando anche l’hacking, lo sfruttamento e l’uso improprio dei dati.

Jason Rebholz, Senior Director, Gigamon

Offloading del processo decisionale verso il software AI Le attuali soluzioni di sicurezza si fondano in gran parte su rilevazioni basate su firme (“L’ho già visto prima e so che è male”) e su rilevazioni basate su analisi (“questo modello di attività mi porta a credere che questa attività sia sospetta”). L’analista quindi rivede l’attività per eseguire analisi di triage di base nel tentativo di determinare se si tratti di qualcosa di veramente dannoso o semplicemente di un falso positivo. Con l’emergere di intelligenza artificiale, il processo decisionale di base verrà trasferito al software. Anche se questo non è un sostituto per l’analista, fornirà loro più tempo per eseguire processi decisionali e analisi più avanzati, che non sono facilmente sostituibili con l’intelligenza artificiale.

Morey Haber, CTO e Brian Chappell, sr. director, enterprise & solutions architecture, BeyondTrust

AI sull’attacco. Skynet sta diventando consapevole di se stesso! Il 2019 vedrà un numero crescente di attacchi coordinati con l’uso di AI / Machine Learning. L’IA analizzerà le opzioni disponibili per l’exploit e svilupperà strategie che porteranno ad un aumento degli attacchi riusciti. L’IA sarà anche in grado di raccogliere le informazioni raccolte dagli hack di successo e incorporarle in nuovi attacchi, potenzialmente imparando come identificare le strategie di difesa dal modello di exploit disponibili. Questa evoluzione potrebbe potenzialmente portare ad attacchi che sono significativamente più difficili da difendere.

Team di Malwarebytes Labs

L’intelligenza artificiale verrà utilizzata nella creazione di eseguibili malevoli. Mentre l’idea di avere un’intelligenza artificiale malvagia in esecuzione sul sistema di una vittima è pura fantascienza almeno per i prossimi 10 anni, il malware che viene modificato, creato e comunicante con un’IA è una realtà molto pericolosa. Un’intelligenza artificiale che comunica con computer compromessi e monitora cosa e come viene rilevato un determinato malware può implementare rapidamente contromisure per creare una nuova generazione di malware. I controllori AI abiliteranno i malware creati per modificare il proprio codice per evitare di essere rilevati sul sistema, indipendentemente dallo strumento di sicurezza implementato. Immagina un’infezione da malware che agisce quasi come “The Borg” di Star Trek, adattando e acclimatando i loro metodi di attacco e difesa in base a ciò che stanno affrontando.

Mark Zurich, senior director of technology, Synopsys

C’è sicuramente eccitazione e speranza su ciò che ML / AI potrebbe fare per la sicurezza del software e la sicurezza informatica, in particolare. Un aspetto significativo della sicurezza informatica è la correlazione e l’analisi dei dati. La capacità di individuare singole minacce, campagne di minacce e l’attribuzione dell’attore delle minacce basata su più fonti di dati disparate (ad esempio, la ricerca di aghi nei pagliai) è una grande parte del gioco. ML / AI offre la possibilità di aumentare la velocità, la scala e la precisione di questo processo attraverso la modellazione dei dati e il riconoscimento dei modelli. Tuttavia, molti degli articoli che ho letto su questo argomento esprimono scetticismo e riguardano il fatto che le aziende saranno cullati in un falso senso di sicurezza che la loro efficacia di rilevamento è accettabile attraverso l’applicazione di ML / AI quando ciò potrebbe non essere effettivamente il caso. La realtà della situazione sembra essere che occorreranno più tempo e investimenti per affinare i modelli e i modelli dei dati per rendere ML / AI una tecnologia altamente efficace nella sicurezza del software e nella sicurezza informatica. Dovremmo aspettarci di vedere le grandi aziende continuare a investire in questa tecnologia e le aziende di startup che promuovono le capacità di ML / AI per continuare a crescere nel 2019. Tuttavia, potrebbero essere ancora alcuni anni finché la vera promessa di ML / AI non sarà completamente realizzato.

Ari Weil, Global VP di Product and Industry Marketing, Akamai

La disillusione nei confronti dell’iper-promettente AI e ML crescerà di fronte a tempi più lunghi di valutazione. I markater  hanno già iniziato  una corsa agli armamenti di marketing per sfruttare i termini Intelligenza Artificiale (AI) e Machine Learning (ML). Nel 2019, le aziende inizieranno a rendersi conto che le attuali capacità della tecnologia possono risolvere i problemi semplici e di routine che sono fastidiosi ma meno preziosi per il business, ma lasciare la logica personalizzata e i casi angolari complessi alle persone da risolvere. Che il catalizzatore provenga da strumenti forensi che non rilevano le minacce avanzate fino a quando non si sono verificati danni significativi o software di monitoraggio e analisi che non riesce a rilevare la causa principale di un problema in un ambiente di distribuzione complesso, il settore risveglierà il valore degli specialisti in continua evoluzione contro l’intelligenza d’acquisto.

Gilad Peleg, CEO, SecBI

L’IA alimenterà sempre più i cyberattacchi.  In effetti, è ragionevole supporre che gli eserciti di hacker IA avranno una penetrazione maggiore e più rapida con più automazione, consentendo agli hacker di ottenere un maggiore successo nell’esecuzione degli attacchi informatici. Cyberdefense deve guardare all’IA per l’analisi più veloce necessaria per trovare attività dannose. Con l’apprendimento automatico e la risposta basata sull’intelligenza artificiale, i team di sicurezza possono automatizzare il triage e la definizione delle priorità, riducendo al contempo i falsi positivi fino al 91%. Le imprese cercheranno soluzioni innovative che consentano loro di anticipare la prossima minaccia sconosciuta. Non possono semplicemente guardare ciò che hanno e semplicemente aggiornare. Né possono contare su soluzioni fatte in casa. Richiedono soluzioni pronte all’uso, automatizzate basate su AI.

Jason Rebholz, Senior Director, Gigamon

L’automazione e l’intelligenza artificiale svolgono un ruolo più ampio. Con la recente spinta per l’apprendimento automatico, l’intelligenza artificiale e l’automazione, l’industria della sicurezza vedrà una spinta significativa e, soprattutto, la fiducia in questa tecnologia. Le organizzazioni possono tentare o considerare l’aumento o la sostituzione degli analisti della sicurezza per queste tecnologie. Quando si sopporta la carenza di talenti della sicurezza ora, può sembrare allettante, ma può servire solo ad aumentare il divario di conoscenze man mano che gli strumenti diventano più specializzati, le campagne di marketing diventano più ambigue e le ipotesi su quali prodotti proteggono dall’irrigidirsi.

Malcolm Harkins, Chief Security and Trust Officer, Cylance

La tecnologia basata su AI distinguerà i dati sensibili da quelli non sensibili. Attualmente, l’analisi dei dati per determinare ciò che è sensibile o non sensibile è un processo manuale. Gli utenti devono classificare i dati stessi, ma gli utenti sono pigri. Nel 2019, la tecnologia basata su AI acquisirà la capacità di apprendere ciò che è sensibile e automaticamente lo classificherà. Questo sviluppo richiederà una maggiore considerazione su come gestire questi dati e inoltre su come controllarli.

Rajarshi Gupta, capo dell’IA di Avast:

L’intelligenza artificiale giocherà un ruolo significativo nel porre fine alla pratica nota come clone phishing, in cui un attaccante crea una replica quasi identica di un messaggio legittimo per indurre le persone a pensare che sia reale. L’email viene inviata da un indirizzo simile al mittente legittimo e il corpo del messaggio ha lo stesso aspetto di un messaggio precedente; l’unica differenza è che l’allegato o il collegamento nel messaggio è stato scambiato con uno malevolo. Prevedo che l’IA diventerà efficace nel trattare questi attacchi di phishing clone rilevando siti web di breve durata creati per il phishing. L’intelligenza artificiale può muoversi più velocemente rispetto agli algoritmi tradizionali quando identifica i siti falsi in due modi: 1) identificando accuratamente i domini nuovi e sospetti e 2) utilizzando il rilevamento visivo per abbinare il layout delle pagine di phishing ai siti più popolari.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *