Lige meget hvor vi kigger hen, kommer vi ikke udenom AI – og det gælder naturligvis også, når vi snakker om it-sikkerhed.
Hvis man spørger Jacob Herbst, der er teknisk chef og partner i it-sikkerhedsvirksomheden Dubex, er der især tre perspektiver, som er interessante, når det handler om cybersikkehed og kunstig intelligens.
Nummer 1: AI som cybercrime enabler
Allerede i dag ser vi en masse cyberangreb, der bliver understøttet af AI – eksempelvis deepfakes – og tendensen vil kun blive større fremover, lyder det fra Jacob Herbst.
- Vi bruger AI til at skrive kode, men de kriminelle bruger det jo også til at skrive malware med, siger han.
- For nylig udgav Microsoft eksempelvis også en rapport, hvor it-firmaet fortalte, at de kunne se, at deres AI-løsning blev brugt af russiske og nordkoreanske statshackere til at identificere, hvilke mål de skulle angribe, og de fik hjælp til at analysere sårbarheder.
Alting kan udnyttes, og det gælder også AI – og de nye værktøjer, som teknologien skaber, kan i den grad også bruges af de kriminelle.
- AI kan være et skræmmende værktøj til at understøtte alle de påvirknings- og phisingkampagner, som vi ser, siger Jacob Herbst.
Der er helt klart en masse cyberangreb, hvor barrieren er sænket for de kriminelle.
Tidligere skulle de cyberkriminellle bruge relativt lang tid på at skrive en avanceret phising-mail til én person, men i dag kan de med hjælp af AI skrive målrettet til 1.000 mennesker – og langt flere vil formentlig også hoppe på den, lyder det.
- Så der er helt klart en masse cyberangreb, hvor barrieren er sænket for de kriminelle, og hvor det bliver væsentlig nemmere at automatisere.
Nummer 2: Sikkerhed i AI-løsninger
Et andet vigtigt aspekt er selve sikkerheden i AI-løsningerne. En ting er den almindelige it-sikkerhed, men det er også væsentlig at overveje, hvordan AI-modellerne kan blive påvirket.
- Vi så blandt andet en Microsoft-model, som på under 24 timer var blevet glødende racist og nazist, fordi dens data og svar var blevet forurenet, siger Jacob Herbst.
Han peger på, at mange AI-modeller generelt er blevet bedre til at undgå den form for påvirkning og forurening, men at vi fortsat skal være opmærksomme og tage en sikkerhedshat på, når det handler om AI, data, bias og træning af modellerne.
Nummer 3: AI bliver en hjælpende hånd
I dag bruger Dubex ligesom en masse andre it-sikkerhedsfirmaer rundt i verden kunstig intelligens i deres arbejde – eksempelvis til at spotte angreb og som en hjælpende hånd, når udviklerne skriver kode.
- Vi bruger AI som et redskab, der hjælper os med at være mere effektive – og jeg tror, at AI kommer til at have en kæmpe indflydelse på, hvordan vi vil arbejde fremover.
AI kommer til at have en kæmpe indflydelse på, hvordan vi vil arbejde fremover.
AI er altså både good and bad, lyder det fra Jacob Herbst.
- Kunstig intelligens er et tveægget sværd ligesom alt muligt andet, siger han.
Når man arbejder med sikkerhed, er man desuden i et konstant våbenkapløb, påpeger Dubex-chefen.
- Først finder de kriminelle på noget, og så finder vi på noget, som kan beskytte os. Så gør vi måske en ting en lille smule bedre, og så bliver vi på et eller andet tidspunkt overhalet igen.
- Nogle gange er de kriminelle ret langt foran, og nogle gange er vi ret gode til at fange dem. AI er endnu et våben i våbenkammeret i den kamp.