Lajme & Evente

Inteligjenca Artificiale dhe Siguria Kibernetike në 2025: Lufta AI kundër AI

Kur bëhet fjalë për sigurinë kibernetike në 2025, inteligjenca artificiale (AI) është në qendër të vëmendjes për shumë analistë dhe profesionistë.

AI do të përdoret si nga sulmuesit ashtu edhe nga mbrojtësit, por përfitimet më të mëdha priten të shkojnë për sulmuesit, thotë Willy Leichter, CMO i AppSOC, një ofrues i sigurisë së aplikacioneve dhe menaxhimit të cenueshmërisë në San Jose, Kaliforni.

“Ne e dimë që AI do të përdoret gjithnjë e më shumë nga të dyja palët në luftën kibernetike,” tha ai për TechNewsWorld. “Megjithatë, sulmuesit do të kenë më pak kufizime, pasi ata shqetësohen më pak për saktësinë e AI, etikën ose pasojat e padëshiruara. Teknologji të tilla si phishing-u i personalizuar dhe analizimi i rrjeteve për dobësi të vjetra do të përfitojnë nga AI.”

Nga ana tjetër, ai thekson se AI ka potencial të madh për mbrojtjen, por ekzistojnë kufizime ligjore dhe praktike që do ta ngadalësojnë adoptimin e tij.

Chris Hauk, ekspert për privatësinë e konsumatorëve në Pixel Privacy, parashikon që 2025 do të jetë viti i një beteje të vazhdueshme mes AI-ve, pasi palët e ndryshme do të përdorin inteligjencën artificiale për të sulmuar dhe për t’u mbrojtur.

“Do të jetë një vit i përplasjeve të vazhdueshme, ku të dyja palët do të përdorin informacionin e mbledhur nga sulmet e mëparshme për të përmirësuar mbrojtjet dhe për të nisur sulme të reja.”

Rreziqet e AI në Sigurinë Kibernetike

Leichter gjithashtu parashikon që kundërshtarët kibernetikë do të fillojnë të synojnë sistemet e AI më shpesh.

“Teknologjia AI rrit sipërfaqen e sulmit me kërcënime të reja që prekin modelet, të dhënat dhe operacionet e inteligjencës artificiale,” shpjegon ai. “Gjithashtu, kur aplikacionet AI kalojnë shpejt nga laboratori në prodhim, ndikimi i plotë në siguri nuk do të kuptohet derisa të ndodhin shkeljet e para të mëdha.”

Karl Holmqvist, CEO i Lastwall, pajtohet me këtë ide:

“Përdorimi i AI pa një bazë të fortë sigurie do të ketë pasoja të rënda në 2025. Sistemet që nuk kanë masa të duhura për privatësinë dhe sigurinë do të bëhen objektiva të mëdha për sulme dhe manipulime.”

Leichter shton se ekipet e sigurisë do të kenë më shumë përgjegjësi për të siguruar sistemet AI në 2025. Shumë projekte AI drejtohen nga shkencëtarë të të dhënave dhe specialistë të biznesit, të cilët shpesh anashkalojnë proceset tradicionale të sigurisë së aplikacioneve.

Sulmet përmes Helmit të të Dhënave në Modelet AI

Michael Lieberman, CTO i Kusari, paralajmëron se sulmet përmes helmimit të modeleve të AI do të rriten në 2025.

“Sulmet e helmimit të të dhënave për të manipuluar modelet e mëdha të gjuhës (LLM) do të bëhen më të zakonshme,” thotë ai. “Shumica e organizatave nuk trajnojnë modelet e tyre, por mbështeten në modele të gatshme. Kjo mungesë transparence u jep mundësi aktorëve të këqij të krijojnë modele të dëmshme.”

Lieberman gjithashtu përmend incidentin në Hugging Face në fillim të 2024, kur u zbuluan mbi 100 modele të AI me backdoor të fshehura që mund të ekzekutonin kod të dëmshëm në kompjuterët e përdoruesve.

Sulmet e AI të Drejtuara nga Agjentë Autonomë

Në 2025, rritja e AI autonome (AI që merr vendime dhe vepron pa ndërhyrje njerëzore) do të krijojë sfida të mëdha për mbrojtësit.

Jason Pittman, profesor në University of Maryland Global Campus, shpjegon:

“AI-të autonome mund të identifikojnë dobësi, të depërtojnë në sisteme dhe të evoluojnë në kohë reale pa ndërhyrje njerëzore. Kjo i dallon ato nga sistemet e tjera AI që ndjekin vetëm udhëzime të paracaktuara.”

Sipas tij, AI mund të bëhet aq e avancuar sa të krijojë armë kibernetike autonome, të cilat mund të shpëtojnë nga masat e sigurisë dhe të shkaktojnë dëme të paparashikuara.

Përdorimi i AI për të Mbrojtur të Dhënat e Ndjeshme

Megjithatë, AI mund të ndihmojë edhe në mbrojtjen e informacionit të ndjeshëm. Rich Vibert, CEO i Metomic, thotë:

“Bizneset do të përdorin gjithnjë e më shumë mjete të fuqizuara nga AI për të identifikuar dhe mbrojtur informacionin e ndjeshëm.”

Sipas tij, AI do të ndihmojë në zbulimin dhe etiketimin automatik të të dhënave të ndjeshme në hapësirat e punës në cloud, duke zvogëluar rrezikun e ekspozimit të paqëllimshëm të informacionit.

Zhgënjimi nga AI në Sigurinë Kibernetike?

Pavarësisht pritshmërive të mëdha, disa ekspertë besojnë se AI mund të mos përmbushë premtimet e saj në fushën e sigurisë kibernetike.

Cody Scott, analist në Forrester Research, thotë:

“Shumë drejtues të sigurisë do të zvogëlojnë përdorimin e AI me 10% për shkak të mungesës së rezultateve të matshme.”

Ai shton se pritshmëritë për një qendër të sigurisë plotësisht autonome janë tepër të ekzagjeruara dhe se zhgënjimi me AI do të rritet në 2025.

Përfundimi

Ndërsa AI do të jetë një mjet i fuqishëm në sigurinë kibernetike, ai do të përdoret si nga mbrojtësit ashtu edhe nga sulmuesit. Me rritjen e kërcënimeve të helmimit të të dhënave, AI autonome dhe sulmeve të avancuara, organizatat do të duhet të ndërmarrin masa më të forta sigurie për të mbrojtur sistemet e tyre.

Në 2025, sfida kryesore do të jetë se kush do ta përdorë AI më mirë — mbrojtësit apo sulmuesit.

Burimi:TECHNEWSWORLD

iTeam