Ekspert i sigurisë kibernetike që analizon kërcënimet duke përdorur mjete gjeneruese të inteligjencës artificiale.

Si mund të përdoret IA gjeneruese në sigurinë kibernetike?

Hyrje

IA gjeneruese - sistemet e inteligjencës artificiale të afta për të krijuar përmbajtje ose parashikime të reja - po shfaqet si një forcë transformuese në sigurinë kibernetike. Mjete si GPT-4 e OpenAI kanë demonstruar aftësinë për të analizuar të dhëna komplekse dhe për të gjeneruar tekst të ngjashëm me njeriun, duke mundësuar qasje të reja për t'u mbrojtur kundër kërcënimeve kibernetike. Profesionistët e sigurisë kibernetike dhe vendimmarrësit e biznesit në të gjitha industritë po eksplorojnë se si IA gjeneruese mund të forcojë mbrojtjen kundër sulmeve në zhvillim. Nga financa dhe kujdesi shëndetësor deri te shitja me pakicë dhe qeveria, organizatat në çdo sektor përballen me përpjekje të sofistikuara të phishing, programe keqdashëse dhe kërcënime të tjera që IA gjeneruese mund të ndihmojë në përballimin e tyre. Në këtë dokument të bardhë, ne shqyrtojmë se si IA gjeneruese mund të përdoret në sigurinë kibernetike , duke theksuar aplikimet e botës reale, mundësitë e ardhshme dhe konsideratat e rëndësishme për adoptim.

IA gjeneruese ndryshon nga IA tradicionale analitike jo vetëm duke zbuluar modele, por edhe duke krijuar përmbajtje - qoftë duke simuluar sulme për të trajnuar mbrojtjet apo duke prodhuar shpjegime në gjuhën natyrore për të dhëna komplekse të sigurisë. Kjo aftësi e dyfishtë e bën atë një shpatë me dy tehe: ofron mjete të reja të fuqishme mbrojtëse, por edhe aktorët kërcënues mund ta shfrytëzojnë atë. Seksionet e mëposhtme shqyrtojnë një gamë të gjerë rastesh përdorimi për IA gjeneruese në sigurinë kibernetike, nga automatizimi i zbulimit të phishing-ut deri te përmirësimi i reagimit ndaj incidenteve. Ne gjithashtu diskutojmë përfitimet që premtojnë këto inovacione të IA-së, së bashku me rreziqet (si "halucinacionet" e IA-së ose keqpërdorimi kundërshtar) që organizatat duhet të menaxhojnë. Së fundmi, ne ofrojmë mësime praktike për të ndihmuar bizneset të vlerësojnë dhe integrojnë me përgjegjësi IA-në gjeneruese në strategjitë e tyre të sigurisë kibernetike.

IA gjeneruese në sigurinë kibernetike: Një përmbledhje

IA gjeneruese në sigurinë kibernetike i referohet modeleve të IA-së - shpesh modele të mëdha gjuhësore ose rrjete të tjera nervore - që mund të gjenerojnë njohuri, rekomandime, kod ose edhe të dhëna sintetike për të ndihmuar në detyrat e sigurisë. Ndryshe nga modelet thjesht parashikuese, IA gjeneruese mund të simulojë skenarë dhe të prodhojë rezultate të lexueshme nga njeriu (p.sh. raporte, alarme ose edhe mostra të kodit të dëmshëm) bazuar në të dhënat e saj të trajnimit. Kjo aftësi po shfrytëzohet për të parashikuar, zbuluar dhe për t'iu përgjigjur kërcënimeve në mënyra më dinamike se më parë ( Çfarë është IA Gjeneruese në Sigurinë Kibernetike? - Palo Alto Networks ). Për shembull, modelet gjeneruese mund të analizojnë regjistra të mëdhenj ose depo të inteligjencës së kërcënimeve dhe të prodhojnë një përmbledhje koncize ose veprim të rekomanduar, duke funksionuar pothuajse si një "asistent" i IA-së për ekipet e sigurisë.

Implementimet e hershme të IA-së gjeneruese për mbrojtjen kibernetike kanë treguar premtime. Në vitin 2023, Microsoft prezantoi Security Copilot , një asistent të mundësuar nga GPT-4 për analistët e sigurisë, për të ndihmuar në identifikimin e shkeljeve dhe për të shqyrtuar 65 trilion sinjale që Microsoft përpunon çdo ditë ( Microsoft Security Copilot është një asistent i ri i IA-së GPT-4 për sigurinë kibernetike | The Verge ). Analistët mund ta nxisin këtë sistem në gjuhë natyrore (p.sh. "Përmbledh të gjitha incidentet e sigurisë në 24 orët e fundit" ), dhe bashkëpiloti do të prodhojë një përmbledhje narrative të dobishme. Në mënyrë të ngjashme, IA e Inteligjencës së Kërcënimeve përdor një model gjenerues të quajtur Gemini për të mundësuar kërkimin bisedor përmes bazës së të dhënave të gjerë të inteligjencës së kërcënimeve të Google, duke analizuar shpejt kodin e dyshimtë dhe duke përmbledhur gjetjet për të ndihmuar gjuetarët e malware ( Si mund të përdoret IA Gjeneruese në Sigurinë Kibernetike? 10 Shembuj nga Bota Reale ). Këta shembuj ilustrojnë potencialin: IA gjeneruese mund të përpunojë të dhëna komplekse, në shkallë të gjerë, të sigurisë kibernetike dhe të paraqesë njohuri në një formë të arritshme, duke përshpejtuar vendimmarrjen.

Në të njëjtën kohë, IA gjeneruese mund të krijojë përmbajtje të rreme shumë realiste, e cila është një ndihmë e madhe për simulimin dhe trajnimin (dhe, për fat të keq, për sulmuesit që krijojnë inxhinieri sociale). Ndërsa kalojmë në raste specifike përdorimi, do të shohim se aftësia e IA gjeneruese për të sintetizuar dhe analizuar informacionin mbështet shumë aplikacione të saj të sigurisë kibernetike. Më poshtë, ne zhytemi në rastet kryesore të përdorimit, duke përfshirë gjithçka, nga parandalimi i phishing-ut deri te zhvillimi i sigurt i softuerëve, me shembuj se si secila prej tyre po zbatohet në të gjitha industritë.

Zbatimet kryesore të IA-së Gjenerative në Sigurinë Kibernetike

Figura: Rastet kryesore të përdorimit për IA gjeneruese në sigurinë kibernetike përfshijnë bashkëpilotët e IA-së për ekipet e sigurisë, analizën e cenueshmërisë së kodit, zbulimin adaptiv të kërcënimeve, simulimin e sulmit zero-ditor, sigurinë e përmirësuar biometrike dhe zbulimin e phishing-ut ( 6 Raste Përdorimi për IA Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ).

Zbulimi dhe Parandalimi i Phishing-ut

Phishing mbetet një nga kërcënimet më të përhapura kibernetike, duke i mashtruar përdoruesit që të klikojnë lidhje dashakeqe ose të zbulojnë kredencialet. IA gjeneruese po përdoret si për të zbuluar përpjekjet e phishing ashtu edhe për të forcuar trajnimin e përdoruesve për të parandaluar sulme të suksesshme. Nga ana mbrojtëse, modelet e IA-së mund të analizojnë përmbajtjen e email-eve dhe sjelljet e dërguesve për të dalluar shenja delikate të phishing-ut që filtrat e bazuar në rregulla mund t'i humbasin. Duke mësuar nga grupe të mëdha të dhënash të email-eve të ligjshme kundrejt atyre mashtruese, një model gjenerues mund të sinjalizojë anomali në ton, formulim ose kontekst që tregojnë një mashtrim - edhe kur gramatika dhe drejtshkrimi nuk e zbulojnë më atë. Në fakt, studiuesit e Palo Alto Networks vërejnë se IA gjeneruese mund të identifikojë "shenja delikate të email-eve phishing që përndryshe mund të mos zbulohen", duke i ndihmuar organizatat të qëndrojnë një hap përpara mashtruesve ( Çfarë është IA Gjeneruese në Sigurinë Kibernetike? - Palo Alto Networks ).

Ekipet e sigurisë po përdorin gjithashtu IA gjeneruese për të simuluar sulmet e phishing për trajnim dhe analizë. Për shembull, Ironscales prezantoi një mjet simulimi të phishing-ut të mundësuar nga GPT që gjeneron automatikisht email-e të rreme phishing të përshtatura për punonjësit e një organizate ( Si mund të përdoret IA gjeneruese në sigurinë kibernetike? 10 shembuj nga bota reale ). Këto email-e të krijuara nga IA pasqyrojnë taktikat më të fundit të sulmuesit, duke i dhënë stafit praktikë realiste në zbulimin e përmbajtjes phishing. Një trajnim i tillë i personalizuar është thelbësor pasi vetë sulmuesit përdorin IA për të krijuar karrem më bindës. Veçanërisht, ndërsa IA gjeneruese mund të prodhojë mesazhe phishing shumë të rafinuara (kanë ikur ditët e anglishtes së thyer që dallohej lehtësisht), mbrojtësit kanë zbuluar se IA nuk është e pakrahasueshme. Në vitin 2024, studiuesit e IBM Security kryen një eksperiment duke krahasuar email-et e phishing të shkruara nga njeriu me ato të gjeneruara nga IA, dhe "çuditërisht, email-et e gjeneruara nga IA ishin ende të lehta për t'u zbuluar pavarësisht gramatikës së tyre të saktë" ( 6 raste përdorimi për IA gjeneruese në sigurinë kibernetike [+ shembuj] ). Kjo sugjeron që intuita njerëzore e kombinuar me zbulimin e asistuar nga IA mund të njohë ende mospërputhjet delikate ose sinjalet e meta të dhënave në mashtrimet e shkruara nga IA.

IA gjeneruese ndihmon mbrojtjen nga phishing edhe në mënyra të tjera. Modelet mund të përdoren për të gjeneruar përgjigje ose filtra automatikë që testojnë email-e të dyshimta. Për shembull, një sistem IA mund t'i përgjigjet një email-i me pyetje të caktuara për të verifikuar legjitimitetin e dërguesit ose të përdorë një LLM për të analizuar lidhjet dhe bashkëngjitjet e një email-i në një sandbox, pastaj të përmbledhë çdo qëllim dashakeq. Platforma e sigurisë e NVIDIA-s, Morpheus, demonstron fuqinë e IA-së në këtë fushë - ajo përdor modele gjeneruese NLP për të analizuar dhe klasifikuar me shpejtësi email-et, dhe u zbulua se përmirëson zbulimin e email-eve spear-phishing me 21% krahasuar me mjetet tradicionale të sigurisë ( 6 Raste Përdorimi për IA Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ). Morpheus madje profilizon modelet e komunikimit të përdoruesit për të zbuluar sjellje të pazakontë (si një përdorues që dërgon papritur email në shumë adresa të jashtme), gjë që mund të tregojë një llogari të kompromentuar që dërgon email-e phishing.

Në praktikë, kompanitë në të gjitha industritë po fillojnë t'i besojnë IA-së për të filtruar email-et dhe trafikun e internetit për sulme të inxhinierisë sociale. Firmat financiare, për shembull, përdorin IA-në gjeneruese për të skanuar komunikimet për përpjekje të imitimit që mund të çojnë në mashtrime me tela, ndërsa ofruesit e kujdesit shëndetësor përdorin IA-në për të mbrojtur të dhënat e pacientëve nga shkeljet që lidhen me phishing. Duke gjeneruar skenarë realistë të phishing dhe duke identifikuar shenjat dalluese të mesazheve dashakeqe, IA-ja gjeneruese shton një shtresë të fuqishme në strategjitë e parandalimit të phishing. Përfundimi: IA mund të ndihmojë në zbulimin dhe çaktivizimin e sulmeve phishing më shpejt dhe më saktë, edhe pse sulmuesit përdorin të njëjtën teknologji për të përmirësuar lojën e tyre.

Zbulimi i programeve keqdashëse dhe analiza e kërcënimeve

Malware-i modern është në zhvillim të vazhdueshëm - sulmuesit gjenerojnë variante të reja ose errësojnë kodin për të anashkaluar nënshkrimet antivirus. IA gjeneruese ofron teknika të reja si për zbulimin e malware-it ashtu edhe për të kuptuar sjelljen e tij. Një qasje është përdorimi i IA-së për të gjeneruar "binjakë të këqij" të malware-it : studiuesit e sigurisë mund të ushqejnë një mostër të njohur të malware-it në një model gjenerues për të krijuar shumë variante të mutuara të atij malware-i. Duke vepruar kështu, ata parashikojnë në mënyrë efektive ndryshimet që mund të bëjë një sulmues. Këto variante të gjeneruara nga IA mund të përdoren më pas për të trajnuar sistemet antivirus dhe të zbulimit të ndërhyrjeve, në mënyrë që edhe versionet e modifikuara të malware-it të njihen në natyrë ( 6 Raste Përdorimi për IA Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ). Kjo strategji proaktive ndihmon në thyerjen e ciklit ku hakerat e ndryshojnë pak malware-in e tyre për të shmangur zbulimin dhe mbrojtësit duhet të përpiqen të shkruajnë nënshkrime të reja çdo herë. Siç u përmend në një podcast të industrisë, ekspertët e sigurisë tani përdorin IA gjeneruese për të "simuluar trafikun e rrjetit dhe për të gjeneruar ngarkesa të dëmshme që imitojnë sulme të sofistikuara", duke testuar mbrojtjen e tyre kundër një familjeje të tërë kërcënimesh në vend të një instance të vetme. Ky zbulim adaptiv i kërcënimeve do të thotë që mjetet e sigurisë bëhen më elastike ndaj malware-it polimorfik që përndryshe do të kalonin.

Përtej zbulimit, IA gjeneruese ndihmon në analizën e malware-it dhe inxhinierinë e kundërt , të cilat tradicionalisht janë detyra që kërkojnë shumë punë për analistët e kërcënimeve. Modeleve të mëdha gjuhësore mund t'u ngarkohet detyra e shqyrtimit të kodit ose skripteve të dyshimta dhe shpjegimit në gjuhë të thjeshtë se çfarë synon të bëjë kodi. Një shembull nga bota reale është VirusTotal Code Insight , një veçori nga VirusTotal i Google që shfrytëzon një model IA gjeneruese (Sec-PaLM i Google) për të prodhuar përmbledhje në gjuhën natyrore të kodit potencialisht të dëmshëm ( Si mund të përdoret IA gjeneruese në sigurinë kibernetike? 10 shembuj nga bota reale ). Është në thelb "një lloj ChatGPT i dedikuar për kodimin e sigurisë", duke vepruar si një analist i malware-it të IA-së që punon 24/7 për të ndihmuar analistët njerëzorë të kuptojnë kërcënimet ( 6 raste përdorimi për IA gjeneruese në sigurinë kibernetike [+ shembuj] ). Në vend që të shqyrtojë me kujdes skriptin ose kodin binar të panjohur, një anëtar i ekipit të sigurisë mund të marrë një shpjegim të menjëhershëm nga IA - për shembull, "Ky skript përpiqet të shkarkojë një skedar nga serveri XYZ dhe pastaj të modifikojë cilësimet e sistemit, gjë që tregon sjelljen e malware-it". Kjo përshpejton ndjeshëm reagimin ndaj incidenteve, pasi analistët mund të dallojnë dhe kuptojnë programet e reja keqdashëse më shpejt se kurrë.

IA gjeneruese përdoret gjithashtu për të identifikuar programet keqdashëse në grupe të dhënash masive . Motorët tradicionalë antivirusë skanojnë skedarët për nënshkrime të njohura, por një model gjenerues mund të vlerësojë karakteristikat e një skedari dhe madje të parashikojë nëse është keqdashës bazuar në modelet e mësuara. Duke analizuar atributet e miliarda skedarëve (keqdashës dhe dashakeq), një IA mund të kapë qëllimin keqdashës aty ku nuk ekziston një nënshkrim i qartë. Për shembull, një model gjenerues mund të sinjalizojë një skedar ekzekutues si të dyshimtë sepse profili i tij i sjelljes "duket" si një variacion i vogël i ransomware që pa gjatë trajnimit, edhe pse binarja është e re. Ky zbulim i bazuar në sjellje ndihmon në luftimin e programeve keqdashëse të reja ose zero-day. IA e Inteligjencës së Kërcënimeve e Google (pjesë e Chronicle/Mandiant) thuhet se përdor modelin e saj gjenerues për të analizuar kodin potencialisht keqdashës dhe "të ndihmojë në mënyrë më efikase dhe efektive profesionistët e sigurisë në luftimin e programeve keqdashëse dhe llojeve të tjera të kërcënimeve". ( Si mund të përdoret IA gjeneruese në sigurinë kibernetike? 10 shembuj nga bota reale ).

Nga ana tjetër, duhet të pranojmë se sulmuesit mund të përdorin edhe këtu IA gjeneruese - për të krijuar automatikisht malware që përshtatet vetë. Në fakt, ekspertët e sigurisë paralajmërojnë se IA gjeneruese mund të ndihmojë kriminelët kibernetikë të zhvillojnë malware që është më i vështirë për t'u zbuluar ( Çfarë është IA Gjeneruese në Sigurinë Kibernetike? - Palo Alto Networks ). Një model IA mund të udhëzohet të transformojë një pjesë të malware në mënyrë të përsëritur (duke ndryshuar strukturën e skedarëve, metodat e enkriptimit, etj.) derisa të shmangë të gjitha kontrollet e njohura antivirus. Ky përdorim kundërshtar është një shqetësim në rritje (ndonjëherë i referuar si "malware i mundësuar nga IA" ose malware polimorfik si shërbim). Do të diskutojmë rreziqe të tilla më vonë, por kjo nënvizon se IA gjeneruese është një mjet në këtë lojë maceje dhe miu që përdoret si nga mbrojtësit ashtu edhe nga sulmuesit.

Në përgjithësi, IA gjeneruese rrit mbrojtjen nga malware duke u mundësuar ekipeve të sigurisë të mendojnë si një sulmues - duke gjeneruar kërcënime dhe zgjidhje të reja brenda kompanisë. Qoftë duke prodhuar malware sintetik për të përmirësuar shkallët e zbulimit apo duke përdorur IA për të shpjeguar dhe përmbajtur malware të vërtetë që gjendet në rrjete, këto teknika zbatohen në të gjitha industritë. Një bankë mund të përdorë analizën e malware të drejtuar nga IA për të analizuar shpejt një makro të dyshimtë në një spreadsheet, ndërsa një firmë prodhuese mund të mbështetet në IA për të zbuluar malware që synon sistemet industriale të kontrollit. Duke shtuar analizën tradicionale të malware me IA gjeneruese, organizatat mund t'u përgjigjen fushatave të malware më shpejt dhe më proaktivisht se më parë.

Inteligjenca e Kërcënimeve dhe Analiza Automatike

Çdo ditë, organizatat bombardohen me të dhëna të inteligjencës së kërcënimeve - nga burimet e treguesve të kompromentimit (IOC) të zbuluar rishtazi deri te raportet e analistëve rreth taktikave të reja të hakerëve. Sfida për ekipet e sigurisë është shqyrtimi i këtij përmbytjeje informacioni dhe nxjerrja e njohurive të zbatueshme. IA gjeneruese po dëshmohet e paçmuar në automatizimin e analizës dhe konsumimit të inteligjencës së kërcënimeve . Në vend që të lexojnë manualisht dhjetëra raporte ose hyrje në bazën e të dhënave, analistët mund të përdorin IA-në për të përmbledhur dhe kontekstualizuar informacionin e kërcënimeve me shpejtësinë e makinës.

e Inteligjencës së Kërcënimeve e Google , e cila integron IA-në gjeneruese (modeli Gemini) me të dhënat e kërcënimeve të Google nga Mandiant dhe VirusTotal. Kjo IA ofron "kërkim bisedor në të gjithë depon e gjerë të inteligjencës së kërcënimeve të Google" , duke u lejuar përdoruesve të bëjnë pyetje natyrale rreth kërcënimeve dhe të marrin përgjigje të distiluara ( Si mund të përdoret IA Gjeneruese në Sigurinë Kibernetike? 10 Shembuj nga Bota Reale ). Për shembull, një analist mund të pyesë: "A kemi parë ndonjë malware të lidhur me Grupin e Kërcënimeve X që synon industrinë tonë?" dhe IA do të nxjerrë informacione relevante, ndoshta duke vënë në dukje "Po, Grupi i Kërcënimeve X u lidh me një fushatë phishing muajin e kaluar duke përdorur malware Y" , së bashku me një përmbledhje të sjelljes së atij malware. Kjo e zvogëlon ndjeshëm kohën për të mbledhur informacione që përndryshe do të kërkonin pyetje në mjete të shumta ose leximin e raporteve të gjata.

IA gjeneruese gjithashtu mund të ndërlidhë dhe përmbledhë trendet e kërcënimeve . Mund të shqyrtojë mijëra postime në blogje sigurie, lajme për shkeljet e sigurisë dhe biseda rreth rrjetit të errët dhe më pas të gjenerojë një përmbledhje ekzekutive të "kërcënimeve kryesore kibernetike këtë javë" për një informim të CISO-s. Tradicionalisht, ky nivel analize dhe raportimi kërkonte përpjekje të konsiderueshme njerëzore; tani një model i akorduar mirë mund ta hartojë atë brenda sekondash, me njerëzit që vetëm përpunojnë rezultatin. Kompani si ZeroFox kanë zhvilluar FoxGPT , një mjet IA gjeneruese i projektuar posaçërisht për të "përshpejtuar analizën dhe përmbledhjen e inteligjencës në të dhëna të mëdha", duke përfshirë përmbajtjen keqdashëse dhe të dhënat e phishing ( Si mund të përdoret IA Gjeneruese në Sigurinë Kibernetike? 10 Shembuj nga Bota Reale ). Duke automatizuar punën e rëndë të leximit dhe referencimit të të dhënave, IA u mundëson ekipeve të inteligjencës së kërcënimeve të përqendrohen në vendimmarrje dhe reagim.

Një rast tjetër përdorimi është gjuetia e kërcënimeve përmes bisedës . Imagjinoni një analist sigurie që bashkëvepron me një asistent të IA-së: "Më tregoni ndonjë shenjë të nxjerrjes së të dhënave në 48 orët e fundit" ose "Cilat janë dobësitë kryesore të reja që sulmuesit po shfrytëzojnë këtë javë?" IA mund ta interpretojë pyetjen, të kërkojë në regjistra të brendshëm ose burime të jashtme të inteligjencës dhe të përgjigjet me një përgjigje të qartë ose edhe me një listë incidentesh përkatëse. Kjo nuk është e pamundur - sistemet moderne të informacionit të sigurisë dhe menaxhimit të ngjarjeve (SIEM) po fillojnë të përfshijnë pyetje në gjuhën natyrore. Paketa e sigurisë QRadar e IBM, për shembull, po shton veçori gjeneruese të IA-së në vitin 2024 për t'i lejuar analistët "të bëjnë [...] pyetje specifike në lidhje me rrugën e përmbledhur të sulmit" të një incidenti dhe të marrin përgjigje të hollësishme. Gjithashtu mund të "interpretojë dhe përmbledhë inteligjencën shumë të rëndësishme të kërcënimeve" automatikisht ( Si mund të përdoret IA Gjeneruese në Sigurinë Kibernetike? 10 Shembuj nga Bota Reale ). Në thelb, IA gjeneruese shndërron male të të dhënave teknike në njohuri të madhësisë së bisedës sipas kërkesës.

Në të gjitha industritë, kjo ka implikime të mëdha. Një ofrues kujdesi shëndetësor mund të përdorë IA-në për të qëndruar i përditësuar mbi grupet më të fundit të ransomware-ve që synojnë spitalet, pa i dedikuar një analist kërkimit me kohë të plotë. SOC-ja e një kompanie me pakicë mund të përmbledhë shpejt taktikat e reja të malware-ve POS kur informon stafin e IT-së së dyqanit. Dhe në qeveri, ku të dhënat e kërcënimeve nga agjenci të ndryshme duhet të sintetizohen, IA mund të prodhojë raporte të unifikuara që nxjerrin në pah paralajmërimet kryesore. Duke automatizuar mbledhjen dhe interpretimin e inteligjencës së kërcënimeve , IA gjeneruese i ndihmon organizatat të reagojnë më shpejt ndaj kërcënimeve në zhvillim dhe zvogëlon rrezikun e humbjes së paralajmërimeve kritike të fshehura në zhurmë.

Optimizimi i Qendrës së Operacioneve të Sigurisë (SOC)

Qendrat e Operacioneve të Sigurisë janë të njohura për lodhjen nga alarmet dhe një vëllim të madh të dhënash. Një analist tipik i SOC-së mund të shqyrtojë mijëra alarme dhe ngjarje çdo ditë, duke hetuar incidente të mundshme. IA gjeneruese po vepron si një shumëzues force në SOC duke automatizuar punën rutinë, duke ofruar përmbledhje inteligjente dhe madje duke orkestruar disa përgjigje. Qëllimi është të optimizohen rrjedhat e punës së SOC-së në mënyrë që analistët njerëzorë të mund të përqendrohen në çështjet më kritike, ndërsa bashkë-piloti i IA-së merret me pjesën tjetër.

Një aplikim i madh është përdorimi i IA-së gjeneruese si një "Bashkëpilot i Analistit" . Bashkëpiloti i Sigurisë i Microsoft-it, i përmendur më parë, e ilustron këtë: ai "është projektuar për të ndihmuar punën e një analisti sigurie në vend që ta zëvendësojë atë", duke ndihmuar me hetimet dhe raportimin e incidenteve ( Microsoft Security Copilot është një asistent i ri i IA-së GPT-4 për sigurinë kibernetike | The Verge ). Në praktikë, kjo do të thotë që një analist mund të fusë të dhëna të papërpunuara - regjistrat e firewall-it, një kronologji ngjarjesh ose një përshkrim incidenti - dhe t'i kërkojë IA-së ta analizojë ose përmbledhë atë. Bashkëpiloti mund të nxjerrë një rrëfim si, "Duket se në orën 2:35 të mëngjesit, një hyrje e dyshimtë nga IP X pati sukses në Serverin Y, e ndjekur nga transferime të pazakonta të të dhënave, duke treguar një shkelje të mundshme të atij serveri". Ky lloj kontekstualizimi i menjëhershëm është i paçmuar kur koha është thelbësore.

Bashkëpilotët e inteligjencës artificiale ndihmojnë gjithashtu në uljen e barrës së triazhit të nivelit 1. Sipas të dhënave të industrisë, një ekip sigurie mund të kalojë 15 orë në javë duke renditur rreth 22,000 alarme dhe rezultate pozitive të rreme ( 6 Raste Përdorimi për IA Gjenerative në Sigurinë Kibernetike [+ Shembuj] ). Me IA gjenerative, shumë nga këto alarme mund të triazhohen automatikisht - IA mund të shpërfillë ato që janë qartësisht të mira (me arsyetimin e dhënë) dhe të nxjerrë në pah ato që me të vërtetë kanë nevojë për vëmendje, ndonjëherë madje duke sugjeruar përparësinë. Në fakt, forca e IA gjenerative në kuptimin e kontekstit do të thotë se mund të ndërlidhë alarmet që mund të duken të padëmshme në izolim, por së bashku tregojnë një sulm shumëfazor. Kjo zvogëlon mundësinë e humbjes së një sulmi për shkak të "lodhjes nga alarmi".

Analistët e SOC po përdorin gjithashtu gjuhën natyrore me IA-në për të përshpejtuar gjurmimin dhe hetimet. Purple AI , për shembull, kombinon një ndërfaqe të bazuar në LLM me të dhëna sigurie në kohë reale, duke u lejuar analistëve të "bëjnë pyetje komplekse për gjurmimin e kërcënimeve në anglisht të thjeshtë dhe të marrin përgjigje të shpejta dhe të sakta" ( Si mund të përdoret IA Gjenerative në Sigurinë Kibernetike? 10 Shembuj nga Bota Reale ). Një analist mund të shkruajë, "A kanë komunikuar ndonjë pikë fundore me domenin badguy123[.]com muajin e fundit?" , dhe Purple AI do të kërkojë nëpër regjistra për t'u përgjigjur. Kjo e kursen analistin nga shkrimi i pyetjeve ose skripteve në bazën e të dhënave - IA e bën këtë nën kapuç. Kjo gjithashtu do të thotë që analistët e rinj mund të trajtojnë detyra që më parë kërkonin një inxhinier me përvojë të aftë në gjuhët e pyetjeve, duke përmirësuar në mënyrë efektive ekipin përmes ndihmës së IA-së . Në fakt, analistët raportojnë se udhëzimet për IA-në gjeneruese "rritin aftësitë dhe zotësinë e tyre" , pasi stafi i ri tani mund të marrë mbështetje sipas kërkesës për kodim ose këshilla analize nga IA-ja, duke zvogëluar varësinë nga kërkimi i vazhdueshëm i ndihmës nga anëtarët e lartë të ekipit ( 6 Raste Përdorimi për IA-në Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ).

Një tjetër optimizim i SOC është përmbledhja dhe dokumentimi automatik i incidenteve . Pasi të trajtohet një incident, dikush duhet të shkruajë raportin - një detyrë që shumë e gjejnë të lodhshme. IA gjeneruese mund të marrë të dhënat mjeko-ligjore (regjistrat e sistemit, analizën e malware-it, afatin kohor të veprimeve) dhe të gjenerojë një raport incidenti të draftit të parë. IBM po e ndërton këtë aftësi në QRadar në mënyrë që me "një klikim të vetëm" të mund të prodhohet një përmbledhje e një incidenti për palë të ndryshme të interesuara (ekzekutivët, ekipet e IT-së, etj.) ( Si mund të përdoret IA gjeneruese në sigurinë kibernetike? 10 shembuj nga bota reale ). Kjo jo vetëm që kursen kohë, por gjithashtu siguron që asgjë të mos anashkalohet në raport, pasi IA mund të përfshijë të gjitha detajet përkatëse në mënyrë të vazhdueshme. Po kështu, për përputhshmërinë dhe auditimin, IA mund të plotësojë formularë ose tabela provash bazuar në të dhënat e incidentit.

Rezultatet e botës reale janë bindëse. Përdoruesit e hershëm të SOAR-it të drejtuar nga IA-ja (orkestrimi, automatizimi dhe reagimi i sigurisë) të Swimlane raportojnë rritje të mëdha në produktivitet - Global Data Systems, për shembull, panë ekipin e tyre SecOps të menaxhonte një ngarkesë shumë më të madhe rastesh; një drejtor tha se "ajo që bëj sot me 7 analistë ndoshta do të merrte 20 anëtarë të stafit pa" automatizimin e mundësuar nga IA ( Si mund të përdoret IA Gjeneruese në Sigurinë Kibernetike ). Me fjalë të tjera, IA në SOC mund të shumëfishojë kapacitetin . Në të gjitha industritë, qoftë një kompani teknologjike që merret me alarme sigurie në cloud apo një fabrikë prodhimi që monitoron sistemet OT, ekipet SOC pritet të fitojnë zbulim dhe reagim më të shpejtë, më pak incidente të humbura dhe operacione më efikase duke përqafuar asistentë të IA-së gjeneruese. Bëhet fjalë për të punuar më me zgjuarsi - duke u lejuar makinave të trajtojnë detyrat përsëritëse dhe me shumë të dhëna në mënyrë që njerëzit të mund të aplikojnë intuitën dhe ekspertizën e tyre aty ku ka më shumë rëndësi.

Menaxhimi i dobësive dhe simulimi i kërcënimeve

Identifikimi dhe menaxhimi i dobësive - dobësitë në softuer ose sisteme që sulmuesit mund të shfrytëzojnë - është një funksion thelbësor i sigurisë kibernetike. IA gjeneruese po përmirëson menaxhimin e dobësive duke përshpejtuar zbulimin, duke ndihmuar në prioritizimin e patch-eve dhe madje duke simuluar sulme ndaj këtyre dobësive për të përmirësuar gatishmërinë. Në thelb, IA po i ndihmon organizatat të gjejnë dhe rregullojnë boshllëqet në armaturën e tyre më shpejt dhe në mënyrë proaktive mbrojtjet përpara se ta bëjnë këtë sulmuesit e vërtetë.

Një aplikim i rëndësishëm është përdorimi i IA-së gjeneruese për rishikimin automatik të kodit dhe zbulimin e dobësive . Bazat e mëdha të kodit (veçanërisht sistemet e trashëguara) shpesh përmbajnë të meta sigurie që kalojnë pa u vënë re. Modelet e IA-së gjeneruese mund të trajnohen mbi praktikat e kodimit të sigurt dhe modelet e zakonshme të gabimeve, pastaj të lëshohen në kodin burimor ose në skedarët binare të përpiluar për të gjetur dobësi të mundshme. Për shembull, studiuesit e NVIDIA zhvilluan një tubacion IA-je gjeneruese që mund të analizonte kontejnerët e softuerëve të trashëguar dhe të identifikonte dobësitë "me saktësi të lartë - deri në 4 herë më shpejt se ekspertët njerëzorë". ( 6 Raste Përdorimi për IA-në Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ). IA në thelb mësoi se si duket kodi i pasigurt dhe ishte në gjendje të skanonte përmes softuerëve dekadash të vjetër për të shënuar funksione dhe biblioteka të rrezikshme, duke përshpejtuar shumë procesin normalisht të ngadaltë të auditimit manual të kodit. Ky lloj mjeti mund të jetë një ndryshim rrënjësor për industri si financat ose qeveria që mbështeten në baza të mëdha dhe më të vjetra të kodit - IA ndihmon në modernizimin e sigurisë duke zbuluar probleme që stafit mund t'i duhen muaj ose vite për t'i gjetur (nëse ndonjëherë).

IA gjeneruese gjithashtu ndihmon në rrjedhat e punës së menaxhimit të dobësive duke përpunuar rezultatet e skanimit të dobësive dhe duke i dhënë përparësi atyre. Mjete si ExposureAI përdorin IA gjeneruese për t'i lejuar analistët të kërkojnë të dhëna të dobësive në gjuhë të thjeshtë dhe të marrin përgjigje të menjëhershme ( Si mund të përdoret IA gjeneruese në sigurinë kibernetike? 10 shembuj nga bota reale ). ExposureAI mund të "përmbledhë rrugën e plotë të sulmit në një narrativë" për një dobësi të caktuar kritike, duke shpjeguar se si një sulmues mund ta zinxhirë atë me dobësi të tjera për të kompromentuar një sistem. Madje rekomandon veprime për të ndrequr dhe përgjigjet pyetjeve pasuese në lidhje me rrezikun. Kjo do të thotë që kur njoftohet një CVE e re kritike (Dobësi dhe Ekspozime të Zakonshme), një analist mund ta pyesë IA-në: "A është prekur ndonjë nga serverët tanë nga ky CVE dhe cili është skenari më i keq nëse nuk e përditësojmë?" dhe të marrë një vlerësim të qartë të nxjerrë nga të dhënat e skanimit të vetë organizatës. Duke kontekstualizuar dobësitë (p.sh. kjo është e ekspozuar ndaj internetit dhe në një server me vlerë të lartë, kështu që është përparësia kryesore), IA gjeneruese i ndihmon ekipet të përditësojnë me zgjuarsi me burime të kufizuara.

Përveç gjetjes dhe menaxhimit të dobësive të njohura, IA gjeneruese kontribuon në testimin e depërtimit dhe simulimin e sulmit - në thelb duke zbuluar të panjohura ose duke testuar kontrollet e sigurisë. Rrjetet gjeneruese kundërshtare (GAN), një lloj IA gjeneruese, janë përdorur për të krijuar të dhëna sintetike që imitojnë trafikun real të rrjetit ose sjelljen e përdoruesit, të cilat mund të përfshijnë modele të fshehura sulmi. Një studim i vitit 2023 sugjeroi përdorimin e GAN-ve për të gjeneruar trafik real sulmi zero-ditor për të trajnuar sistemet e zbulimit të ndërhyrjeve ( 6 Raste Përdorimi për IA Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ). Duke ushqyer IDS-në me skenarë sulmi të krijuar nga IA (që nuk rrezikojnë të përdorin malware të vërtetë në rrjetet e prodhimit), organizatat mund të trajnojnë mbrojtjet e tyre për të njohur kërcënime të reja pa pritur që të goditen prej tyre në realitet. Në mënyrë të ngjashme, IA mund të simulojë një sulmues që heton një sistem - për shembull, duke provuar automatikisht teknika të ndryshme shfrytëzimi në një mjedis të sigurt për të parë nëse ndonjëra prej tyre ka sukses. Agjencia e Projekteve të Kërkimit të Avancuar të Mbrojtjes së SHBA-së (DARPA) sheh premtime këtu: Sfida e saj Kibernetike e IA-së 2023 përdor në mënyrë eksplicite IA-në gjeneruese (si modelet e mëdha gjuhësore) për të "gjetur dhe rregulluar automatikisht dobësitë në softuerin me burim të hapur" si pjesë e një konkursi ( DARPA synon të zhvillojë IA-në, aplikacione autonomie që luftëtarët mund t'u besojnë > Departamenti i Mbrojtjes i SHBA-së > Lajme të Departamentit të Mbrojtjes ). Kjo iniciativë nënvizon se IA nuk po ndihmon vetëm në riparimin e boshllëqeve të njohura; ajo po zbulon në mënyrë aktive të reja dhe po propozon rregullime, një detyrë që tradicionalisht është e kufizuar vetëm për studiues të aftë (dhe të kushtueshëm) të sigurisë.

IA gjeneruese mund të krijojë madje honeypot-e inteligjente dhe binjakë dixhitalë për mbrojtje. Startup-et po zhvillojnë sisteme karremesh të drejtuara nga IA që imitojnë bindshëm servera ose pajisje reale. Siç shpjegoi një CEO, IA gjeneruese mund të "klonojë sisteme dixhitale për të imituar ato reale dhe për të joshur hakerat" ( 6 Raste Përdorimi për IA Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ). Këto honeypot-e të gjeneruara nga IA sillen si mjedisi real (p.sh., një pajisje e rreme IoT që dërgon telemetri normale), por ekzistojnë vetëm për të tërhequr sulmuesit. Kur një sulmues synon karremin, IA në thelb i ka mashtruar ata që të zbulojnë metodat e tyre, të cilat mbrojtësit më pas mund t'i studiojnë dhe përdorin për të përforcuar sistemet reale. Ky koncept, i mundësuar nga modelimi gjenerues, ofron një mënyrë përpara për t'i kthyer gjërat kundër sulmuesve , duke përdorur mashtrimin e përmirësuar nga IA.

Në të gjitha industritë, menaxhimi më i shpejtë dhe më i zgjuar i cenueshmërisë do të thotë më pak shkelje. Në IT-në e kujdesit shëndetësor, për shembull, IA mund të dallojë shpejt një bibliotekë të vjetëruar dhe të cenueshme në një pajisje mjekësore dhe të kërkojë një rregullim të firmware-it përpara se ndonjë sulmues ta shfrytëzojë atë. Në sektorin bankar, IA mund të simulojë një sulm të brendshëm ndaj një aplikacioni të ri për të siguruar që të dhënat e klientëve të mbeten të sigurta në të gjitha skenarët. IA gjeneruese kështu vepron si një mikroskop dhe një testues stresi për gjendjen e sigurisë së organizatave: ajo ndriçon të metat e fshehura dhe u bën presion sistemeve në mënyra imagjinative për të siguruar qëndrueshmëri.

Gjenerimi i Kodit të Sigurt dhe Zhvillimi i Softuerit

Talentet e IA-së gjeneruese nuk kufizohen vetëm në zbulimin e sulmeve - ato shtrihen edhe në krijimin e sistemeve më të sigurta që nga fillimi . Në zhvillimin e softuerëve, gjeneratorët e kodit të IA-së (si GitHub Copilot, OpenAI Codex, etj.) mund t'i ndihmojnë zhvilluesit të shkruajnë kod më shpejt duke sugjeruar fragmente kodi ose edhe funksione të tëra. Këndi i sigurisë kibernetike është të sigurojë që këto pjesë kodi të sugjeruara nga IA-ja të jenë të sigurta dhe të përdorë IA-në për të përmirësuar praktikat e kodimit.

Nga njëra anë, IA gjeneruese mund të veprojë si një asistent kodimi që përfshin praktikat më të mira të sigurisë . Zhvilluesit mund të nxisin një mjet IA-je, "Gjeneroni një funksion rivendosjeje fjalëkalimi në Python", dhe idealisht të marrin kod që jo vetëm është funksional, por gjithashtu ndjek udhëzime të sigurta (p.sh. validimi i duhur i të dhënave hyrëse, regjistrimi, trajtimi i gabimeve pa rrjedhje informacioni, etj.). Një asistent i tillë, i trajnuar mbi shembuj të gjerë të kodit të sigurt, mund të ndihmojë në zvogëlimin e gabimeve njerëzore që çojnë në dobësi. Për shembull, nëse një zhvillues harron të pastrojë të dhënat hyrëse të përdoruesit (duke hapur derën për injeksion SQL ose probleme të ngjashme), një IA mund ta përfshijë atë si parazgjedhje ose ta paralajmërojë atë. Disa mjete kodimi IA tani po përmirësohen me të dhëna të fokusuara në siguri për t'i shërbyer pikërisht këtij qëllimi - në thelb, programimi i çiftëzuar i IA-së me një ndërgjegje sigurie .

Megjithatë, ekziston edhe ana tjetër: IA gjeneruese mund të sjellë po aq lehtë dobësi nëse nuk qeveriset siç duhet. Siç vuri në dukje eksperti i sigurisë në Sophos, Ben Verschaeren, përdorimi i IA gjeneruese për kodim është "i mirë për kod të shkurtër dhe të verifikueshëm, por i rrezikshëm kur kodi i pakontrolluar integrohet" në sistemet e prodhimit. Rreziku është që një IA mund të prodhojë kod logjikisht të saktë që është i pasigurt në mënyra që një jo-ekspert mund të mos i vërejë. Për më tepër, aktorët keqdashës mund të ndikojnë qëllimisht në modelet publike të IA-së duke i mbjellë ato me modele kodi të cenueshme (një formë e helmimit të të dhënave) në mënyrë që IA të sugjerojë kod të pasigurt. Shumica e zhvilluesve nuk janë ekspertë të sigurisë , kështu që nëse një IA sugjeron një zgjidhje të përshtatshme, ata mund ta përdorin atë verbërisht, pa e kuptuar se ka një të metë ( 6 Raste Përdorimi për IA Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ). Ky shqetësim është real - në fakt, ekziston një listë OWASP Top 10 tani për LLM (modele të mëdha gjuhësore) që përshkruan rreziqet e zakonshme si kjo në përdorimin e IA-së për kodim.

Për t'iu kundërvënë këtyre problemeve, ekspertët sugjerojnë "luftimin e IA-së gjeneruese me IA gjeneruese" në fushën e kodimit. Në praktikë, kjo do të thotë përdorimi i IA-së për të shqyrtuar dhe testuar kodin që kanë shkruar IA të tjera (ose njerëz). Një IA mund të skanojë përmes kodeve të reja shumë më shpejt sesa një shqyrtues kodi njerëzor dhe të identifikojë dobësitë ose problemet logjike të mundshme. Ne tashmë shohim mjete që po shfaqen që integrohen në ciklin jetësor të zhvillimit të softuerit: kodi shkruhet (ndoshta me ndihmën e IA-së), pastaj një model gjenerues i trajnuar mbi parimet e kodit të sigurt e shqyrton atë dhe gjeneron një raport për çdo shqetësim (p.sh., përdorimi i funksioneve të vjetruara, kontrollet e munguara të vërtetimit, etj.). Hulumtimi i NVIDIA-s, i përmendur më parë, që arriti zbulimin 4 herë më të shpejtë të dobësive në kod është një shembull i shfrytëzimit të IA-së për analizën e kodit të sigurt ( 6 Raste Përdorimi për IA-në Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ).

Për më tepër, IA gjeneruese mund të ndihmojë në krijimin e konfigurimeve dhe skripteve të sigurta . Për shembull, nëse një kompani ka nevojë të vendosë një infrastrukturë të sigurt në cloud, një inxhinier mund t'i kërkojë një IA-je të gjenerojë skriptet e konfigurimit (Infrastruktura si Kod) me kontrolle sigurie (si segmentimi i duhur i rrjetit, rolet IAM me privilegjet më të pakta) të integruara. IA, pasi është trajnuar në mijëra konfigurime të tilla, mund të prodhojë një bazë që inxhinieri më pas e përsos. Kjo përshpejton konfigurimin e sigurt të sistemeve dhe zvogëlon gabimet e konfigurimit të gabuar - një burim i zakonshëm i incidenteve të sigurisë në cloud.

Disa organizata po përdorin gjithashtu IA-në gjeneruese për të ruajtur një bazë njohurish të modeleve të kodimit të sigurt. Nëse një zhvillues nuk është i sigurt se si ta zbatojë një veçori të caktuar në mënyrë të sigurt, ai mund t'i drejtohet një IA-je të brendshme që ka mësuar nga projektet dhe udhëzimet e sigurisë së kaluara të kompanisë. IA mund të kthejë një qasje të rekomanduar ose edhe një fragment kodi që përputhet si me kërkesat funksionale ashtu edhe me standardet e sigurisë së kompanisë. Kjo qasje është përdorur nga mjete si Automatizimi i Pyetjeve të Secureframe , i cili nxjerr përgjigje nga politikat dhe zgjidhjet e kaluara të një kompanie për të siguruar përgjigje të qëndrueshme dhe të sakta (në thelb duke gjeneruar dokumentacion të sigurt) ( Si mund të përdoret IA-ja Gjeneruese në Sigurinë Kibernetike? 10 Shembuj nga Bota Reale ). Koncepti përkthehet në kodim: një IA që "kujton" se si e keni zbatuar diçka në mënyrë të sigurt më parë dhe ju udhëzon ta bëni përsëri në atë mënyrë.

Si përmbledhje, IA gjeneruese po ndikon në zhvillimin e softuerëve duke e bërë ndihmën për kodim të sigurt më të arritshme . Industritë që zhvillojnë shumë softuer të personalizuar - teknologjia, financa, mbrojtja, etj. - do të përfitojnë nga të paturit e bashkëpilotëve të IA-së që jo vetëm përshpejtojnë kodimin, por veprojnë si një rishikues sigurie gjithmonë vigjilent. Kur qeverisen siç duhet, këto mjete të IA-së mund të zvogëlojnë futjen e dobësive të reja dhe të ndihmojnë ekipet e zhvillimit të përmbahen praktikave më të mira, edhe nëse ekipi nuk ka një ekspert sigurie të përfshirë në çdo hap. Rezultati është softuer që është më i qëndrueshëm kundër sulmeve që nga dita e parë.

Mbështetje për Reagim ndaj Incidenteve

Kur ndodh një incident i sigurisë kibernetike - qoftë një shpërthim i programeve keqdashëse, shkelje e të dhënave apo ndërprerje e sistemit nga një sulm - koha është kritike. IA gjeneruese po përdoret gjithnjë e më shumë për të mbështetur ekipet e reagimit ndaj incidenteve (IR) në përmbajtjen dhe ndreqjen e incidenteve më shpejt dhe me më shumë informacion në dispozicion. Ideja është që IA mund të marrë përsipër një pjesë të barrës hetimore dhe të dokumentimit gjatë një incidenti, dhe madje të sugjerojë ose automatizojë disa veprime reagimi.

Një rol kyç i IA-së në IR është analiza dhe përmbledhja e incidenteve në kohë reale . Në mes të një incidenti, ndihmësit mund të kenë nevojë për përgjigje për pyetje të tilla si "Si hyri sulmuesi?" , "Cilat sisteme janë prekur?" dhe "Cilat të dhëna mund të jenë kompromentuar?" . IA gjeneruese mund të analizojë regjistrat, alarmet dhe të dhënat mjeko-ligjore nga sistemet e prekura dhe të ofrojë shpejt njohuri. Për shembull, Microsoft Security Copilot i lejon një ndihmësi për incidente të fusë prova të ndryshme (skedarë, URL, regjistra ngjarjesh) dhe të kërkojë një afat kohor ose përmbledhje ( Microsoft Security Copilot është një asistent i ri i IA-së GPT-4 për sigurinë kibernetike | The Verge ). IA mund të përgjigjet me: "Shkelja ka të ngjarë të ketë filluar me një email phishing drejtuar përdoruesit JohnDoe në orën 10:53 GMT që përmbante malware X. Pasi u ekzekutua, malware krijoi një derë të pasme që u përdor dy ditë më vonë për t'u zhvendosur anash në serverin financiar, ku mblodhi të dhëna." Të kesh këtë pamje koherente në minuta në vend të orëve i mundëson ekipit të marrë vendime të informuara (si cilat sisteme të izolohen) shumë më shpejt.

IA gjeneruese mund të sugjerojë gjithashtu veprime përmbajtjeje dhe korrigjimi . Për shembull, nëse një pikë fundore infektohet nga ransomware, një mjet IA mund të gjenerojë një skript ose një sërë udhëzimesh për të izoluar atë makinë, për të çaktivizuar llogari të caktuara dhe për të bllokuar IP-të e njohura keqdashëse në firewall - në thelb një ekzekutim manual. Palo Alto Networks vëren se IA gjeneruese është e aftë të "gjenerojë veprime ose skripte të përshtatshme bazuar në natyrën e incidentit" , duke automatizuar hapat fillestarë të reagimit ( Çfarë është IA Gjeneruese në Sigurinë Kibernetike? - Palo Alto Networks ). Në një skenar ku ekipi i sigurisë është i mbingarkuar (p.sh. një sulm i përhapur në qindra pajisje), IA mund të ekzekutojë drejtpërdrejt disa nga këto veprime në kushte të para-miratuara, duke vepruar si një përgjigjës i ri që punon pa u lodhur. Për shembull, një agjent IA mund të rivendosë automatikisht kredencialet që i konsideron të kompromentuara ose të karantinojë hostet që shfaqin aktivitet keqdashës që përputhen me profilin e incidentit.

Gjatë reagimit ndaj incidentit, komunikimi është jetik - si brenda ekipit ashtu edhe me palët e interesuara. IA gjeneruese mund të ndihmojë duke hartuar raporte ose udhëzime të përditësimit të incidentit menjëherë . Në vend që një inxhinier të ndalojë zgjidhjen e problemeve për të shkruar një përditësim me email, ata mund t'i kërkojnë IA-së: "Përmbledhni çfarë ka ndodhur deri më tani në këtë incident për të informuar drejtuesit." IA, pasi të ketë përthithur të dhënat e incidentit, mund të prodhojë një përmbledhje koncize: "Që nga ora 3 pasdite, sulmuesit kanë hyrë në 2 llogari përdoruesish dhe 5 servera. Të dhënat e prekura përfshijnë të dhënat e klientëve në bazën e të dhënave X. Masat e përmbajtjes: Qasja në VPN për llogaritë e kompromentuara është revokuar dhe serverat janë izoluar. Hapat e mëtejshëm: skanimi për çdo mekanizëm këmbënguljeje." Përgjigjësi mund ta verifikojë ose modifikojë shpejt këtë dhe ta dërgojë atë, duke siguruar që palët e interesuara të mbahen në dijeni me informacion të saktë dhe të azhurnuar.

Pasi të qetësohet situata, zakonisht duhet të përgatitet një raport i detajuar i incidentit dhe të përpilohen mësimet e nxjerra. Kjo është një fushë tjetër ku mbështetja e IA-së shkëlqen. Mund të shqyrtojë të gjitha të dhënat e incidentit dhe të gjenerojë një raport pas incidentit që mbulon shkakun rrënjësor, kronologjinë, ndikimin dhe rekomandimet. IBM, për shembull, po integron IA-në gjeneruese për të krijuar "përmbledhje të thjeshta të rasteve dhe incidenteve të sigurisë që mund të ndahen me palët e interesuara" me shtypjen e një butoni ( Si mund të përdoret IA-ja gjeneruese në sigurinë kibernetike? 10 shembuj nga bota reale ). Duke përmirësuar raportimin pas veprimit, organizatat mund të zbatojnë më shpejt përmirësimet dhe gjithashtu të kenë dokumentacion më të mirë për qëllime pajtueshmërie.

Një përdorim inovativ me vizion janë simulimet e incidenteve të drejtuara nga inteligjenca artificiale . Ngjashëm me mënyrën se si mund të kryhet një stërvitje zjarri, disa kompani po përdorin inteligjencën artificiale gjeneruese për të kaluar nëpër skenarë incidentesh "po sikur". Inteligjenca artificiale mund të simulojë se si mund të përhapet një ransomware duke pasur parasysh paraqitjen e rrjetit, ose si një person i brendshëm mund të nxjerrë të dhëna, dhe më pas të vlerësojë efektivitetin e planeve aktuale të reagimit. Kjo i ndihmon ekipet të përgatiten dhe të rafinojnë udhëzimet para se të ndodhë një incident i vërtetë. Është si të kesh një këshilltar reagimi ndaj incidenteve që përmirësohet vazhdimisht dhe që teston vazhdimisht gatishmërinë tënde.

Në industritë me rrezik të lartë si financa ose kujdesi shëndetësor, ku ndërprerjet ose humbja e të dhënave nga incidentet janë veçanërisht të kushtueshme, këto aftësi të IR të drejtuara nga IA janë shumë tërheqëse. Një spital që përjeton një incident kibernetik nuk mund të përballojë ndërprerje të zgjatura të sistemit - një IA që ndihmon shpejt në përmbajtje mund të jetë fjalë për fjalë shpëtimtare. Në mënyrë të ngjashme, një institucion financiar mund të përdorë IA-në për të trajtuar triazhin fillestar të një ndërhyrjeje të dyshuar për mashtrim në orën 3 të mëngjesit, në mënyrë që në kohën kur njerëzit në gatishmëri të jenë në internet, shumë punë përgatitore (çkyçja e llogarive të prekura, bllokimi i transaksioneve, etj.) të jetë bërë tashmë. Duke shtuar ekipet e reagimit ndaj incidenteve me IA gjeneruese , organizatat mund të zvogëlojnë ndjeshëm kohën e reagimit dhe të përmirësojnë tërësinë e trajtimit të tyre, duke zbutur në fund të fundit dëmet nga incidentet kibernetike.

Analitika e Sjelljes dhe Zbulimi i Anomalive

Shumë sulme kibernetike mund të kapen duke vënë re kur diçka devijon nga sjellja "normale" - qoftë një llogari përdoruesi që shkarkon një sasi të pazakontë të dhënash apo një pajisje rrjeti që komunikon papritur me një host të panjohur. IA gjeneruese ofron teknika të përparuara për analizën e sjelljes dhe zbulimin e anomalive , duke mësuar modelet normale të përdoruesve dhe sistemeve dhe më pas duke sinjalizuar kur diçka duket e çuditshme.

Zbulimi tradicional i anomalive shpesh përdor pragje statistikore ose mësim të thjeshtë automatik mbi metrika specifike (rritje të larta të përdorimit të CPU-së, hyrje në orare të çuditshme, etj.). IA gjeneruese mund ta çojë këtë më tej duke krijuar profile më të nuancuara të sjelljes. Për shembull, një model i IA-së mund të përvetësojë hyrjet, modelet e aksesit në skedarë dhe zakonet e email-it të një punonjësi me kalimin e kohës dhe të formojë një kuptim shumëdimensional të "normales" së atij përdoruesi. Nëse ajo llogari më vonë bën diçka drastikisht jashtë normës së saj (si hyrja nga një vend i ri dhe qasja në një mori skedarësh HR në mesnatë), IA do të zbulonte një devijim jo vetëm në një metrikë, por si një model të tërë sjelljeje që nuk i përshtatet profilit të përdoruesit. Në terma teknikë, modelet gjeneruese (si autoenkoduesit ose modelet e sekuencave) mund të modelojnë se si duket "normalja" dhe më pas të gjenerojnë një gamë të pritur sjelljeje. Kur realiteti bie jashtë këtij diapazoni, ai shënohet si një anomali ( Çfarë është IA Gjeneruese në Sigurinë Kibernetike? - Palo Alto Networks ).

Një zbatim praktik është në monitorimin e trafikut të rrjetit . Sipas një ankete të vitit 2024, 54% e organizatave amerikane përmendën monitorimin e trafikut të rrjetit si një rast përdorimi kryesor për IA-në në sigurinë kibernetike ( Amerika e Veriut: rastet kryesore të përdorimit të IA-së në sigurinë kibernetike në mbarë botën 2024 ). IA gjeneruese mund të mësojë modelet normale të komunikimit të rrjetit të një ndërmarrjeje - cilët serverë zakonisht komunikojnë me njëri-tjetrin, çfarë vëllimesh të dhënash lëvizin gjatë orarit të punës kundrejt natës, etj. Nëse një sulmues fillon të nxjerrë të dhëna nga një server, edhe ngadalë për të shmangur zbulimin, një sistem i bazuar në IA mund të vërejë se "Serveri A nuk dërgon kurrë 500MB të dhëna në orën 2 të mëngjesit në një IP të jashtëm" dhe të ngrejë një alarm. Për shkak se IA nuk përdor vetëm rregulla statike, por një model në zhvillim të sjelljes së rrjetit, ajo mund të kapë anomali delikate që rregullat statike (si "alarm nëse të dhënat > X MB") mund t'i humbasin ose t'i sinjalizojnë gabimisht. Kjo natyrë adaptive është ajo që e bën zbulimin e anomalive të drejtuara nga IA-ja të fuqishëm në mjedise si rrjetet e transaksioneve bankare, infrastruktura e cloud-it ose flotat e pajisjeve IoT, ku përcaktimi i rregullave fikse për normalen kundrejt jonormales është jashtëzakonisht kompleks.

IA gjeneruese po ndihmon gjithashtu me analizat e sjelljes së përdoruesit (UBA) , të cilat janë çelësi për të dalluar kërcënimet e brendshme ose llogaritë e kompromentuara. Duke gjeneruar një bazë të dhënash për secilin përdorues ose entitet, IA mund të zbulojë gjëra të tilla si keqpërdorimi i kredencialeve. Për shembull, nëse Bob nga kontabiliteti fillon papritur të kërkojë në bazën e të dhënave të klientëve (diçka që ai nuk e ka bërë kurrë më parë), modeli i IA-së për sjelljen e Bob do ta shënojë këtë si të pazakontë. Mund të mos jetë keqdashës - mund të jetë një rast i vjedhjes dhe përdorimit të kredencialeve të Bob nga një sulmues, ose Bob që heton aty ku nuk duhet. Sidoqoftë, ekipi i sigurisë merr një njoftim paraprak për të hetuar. Sisteme të tilla UBA të drejtuara nga IA ekzistojnë në produkte të ndryshme sigurie, dhe teknikat e modelimit gjenerues po e rrisin saktësinë e tyre dhe po zvogëlojnë alarmet e rreme duke marrë parasysh kontekstin (ndoshta Bob është në një projekt të veçantë, etj., të cilat IA ndonjëherë mund t'i nxjerrë nga të dhëna të tjera).

Në sferën e identitetit dhe menaxhimit të aksesit, zbulimi i rremësive të thella është një nevojë në rritje - IA gjeneruese mund të krijojë zëra dhe video sintetike që mashtrojnë sigurinë biometrike. Është interesante se IA gjeneruese gjithashtu mund të ndihmojë në zbulimin e këtyre rremësive të thella duke analizuar artefakte delikate në audio ose video që janë të vështira për t'u vënë re nga njerëzit. Ne pamë një shembull me Accenture, e cila përdori IA gjeneruese për të simuluar shprehje dhe kushte të panumërta të fytyrës për të trajnuar sistemet e saj biometrike për të dalluar përdoruesit e vërtetë nga rremëzimet e thella të gjeneruara nga IA. Gjatë pesë viteve, kjo qasje ndihmoi Accenture të eliminonte fjalëkalimet për 90% të sistemeve të saj (duke kaluar në biometrikë dhe faktorë të tjerë) dhe të zvogëlonte sulmet me 60% ( 6 Raste Përdorimi për IA Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ). Në thelb, ata përdorën IA gjeneruese për të forcuar autentifikimin biometrik, duke e bërë atë rezistent ndaj sulmeve gjeneruese (një ilustrim i shkëlqyer i IA që lufton IA-në). Ky lloj modelimi sjelljeje - në këtë rast njohja e ndryshimit midis një fytyre të gjallë njerëzore kundrejt një fytyre të sintetizuar nga IA - është thelbësore pasi ne mbështetemi më shumë te IA në autentifikim.

Zbulimi i anomalive i mundësuar nga IA gjeneruese është i zbatueshëm në të gjitha industritë: në kujdesin shëndetësor, duke monitoruar sjelljen e pajisjeve mjekësore për shenja të hakimit; në financë, duke vëzhguar sistemet tregtare për modele të parregullta që mund të tregojnë mashtrim ose manipulim algoritmik; në energji/shërbime, duke vëzhguar sinjalet e sistemit të kontrollit për shenja ndërhyrjesh. Kombinimi i gjerësisë (duke parë të gjitha aspektet e sjelljes) dhe thellësisë (duke kuptuar modelet komplekse) që ofron IA gjeneruese e bën atë një mjet të fuqishëm për të dalluar treguesit e një incidenti kibernetik. Ndërsa kërcënimet bëhen më të fshehta, duke u fshehur midis operacioneve normale, kjo aftësi për të karakterizuar me saktësi "normalen" dhe për të bërtitur kur diçka devijon bëhet jetike. IA gjeneruese shërben kështu si një roje e palodhur, duke mësuar dhe përditësuar gjithmonë përkufizimin e saj të normalitetit për të mbajtur ritmin me ndryshimet në mjedis, dhe duke njoftuar ekipet e sigurisë për anomalitë që meritojnë inspektim më të afërt.

Mundësitë dhe Përfitimet e IA-së Gjenerative në Sigurinë Kibernetike

Zbatimi i IA-së gjeneruese në sigurinë kibernetike sjell një mori mundësish dhe përfitimesh për organizatat që janë të gatshme t'i përqafojnë këto mjete. Më poshtë, ne përmbledhim avantazhet kryesore që e bëjnë IA-në gjeneruese një shtesë tërheqëse në programet e sigurisë kibernetike:

  • Zbulim dhe Reagim më i Shpejtë i Kërcënimeve: Sistemet gjeneruese të IA-së mund të analizojnë sasi të mëdha të dhënash në kohë reale dhe t'i njohin kërcënimet shumë më shpejt sesa analiza manuale njerëzore. Ky avantazh shpejtësie do të thotë zbulim më i hershëm i sulmeve dhe përmbajtje më e shpejtë e incidenteve. Në praktikë, monitorimi i sigurisë i drejtuar nga IA mund të kapë kërcënimet që do t'u duhej shumë më tepër kohë njerëzve për t'i lidhur. Duke iu përgjigjur incidenteve menjëherë (ose edhe duke ekzekutuar në mënyrë autonome përgjigjet fillestare), organizatat mund ta zvogëlojnë ndjeshëm kohën e qëndrimit të sulmuesve në rrjetet e tyre, duke minimizuar dëmet.

  • Përmirësimi i Saktësise dhe Mbulimit të Kërcënimeve: Meqenëse ato mësojnë vazhdimisht nga të dhënat e reja, modelet gjeneruese mund të përshtaten me kërcënimet në zhvillim dhe të kapin shenja më delikate të aktivitetit keqdashës. Kjo çon në përmirësimin e saktësisë së zbulimit (më pak negativitete dhe pozitivitete të rreme) krahasuar me rregullat statike. Për shembull, një IA që ka mësuar karakteristikat e një emaili phishing ose sjelljeje të programeve keqdashëse mund të identifikojë variante që nuk janë parë kurrë më parë. Rezultati është një mbulim më i gjerë i llojeve të kërcënimeve - duke përfshirë sulme të reja - duke forcuar qëndrimin e përgjithshëm të sigurisë. Ekipet e sigurisë gjithashtu fitojnë njohuri të hollësishme nga analiza e IA-së (p.sh. shpjegime të sjelljes së programeve keqdashëse), duke mundësuar mbrojtje më të sakta dhe të synuara ( Çfarë është IA Gjeneruese në Sigurinë Kibernetike? - Palo Alto Networks ).

  • Automatizimi i Detyrave Përsëritëse: IA gjeneruese shkëlqen në automatizimin e detyrave rutinë dhe të mundimshme të sigurisë - nga krehja e regjistrave dhe përpilimi i raporteve deri te shkrimi i skripteve të reagimit ndaj incidenteve. Ky automatizim zvogëlon barrën mbi analistët njerëzorë , duke i liruar ata të përqendrohen në strategjinë e nivelit të lartë dhe vendimmarrjen komplekse ( Çfarë është IA Gjeneruese në Sigurinë Kibernetike? - Palo Alto Networks ). Punë të zakonshme, por të rëndësishme si skanimi i dobësive, auditimi i konfigurimit, analiza e aktivitetit të përdoruesit dhe raportimi i pajtueshmërisë mund të trajtohen (ose të paktën të hartohen fillimisht) nga IA. Duke i trajtuar këto detyra me shpejtësinë e makinës, IA jo vetëm që përmirëson efikasitetin, por edhe zvogëlon gabimin njerëzor (një faktor i rëndësishëm në shkelje).

  • Mbrojtje dhe Simulim Proaktiv: IA gjeneruese u lejon organizatave të kalojnë nga siguria reaktive në atë proaktive. Përmes teknikave si simulimi i sulmit, gjenerimi i të dhënave sintetike dhe trajnimi i bazuar në skenarë, mbrojtësit mund të parashikojnë dhe të përgatiten për kërcënimet përpara se ato të materializohen në botën reale. Ekipet e sigurisë mund të simulojnë sulme kibernetike (fushata phishing, shpërthime të programeve keqdashëse, DDoS, etj.) në mjedise të sigurta për të testuar përgjigjet e tyre dhe për të mbështetur çdo dobësi. Ky trajnim i vazhdueshëm, shpesh i pamundur për t'u bërë plotësisht vetëm me përpjekje njerëzore, i mban mbrojtjet të mprehta dhe të azhurnuara. Është e ngjashme me një "stërvitje zjarri" kibernetike - IA mund të hedhë shumë kërcënime hipotetike në mbrojtjet tuaja në mënyrë që të mund të praktikoni dhe të përmirësoheni.

  • Rritja e Ekspertizës Njerëzore (IA si Shumëzues Force): IA gjeneruese vepron si një analist i ri, këshilltar dhe asistent i palodhur i kombinuar në një. Ajo mund t'u ofrojë anëtarëve të ekipit me më pak përvojë udhëzime dhe rekomandime që zakonisht priten nga ekspertë me përvojë, duke demokratizuar në mënyrë efektive ekspertizën në të gjithë ekipin ( 6 Raste Përdorimi për IA Gjeneruese në Sigurinë Kibernetike [+ Shembuj] ). Kjo është veçanërisht e vlefshme duke pasur parasysh mungesën e talenteve në sigurinë kibernetike - IA ndihmon ekipet më të vogla të bëjnë më shumë me më pak. Analistët me përvojë, nga ana tjetër, përfitojnë nga IA që merret me punë të rëndë dhe nxjerr në pah njohuri jo të dukshme, të cilat më pas mund t'i vërtetojnë dhe të veprojnë. Rezultati i përgjithshëm është një ekip sigurie që është shumë më produktiv dhe i aftë, me IA që amplifikon ndikimin e secilit anëtar njerëzor ( Si mund të përdoret IA Gjeneruese në Sigurinë Kibernetike ).

  • Mbështetje dhe Raportim i Përmirësuar i Vendimeve: Duke përkthyer të dhënat teknike në njohuri të gjuhës natyrore, IA gjeneruese përmirëson komunikimin dhe vendimmarrjen. Udhëheqësit e sigurisë marrin një pamje më të qartë të çështjeve nëpërmjet përmbledhjeve të gjeneruara nga IA dhe mund të marrin vendime strategjike të informuara pa pasur nevojë të analizojnë të dhënat e papërpunuara. Po kështu, komunikimi ndërfunksional (me drejtuesit, zyrtarët e pajtueshmërisë, etj.) përmirësohet kur IA përgatit raporte të lehta për t’u kuptuar të gjendjes dhe incidenteve të sigurisë ( Si mund të përdoret IA gjeneruese në sigurinë kibernetike? 10 shembuj nga bota reale ). Kjo jo vetëm që ndërton besim dhe harmonizim në çështjet e sigurisë në nivelin e lidershipit, por gjithashtu ndihmon në justifikimin e investimeve dhe ndryshimeve duke artikuluar qartë rreziqet dhe boshllëqet e zbuluara nga IA.

Në kombinim, këto përfitime nënkuptojnë që organizatat që përdorin IA-në gjeneruese në sigurinë kibernetike mund të arrijnë një qëndrim më të fortë sigurie me kosto operative potencialisht më të ulëta. Ato mund t'u përgjigjen kërcënimeve që më parë ishin të mëdha, të mbulojnë boshllëqet që nuk monitoroheshin dhe të përmirësohen vazhdimisht përmes sytheve të reagimit të drejtuara nga IA. Në fund të fundit, IA gjeneruese ofron një shans për të ecur përpara kundërshtarëve duke përputhur shpejtësinë , shkallën dhe sofistikimin e sulmeve moderne me mbrojtje po aq të sofistikuara. Siç zbuloi një anketë, mbi gjysma e liderëve të biznesit dhe kibernetikës parashikojnë zbulim më të shpejtë të kërcënimeve dhe saktësi më të madhe përmes përdorimit të IA-së gjeneruese ( [PDF] Perspektiva Globale e Sigurisë Kibernetike 2025 | Forumi Ekonomik Botëror ) ( IA Gjeneruese në Sigurinë Kibernetike: Një Rishikim Gjithëpërfshirës i LLM ... ) - një dëshmi e optimizmit rreth përfitimeve të këtyre teknologjive.

Rreziqet dhe Sfidat e Përdorimit të IA-së Gjenerative në Sigurinë Kibernetike

Ndërsa mundësitë janë të konsiderueshme, është thelbësore t'i qasemi IA-së gjenerative në sigurinë kibernetike me sytë hapur ndaj rreziqeve dhe sfidave të përfshira. Besimi i verbër në IA ose keqpërdorimi i saj mund të sjellë dobësi të reja. Më poshtë, ne përshkruajmë shqetësimet dhe grackat kryesore, së bashku me kontekstin për secilën:

  • Përdorimi Kundërshtar nga Kriminelët Kibernetikë: Të njëjtat aftësi gjeneruese që ndihmojnë mbrojtësit mund të fuqizojnë sulmuesit. Aktorët kërcënues tashmë po përdorin IA gjeneruese për të krijuar email-e më bindëse phishing, për të krijuar personazhe të rreme dhe video të rreme për inxhinieri sociale, për të zhvilluar malware polimorfik që ndryshon vazhdimisht për të shmangur zbulimin dhe madje për të automatizuar aspekte të hakimit ( Çfarë është IA Gjeneruese në Sigurinë Kibernetike? - Palo Alto Networks ). Pothuajse gjysma (46%) e liderëve të sigurisë kibernetike janë të shqetësuar se IA gjeneruese do të çojë në sulme më të avancuara kundërshtare ( Siguria Gjeneruese e IA-së: Trendet, Kërcënimet dhe Strategjitë e Zbutjes ). Kjo "garë armatimi me IA" do të thotë që, ndërsa mbrojtësit e adoptojnë IA-në, sulmuesit nuk do të jenë shumë prapa (në fakt, ata mund të jenë përpara në disa fusha, duke përdorur mjete të parregulluara të IA-së). Organizatat duhet të jenë të përgatitura për kërcënime të përmirësuara nga IA që janë më të shpeshta, të sofistikuara dhe të vështira për t'u gjurmuar.

  • Halucinacionet dhe Pasaktësia e Inteligjencës Artificiale: Modelet gjeneruese të Inteligjencës Artificiale mund të prodhojnë rezultate të besueshme, por të pasakta ose mashtruese - një fenomen i njohur si halucinacion. Në një kontekst sigurie, një Inteligjencë Artificiale mund të analizojë një incident dhe të arrijë në përfundimin gabimisht se një dobësi e caktuar ishte shkaku, ose mund të gjenerojë një skript korrigjimi me të meta që nuk arrin të përmbajë një sulm. Këto gabime mund të jenë të rrezikshme nëse merren si të tilla. Siç paralajmëron NTT Data, "IA gjeneruese mund të prodhojë përmbajtje të pavërtetë, dhe ky fenomen quhet halucinacione... aktualisht është e vështirë t'i eliminosh ato plotësisht" ( Rreziqet e Sigurisë së Inteligjencës Artificiale Gjeneruese dhe Masat Kundërsulmuese, dhe Ndikimi i saj në Sigurinë Kibernetike | Grupi i të Dhënave NTT ). Mbështetja e tepërt në Inteligjencën Artificiale pa verifikim mund të çojë në përpjekje të gabuara ose në një ndjenjë të rreme sigurie. Për shembull, një Inteligjencë Artificiale mund të sinjalizojë gabimisht një sistem kritik si të sigurt kur nuk është, ose anasjelltas, të shkaktojë panik duke "zbuluar" një shkelje që nuk ka ndodhur kurrë. Validimi rigoroz i rezultateve të Inteligjencës Artificiale dhe mbajtja e njerëzve në dijeni për vendime kritike është thelbësore për të zbutur këtë rrezik.

  • Pozitivët dhe Negativët e Rremë: Lidhur me halucinacionet, nëse një model i IA-së është i trajnuar ose i konfiguruar dobët, ai mund të raportojë më shumë seç duhet aktivitetin beninj si keqdashës (pozitivë të rremë) ose, më keq akoma, të humbasë kërcënime reale (negativë të rremë) ( Si mund të përdoret IA-ja Gjeneruese në Sigurinë Kibernetike ). Alarmet e tepërta të rreme mund të mbingarkojnë ekipet e sigurisë dhe të çojnë në lodhje nga alarmet (duke zhbërë vetë përfitimet e efikasitetit të premtuara nga IA), ndërsa zbulimet e humbura e lënë organizatën të ekspozuar. Akordimi i modeleve gjeneruese për ekuilibrin e duhur është sfidues. Çdo mjedis është unik, dhe një IA mund të mos performojë menjëherë në mënyrë optimale menjëherë. Mësimi i vazhdueshëm është gjithashtu një shpatë me dy tehe - nëse IA mëson nga reagimet që janë të shtrembëruara ose nga një mjedis që ndryshon, saktësia e saj mund të luhatet. Ekipet e sigurisë duhet të monitorojnë performancën e IA-së dhe të rregullojnë pragjet ose të ofrojnë reagime korrigjuese për modelet. Në kontekste me rrezik të lartë (si zbulimi i ndërhyrjeve për infrastrukturën kritike), mund të jetë e kujdesshme të ekzekutohen sugjerimet e IA-së paralelisht me sistemet ekzistuese për një periudhë, për të siguruar që ato të përputhen dhe plotësojnë njëra-tjetrën në vend që të bien ndesh.

  • Privatësia dhe Rrjedhja e të Dhënave: Sistemet gjeneruese të IA-së shpesh kërkojnë sasi të mëdha të dhënash për trajnim dhe funksionim. Nëse këto modele janë të bazuara në cloud ose nuk janë të izoluara siç duhet, ekziston rreziku që informacioni i ndjeshëm të mund të rrjedhë. Përdoruesit mund të fusin pa dashje të dhëna pronësore ose të dhëna personale në një shërbim të IA-së (mendoni t'i kërkoni ChatGPT të përmbledhë një raport konfidencial incidenti) dhe këto të dhëna mund të bëhen pjesë e njohurive të modelit. Në të vërtetë, një studim i kohëve të fundit zbuloi se 55% e të dhënave hyrëse në mjetet gjeneruese të IA-së përmbanin informacione të ndjeshme ose personalisht të identifikueshme , duke ngritur shqetësime serioze në lidhje me rrjedhjen e të dhënave ( Siguria Gjeneruese e IA-së: Trendet, Kërcënimet dhe Strategjitë e Zbutjes ). Për më tepër, nëse një IA është trajnuar mbi të dhëna të brendshme dhe i është kërkuar në mënyra të caktuara, ajo mund t'i nxjerrë pjesë të atyre të dhënave të ndjeshme dikujt tjetër. Organizatat duhet të zbatojnë politika të rrepta për trajtimin e të dhënave (p.sh., përdorimi i instancave të IA-së në vend ose private për materiale të ndjeshme) dhe të edukojnë punonjësit për mosngjitjen e informacionit sekret në mjetet publike të IA-së. Rregulloret e privatësisë (GDPR, etj.) gjithashtu hyjnë në lojë - përdorimi i të dhënave personale për të trajnuar IA-në pa pëlqimin ose mbrojtjen e duhur mund të bie ndesh me ligjet.

  • Siguria dhe Manipulimi i Modelit: Vetë modelet gjeneruese të IA-së mund të bëhen shënjestra. Kundërshtarët mund të përpiqen të helmojnë modelin , duke ushqyer të dhëna keqdashëse ose mashtruese gjatë fazës së trajnimit ose ritrajnimit në mënyrë që IA të mësojë modele të pasakta ( Si mund të përdoret IA-ja gjeneruese në sigurinë kibernetike ). Për shembull, një sulmues mund të helmojë në mënyrë delikate të dhënat e kërcënimit në mënyrë që IA të mos arrijë ta njohë malware-in e vetë sulmuesit si keqdashës. Një taktikë tjetër është injektimi i shpejtë ose manipulimi i daljes , ku një sulmues gjen një mënyrë për të lëshuar të dhëna hyrëse në IA që e bëjnë atë të sillet në mënyra të paqëllimshme - ndoshta të injorojë mbrojtjet e saj të sigurisë ose të zbulojë informacione që nuk duhet (siç janë kërkesat ose të dhënat e brendshme). Përveç kësaj, ekziston rreziku i shmangies së modelit : sulmuesit krijojnë të dhëna hyrëse të dizajnuara posaçërisht për të mashtruar IA-në. Ne e shohim këtë në shembuj kundërshtarë - të dhëna paksa të trazuara që një njeri i sheh si normale, por IA i klasifikon gabim. Sigurimi i sigurisë së zinxhirit të furnizimit me IA (integriteti i të dhënave, kontrolli i aksesit në model, testimi i qëndrueshmërisë kundërshtare) është një pjesë e re, por e domosdoshme e sigurisë kibernetike gjatë vendosjes së këtyre mjeteve ( Çfarë është IA Gjenerative në Sigurinë Kibernetike? - Palo Alto Networks ).

  • Mbështetja e Tepërt dhe Erozioni i Aftësive: Ekziston një rrezik më i butë që organizatat mund të bëhen tepër të varura nga IA-ja dhe të lejojnë që aftësitë njerëzore të atrofizohen. Nëse analistët e rinj fillojnë t'u besojnë verbërisht rezultateve të IA-së, ata mund të mos zhvillojnë mendimin kritik dhe intuitën e nevojshme kur IA nuk është e disponueshme ose është e gabuar. Një skenar për t'u shmangur është një ekip sigurie që ka mjete të shkëlqyera, por nuk ka ide se si të veprojë nëse këto mjete dështojnë (ngjashëm me pilotët që mbështeten tepër te autopilot). Ushtrimet e rregullta stërvitore pa ndihmën e IA-së dhe nxitja e një mendësie se IA është një asistent, jo një orakull i pagabueshëm, janë të rëndësishme për t'i mbajtur analistët njerëzorë të mprehtë. Njerëzit duhet të mbeten vendimmarrësit përfundimtarë, veçanërisht për gjykimet me ndikim të lartë.

  • Sfidat Etike dhe të Pajtueshmërisë: Përdorimi i IA-së në sigurinë kibernetike ngre pyetje etike dhe mund të shkaktojë probleme të pajtueshmërisë rregullatore. Për shembull, nëse një sistem IA-je implikon gabimisht një punonjës si një person të brendshëm keqdashës për shkak të një anomalie, kjo mund të dëmtojë padrejtësisht reputacionin ose karrierën e atij personi. Vendimet e marra nga IA-ja mund të jenë të errëta (problemi i "kutisë së zezë"), duke e bërë të vështirë shpjegimin e auditorëve ose rregullatorëve pse janë ndërmarrë veprime të caktuara. Ndërsa përmbajtja e gjeneruar nga IA-ja bëhet më e përhapur, sigurimi i transparencës dhe ruajtja e llogaridhënies është thelbësore. Rregullatorët po fillojnë të shqyrtojnë IA-në - Akti i IA-së i BE-së, për shembull, do të vendosë kërkesa për sistemet e IA-së "me rrezik të lartë", dhe IA e sigurisë kibernetike mund të bjerë në atë kategori. Kompanitë do të duhet të lundrojnë në këto rregullore dhe ndoshta t'i përmbahen standardeve si Korniza e Menaxhimit të Riskut të IA-së NIST për të përdorur IA-në gjeneruese në mënyrë të përgjegjshme ( Si mund të përdoret IA-ja gjeneruese në sigurinë kibernetike? 10 Shembuj nga Bota Reale ). Pajtueshmëria shtrihet edhe në licencim: përdorimi i modeleve me burim të hapur ose të palëve të treta mund të ketë terma që kufizojnë përdorime të caktuara ose kërkojnë përmirësime të ndarjes.

Si përmbledhje, IA gjeneruese nuk është një zgjidhje e lehtë - nëse nuk zbatohet me kujdes, ajo mund të sjellë dobësi të reja edhe kur zgjidh të tjera. Një studim i Forumit Ekonomik Botëror të vitit 2024 theksoi se ~47% e organizatave përmendin përparimet në IA gjeneruese nga sulmuesit si një shqetësim parësor, duke e bërë atë "ndikimin më shqetësues të IA gjeneruese" në sigurinë kibernetike ( [PDF] Perspektiva Globale e Sigurisë Kibernetike 2025 | Forumi Ekonomik Botëror ) ( IA Gjeneruese në Sigurinë Kibernetike: Një Rishikimi Gjithëpërfshirës i LLM ... ). Prandaj, organizatat duhet të miratojnë një qasje të ekuilibruar: të shfrytëzojnë përfitimet e IA-së, duke menaxhuar me rigorozitet këto rreziqe përmes qeverisjes, testimit dhe mbikëqyrjes njerëzore. Më pas do të diskutojmë se si ta arrijmë praktikisht këtë ekuilibër.

Perspektiva e së Ardhmes: Roli në Zhvillim i IA-së Gjenerative në Sigurinë Kibernetike

Duke parë përpara, IA gjeneruese është gati të bëhet një pjesë integrale e strategjisë së sigurisë kibernetike - dhe gjithashtu, një mjet që kundërshtarët kibernetikë do të vazhdojnë ta shfrytëzojnë. Dinamika e maces dhe miut do të përshpejtohet, me IA-në në të dyja anët e gardhit. Ja disa njohuri të ardhshme se si IA gjeneruese mund të formësojë sigurinë kibernetike në vitet e ardhshme:

  • Mbrojtja Kibernetike e Shtuar nga IA Bëhet Standard: Deri në vitin 2025 dhe më tej, mund të presim që shumica e organizatave të mesme dhe të mëdha do të kenë përfshirë mjete të drejtuara nga IA në operacionet e tyre të sigurisë. Ashtu si antiviruset dhe firewall-et janë standarde sot, bashkëpilotët e IA-së dhe sistemet e zbulimit të anomalive mund të bëhen komponentë bazë të arkitekturave të sigurisë. Këto mjete ka të ngjarë të bëhen më të specializuara - për shembull, modele të dallueshme të IA-së të përshtatura për sigurinë në cloud, për monitorimin e pajisjeve IoT, për sigurinë e kodit të aplikacionit e kështu me radhë, të gjitha duke punuar së bashku. Siç vëren një parashikim, "në vitin 2025, IA gjeneruese do të jetë pjesë integrale e sigurisë kibernetike, duke i mundësuar organizatave të mbrohen në mënyrë proaktive kundër kërcënimeve të sofistikuara dhe në zhvillim" ( Si mund të përdoret IA gjeneruese në sigurinë kibernetike ). IA do të përmirësojë zbulimin e kërcënimeve në kohë reale, do të automatizojë shumë veprime reagimi dhe do të ndihmojë ekipet e sigurisë të menaxhojnë vëllime shumë më të mëdha të të dhënave sesa mund të menaxhonin manualisht.

  • Mësim dhe Përshtatje e Vazhdueshme: Sistemet e ardhshme të IA-së gjeneruese në kibernetikë do të përmirësohen në të mësuarit në lëvizje nga incidentet e reja dhe inteligjenca e kërcënimeve, duke përditësuar bazën e tyre të njohurive në kohë pothuajse reale. Kjo mund të çojë në mbrojtje vërtet adaptive - imagjinoni një IA që mëson rreth një fushate të re phishing që godet një kompani tjetër në mëngjes dhe deri në pasdite ka rregulluar tashmë filtrat e email-eve të kompanisë suaj si përgjigje. Shërbimet e sigurisë së IA-së të bazuara në cloud mund të lehtësojnë këtë lloj të mësuari kolektiv, ku njohuritë anonime nga një organizatë u sjellin dobi të gjithë pajtimtarëve (e ngjashme me ndarjen e informacionit të kërcënimeve, por e automatizuar). Megjithatë, kjo do të kërkojë trajtim të kujdesshëm për të shmangur ndarjen e informacionit të ndjeshëm dhe për të parandaluar sulmuesit që të ushqejnë të dhëna të këqija në modelet e përbashkëta.

  • Konvergjenca e IA-së dhe Talentit të Sigurisë Kibernetike: Seti i aftësive të profesionistëve të sigurisë kibernetike do të evoluojë për të përfshirë aftësitë në IA dhe shkencën e të dhënave. Ashtu si analistët e sotëm mësojnë gjuhë pyetjesh dhe skriptime, analistët e së nesërmes mund të përsosin rregullisht modelet e IA-së ose të shkruajnë "udhëzues" që IA t'i ekzekutojë. Mund të shohim role të reja si "Trajner i Sigurisë së IA-së" ose "Inxhinier i IA-së së Sigurisë Kibernetike" - njerëz që specializohen në përshtatjen e mjeteve të IA-së me nevojat e një organizate, duke vërtetuar performancën e tyre dhe duke siguruar që ato të veprojnë në mënyrë të sigurt. Nga ana tjetër, konsideratat e sigurisë kibernetike do të ndikojnë gjithnjë e më shumë në zhvillimin e IA-së. Sistemet e IA-së do të ndërtohen me karakteristika sigurie që nga themelet (arkitekturë e sigurt, zbulim i ndërhyrjeve, regjistra auditimi për vendimet e IA-së, etj.), dhe kornizat për IA të besueshme (të drejta, të shpjegueshme, të fuqishme dhe të sigurta) do të udhëzojnë vendosjen e tyre në kontekste kritike për sigurinë.

  • Sulme më të sofistikuara të mundësuara nga IA: Fatkeqësisht, peizazhi i kërcënimeve do të evoluojë gjithashtu me IA-në. Ne parashikojmë përdorim më të shpeshtë të IA-së për të zbuluar dobësi zero-ditore, për të krijuar spear phishing me objektiva të larta (p.sh. IA që gërryen mediat sociale për të krijuar një karrem të përshtatur në mënyrë të përsosur) dhe për të gjeneruar zëra ose video bindëse të rreme për të anashkaluar vërtetimin biometrik ose për të kryer mashtrime. Mund të shfaqen agjentë të automatizuar të hakerimit që mund të kryejnë në mënyrë të pavarur sulme shumëfazore (zbulim, shfrytëzim, lëvizje anësore, etj.) me mbikëqyrje minimale njerëzore. Kjo do t'i detyrojë mbrojtësit të mbështeten gjithashtu në IA - në thelb automatizim kundrejt automatizimit . Disa sulme mund të ndodhin me shpejtësinë e makinës, si robotët e IA-së që provojnë një mijë permutacione emailesh phishing për të parë se cili kalon filtrat. Mbrojtjet kibernetike do të duhet të funksionojnë me shpejtësi dhe fleksibilitet të ngjashëm për të vazhduar ( Çfarë është IA Gjenerative në Sigurinë Kibernetike? - Palo Alto Networks ).

  • Rregullimi dhe IA Etike në Siguri: Ndërsa IA bëhet thellësisht e ngulitur në funksionet e sigurisë kibernetike, do të ketë një shqyrtim më të madh dhe ndoshta rregullim për të siguruar që këto sisteme të IA-së përdoren me përgjegjësi. Mund të presim korniza dhe standarde specifike për IA-në në siguri. Qeveritë mund të vendosin udhëzime për transparencë - p.sh., duke kërkuar që vendimet e rëndësishme të sigurisë (si ndërprerja e aksesit të një punonjësi për aktivitet të dyshuar keqdashës) të mos mund të merren vetëm nga IA pa shqyrtim njerëzor. Mund të ketë gjithashtu certifikime për produktet e sigurisë së IA-së, për të siguruar blerësit se IA është vlerësuar për paragjykim, qëndrueshmëri dhe siguri. Për më tepër, bashkëpunimi ndërkombëtar mund të rritet rreth kërcënimeve kibernetike të lidhura me IA-në; për shembull, marrëveshje për trajtimin e dezinformatave të krijuara nga IA ose normave kundër armëve të caktuara kibernetike të drejtuara nga IA.

  • Integrimi me IA-në më të Gjerë dhe Ekosistemet e IT-së: IA gjeneruese në sigurinë kibernetike ka të ngjarë të integrohet me sisteme të tjera të IA-së dhe mjete të menaxhimit të IT-së. Për shembull, një IA që menaxhon optimizimin e rrjetit mund të punojë me IA-në e sigurisë për të siguruar që ndryshimet të mos hapin boshllëqe. Analitika e biznesit e drejtuar nga IA-ja mund të ndajë të dhëna me IA-të e sigurisë për të lidhur anomalitë (si një rënie e papritur e shitjeve me një problem të mundshëm të faqes së internetit për shkak të një sulmi). Në thelb, IA nuk do të jetojë në një silo - ajo do të jetë pjesë e një pëlhure më të madhe inteligjente të operacioneve të një organizate. Kjo hap mundësi për menaxhim holistik të rrezikut ku të dhënat operacionale, të dhënat e kërcënimeve dhe madje edhe të dhënat e sigurisë fizike mund të kombinohen nga IA për të dhënë një pamje 360 ​​gradë të gjendjes së sigurisë organizative.

Në planin afatgjatë, shpresa është që IA gjeneruese do të ndihmojë në ndryshimin e ekuilibrit në favor të mbrojtësve. Duke trajtuar shkallën dhe kompleksitetin e mjediseve moderne të IT-së, IA mund ta bëjë hapësirën kibernetike më të mbrojtshme. Megjithatë, është një udhëtim dhe do të ketë vështirësi në rritje ndërsa i përsosim këto teknologji dhe mësojmë t'u besojmë atyre në mënyrë të përshtatshme. Organizatat që qëndrojnë të informuara dhe investojnë në miratimin e përgjegjshëm të IA-së për sigurinë ka të ngjarë të jenë ato që janë në pozicionin më të mirë për të përballuar kërcënimet e së ardhmes.

Siç vuri në dukje raporti i fundit i Gartner mbi trendet e sigurisë kibernetike, “shfaqja e rasteve të përdorimit (dhe rreziqeve) të inteligjencës artificiale gjeneruese po krijon presion për transformim” ( Trendet e Sigurisë Kibernetike: Rezistenca Through Transformation - Gartner ). Ata që përshtaten do ta shfrytëzojnë inteligjencën artificiale si një aleat të fuqishëm; ata që mbeten prapa mund të gjenden të tejkaluar nga kundërshtarët e fuqizuar nga inteligjenca artificiale. Vitet e ardhshme do të jenë një kohë vendimtare në përcaktimin se si inteligjenca artificiale riformëson fushëbetejën kibernetike.

Këshilla praktike për përdorimin e inteligjencës artificiale gjeneruese në sigurinë kibernetike

Për bizneset që vlerësojnë se si të shfrytëzojnë IA-në gjeneruese në strategjinë e tyre të sigurisë kibernetike, ja disa mësime dhe rekomandime praktike për të udhëhequr një adoptim të përgjegjshëm dhe efektiv:

  1. Filloni me Edukimin dhe Trajnimin: Sigurohuni që ekipi juaj i sigurisë (dhe stafi më i gjerë i IT-së) të kuptojnë se çfarë mund dhe nuk mund të bëjë IA gjeneruese. Ofroni trajnime mbi bazat e mjeteve të sigurisë të drejtuara nga IA dhe përditësoni programet tuaja të ndërgjegjësimit për sigurinë për të gjithë punonjësit për të mbuluar kërcënimet e mundësuara nga IA. Për shembull, mësoni stafin se si IA mund të gjenerojë mashtrime shumë bindëse të phishing dhe thirrje të rreme. Njëkohësisht, trajnoni punonjësit mbi përdorimin e sigurt dhe të miratuar të mjeteve të IA-së në punën e tyre. Përdoruesit e informuar mirë kanë më pak të ngjarë të keqpërdorin IA-në ose të bien viktimë e sulmeve të përmirësuara nga IA ( Si mund të përdoret IA Gjeneruese në Sigurinë Kibernetike? 10 Shembuj nga Bota Reale ).

  2. Përcaktoni Politika të Qarta të Përdorimit të IA-së: Trajtojeni IA-në gjeneruese si çdo teknologji të fuqishme - me qeverisje. Zhvilloni politika që specifikojnë se kush mund të përdorë mjetet e IA-së, cilat mjete janë të sanksionuara dhe për çfarë qëllimesh. Përfshini udhëzime mbi trajtimin e të dhënave të ndjeshme (p.sh., mos futja e të dhënave konfidenciale në shërbimet e jashtme të IA-së) për të parandaluar rrjedhjet. Si shembull, mund të lejoni vetëm anëtarët e ekipit të sigurisë të përdorin një asistent të brendshëm të IA-së për reagim ndaj incidenteve, dhe marketingu mund të përdorë një IA të verifikuar për përmbajtjen - të gjithë të tjerët janë të kufizuar. Shumë organizata tani po e adresojnë në mënyrë të qartë IA-në gjeneruese në politikat e tyre të IT-së, dhe organet kryesore të standardeve inkurajojnë politika të përdorimit të sigurt në vend të ndalimeve të plota ( Si mund të përdoret IA-ja gjeneruese në sigurinë kibernetike? 10 Shembuj nga Bota Reale ). Sigurohuni që t'ua komunikoni këto rregulla dhe arsyetimin pas tyre të gjithë punonjësve.

  3. Zbutja e "IA-së në Hije" dhe Monitorimi i Përdorimit: Ngjashëm me IT-në në Hije, "IA-ja në Hije" lind kur punonjësit fillojnë të përdorin mjete ose shërbime të IA-së pa dijeninë e IT-së (p.sh., një zhvillues që përdor një asistent kodi të IA-së të paautorizuar). Kjo mund të sjellë rreziqe të padukshme. Zbatoni masa për të zbuluar dhe kontrolluar përdorimin e paautorizuar të IA-së . Monitorimi i rrjetit mund të sinjalizojë lidhjet me API-të e njohura të IA-së, dhe anketat ose auditimet e mjeteve mund të zbulojnë se çfarë po përdor stafi. Ofroni alternativa të miratuara në mënyrë që punonjësit me qëllime të mira të mos tundohen të bëjnë hile (për shembull, jepni një llogari zyrtare ChatGPT Enterprise nëse njerëzit e gjejnë të dobishme). Duke nxjerrë në dritë përdorimin e IA-së, ekipet e sigurisë mund të vlerësojnë dhe menaxhojnë rrezikun. Monitorimi është gjithashtu thelbësor - regjistroni aktivitetet dhe rezultatet e mjeteve të IA-së sa më shumë që të jetë e mundur, në mënyrë që të ketë një gjurmë auditimi për vendimet që IA ka ndikuar ( Si mund të përdoret IA-ja Gjenerative në Sigurinë Kibernetike? 10 Shembuj nga Bota Reale ).

  4. Shfrytëzoni IA-në në Mbrojtje – Mos Mbetni Pas: Pranoni që sulmuesit do ta përdorin IA-në, kështu që edhe mbrojtja juaj duhet ta përdorë. Identifikoni disa fusha me ndikim të lartë ku IA gjeneruese mund të ndihmojë menjëherë operacionet tuaja të sigurisë (ndoshta triazh alarmi ose analizë automatike e regjistrave) dhe drejtoni projekte pilot. Rritni mbrojtjen tuaj me shpejtësinë dhe shkallën e IA-së për t'iu kundërvënë kërcënimeve që lëvizin me shpejtësi ( Si mund të përdoret IA gjeneruese në sigurinë kibernetike? 10 shembuj nga bota reale ). Edhe integrimet e thjeshta, si përdorimi i një IA-je për të përmbledhur raportet e malware-it ose për të gjeneruar pyetje për gjueti kërcënimesh, mund t'u kursejnë orë analistëve. Filloni me hapa të vegjël, vlerësoni rezultatet dhe përsëritni. Sukseset do të ndërtojnë rastin për një përdorim më të gjerë të IA-së. Qëllimi është të përdoret IA si një shumëzues force – për shembull, nëse sulmet e phishing-ut po e mbingarkojnë shërbimin tuaj të ndihmës, vendosni një klasifikues email-esh IA për ta ulur atë vëllim në mënyrë proaktive.

  5. Investoni në Praktika të Sigurta dhe Etike të IA-së: Kur zbatoni IA gjeneruese, ndiqni praktikat e sigurta të zhvillimit dhe vendosjes. Përdorni modele private ose të vetë-strehuara për detyra të ndjeshme për të ruajtur kontrollin mbi të dhënat. Nëse përdorni shërbime të IA-së të palëve të treta, rishikoni masat e tyre të sigurisë dhe privatësisë (enkriptimi, politikat e ruajtjes së të dhënave, etj.). Përfshini kornizat e menaxhimit të riskut të IA-së (si Korniza e Menaxhimit të Riskut të IA-së e NIST ose udhëzimet ISO/IEC) për të adresuar sistematikisht gjëra të tilla si paragjykimi, shpjegueshmëria dhe qëndrueshmëria në mjetet tuaja të IA-së ( Si mund të përdoret IA Gjeneruese në Sigurinë Kibernetike? 10 Shembuj nga Bota Reale ). Gjithashtu planifikoni për përditësime/arnime të modelit si pjesë e mirëmbajtjes - modelet e IA-së mund të kenë gjithashtu "dobësi" (p.sh., ato mund të kenë nevojë për ritrajnim nëse fillojnë të devijojnë ose nëse zbulohet një lloj i ri sulmi kundërshtar ndaj modelit). Duke përfshirë sigurinë dhe etikën në përdorimin tuaj të IA-së, ju ndërtoni besim në rezultate dhe siguroni pajtueshmëri me rregulloret në zhvillim.

  6. Mbani Njerëzit në Dijeni: Përdorni IA-në për të ndihmuar, jo për të zëvendësuar plotësisht, gjykimin njerëzor në sigurinë kibernetike. Përcaktoni pikat e vendimmarrjes ku kërkohet validim njerëzor (për shembull, një IA mund të hartojë një raport incidenti, por një analist e shqyrton atë para shpërndarjes; ose një IA mund të sugjerojë bllokimin e një llogarie përdoruesi, por një njeri e miraton atë veprim). Kjo jo vetëm që parandalon që gabimet e IA-së të mos kontrollohen, por gjithashtu ndihmon ekipin tuaj të mësojë nga IA dhe anasjelltas. Inkurajoni një rrjedhë pune bashkëpunuese: analistët duhet të ndihen rehat duke vënë në pikëpyetje rezultatet e IA-së dhe duke kryer kontrolle të arsyes. Me kalimin e kohës, ky dialog mund të përmirësojë si IA-në (përmes reagimeve) ashtu edhe aftësitë e analistëve. Në thelb, hartoni proceset tuaja në mënyrë të tillë që IA dhe pikat e forta njerëzore të plotësojnë njëra-tjetrën - IA trajton vëllimin dhe shpejtësinë, njerëzit trajtojnë paqartësinë dhe vendimet përfundimtare.

  7. Matni, Monitoroni dhe Përshtatni: Së fundmi, trajtojini mjetet tuaja gjeneruese të IA-së si komponentë të gjallë të ekosistemit tuaj të sigurisë. Matni vazhdimisht performancën e tyre - a po i zvogëlojnë ato kohët e reagimit ndaj incidenteve? A po i kapin kërcënimet më herët? Si po shkon trendi i shkallës së pozitiviteteve të rreme? Kërkoni reagime nga ekipi: a janë rekomandimet e IA-së të dobishme, apo po krijojnë zhurmë? Përdorni këto metrika për të rafinuar modelet, për të përditësuar të dhënat e trajnimit ose për të rregulluar mënyrën se si integrohet IA. Kërcënimet kibernetike dhe nevojat e biznesit evoluojnë, dhe modelet tuaja të IA-së duhet të përditësohen ose ritrajnohen periodikisht për të qëndruar efektive. Kini një plan për qeverisjen e modelit, duke përfshirë kush është përgjegjës për mirëmbajtjen e tij dhe sa shpesh rishikohet. Duke menaxhuar në mënyrë aktive ciklin jetësor të IA-së, ju siguroheni që ajo të mbetet një aset, jo një detyrim.

Si përfundim, IA gjeneruese mund të përmirësojë ndjeshëm aftësitë e sigurisë kibernetike, por përvetësimi i suksesshëm kërkon planifikim të menduar mirë dhe mbikëqyrje të vazhdueshme. Bizneset që edukojnë njerëzit e tyre, vendosin udhëzime të qarta dhe integrojnë IA-në në një mënyrë të ekuilibruar dhe të sigurt do të korrin shpërblimet e menaxhimit më të shpejtë dhe më të zgjuar të kërcënimeve. Këto përfundime ofrojnë një plan veprimi: kombinoni ekspertizën njerëzore me automatizimin e IA-së, mbuloni bazat e qeverisjes dhe ruani shkathtësinë ndërsa si teknologjia e IA-së ashtu edhe peizazhi i kërcënimeve evoluojnë në mënyrë të pashmangshme.

Duke ndërmarrë këto hapa praktikë, organizatat mund t'i përgjigjen me besim pyetjes "Si mund të përdoret IA gjeneruese në sigurinë kibernetike?" - jo vetëm në teori, por edhe në praktikën e përditshme - dhe në këtë mënyrë të forcojnë mbrojtjen e tyre në botën tonë gjithnjë e më dixhitale dhe të drejtuar nga IA. ( Si mund të përdoret IA gjeneruese në sigurinë kibernetike )

Dokumente që mund të dëshironi t'i lexoni pas kësaj:

🔗 Punë që IA nuk mund t'i zëvendësojë dhe cilat vende pune do t'i zëvendësojë IA?
Eksploroni perspektivën globale se cilat role janë të sigurta nga automatizimi dhe cilat jo.

🔗 A mund ta parashikojë IA tregun e aksioneve?
Një vështrim më i afërt mbi kufizimet, zbulimet dhe mitet rreth aftësisë së IA-së për të parashikuar lëvizjet e tregut.

🔗 Çfarë mund të bëjë IA Gjenerative pa ndërhyrjen njerëzore?
Kuptoni se ku IA mund të veprojë në mënyrë të pavarur dhe ku mbikëqyrja njerëzore është ende thelbësore.

Kthehu te blogu