Skip to main content

      Umetna inteligenca (UI) hitro postaja ključno gonilo sprememb v organizacijah, saj preoblikuje poslovne modele, delovanje in procese odločanja. Od virtualnih asistentov in avtonomnih agentov do napovednih sistemov in optimizacijskih modelov UI pomaga preoblikovati ključne poslovne procese na področjih, kot so poslovanje, podpora strankam, človeški viri in trženje.

      Nedavne raziskave, ki jih je vodila Univerza v Melbournu v sodelovanju s KPMG, kažejo, da se sprejemanje UI povečuje, vendar zaupanje ostaja ključni izziv, ki odraža napetost med koristmi in tveganji.

      Vendar pa ta preobrazba prinaša nova tveganja. Hitro sprejemanje modelov umetne inteligence, zlasti avtonomnih agentov, ki sprejemajo odločitve ali komunicirajo s sistemi, uvaja nove vektorje napadov. Slabo konfiguriran agent ali agent, usposobljen za pristranske podatke, lahko sisteme izpostavi grožnjam ali sprejme odločitve, ki so v nasprotju z varnostnimi politikami organizacije.

      Umetna inteligenca tudi okrepi tradicionalne grožnje in ranljivosti ter jih spremeni v manj predvidljiva in hitro rastoča tveganja. V tem kontekstu se pojavlja nov izziv: kako zagotoviti varnost sistemov umetne inteligence, hkrati pa umetno inteligenco uporabljati na specifičnih področjih, kot je sama kibernetska varnost. Poročilo KPMG o kibernetski varnosti za leto 2025 poudarja, da so temeljna načela kibernetske varnosti – kot sta vgrajeno zaupanje in prednosti vključevanja umetne inteligence v kibernetsko varnost in zasebnost – zdaj še pomembnejša.

      Uspešno obvladovanje te dvojnosti – uporaba umetne inteligence za zaščito in hkrati zaščita pred tveganji, ki jih prinaša umetna inteligenca – naj bi bilo osrednji del sodobnih strategij kibernetske varnosti

      Frustracije in grožnje, povezane z uporabniškim vmesnikom

      Večina današnjih programskih rešitev ima vgrajen uporabniški vmesnik, večinoma v obliki pogovornih klepetalnih robotov. Čeprav lahko povečajo hitrost in udobje, lahko tudi otežijo delo varnostnih strokovnjakov, ki se soočajo s "preklapljanjem na hitro" - hitrim preklapljanjem med več pogovori za spremljanje in upravljanje različnih sistemov. Ne gre le za izziv uporabnosti: ko inženirstvo promptov postaja vse bolj dovršeno in napadalci eksperimentirajo z vbrizgavanjem promptov, je vsak pogovor potencialni vektor za manipulacijo in napačno konfiguracijo. Z različnimi orodji uporabniškega vmesnika v igri lahko ekipe za kibernetsko varnost trpijo zaradi "utrujenosti od pogovorov", kar lahko ovira njihovo sposobnost hitrega in odločnega ukrepanja.

      Nenadzorovano sprejemanje umetne inteligence lahko vodi tudi do nenadzorovane izpostavljenosti podatkov. Orodja umetne inteligence lahko razkrijejo zaupne podatke o organizaciji in njenih uporabnikih, ki lahko končajo v rokah tretjih oseb. Poleg povečane ranljivosti za napade lahko napake v varnosti podatkov kršijo predpise in vodijo do glob ter izgube zaupanja deležnikov. Raziskava KPMG je pokazala, da so težave s kakovostjo ali nepopolnostjo podatkov eden od dveh največjih izzivov za varnostne strokovnjake (30 %).

      Številne organizacije se soočajo tudi z neskladjem med sprejemanjem umetne inteligence v celotnem podjetju, vključenostjo ekip za kibernetsko varnost in rešitvami umetne inteligence, specifičnimi za posamezne izdelke. Ti viri pogosto niso integrirani, kar ima za posledico ločene pogovorne klepetalnike. Težko je izvajati dosleden pristop h kibernetski varnosti, ko se uporablja toliko različnih, razdrobljenih orodij umetne inteligence, ki lahko posredujejo različna sporočila o grožnjah in incidentih.

      Umetne inteligence ne uporabljajo le organizacije za krepitev kibernetske varnosti; zlonamerni akterji to tehnologijo uporabljajo tudi za izvajanje napadov. Ko opazijo ranljivost, lahko hitro ustvarijo vektorje napadov in kodo. Tri četrtine (76 %) anketirancev je dejalo, da jih skrbi vse večja prefinjenost novih groženj in kibernetskih napadov.

      Umetna inteligenca pa po drugi strani krepi kibernetsko varnost

      Ker ima umetna inteligenca potencial, da pospeši in okrepi kibernetska tveganja, postaja ključnega pomena vlaganje v varnostne rešitve z orodji umetne inteligence, ki lahko spremljajo hitrost, obseg in prefinjenost novih groženj. Naslednji primeri kažejo, kako je mogoče okrepiti varnostni položaj z večjo učinkovitostjo in donosnostjo naložbe:

      • Napredno zaznavanje groženj z vedenjsko analizo: umetna inteligenca analizira velike količine podatkov, da odkrije vzorce in anomalije, ki lahko kažejo na zlonamerno dejavnost. Za razliko od tradicionalnih sistemov, ki temeljijo na pravilih, lahko v realnem času prepozna subtilne ali prej neznane grožnje, s čimer skrajša čas izpostavljenosti napadalca in prepreči škodo v zgodnji fazi napada.

      • Avtomatizacija upravljanja identitet in dostopa: uporabniški vmesnik izboljša nadzor dostopa z nenehnim ocenjevanjem vedenja uporabnikov in nečloveških entitet ter dinamičnim prilagajanjem dovoljenj glede na kontekst in tveganje. To zmanjša ročno delo, zmanjša človeške napake in izboljša zaščito pred napadi, ki temeljijo na identiteti.

      • Odziv na incidente s pomočjo uporabniškega vmesnika: Uporabniški vmesnik pomaga varnostnim ekipam pri določanju prioritet opozoril, povezovanju podatkov iz več virov in celo sprožitvi avtomatiziranih ukrepov za preprečevanje groženj. To znatno skrajša povprečni čas zaznavanja in odziva ter poveča učinkovitost omejenih varnostnih virov.

      • Ocene tveganja in skladnosti tretjih oseb: UI pospešuje ocenjevanje zunanjih partnerjev s pregledovanjem dokumentov, certifikatov in ravnanja v velikem obsegu. Pomaga hitro prepoznati vrzeli v skladnosti in varnostna tveganja, kar olajša skrbni pregled in zmanjša izpostavljenost ranljivostim dobavne verige.

      To nas spodbuja k razmisleku o tem, kako je mogoče te zmogljivosti, ki temeljijo na umetni inteligenci, učinkovito strukturirati in integrirati v podroben okvir upravljanih storitev kibernetske varnosti, kar organizacijam omogoča izboljšanje varnostnih rezultatov s strokovnim vodenjem in stalno tehnološko podporo.

      Kako lahko organizacije integrirajo uporabniški vmesnik v svoje varnostne operacije, ne da bi pri tem povečale kompleksnost ali tveganje?


      Trije koraki do povezane kibernetske varnosti, ki jo omogoča uporabniški vmesnik

      Korak 1

      Vzpostavite okvir za upravljanje varnosti umetne inteligence, ki bo direktorjem informacijske varnosti in drugim vodjem omogočil nadzor nad tem, kateri modeli umetne inteligence se sprejmejo v celotnem podjetju in iz katerih programskih rešitev. S tem se izognete hkratnemu sprejemanju preveč različnih orodij in tehnologij avtomatizacije ter pomagate izbrati tiste, ki so najbolj primerne za potrebe organizacije. Globalni pristop KPMG temelji na konceptu zaupanja vrednega okvira umetne inteligence, ki predlaga okvir za upravljanje umetne inteligence, zgrajen na 10 stebrih – eden od njih je varnost. V tem kontekstu so glavni izzivi na področju varnosti umetne inteligence izvajanje tega nadzornega okvira, razvoj zaščitnih mehanizmov skozi celoten življenjski cikel teh sistemov, njihova varna integracija z arhitekturo in podatki ter pregled komponent uporabniškega vmesnika tretjih oseb.

      Korak 2

      Umetne inteligence se ne sme uporabljati ločeno v različnih delih organizacije, saj to pogosto povzroča podvajanje in dodatno kompleksnost. Namesto da bi »ponovno izumljali kolo«, bi morali strokovnjaki za kibernetsko varnost sodelovati z ekipami na ravni podjetja, da bi sprejeli enoten okvir za umetno inteligenco. Z integracijo različnih varnostnih rešitev v eno samo platformo in uporabo skupnega »mehanizma« uporabniškega vmesnika je mogoče vse pogovorne poizvedbe usklajevati prek ene same platforme, kar zmanjšuje ali celo odpravlja »skakanje s poizvedbe na ukaz«. Ko uporabniški vmesnik, ki temelji na agentih, dozoreva, se lahko avtomatizirani agenti umetne inteligence začnejo povezovati z agenti, specifičnimi za programsko opremo, da dosežejo želene rezultate. Vse to zagotavlja jasnejši pregled groženj v celotni organizaciji v realnem času in pomaga hitro ublažiti grožnje.

      Korak 3

      Znotraj okvira uporabniškega vmesnika je treba ustvariti zaščitne ukrepe, ki ščitijo podatke pred nenamernim razkritjem. Z uporabo uporabniškega vmesnika na ravni podjetja lahko organizacije razvijejo modele po meri, ki temeljijo na lastnih, zaščitenih podatkih, namesto da bi se zanašale na javne podatke, ki poganjajo večino velikih jezikovnih modelov. Takšni modeli porabijo bistveno manj procesorske moči in zagotavljajo zanesljivejše odzive, ker integrirajo zasebne nabore podatkov in interne tehnične sisteme.


      Velika moč prinaša veliko odgovornost

      Umetna inteligenca (UI) predstavlja izjemno priložnost za preoblikovanje poslovnih procesov in krepitev zmogljivosti kibernetske varnosti. Vendar pa uvaja tudi kompleksna tveganja in nova področja za napade, ki jih ne smemo prezreti. Ta dvojnost zahteva odgovorno ravnanje organizacij – z ustreznimi okviri upravljanja, tehničnimi kontrolami, nenehnim izobraževanjem in nenehnim vrednotenjem komponent uporabniškega vmesnika.

      Ko lahko organizacije uskladijo varnostne pobude, ki temeljijo na UI, s širšimi poslovnimi, tveganimi in varnostnimi strategijami, lahko sprostijo ogromen potencial UI v kibernetski varnosti. S tem lahko ustvarijo varno okolje, zgradijo zaupanje in spodbudijo inovacije.


      stream

      KPMG združuje naš multidisciplinarni pristop z globokim, praktičnim znanjem industrije, da bi strankam pomagal pri soočanju z izzivi in ​​odzivanju na priložnosti.


      Naši strokovnjaki

      Boštjan Malus

      Partner, Finančno svetovanje

      KPMG v Sloveniji


      Povežite se z nami

      KPMG združuje naš multidisciplinarni pristop z globokim, praktičnim znanjem industrije, da našim strankam pomagamo pri soočanju z izzivi in ​​odzivanju na priložnosti. Povežite se z našo ekipo.