Ali hekerji uporabljajo AI za zlonamerne namere?

Avtor: Roger Morrison
Datum Ustvarjanja: 1 September 2021
Datum Posodobitve: 21 Junij 2024
Anonim
Funky Friday YOUTUBERS BANNED?! HACKING LEAKS? (Roblox)
Video.: Funky Friday YOUTUBERS BANNED?! HACKING LEAKS? (Roblox)

Vsebina


Vir: Sdecoret / Dreamstime.com

Odvzem:

AI lahko zaščiti podatke, kot še nikoli prej, ampak tudi lahko krade podatke, kot še nikoli prej. Varnostni profesionalci in hekerji se trudijo kar najbolje izkoristiti to tehnologijo.

Strokovnjaki za kibernetsko varnost gledajo na umetno inteligenco (AI) tako z navdušenjem kot s strahom. Po eni strani lahko doda povsem nove obrambne plasti za kritične podatke in infrastrukturo, po drugi pa se lahko uporabi tudi kot močno orožje, da prepreči te obrambe, ne da bi pustil sledi.

Kot vsaka tehnologija ima AI tako prednosti, kot tudi pomanjkljivosti, ki jih je mogoče izkoristiti. Današnji strokovnjaki za varnost so izziv, da naredimo korak pred negativci, kar bi moralo začeti z jasnim razumevanjem, kako lahko AI uporabimo kot žaljivo podatkovno orožje.

Hakiranje AI

Kot prva stvar, pravi Nicole Kobie z Wireda, bi morali prepoznati, da lahko tudi AI, kot vsako podatkovno okolje, vdremo. V središču vsakega inteligentnega procesa je algoritem in algoritmi se odzivajo na prejete podatke. Raziskovalci že kažejo, kako je mogoče nevronske mreže nategovati k razmišljanju, da je slika želve pravzaprav slika puške in kako preprosta nalepka na stop-znak lahko povzroči, da avtonomni avtomobil pelje naravnost v križišče. Tovrstna manipulacija ni mogoča samo po namestitvi AI, ampak tudi, ko se usposablja, kar lahko hekerjem omogoči, da prepletejo vse vrste pustovanja, ne da bi se morali dotikati infrastrukture podjetja stranke.


Medtem ko zagotovo ne primanjkuje zlonamernih vsebin, katerih edini cilj je poškodovati ljudi in povzročiti teror, je resnična nagrada v taksistični igri odkrivanje gesla in vse možnosti kraje / izsiljevanja, ki prihajajo zraven. Lani je tehnološki inštitut Stevens ustvaril program za prikaz moči, ki jo AI prinaša v tem procesu. Raziskovalci so namestili številne znane programe za razbijanje gesla z inteligentnimi algoritmi, ki so bili usposobljeni za ugibanje verjetnih kombinacij znakov s posebnimi črkami in v nekaj minutah so pridobili več kot 10 milijonov LinkedIn gesel. Ko odkrijemo več gesel, jih seveda lahko uporabimo za treniranje teh algoritmov učenja, tako da sčasoma postanejo učinkovitejši, tudi če se uporabljajo skupni obrambni ukrepi, na primer rutinsko spreminjanje gesla. (Če želite več o geslih, glejte Preprosto varno: lažje spreminjanje zahtev za geslo.)

Ali je mogoče, da ta orodja že uporablja kriminalno podzemlje? Z dostopnimi storitvami AI v oblaku in temnim spletom, ki deluje kot klirinška hiša za vse vrste kripto programske opreme, bi bilo presenetljivo, če temu ne bi šlo. Podjetje za analizo groženj Darktrace pravi, da že od nekdaj opaža priljubljene programe zlonamerne programske opreme, kot je TrickBot, ki se v svojih prizadevanjih za krajo podatkov in zaklepanje sistemov izkazujejo zavestno. Zdi se, da vedo, na kaj iskati in kako ga najti s preučevanjem ciljne infrastrukture, nato pa se sami odločijo za najboljši način, da se izognejo odkrivanju. To pomeni, da programu ni treba več vzdrževati stika s hekerjem prek ukaznih in nadzornih strežnikov ali drugih sredstev, kar je običajno eno najbolj učinkovitih sredstev za sledenje storilcu.


Medtem so tradicionalne prevare z lažnim predstavljanjem postale vse bolj pristne, v veliki meri tudi zato, ker se lahko pri orodjih AI prvotno zdi, da prihajajo iz zaupanja vrednega vira. Na primer, obdelava naravnega jezika je zasnovana tako, da posnema človeški govor. V kombinaciji z lahko dostopnimi podatki, kot so imena izvršnih direktorjev in naslovi, lahko ustvari tako zelo realistično sporočilo, da lahko zavede celo tesne sodelavce. Povprečni potrošnik je prav tako dovzeten, glede na zmožnost AI, da pridobiva vse podatke, da bi lahko vnesel goljufije s prilagojenimi informacijami.

Boj nazaj

Kot že omenjeno, pa je AI dvosmerna ulica. Hekerji sicer lahko omogočajo kroženje okoli tradicionalnih varnostnih sistemov, vendar pa so tudi trenutni varnostni sistemi veliko učinkovitejši. Po poročanju zavarovalnega časopisa je Microsoft uspel pred kratkim poskusiti krajo svojega oblaka Azure, ko je varnostni režim, ki je napolnjen z AI, opazil napačen vdor z oddaljenega mesta. Poskus bi v prejšnjih protokolih, ki temeljijo na pravilih, ostal neopažen, vendar bi morala sposobnost AI, da se nauči in se prilagodi novim grožnjam, močno izboljšati sposobnost podjetja za zaščito, tudi ko se podatki in infrastruktura potisnejo mimo tradicionalnega požarnega zidu v oblak in internet stvari. Vsi najboljši ponudniki oblakov za hibridne velikosti agresivno izvajajo AI na svojih varnostnih stopinjah, saj čim prej se začne izvajati, tem več se bo naučil, ko se bo srečal s hekerji, pooblaščenimi za AI. (Če želite izvedeti več, glejte, kako napredek AI vpliva na varnost, kibernetsko varnost in taksist.)

Na ta način je AI zgolj zadnja eskalacija varnostne vojne, ki traja desetletja. Ko se pojavljajo nove grožnje, se z njimi spopadajo nove obrambe z istimi tehnologijami, ki spodbujajo obe strani.

Brez napak, brez stresa - vaš korak za korakom vodnik za ustvarjanje programske opreme, ki spreminja življenje, ne da bi vam uničila življenje

Ne morete izboljšati svojih programskih veščin, kadar nikogar ne skrbi za kakovost programske opreme.

Če kaj drugega, bo AI verjetno pospešil ta postopek, hkrati pa odstranil številne praktične dejavnosti pri človeških operaterjih. Bo to dobra ali slaba stvar za današnje kibernetske bojevnike? Verjetno se mešanica tako belih kot črnih klobukov odreče maticam in vijakom kodiranja njihovih napadov in obrambe ter se osredotoči na bolj strateške vidike sodobnega kibernetskega bojevanja.