Kā AI sasniegumi ietekmē drošību, kiberdrošību un hakeru darbību

Autors: Roger Morrison
Radīšanas Datums: 27 Septembris 2021
Atjaunināšanas Datums: 21 Jūnijs 2024
Anonim
Ethical hacker shows us how easily smart devices can be hacked and give access to your personal info
Video: Ethical hacker shows us how easily smart devices can be hacked and give access to your personal info

Saturs


Avots: Sdecoret / Dreamstime.com

Izņemšana:

AI tiek izmantota, lai veicinātu cīņu pret noziedzību ... bet arī tā tiek izmantota, lai veicinātu noziedzību. Šeit ir daži no jaunākajiem AI drošības jauninājumiem.

Mākslīgais intelekts (AI) lielākoties ir jaunākais, ietekmīgākais tehnoloģiju sasniegums, kas šobrīd ietekmē visu un ikvienu digitālajā pasaulē. Izstrādātāji un uzņēmumi visā pasaulē izstrādā jaunus veidus, kā ieviest dažas uz mašīnmācīšanos balstītas funkcijas katrā tur esošajā programmatūrā, platformā un rīkā.

Tā diezgan acīmredzamās sekas ir tas, ka AI daudzos pozitīvos un negatīvajos veidos ietekmē drošību (un kiberdrošību), jo tas ir spēcīgs rīks, kas ir gan drošības speciālistu, gan hakeru rokās, nebeidzamā policistu un laupītāju spēlē.

Laba labo ļauno AI kiberdrošības cīņa

Būt kiberdrošības profesionālim ir nekas cits kā vienkāršs. IT speciālisti ir vieni no čaklākajiem darbiniekiem apkārt, un viņu spraiga darba maiņa ir līdz 52 stundām nedēļā. Viss, kas var automatizēt viņu sarežģītos un nogurdinošos uzdevumus (īpaši vispilnīgākos un atkārtojošos), piemēram, viedais AI risinājums, ir laipni gaidīts. Uz mašīnmācīšanās balstīta programmatūra ir arī īpaši efektīva dažādu kiberdraudu līdzību noteikšanā, it īpaši, ja uzbrukumus koordinē citas automatizētas programmas. Kūkas apledojuma dēļ jaunākie uz AI balstītie algoritmi arvien labāk izprot datus, kas nāk no dažādiem rīkiem, un nosaka tās kritiskās korelācijas, kuras cilvēkiem varētu pietrūkt.


Izklausās, ka AI liek “labajiem puišiem” uzvarēt cīņā pret ļauno hakeru, vai ne?

Tā ir tikai puse patiesības, jo ļoti neitrālās mašīnas patiesībā palīdz abām pusēm. 26 ekspertu grupa no Apvienotās Karalistes un ASV nesen publicēja interesantu rakstu "Mākslīgā intelekta ļaunprātīga izmantošana: prognozēšana, novēršana un mazināšana". Šeit viņi skaidri izskaidro, kā AI var viegli kļūt par draudu nepareizajās rokās, jo tas ir spēcīgs ierocis, lai caurdurtu pat acīmredzami neplīstošāko kiberaizsardzību. Lielākā problēma ir tā, ka uzbrucēji parasti paļaujas uz mazāku darbaspēku, lai koordinētu uzbrukumus. Bet, ja AI radītais automatizācijas līmenis var palielināt viņu uzbrukumu apmēru, it īpaši, ja viņi var rekrutēt milzīgas armijas, kuras darbina robotizētas robotizētas robotprogrammatūras, IoT robottīkli būs daudz lielāki draudi. “Viedā” ļaunprātīgā programmatūra, ko darbina jaunākie algoritmi, var kļūt daudz mazāk atklājama, un darbietilpīgus uzbrukumus, piemēram, šķēpu pikšķerēšanu, ar ievērojamu efektivitāti var veikt pat mazākas komandas.


Ieročota AI var arī radīt daudz nopietnākus draudus vidusmēra lietotājam nekā kiberdrošības ekspertam, padarot digitālo pasauli par daudz nedrošāku viesabonēšanas vietu. Piemēram, cik cilvēku zina, ka pat daži no labākajiem VPN noplūst savu DNS caur Chrome paplašinājumiem? Ja visi dati, no kuriem katru dienu noplūst miljoniem lietotāju, tiek savākti, izmantojot automatizāciju, efektīvs ar AI darbināms rīks var veikt visas korelācijas, kas vajadzīgas, lai koordinētu lielu skaitu uzbrukumu pret neaizsargātiem lietotājiem. Un šo stratēģiju domino efektam varētu būt patiesi postošas ​​sekas, kibernoziegumi pasaulei maksā apmēram 650 miljardus dolāru gadā. (Lai uzzinātu vairāk par satraukumiem saistībā ar VPN, skatiet sadaļu Bezmaksas VPN izmantošana? Ne tiešām. Jūs, visticamāk, izmantojat datu fermu.)

Krāpšanās atklāšana un drošība

Ar AI darbināma biometrija var identificēt, izmērīt un analizēt ne tikai fiziskās un sejas pazīmes, bet arī īpašu cilvēku uzvedību, kas varētu izraisīt jebkura veida sarkano karogu. Viņi var viegli palīdzēt noteikt iespējamo noziedznieku, kas plāno, teiksim, bankas laupīšanu vai zādzību, un palīdzēt vietējiem drošības spēkiem to novērst, pirms tā pat notiek. Biometrija var strādāt blakus analītikai un dabiskās valodas apstrādei (NLP). Šīs divas tehnoloģijas izmanto mašīnmācīšanos, lai saprastu un analizētu sarežģītos, kā arī izprastu teikumu struktūru un to nodomus.

Bet cilvēkus var saprast pat ārpus viņu verbālajām un fiziskajām īpašībām. Emociju atpazīšana ir aizraujoša jauna tehnoloģija, kas ļauj kādai unikāli pārsteidzošai programmatūrai "nolasīt" cilvēka emocijas, izmantojot uzlaboto attēlu un audio apstrādi. Sejas izteiksmes ir dziļi saistītas ar garastāvokli, personību un cilvēku saziņu, un pat "mikroizpausmes" var uztvert ar mašīnām, lai saprastu, ko šī persona gatavojas darīt.

Bez kļūdām, bez stresa - jūsu soli pa solim, kā izveidot programmatūru, kas maina dzīvi, neiznīcinot savu dzīvi

Jūs nevarat uzlabot savas programmēšanas prasmes, kad nevienam nerūp programmatūras kvalitāte.

Visas šīs sistēmas kopā var integrēt drošības sistēmām un krāpšanas atklāšanai. Tiesībaizsardzības iestādes tos var izmantot, lai pratināšanas laikā atklātu informāciju, prognozētu uzvedību, ierobežotu riskantas situācijas un pat apkarotu terorismu. AI un mašīnas kļūst par jaunajiem “sargsuņiem”, kas palīdzēs visa veida drošības spēkiem. Tomēr esiet piesardzīgs - AI var izmantot arī cilvēki ar ļaunprātīgu nodomu, piemēram, uzdošanās nolūkā izmantojot runas sintēzes programmatūru. (Lai iegūtu vairāk par krāpšanas atklāšanu, skatiet sadaļu Machine Learning & Hadoop sadaļā Krāpšanās atklāšana nākamās paaudzes ietvaros.)

Ārkārtas situāciju vadība

Ja notiek katastrofa vai kāda veida ārkārtas situācija, drošības personālam jāreaģē elastīgi un veikli, un ārkārtīgi liela nozīme ir ātrumam. Jābūt ieviestai pārvaldības sistēmai, lai apstrādātu visu pieejamo informāciju, atdalītu visatbilstošākās informācijas daļas no visnejēdzīgākajām un ātri un uzticami apkopotu visus datus, kas nāk no vairākiem avotiem. Personālam ir jānodrošina drošs un praktisks risinājums, kas ir visas šīs informācijas summa.

To ir viegli saprast, cik grūti cilvēkam vai pat cilvēku komandai to visu izdarīt ar visu spiedienu zināt, cik nepareizi sekundes dalīšanas lēmumi var maksāt daudzu cilvēku dzīvības. Mākslīgā intelekta tehnoloģijas var izmantot, reaģējot uz katastrofām, lai atvieglotu ārkārtas situāciju risināšanas slogu. Avārijas situācijas var ātri un efektīvi risināt, pateicoties AI daudzu iemeslu dēļ.

Pirmkārt, AI lieliski prot veikt prognozes un analizēt un novērtēt kaitējuma un riska apmēru attiecīgajā apgabalā. Tādā veidā komandas var noteikt intervences prioritātes, lai vispirms sniegtu palīdzību tiem, kam tā visvairāk nepieciešama. Attēlu atpazīšanu, datu ekstrapolāciju un klasifikāciju AI var veikt ar daudz lielāku ātrumu, izmantojot attēlus un datus, kas nāk, piemēram, no satelītiem vai sagriezti no pūļa iegūtā kartēšanas materiāla.

AI sistēmu runas un analītikas programmas, piemēram, IBM Watson, pašlaik tiek izmantotas, lai klausītos ārkārtas zvanus, lai katastrofu laikā atvieglotu kontaktu centru darbplūsmu. AI palīdz samazināt izsaukumu laiku, sniedz precīzu informāciju ārkārtas situāciju brigādēm un var plānot ātrākos maršrutus. Pat attēlus no sociālajiem tīkliem, piemēram, Instagram, YouTube, un AI var tos analizēt, lai filtrētu reālu informāciju no viltus vai atrastu pazudušus cilvēkus.

Secinājums

AI jau tiek iekļauts daudzos drošības rīkos un risinājumos. Sākot no videonovērošanas kamerām līdz ielaušanās trauksmēm un pat mobilajām mikroshēmām, lai nodrošinātu piekļuves kontroli, tā būs burtiski visur. Nevis nedaudz tālas nākotnes tendences, bet par jauno tirgus standartu jau ir kļuvusi AI programmatūras integrācija drošībā.