Ar lielu progresu ir jāuzņemas liela atbildība

Autors: Roger Morrison
Radīšanas Datums: 27 Septembris 2021
Atjaunināšanas Datums: 1 Jūlijs 2024
Anonim
Латышский
Video: Латышский

Saturs


Avots: Mike2focus / Dreamstime.com

Izņemšana:

Plašsaziņas līdzekļu patēriņš attīstās līdz ar tehnoloģiju attīstību, piemēram, mākslīgais intelekts (AI). Kaut arī mēs parasti atbalstām progresu, mums jāapzinās arī dažu tehnoloģiju veidu negatīvie aspekti. AI spējām ir tumšā puse, ja tās izmanto viltus ziņu reklamēšanai.

Tehnoloģiju tumšā puse bija viena no tēmām, kas tika izpētīta NYC Media Lab otrajā Machines + Media konferencē, kuru 15. maijā sponsorēja un uzņēma Bloomberg savā globālajā mītnē pilsētā. Lai gan dažas no sesijām bija vairāk domātas par to, kādas tehnoloģijas pašlaik ir pieejams plašsaziņas līdzekļiem, pat tiem, kas uzrāda manipulācijas un dezinformāciju.

Labs stāsts ir pārliecinošāks nekā visa patiesība

Sesijā ar nosaukumu “Mūsdienu stāvoklis”, datu zinātnes daļas vadītājs Buzzfeed, VP Gilads Lotāns, norādīja, ka viltus vai maldinošu ziņu problēmu nevar vainot tikai mediju uzņēmumiem vai jaunām tehnoloģijām. "Cilvēki ne vienmēr meklē faktus," viņš teica. "Lasītāji vēlas stāstus."


Viņš piebilda, ka šī vēlme pēc stāstiem un labvēlīgiem stāstījumiem var radīt viltus ziņas, kas ir “vairāk manipulācijas nekā nepatiesa informācija”. Faktiski sniegtajā stāstā vispār var nebūt nekā nepatiesa. Viltus ir tas, ka paziņotie fakti tiek atlasīti un izņemti no lielākajiem “con”, lai “lasītāji” nonāktu pie secinājuma.

Līdzīgi, “Platform + Media” sesijā, Kelly Born no Viljama un Floras Hewlett fonda Us Democracy Initiative iniciatīvas sacīja: “Cilvēkiem patīk ziņas, kas stiprina viņu uzskatus un it īpaši, ja tas izraisa sašutumu.” Viņa brīdināja, ka plašsaziņas līdzekļu kapitalizācija šī tendence var izraisīt “perfektu vētru”, kas mūsos izceļ vissliktāko. To pastiprina iespēja pilnībā izgatavot prezentācijas.

Vai redzēšana joprojām tic?

Tehnoloģijai ir nozīme stāsta stāstīšanā caur attēliem un video. Mēs parasti ticam tam, ko redzam, ja vien nav acīmredzamu manipulāciju pazīmju. Tomēr, tā kā AI uzlabo viltus video reālismu, tagad ir iespējams burtiski ievietot vārdus sabiedrisko personu mutēs. (AI netiek izmantots tikai nožēlojamiem nolūkiem. Pārbaudiet dažus konstruktīvus veidus 5 veidos, kā uzņēmumi var vēlēties apsvērt AI izmantošanu.)


Bīstamība, ka AI var radīt ļoti ticamus videoklipus, tika demonstrēta sesijā ar nosaukumu “Risinājumi mašīnvadāmu multivides tumšajai pusei”. Tas sākās ar video, kurā attēlots Baraks Obama, sakot lietas, ko bijušais prezidents nekad nav teicis. Kustība joprojām bija nedaudz sinhronizēta ar vārdiem, tāpēc tai ir dažas viltus video zīmes, un lielākā daļa auditorijas sacīja, ka var atpazīt to kā viltus.

Ka Obamas video manipulācijas nesasniedza reālismu, ka Pēteris Kušings augšāmcēlās kā Grand Moff Tarkin par “Rogue One”. Kā paskaidroja New York Times raksts, efekts tika panākts, aktieriem nēsājot “kustības uztveršanas materiālus uz galvas”. atrodoties kameras priekšā, “lai viņa seju varētu aizstāt ar Kušinga digitālu atjaunošanu.” Filmas galvenais radošais darbinieks / vecākais vizuālo efektu vadītājs to sauca par “super augsto tehnoloģiju un darbietilpīgu versiju meikaps."

Nenosakāmi viltojumi

Tagad, pateicoties AI sasniegumiem, it īpaši ģeneratīvajiem pretinieku tīkliem (GAN), ir vieglāk nekā jebkad agrāk sasniegt filmu burvju efektus. Izmantojot GAN, viena AI sistēma pilnveido kadrus, līdz tas ir pietiekami labs, lai AI sistēma, kas paredzēta viltojumu noteikšanai, tos pieņemtu par reāliem.

Bez kļūdām, bez stresa - jūsu soli pa solim, kā izveidot programmatūru, kas maina dzīvi, neiznīcinot savu dzīvi

Jūs nevarat uzlabot savas programmēšanas prasmes, kad nevienam nerūp programmatūras kvalitāte.

Šajā videoklipā varat redzēt, kā pētnieki demonstrē, kā aktieris var virzīt sabiedrībā pazīstamas personas sejas kustības, lai radītu jebkādu izpausmi un izrunu ar tādu ticamības pakāpi, kāda parasti nav atrodama dokumentētajos video.

Lai arī ne katram cilvēkam, kurš spēlējas ar video, šāda sistēma pašlaik ir pieejama, programmatūra tuvākajā nākotnē būs pieejama vairāk cilvēku.

Iespējamās sekas

Dhruv Ghulati, Factmata dibinātājs un izpilddirektors, saka, ka viņš ir ļoti noraizējies par to, kā šo spēju varētu izmantot, ieliekot video ne tikai pasaules līderu, bet arī vadītāju un slavenību sejas kā pierādījumu viņu teiktajam vai darot lietas, kuras viņiem nav . Video iznīcinošās spējas tiktu pastiprinātas, ja no robottīkliem panāktu vīrusu efektu.

Tas nozīmē, ka mēs “vairs nevaram uzticēties melīgajām acīm”, paziņoja Mors Naamans, informācijas zinātnes asociētais profesors Kornels Tehs. Viņu uztrauca tas, ka tiks zaudēta uzticība.

Citi ir nobažījušies par vardarbības liesmu uzliesmošanu. Jau “tikai nedaudz pārveidoti videoklipi” tiek “izmantoti, lai izraisītu vardarbību jaunattīstības valstīs”, novēroja Aviv Ovadya, sociālo mediju atbildības centra galvenais tehnologs. (Sociālie mediji var būt efektīvs veids, kā izplatīt nepatiesu informāciju. Iepazīstieties ar 4 populārākajiem barības avotiem.)

Sāra Hudsone, Investīciju ASV partnere, pauda bažas, ka manipulācijas ar attēliem “mērogā” rada “neticamus draudus sabiedrības drošībai”.

Proaktīva plānošana

Ir obligāti “jānovērš pēc iespējas vairāk šādas ļaunprātīgas izmantošanas”, sacīja Ovadja. Tāpēc ir svarīgi “pirms laika domāt, attīstot tehnoloģiju” par “kā mazināt nelabvēlīgo ietekmi” un “veltīt resursus šo neparedzēto seku novēršanai”.

Nav iespējams pagriezt atpakaļ laika gaitu, taču mums ir jāpanāk, lai mūsu izvēlētais virziens būtu pārdomāts un plānots. Tas nozīmē ne tikai strādāt pie tehnoloģijas, lai redzētu, ko var izdarīt, bet arī domāt par to, ko varētu darīt, kas būtu jānovērš.

Ceļš uz tehnoloģisko jauninājumu ieviešanu ir pārdomāt, kāda varētu būt ietekme, un plānot drošības pasākumus pirms briesmu iestāšanās. Lai to izdarītu, mums būs nepieciešama sadarbība starp pētniekiem, tehnoloģiju uzņēmumiem un valdības aģentūrām, lai izveidotu standartus un paraugpraksi, kuru cilvēki ievēros. Tam jābūt visu iesaistīto pušu prioritātei.