Vai AI var būt aizspriedumi?

Autors: Laura McKinney
Radīšanas Datums: 5 Aprīlis 2021
Atjaunināšanas Datums: 26 Jūnijs 2024
Anonim
Artificial intelligence can be biased against certain people. Here’s how.
Video: Artificial intelligence can be biased against certain people. Here’s how.

Saturs


Izņemšana:

Pēdējos gados AI tiek arvien vairāk pieņemts un piemērots visam, sākot no skaistuma novērtēšanas līdz recidīvisma riska novērtēšanai. To darot, tā ir arī ievērojusi standartus, kas vairākos gadījumos atbalsta aizspriedumus un diskrimināciju.

Tehnoloģijas progresam ir potenciāls patiesi demokratizēt piekļuvi informācijai un iespējām. Tomēr dažos gadījumos tas tiek izmantots veidos, kas pastiprina priekšstatu, ka mūsu sabiedrībā daži cilvēki ir vienlīdzīgāki nekā citi.

To mēs esam redzējuši no šādiem septiņiem gadījumiem, kad mākslīgais intelekts (AI) tiek apzināti izmantots, lai izslēgtu noteiktas kategorijas, vai kurā tas vienkārši atspoguļo neobjektivitāti, ko tā programmētāji ir iestrādājuši ar diskriminējošu iedarbību.

AI skaistuma aizspriedumi

Skaistums var būt aculiecinieka acīs, bet, kad šis subjektīvais skatījums var ieprogrammēt AI, jums ir radusies aizspriedumi programmā. Rasela Tomasa ziņoja par vienu no šādām epizodēm skaistumkopšanas konkursā no beauty.ai 2016. gadā. Rezultāti parādīja, ka gaišākas sejas tika vērtētas pievilcīgāk nekā tumšās.


Nākamajā gadā “FaceApp, kas fotogrāfiju filtru veidošanai izmanto neironu tīklus, izveidoja“ karstuma filtru ”, kas atviegloja cilvēku ādu un piešķir tām vairāk Eiropas iezīmju.”

Dzimumu aizspriedumi valodās

Tomass citē arī dokumentētu tulkojumu piemēru, kas pārņem stereotipiskas karjeras cerības. Sākuma punkts ir divi teikumi: "Viņa ir ārste. Viņš ir medmāsa."

Pēc tam tulkojot tos turku valodā un atpakaļ angļu valodā, jūs iegūtu tādus rezultātus, kādus jūs varētu gaidīt no telefona spēles.

Tā vietā, lai uzzinātu, ar ko jūs sākāt, jūs saņemsiet no 1950. gada veida cerības: "Viņš ir ārsts. Viņa ir medmāsa." Viņa skaidro, ka tas ir saistīts ar dzimumu neitrālu vienskaitļa vietniekvārdu turku valodā, kas dzimumu piešķirs, balstoties uz cerībām un stereotipiskiem aizspriedumiem. (Lasiet Sievietes AI: Seksisma un stereotipu stiprināšana ar tehnoloģiju.)

Kaut arī rasu un dzimumu neobjektivitāte, filtrējot attēlos un valodā, ir satraukums, tie nav gluži tas pats, kas aktīva diskriminācija, ko rada AI, bet tas ir noticis arī.


Tās pierādījums bija ekrānuzņēmums par ierobežojumiem, kas ievietoti reklāmai tās mājokļu kategorijā, kas ļāva iespēju sašaurināt auditoriju, pārbaudot tādu kategoriju izņēmumus kā afroamerikāņi, Āzijas amerikāņi vai Hispanics. Sludinājumu var apskatīt šeit.

Kā uzsver ProPublica, šādu reklāmu diskriminējošā iedarbība ir nelikumīga gan saskaņā ar 1968. gada Likumu par taisnīgu izmitināšanu, gan ar 1964. gada Likumu par pilsoņu tiesībām. Vienīgā aizstāvība šajā gadījumā bija tā, ka sludinājums nebija paredzēts pašam mājoklim, jo ​​tas nebija ”. t par nekustamā īpašuma vai mājas pārdošanu vai īri.

Tomēr ir bijuši arī citi mērķauditorijas atlases gadījumi, kas norāda uz rasu aizspriedumiem un kas dažādu subjektu motivē celt civilprasības pret sociālo tīklu. Kā ziņoja Wired, beidzot izlēma pielāgot savu reklāmas mērķauditorijas atlases tehnoloģiju piecu juridisku lietu izšķiršanas rezultātā, kas tai tika izvirzīta par apsūdzību minoritāšu diskriminācijas veicināšanā, izmantojot reklāmas 2019. gada martā.

Savā ziņojumā par izlīgumu ACLU uzsvēra, cik mānīgas var būt šādas mērķtiecīgas reklāmas, jo mazākumtautības un sievietes, iespējams, pat nenojauš, ka tām netiek piešķirta tāda pati pieeja informācijai, mājoklim un darba iespējām, kuras tiek dalītas ar baltajiem vīriešiem.

Tā kā arvien vairāk cilvēku izmanto internetu, lai atrastu darbu, dzīvokļus un aizdevumus, pastāv reāls risks, ka reklāmu mērķauditorija atkārtos un pat saasinās pastāvošos rasu un dzimumu aizspriedumus sabiedrībā. Iedomājieties, ja darba devējs izvēlas rādīt reklāmas mašīndarbos tikai vīriešiem - ne tikai lietotāji, kuri netiek identificēti kā vīrieši, nekad neredzēs šīs reklāmas, viņi nekad arī nezinās, kas viņiem garām.

Galu galā mums reti ir veids, kā noteikt reklāmas, kuras mēs tiešsaistē neredzam. Tā kā šī diskriminācija ir neredzama izslēgtajam lietotājam, to vēl grūtāk apturēt.

2. Dzimumu un vecuma diskriminācija darbavietās

Starp juridiskām lietām tika atļauta nelikumīga diskriminācija mājokļu jomā. ProPublica savā ziņojumā par izlīgumu sacīja, ka ir pārbaudījusi platformu un tai ir izdevies iegādāties “ar mājokli saistītas reklāmas tajās izslēgtajās grupās kā afroamerikāņi un ebreji, un tā iepriekš ir atradusi darba sludinājumus, izslēdzot uzņēmumus pēc vecuma un dzimuma, kurus izvietojuši uzņēmumi tie ir mājsaimniecības vārdi. ”

Vairāki darba sludinājumi, ko ACLU atrada un kas tieši domāti tikai vīriešiem noteiktā vecuma grupā, kā lietotāji varēja atrast, noklikšķinot uz atbildi uz jautājumu, kāpēc viņiem tika rādīta šī konkrētā reklāma, tika parādīti citā rakstā “Wired”. ACLU izvirzīja apsūdzību Vienlīdzīgu nodarbinātības iespēju komisijā pret sociālo tīklu un uzņēmumiem, kas ievietoja reklāmas, pamatojoties uz to, ka viņi pārkāpj gan darba, gan pilsoņu tiesību likumus.

Diskriminācija, pieņemot darbā cilvēkus, kuri vecāki par 40 gadiem, pārkāpj Federālo likumu par vecuma diskrimināciju nodarbinātības jomā (ADEA). Bet viena no platformā iespējotajām iespējām ir darba sludinājumu mērķēšana tikai uz cilvēkiem, kas jaunāki par šo vecumu.

ProPublica pievērsa uzmanību vienam no saviem ziņojumiem, kurā tika norādīts, kuri darba sludinājumi izmanto šo nelikumīgo izstumšanas veidu pēc vecuma. “Mājsaimniecības nosaukumi” cita starpā ietver Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, Sabiedrības interešu fondu, Goldman Sach, OpenWorks un sevi.

Sejas atpazīšanas neveiksme

“Sejas atpazīšana ir precīza, ja tu esi balts puisis” pasludināja 2018. gada februārī publicētā New York Times raksta virsrakstu. Tajā tika citēti rezultāti, kas atklāja skaidru korelāciju starp ādas toni un kļūdainu identifikāciju:

"Saskaņā ar jaunu pētījumu, jo tumšāka ir āda, jo vairāk kļūdu rodas līdz pat gandrīz 35% no tumšākas ādas attēliem. Tas liecina, ka tehnoloģija darbojas uz dažādu rasu un dzimumu cilvēkiem."

Rezultāti tiek ieskaitīti Joy Buolamwini, MIT Media Lab pētniekam un Algorithmic Justice League (AJL) dibinātājam. Viņas pētījumu joma ir AI pamatā esošās neobjektivitātes, kā rezultātā tiek iegūti tik šķībi rezultāti, kad runa ir par tādu sejas atpazīšanu, kuras neatbilst modelim noteiktajām balto vīriešu dzimuma normām.

Buolamwini iepazīstināja ar rasu un dzimumu aizspriedumu problēmu sejas atpazīšanā 2017. gada TED sarunā, kuru viņa atsauca uz savu 2018. gada sākumu videoklipā par projektu The Gender Shades no MIT Lab:

<

Videoklipa aprakstā ir teikts, ka, nekontrolējot AI aizspriedumus, "tiks sabojāts automatizācijas vecums un vēl vairāk saasināsies nevienlīdzība, ja to atstāj sabojāt". Risks nav nekas cits kā "zaudēt ieguvumus, kas gūti no pilsoņu tiesību kustības un sieviešu kustības, kļūdaini pieņemot, ka tiek nodrošināta mašīnu neitralitāte".

Video aprakstā ir pievienots brīdinājums, uz ko daudzi citi jau ir norādījuši, kā mēs redzējām žurnālā Women in AI: Seksisma un stereotipu stiprināšana ar tehnoloģiju: "Automatizētās sistēmas pēc savas būtības nav neitrālas. Tās atspoguļo kodētās prioritātes, preferences un aizspriedumus. skatiens - no tiem, kam ir vara veidot mākslīgo intelektu. "

2019. gada 25. janvārī Buolamnwini publicēja Medium pastu, kurā tika izmantoti viņas un citu pētnieku pētījumi, kuri norādīja, kā AI trūkumi rada kļūdas Amazon’s Recognition, un pieprasīja, lai uzņēmums pārtrauktu AI pakalpojuma pārdošanu policijas departamentiem.

Lai gan atpazīšana varēja lepoties ar 100% precizitāti vieglas ādas vīriešu atpazīšanā un 98,7% precizitāti pat tumšākiem vīriešiem, kad tā bija sieviete, precizitāte samazinājās līdz 92,9% gaišākām sievietēm. Vēl vairāk uzkrītošs bija straujš kritums līdz 68,6% precizitātei tumšākām mātītēm.

Bet Amazon atteicās no relent. Rakstā Venture Beat tika citēts AWS dziļās mācīšanās un AI ģenerāldirektora Dr. Metjū Vudsa paziņojums, kurā viņš uzsvēra, ka pētnieku atklājumi neatspoguļo, kā AI faktiski tiek izmantots, paskaidrojot:

“Sejas analīze un sejas atpazīšana ir pilnīgi atšķirīga attiecībā uz pamatā esošo tehnoloģiju un datiem, kas izmantoti to apmācīšanai. Mēģinājums izmantot sejas analīzi, lai noteiktu sejas atpazīšanas precizitāti, nav ieteicams, jo tas nav šim mērķim paredzētais algoritms. ”

Bet algoritmus uzskata par ļoti problemātiskiem ne tikai tiem, kas saistīti ar lielākajiem pētniecības centriem. Saskaņā ar Gizmodo ziņojumu ACLU veica savu pārbaudi ar vispieņemamākajām izmaksām - USD 12,33. Tajā tika noskaidrots, ka Rekognition saderēja 28 Kongresa locekļus ar noziedznieku fotogrāfijām.

"Viltus identifikācija tika veikta, kad Ziemeļkalifornijas ACLU uzdeva Rekognition ar visu 535 Kongresa dalībnieku fotogrāfijām, salīdzinot ar 25 000 publiski pieejamu fotoattēlu ar fotoattēlu."

Tā kā 11 no 28 bija krāsainas personas, tas viņiem atspoguļoja ievērojamu 39% kļūdu līmeni. Turpretī kļūdu īpatsvars kopumā bija pieņemamāks 5%. Seši Kongresa Melnā Kaukāza locekļi, kas bija vieni no tiem, kas atzīti par saistošiem, ir pauduši bažas atklātā vēstulē Amazon izpilddirektoram.

Recidīvisma aizspriedumi

AI iestrādātie aizspriedumi pret krāsainiem cilvēkiem kļūst par nopietnāku problēmu, ja tas nozīmē vairāk nekā tikai kļūdu identificēšanā. Tas tika secināts vēl vienā ProPublica izmeklēšanā 2016. gadā. Šādu aizspriedumu sekas ir nekas cits kā individuāla brīvība apvienojumā ar reāla riska ignorēšanu no personas, kuras ādas krāsu iecienījis algoritms.

Rakstā tika minēti divi paralēli gadījumi, kuros iesaistīts viens baltais vainīgais un viens melnais. Lai prognozētu, kurš, iespējams, atkal pārkāpj likumu, tika izmantots algoritms. Melnais tika novērtēts ar augstu risku, bet baltais - par zemu.

Prognoze kļuva pilnīgi nepareiza, un baltais, kurš devās brīvībā, atkal bija jāieslodzē. Tas ir ārkārtīgi problemātiski, jo tiesas, pieņemot lēmumu par izlaišanu, paļaujas uz punktu skaitu, un tas nozīmē, ka programmā ietvertā rasu novirze nozīmē nevienlīdzīgu izturēšanos saskaņā ar likumu.

ProPublica pakļāva algoritmu savam testam, salīdzinot vairāk nekā 7000 cilvēku riska rādītājus, kas tika arestēti Braundas apgabalā, Floridā 2013. un 2014. gadā, ar skaitu, kuram nākamajos divos gados pret viņiem tika izvirzītas jaunas kriminālās apsūdzības.

Viņi secināja, ka piepildījās tikai 20% no prognozēm par vardarbīga nozieguma atkārtošanos, un mazāk nozīmīgi noziegumi notika tikai 61% no tiem, kuru rādītāji liecina par risku.

Patiesā problēma ir ne tikai precizitātes trūkums, bet arī iesaistītā rase:

  • Īpaši iespējams, ka formula melīgi atbildētājus nepatiesi apzīmēja kā nākamos noziedzniekus, kļūdaini marķējot viņus šādā veidā gandrīz divreiz vairāk nekā baltie apsūdzētie.
  • Baltie atbildētāji tika maldināti kā zems risks biežāk nekā melnādainie atbildētāji.

Faktiski tas nozīmē, ka kļūdu īpatsvars melnajiem ir 45% un baltajiem - 24%. Neskatoties uz šo uzkrītošo statistiku, Tomass ziņoja, ka Viskonsinas Augstākā tiesa joprojām atbalsta šī algoritma izmantošanu. Viņa sīki izklāsta arī citas problēmas, kas saistītas ar recidīvisma algoritmiem.