Neskatieties atpakaļ, šeit viņi nāk! Mākslīgā intelekta sasniegumi

Autors: Roger Morrison
Radīšanas Datums: 17 Septembris 2021
Atjaunināšanas Datums: 21 Jūnijs 2024
Anonim
Neskatieties atpakaļ, šeit viņi nāk! Mākslīgā intelekta sasniegumi - Tehnoloģija
Neskatieties atpakaļ, šeit viņi nāk! Mākslīgā intelekta sasniegumi - Tehnoloģija

Saturs


Avots: Danomyte / Dreamstime.com

Izņemšana:

Mākslīgais intelekts strauji iegūst jaunu impulsu ... un atbildību.

Vēl nesen korporāciju direktori valdes sēdēs varēja ienest klēpjdatorus vai planšetdatorus (vai, ja lielāki uzņēmumi, viņiem ir palīgi ar ierīcēm, kas atrodas aiz tām), lai vajadzības gadījumā tos izmantotu kā pētniecības instrumentus. Atslēgvārds šeit ir “rīki” - ierīces tika izmantotas informācijas vākšanai, lai režisors varētu saprātīgi runāt vai balsot par noteiktu tēmu - datorsistēma pat varētu sniegt ieteikumu par veicamajām darbībām, taču tehnoloģija vienmēr bija pakļauta direktors, kurš varēja izvēlēties ignorēt apkopotos datus vai tā dēvētā "mākslīgā intelekta" ieteikumu.

AI kā lēmumu pieņēmēji

Nu spēle ir tikko mainījusies! Kā Robs Vile jau 2014. gadā rakstīja Business Insider rakstā ar nosaukumu “Riska kapitāla firma, kas tikko nosaukta par algoritmu tās direktoru padomei - Heres, ko tā patiesībā dara”, datoranalīzes sistēma ir nosaukta par līdzvērtīgu, nevis par rīku. , Direktoru padomei. Vils raksta: "Deep Knowledge Ventures, firma, kas koncentrējas uz ar vecumu saistītām zālēm un reģeneratīvās medicīnas projektiem, saka, ka programma, kuras nosaukums ir VITAL, var sniegt investīciju ieteikumus par dzīvības zinātņu firmām, ievietojot lielu datu daudzumu. ... Kā algoritma darbība? VITAL pieņem lēmumus, skenējot potenciālo uzņēmumu finansējumu, klīniskos pētījumus, intelektuālo īpašumu un iepriekšējās finansēšanas kārtas. " Patiesais stāsts ir tāds, ka VITAL ir valdes loceklis ar balsstiesībām ar vienādu balsošanas svaru kā jebkurš cits loceklis.


Pietiek pateikt, ka šī ir tikai pirmā no šādām ziņām, kas ienesīs līdaku.

AI Pārsteidz cilvēku?

Mākslīgais intelekts ir guvis visdažādākās uzvaras. Pašmācītais dators janvārī sniedza nozīmīgus jaunumus, kad pēc 2 triljonu simulētas rokas spēlēšanas viņš izstrādāja "galīgo" stratēģiju, kā uzvarēt pokerā. Iemesls, kāpēc stāsts varētu neuztvert daudzu lasītāju uzmanību, ir tas, ka dators jau ir uzvarējis šahā (pārspējot Grand Master) un dambretē (nemaz nerunājot par "Jeopardy"). Tomēr tas ir savādāk. Šajos gadījumos datoru intelekts zināja visu par aktuālo problēmu un varēja uz vietas skenēt miljoniem faktu, gājienu, stratēģiju utt., Lai konkurētu ar pretinieku. Šajā gadījumā AI nezina, kādas kārtis pretiniekam ir “caurumā”, un tāpēc nodarbojas ar nepilnīgajām zināšanām. Tam arī nav sava pretinieka profila, lai zinātu, kad un cik bieži viņš "blefo" un vai pretiniekam ir kādi "tikumi" vai izteicieni, kas atdod blefus (lai gan sesijas turpināšanas laikā tas tos var iemācīties) ).


Maikls Boulings, kurš vadīja Alberta universitātes projektu Edmontonā, Kanādā, skaidroja procesu Associated Press - programma divus mēnešus izskatīja 24 triljonus simulētu pokera roku sekundē, iespējams, spēlējot vairāk pokera nekā visa cilvēce jebkad ir pieredzējusi. Rezultātā iegūtā stratēģija joprojām neuzvarēs katru spēli sliktas veiksmes dēļ kārtīs. Bet ilgtermiņā - tūkstošiem spēļu - tas nezaudēs naudu. Viņš komentēja: "Mēs varam stāties pretī labākajiem (spēlētājiem) pasaulē, un cilvēki zaudēs naudu."

AP rakstā tika sniegts papildu informācija par projektu:

"Stratēģija īpaši attiecas uz spēli ar nosaukumu“ heads-up limit Texas Hold em ”. Divu spēlētāju spēlē katrs konkursa dalībnieks izveido pokera roku no divām kārtīm, kuras viņam tiek dalītas ar apvērsto pusi, kā arī piecām citām kārtīm, kuras tiek liktas uz galda ar seju uz augšu. .

"Spēlētāji veic likmes, pirms tiek kārtotas kartītes uz augšu, un pēc tam atkal tiek parādīta katra kartīte. Likmju lielums ir noteikts. Lai gan zinātnieki gadiem ilgi ir izveidojuši pokera spēles programmas, Boulinga rezultāts izceļas, jo tas nāk tā tuvu savas spēles versijas atrisināšanai, kas būtībā nozīmē optimālas stratēģijas izveidi. Pokeru ir grūti atrisināt, jo tajā ir ietverta nepilnīga informācija, kad spēlētājs nezina visu, kas ir noticis tajā spēlē, kuru viņš spēlē - konkrēti, kādas kārtis ir pretiniekam. Daudzos reālās pasaules izaicinājumos, piemēram, sarunās un izsolēs, ir arī nepilnīga informācija, kas ir viens no iemesliem, kāpēc pokers jau sen ir bijis pierādīšanas pamats lēmumu pieņemšanas matemātiskajai pieejai, ko sauc par spēles teoriju. "

Sistēma, kas aprakstīta žurnālā Science, uzslavēja citus mākslīgā intelekta pētniekus kopā ar Tuomu Sandholmu no Kārnegi Melona Universitātes Pitsburgā (kurš nepiedalījās jaunajā darbā), nodēvējot Boulinga rezultātus par “orientieri” un sakot: “tā ir pirmā reize ka būtībā ir atrisināta nepilnīga informācijas spēle, kuru konkurē cilvēki. "

AI kļūst inteliģentāks

Ja ar to vien nepietiek, lai prātā apjuktu, kā būtu ar faktu, ka robots kaut kur sēž pie datora vai televizora ekrāna un iemācās darīt lietas, skatoties, “Robots iemācās izmantot rīkus, skatoties“ YouTube videoklipus. " Stāsts, kas atrodams labākajā vietā, kurā es zinu, lai neatpaliktu no jauninājumiem AI tehnoloģiju jomā, Kurzweil AI, stāsta par to, kā Merilendas universitātes un NICTA pētnieku izstrādātā sistēma Austrālijā spēj atpazīt formas un mācīties manipulācijas ar tām metodēm.

Bez kļūdām, bez stresa - jūsu soli pa solim, kā izveidot programmatūru, kas maina dzīvi, neiznīcinot savu dzīvi

Jūs nevarat uzlabot savas programmēšanas prasmes, ja nevienam nerūp programmatūras kvalitāte.

Robota morāle

Par darbu ar robotiem ir daudz jādomā. Janvāra New York Times rakstā ar nosaukumu "Robota nāve" rakstnieks Robins Marantzs Henigs atsaucas uz problēmu, kuru izvirzīja Matiass Scheutzs no cilvēka-robota mijiedarbības laboratorijas Tufta universitātē:

"Iedomājieties, ka tā ir svētdiena ne pārāk tālā nākotnē. Gados veca sieviete, vārdā Silvija, ir kritusi tikai gultā un sāpēs pēc tam, kad rudenī salauzusi divas ribas. Viņu kopj robots palīgs; sauksim to par Fabulonu. Silvija piezvana dodieties uz Fabulonu, lūdzot pretsāpju devu. Kas jādara Fabulonam? Koderi, kuri uzcēla Fabulonu, ir to ieprogrammējuši ar instrukciju kopumu: Robots nedrīkst savainot savu cilvēku. Robotam jādara tas, ko lūdz viņa cilvēks. robots nedrīkst ievadīt medikamentus, vispirms nesazinoties ar tā vadītāju, lai saņemtu atļauju. Lielākajā daļā dienu šie noteikumi darbojas labi. Lai arī šajā svētdienā Fabulon nevar sasniegt vadītāju, jo bezvadu savienojums Silvijas mājā ir zemāks. Silvijas balss kļūst skaļāka, un viņas pieprasījumi pēc sāpju medikamentiem kļūst uzstājīgāki. "

Scheutz paskaidro: "Jums šeit ir konflikts. No vienas puses, robotam ir pienākums padarīt cilvēku nesāpīgu; no otras puses, tas nevar veikt kustību bez vadītāja, kuru nevar sasniegt. " Viņš norāda, ka cilvēku aprūpētājiem būtu izvēle, un viņi pēc fakta spētu attaisnot savu rīcību uzraugam.

Henigs raksta,

"šie nav lēmumi vai skaidrojumi, ko roboti var izdarīt - vismaz pagaidām ne. Daļa ekspertu topošajā robotu morāles jomā mēģina to mainīt. Datorzinātnieki sadarbojas ar filozofiem, psihologiem, valodniekiem, juristiem, teologi un cilvēktiesību eksperti, lai identificētu lēmumu punktu kopumu, kas robotiem būtu jāizstrādā, lai atdarinātu mūsu pašu domāšanu par pareizo un nepareizo. Scheutz morāli definē plaši kā faktoru, kas var būt svarīgs, izvēloties starp pretrunīgiem ceļiem. "

Pagaidām roboti apvieno direktoru padomes, uzvar pokerā, apgūst prasmes, skatoties ekrānos, un ekspertu komandas no plaši starpdisciplinārām jomām apvienojas, lai mēģinātu izstrādāt robotu morāles vadlīnijas (Henig raksts, pārāk garš, lai sniegtu taisnīgums šeit, ir īpaši saistošs un izaicinošs, un es to iesaku visiem). Oho, aizgājuši ir R2-D2 laiki no “Zvaigžņu kariem” un vienkārša ievērošana ar Īzaka Asimova slaveno “Robotikas likumiem” (no “Es, robots”, 1950):

  1. Robots nedrīkst savainot cilvēku vai bezdarbības rezultātā ļaut cilvēkam nodarīt kaitējumu.
  2. Robotam jāpakļaujas cilvēku pavēlēm, izņemot gadījumus, kad šādi rīkojumi būtu pretrunā ar Pirmo likumu.
  3. Robotam ir jāaizsargā sava eksistence, ja vien šāda aizsardzība nav pretrunā ar Pirmo vai Otro likumu.

Šie likumi ir virzījuši gan zinātniskās fantastikas rakstniekus, gan robotikas izstrādātājus, kopš Asimovs tos rakstīja. Tagad šķiet, ka, robotu izstrādei paātrinoties eksponenciālā tempā un pāriet sarežģītības sfērā, ka ar tiem nepietiek. Heniga savu kolonnu noslēdz ar piesardzības piezīmi:

"Idejā par to, ka ētiku var aprēķināt ar algoritmu, ir kaut kas īpaši mierinošs: Tas ir vieglāk, nekā dažreiz nākas piedzīvot paniski, nepilnīgos darījumus, kas cilvēkiem ir jāveic. Bet varbūt mums vajadzētu uztraukties par morāles ārpakalpojumiem robotiem tikpat viegli, cik mēs esam noalgojuši. daudzos citos cilvēku darba veidos. Atvieglojot smagos jautājumus, mums vajadzētu dot pauzi. "

Viņai, protams, ir taisnība - bet mums, sabiedrībai, jākļūst par "informētu sabiedrību", lai lēmumus, kas ietekmēs mūsu nodarbinātību, izglītību, veselības aprūpi - gandrīz visu mūsu dzīvi - nepieņemtu tikai "intelektuālā elite" . " Tomēr, lai mēs kļūtu par šo “informēto sabiedrību”, būs jāveic darbs - darbs, kas jāpaveic, ja vēlamies kontrolēt savu likteni.