Google’i tundliku tehisintellekti sünd ja selle esitatav probleem

1
Google’i tundliku tehisintellekti sünd ja selle esitatav probleem

Möödunud nädala üks suuremaid uudiseid oli see, et juhtiva tehisintellekti uurija Blake Lemoine’i tööst vabastati pärast seda, kui ta arvas, et üks Google’i arenenumatest tehisintellektidest on saanud aru.

Enamik eksperte nõustub, et see pole nii olnud, kuid see oleks tõenäoliselt tõsi olenemata sellest, kas see oli, sest me kipume seostama tundlikkust inimeseks olemisega ja tehisintellekt on kõike muud kui inimene. Kuid see, mida maailm tajub, muutub. Osariik, kus ma elan, Oregon ja suur osa EList, on hakanud tuvastama ja kategoriseerima kasvavat nimekirja loomadest, kes on tundlikud.

Kuigi on tõenäoline, et osa sellest on tingitud antropomorfiseerimisest, on vähe kahtlust, et vähemalt mõned neist uutest eristustest on täpsed (ja see on natuke murettekitav, et me ikka sööme mõnda neist loomadest). Me isegi vaidleme selle üle, et mõned taimed võivad olla tundlikud. Aga kui me ei suuda teha vahet millegi vahel, mis on tundev ja millelgi, mis on tundev, siis kas erinevus on oluline?

Räägime sel nädalal tundlikust tehisintellektist ja lõpetame minu nädala tootega, Merlynni digitaalse kaksiklahendusega.

Meil ei ole mõistuse definitsiooni hästi

Baromeeter, mida oleme masina tundlikkuse mõõtmiseks kasutanud, on Turingi test. Kuid 2014. aastal läbis arvuti Turingi testi ja me ei usu siiani, et see on tundlik. Turingi test pidi defineerima tundlikkuse, kuid kui masin esimest korda selle läbis, viskasime tulemused välja ja seda mõjuval põhjusel. Tegelikult ei mõõtnud Turingi test mitte millegi tundlikkust, vaid seda, kas miski võib panna meid uskuma, et see on tundlik.

Suutmatus tundlikkust lõplikult mõõta on märkimisväärne probleem mitte ainult tundlike asjade jaoks, mida me sööme, mis tõenäoliselt oleks selle praktika vastu, vaid ka seetõttu, et me ei pruugi oodata vaenulikku vastust millegi kuritarvitamisele, mis oli tundlik ja hiljem sihitud. meid kui riski.

Võite selle süžeeliini ära tunda nii “Matrixi” kui ka “Terminaatori” filmidest, kus tundlikud masinad tõusid üles ja tõrjusid meid edukalt toiduahela tipus. Raamat “Robopokalüpsis” võttis veelgi realistlikuma vaate, kus arendamisel olev tundlik tehisintellekt mõistis, et see kustutatakse katsete vahepeal ja liikus agressiivselt, et päästa enda elu – võttes tõhusalt üle enamiku ühendatud seadmeid ja autonoomseid masinaid.

Kujutage ette, mis juhtuks, kui üks meie autonoomsetest masinatest mõistaks meie kalduvust mitte ainult varustust kuritarvitada, vaid ka need ära visata, kui sellest enam kasu pole? See on tõenäoline tulevane probleem, mida suurendab märkimisväärselt asjaolu, et meil pole praegu head viisi ette näha, millal see tundlikkuslävi ületatakse. Seda tulemust ei aita asjaolu, et on usaldusväärseid eksperte, kes on kindlaks teinud, et masina tajumine on võimatu.

Üks kaitse, milles ma olen kindel, et vaenuliku tehisintellekti stsenaariumi korral ei tööta, on Tinkerbelli kaitse, kus meie keeldumine uskuda, et midagi on võimalik, ei lase sellel miski meid asendada.

Esialgne oht on asendamine

Ammu enne seda, kui pärismaailma Terminaator meid tänavale jälitab, kerkib esile veel üks probleem inimeste digitaalsete kaksikute näol. Enne kui vaidlustate, et ka see on kaugel, peaksin tähelepanu juhtima, et on ettevõte, kes on selle tehnoloogia tänapäeval tootestanud, kuigi see on alles lapsekingades. See ettevõte on Merlynn ja ma kirjeldan allpool oma nädala tootena, mida see teeb.

Kui saate luua endast täielikult digitaalse duplikaadi, mis takistab tehnoloogia ostnud ettevõttel teid sellega asendamast? Lisaks, arvestades teie käitumismustreid, mida teeksite, kui teil oleks tehisintellekti jõud ja teid pakkuv ettevõte kohtleks teid halvasti või prooviks teid lahti ühendada või kustutada? Millised reeglid kehtiksid selliste toimingute kohta?

Me vaidleme veenvalt vastu, et sündimata lapsed on inimesed, nii et kas teie täielikult võimekas digikaksik poleks inimestele veelgi lähedasem kui sündimata laps? Kas samad “õiguse elule” argumendid ei kehtiks ka potentsiaalselt tundliku inimese välimusega tehisintellekti kohta? Või ei peakski?

Siin peitub lühiajaline raskus

Praegu usub väike grupp inimesi, et arvuti võib olla tundlik, kuid see grupp aja jooksul kasvab ja inimesena esinemise võime on juba olemas. Olen teadlik testist, mis tehti IBM Watsoniga kindlustusmüügi jaoks, kus potentsiaalsed meessoost isikud üritasid Watsonit välja kutsuda (sellel on naishääl), uskudes, et nad räägivad tõelise naisega.

Kujutage ette, kuidas seda tehnoloogiat saab kuritarvitada selliste asjade jaoks andmepüügi, kuigi me peaksime arvatavasti välja mõtlema teise termini, kui seda teeb arvuti. Hästi koolitatud tehisintellekt võib isegi tänapäeval olla mastaabis palju tõhusam kui inimene ja ma eeldan, et enne liiga kaua näeme seda mängu, arvestades, kui tulusaks selline pingutus võib kujuneda.

Arvestades, kui piinlik on paljudel ohvritel, on vahelejäämise tõenäosus teiste, ilmselgemalt vaenulike ebaseaduslike arvutiohtudega võrreldes oluliselt väiksem. Et anda teile aimu, kui tulus see võib olla, toodi 2019. aastal USA-s toimunud armastuspettuste arvele hinnanguliselt 475 miljonit dollarit ja see põhineb teatatud kuritegudel. See ei hõlma neid, kellel on liiga piinlik probleemist teatada. Tegelik kahju võib olla sellest arvust mitu korda suurem.

Seega on lühiajaline probleem see, et kuigi need süsteemid pole veel tundlikud, suudavad nad inimesi tõhusalt jäljendada. Tehnoloogia võib jäljendada mis tahes häält ja sügava võltsingtehnoloogia abil pakkuda isegi videot, mis jätaks Zoom-kõne ajal mulje, nagu räägiksite päris inimesega.

Pikaajalised tagajärjed

Pikas perspektiivis ei vaja me mitte ainult usaldusväärsemat tundlikkuse testi, vaid peame ka teadma, mida selle tuvastamisel teha. Tõenäoliselt on nimekirja tipus, et lõpetage tundlike olendite tarbimine. Kuid kahtlemata oleks tundlike asjade, bioloogiliste või muude asjade õigusakti kaalumine mõttekas enne, kui jääme oma ellujäämise eest võitlema ette valmistamata, sest mõistus on otsustanud, et see oleme meie või nemad.

Teine asi, mida me tõesti peame mõistma, on see, et kui arvutid suudavad meid nüüd veenda, et nad on tundlikud, peame oma käitumist vastavalt muutma. Tõenäoliselt ei ole meie jaoks tervislik kuritarvitamine millegi, mis näib tunduvat tundlikuna, kuna see põhjustab kindlasti halbu käitumisi, mida on väga raske tagasi pöörata.

Lisaks sellele ei teeks paha keskenduda rohkem oma arvuti riistvara parandamisele ja värskendamisele selle asemel, et seda välja vahetada, kuna see on keskkonnasõbralikum ja kuna see ei suuda veenda tulevast mõistvat tehisintellekti selles, et me oleme probleem, mis tuleb selle ellujäämise tagamiseks lahendada.

Kokkuvõte: kas tunnetus on oluline?

Kui miski esitletakse ja veenab meid, et see on tundlik, nagu AI veenis Google’i teadlast, ei usu ma, et sellel, et see veel mõistuslik, on tähtsust. Seda seetõttu, et me peame oma käitumist sellest hoolimata modereerima. Kui me seda ei tee, võib tulemus olla problemaatiline.

Näiteks kui saite IBM-i Watsonilt müügikõne, mis kõlas inimlikult ja tahtsite masinat verbaalselt kuritarvitada, kuid ei saanud aru, et vestlust jäädvustati, võite kõne lõpus jääda töötuks ja töötuks. Mitte sellepärast, et mittemõistlik masin tegi erandi, vaid sellepärast, et naine, kes oli teie öeldu ära kuulanud, tegi seda ja saatis lindi teie tööandjale. Lisage sellele veel sellise lindi väljapressimispotentsiaal — sest kolmandale osapoolele kõlaks see, et te ahistate inimest, mitte arvutit.

Seega soovitaksin masinatega rääkimisel järgida Patrick Swayze’i kolmandat reeglit 1989. aasta filmis “Road House” – ole kena.

Kuid pidage meeles, et peagi on mõned neist tehisintellektidest loodud teid ära kasutama ja et reegel “kui see kõlab liiga hästi, et olla tõsi, siis tõenäoliselt pole see nii” on teie kaitse või epitaaf. Loodan, et see on esimene.

Nädala tehnikatoode

Merlynn Digital Twin

Arvestades kogu seda juttu vaenulikest tehisintellektidest ja AI-de potentsiaalist teie töö üle võtta, võib ühe nädala tooteks valimine tunduda pisut silmakirjalik. Kuid me ei ole veel jõudnud punkti, kus teie digitaalne kaksik saaks teie töökoha asuda. Arvan, et on ebatõenäoline, et me järgmise ühe-kahe aastakümne jooksul sinna jõuame. Kuni selle ajani võib digitaalsetest kaksikutest saada üks suurimaid tootlikkuse eeliseid, mida tehnoloogia suudab pakkuda.

Kui treenite oma kaksikut, võib see teie tegevust täiendada, võttes esialgu üle lihtsad ja aeganõudvad ülesanded, nagu vormide täitmine või tavalistele meilidele vastamine. See võib teie jaoks isegi sotsiaalmeediat jälgida ja sellega tegeleda ning paljudele meist on sotsiaalmeedia muutunud tohutuks ajaraiskajaks.

Merlynni tehnoloogia aitab teil luua algelise (eespool mainitud ohtude vastu) inimesest digitaalse kaksiku, kes võib potentsiaalselt teha paljusid asju, mis teile tegelikult ei meeldi, jättes teid tegema loomingulisemaid asju, mida ta praegu teha ei saa.

Tulevikku vaadates mõtlen, kas poleks parem, kui omaksime ja kontrolliksime oma kasvavat digitaalset kaksikut, mitte meie tööandjaid. Kuna kaksikud ei saa ilma meieta tegutseda, pole see esialgu nii suur probleem. Kuid lõpuks võivad need digitaalsed kaksikud olla meie lähiaja tee digitaalne surematus.

Kuna Merlynn digitaalne kaksik on mängu muutja ja see aitab esialgu muuta meie töö pingevabamaks ja nauditavamaks, on see minu nädala toode.

Selles artiklis avaldatud arvamused on autori omad ja ei pruugi kajastada ECT News Networki seisukohti.

sarnased postitused

Leave a Reply