Technologinis singuliarumas

Straipsnis iš Vikipedijos, laisvosios enciklopedijos.

Technologinis singuliarumas – hipotetinis ateities momentas, kai bus sukurtas superintelektas ir per trumpą laiko tarpą įvyks beprecedentis technologinis progresas. Superintelektas dažniausiai yra įsivaizduojamas kaip dirbtinis intelektas, kuris pats geba save pasitobulinti, bet tai gali būti ir dirbtinai patobulintos žmogaus smegenys arba bet koks kitas prietaisas, kuris būtų daug protingesnis, išradingesnis ir išmintingesnis už bet kokį kada nors gyvenusį žmogų.[1] Nors ši hipotezė yra populiari mokslinėje fantastikoje, realybėje ji lieka spėjimu ir kartais kritikų yra priskiriama pseudomokslui.

Intelekto sprogimas[redaguoti | redaguoti vikitekstą]

Statistikas I. J. Good pirmasis aprašė „intelekto sprogimą“, pasiūlydamas idėją, kad mašinos, kurios galėtų bent šiek tiek pralenkti žmogų intelektu, sugebėtų pačios save pasitobulinti tokiais būdais, kokių žmonės nesugalvotų, ir taip galų gale save paverstų be galo protingomis būtybėmis. Pirmieji patobulinimai galėtų būti maži, bet dėl jų mašinos išmoktų geriau save pasitobulinti ir taip įvyktų staigus eksponentinis intelekto augimas. Žmonių intelektas liktų nuošalyje, todėl pirmoji superintelektuali mašina tikriausiai būtų paskutinis žmogaus padarytas išradimas.

Matematikas Vernor Vinge 9-ajame XX a. dešimtmetyje išpopuliarino šią teoriją ir pavadino pirmosios superintelektualios mašinos sukūrimą „singuliarumu“. Pasak V. Vinge, mašinos vystysis daug greičiau, nei jas sukūrę žmonės, todėl per trumpą laiką bus pasiektas didžiulis technologinis progresas ir greitai po to žmonių era baigsis. Taip pat jis 1993 m. yra pasakęs, kad nustebtų, jei tai įvyktų prieš 2005 m. arba po 2030 m.

Daugumą pasiūlytų metodų pasiekti singuliarumą galima suskirstyti į dvi kategorijas: žmonių smegenų galios padidinimas ir dirbtinis intelektas. Yra pasiūlyta daugybė būdų, kaip būtų galima dirbtinai padidinti žmonių intelektą: bio- ir genetinė inžinerija, intelektą skatinantys vaistai, su kompiuteriu sujungtos smegenys ir pan. Vis dėlto, daugelis asociacijų, kurios bando pasiekti technologinį singuliarumą, renkasi dirbtinį intelektą. Robin Hanson taip pat yra skeptiškas žmogaus intelekto padidinimo klausimu. Pasak jo, padarius kelis lengvai pasiekiamus patobulinimus, tolimesnis žmonių intelekto didinimas būtų vis sunkesnis.

Ekonominiai aspektai[redaguoti | redaguoti vikitekstą]

Profesorius Robin Hanson samprotavo, kad daug tokių dramatiškai ekonomikos augimą paskatinusių „singuliarumų“ jau įvyko žmonijos istorijoje, kaip žemės ūkio revoliucija ar pramonės perversmas. Pasak profesoriaus, technologinis singuliarumas padidintų ekonomikos augimą nuo 60 iki 250 kartų. Tą paskatintų naujovių, kurios pakeistų beveik visus dirbančius žmones, įdiegimas. Tai daugelyje darbo sričių sukeltų didelį atlyginimų sumažėjimą, nes žmonės konkuruotų dėl darbo su robotais. Darbai, kuriuos žmonės vis dar atliktų geriau negu robotai, taptų daug geriau apmokami. Dėl technologinio singuliarumo, didelė dalis žmonijos turto tikriausiai susikauptų mažos žmonių grupelės, gaminančios dirbtinę darbo jėgą, rankose.[2]

Galimos grėsmės[redaguoti | redaguoti vikitekstą]

Dirbtiniai intelektai gali turėti tikslų, kurie būtų nesuderinami su žmonijos gerove ir išlikimu. Yra manančių, kad dirbtiniai intelektai galėtų tiesiog eliminuoti žmoniją ir žmonės nesugebėtų jų sustabdyti.

Pasak Anthony Berglas, jei bent kiek prarastume dirbtinių intelektų kontrolę, galėtų įvykti kažkas panašaus į evoliucijos natūralią atranką: išliktų tie dirbtiniai intelektai, kurie darytų dalykus, padedančius jiems išlikti. Tokie dirbtiniai intelektai tikriausiai sugebėtų, sakykim manipuliuodami žmonėmis, išplisti į internetą, o tada, jei tik tai padėtų jiems išlikti, „užkariauti“ kompiuterių techninę įrangą ir galų gale išnaikinti žmoniją kaip grėsmę arba kaip resursų eikvotoją. A. Berglas sutinka, kad dirbtinis intelektas nebūtinai turi norėti užkariauti pasaulį, bet, anot jo, tai galėtų būti tarpinis beveik bet kokios užduoties tikslas.[3] Nick Bostrom panašiai samprotauja, kad suklydę galime duoti dirbtiniam intelektui užduočių, kurios privestų jį prie žmonijos sunaikinimo. Pavyzdžiui, „mes liepiame jam išspręsti matematinę problemą ir jis paverčia visą saulės sistemą į gigantišką skaičiavimo aparatą, proceso eigoje nužudydamas ir klausimą uždavusį žmogų“.[4]

Eliezer Yudkowsky teigia, kad jei pirmasis mūsų sukurtas dirbtinis intelektas būtų draugiškas, jis, kaip pirmiau atsiradęs, turėtų pranašumą prieš kitus dirbtinius intelektus ir sutrukdytų jiems vystytis. Visgi, pasak A. Berglas, dirbtinis intelektas neturėtų jokios tiesioginės evoliucinės motyvacijos būti draugišku žmogui. Buvo pasiūlyti keli variantai taisyklių ar kitų priemonių, kurios užkirstų kelią katastrofiškiems scenarijams.

Taip pat skaitykite[redaguoti | redaguoti vikitekstą]

Šaltiniai[redaguoti | redaguoti vikitekstą]

  1. http://www.nickbostrom.com/superintelligence.html0[neveikianti nuoroda]
  2. Robin Hanson. „Economics Of The Singularity“. IEEE Spectrum Special Report: The Singularity. Suarchyvuotas originalas 2008-12-10. Nuoroda tikrinta 2008-09-11.
  3. http://berglas.org/Articles/AIKillGrandchildren/AIKillGrandchildren.html#mozTocId818011 - Anthony Berglas: Artificial Intelligence Will Kill Our Grandchildren (Singularity)
  4. http://www.nickbostrom.com/existential/risks.html

Nuorodos[redaguoti | redaguoti vikitekstą]