Inteligjence artificiale. Pjesa e dytë: zhdukje apo pavdekësi?

Përmbajtje:

Inteligjence artificiale. Pjesa e dytë: zhdukje apo pavdekësi?
Inteligjence artificiale. Pjesa e dytë: zhdukje apo pavdekësi?

Video: Inteligjence artificiale. Pjesa e dytë: zhdukje apo pavdekësi?

Video: Inteligjence artificiale. Pjesa e dytë: zhdukje apo pavdekësi?
Video: Sistem Pertahanan Udara Rusia Yang Mengejutkan Israel 2024, Prill
Anonim
Inteligjence artificiale. Pjesa e dytë: zhdukje apo pavdekësi?
Inteligjence artificiale. Pjesa e dytë: zhdukje apo pavdekësi?

Para jush është pjesa e dytë e një artikulli nga seria "Prisni, si mund të jetë e vërtetë e gjithë kjo, pse ende nuk flitet në çdo cep". Në serinë e mëparshme, u bë e ditur se një shpërthim i inteligjencës po zvarritet gradualisht tek njerëzit e planetit Tokë, ajo po përpiqet të zhvillohet nga inteligjenca e fokusuar ngushtë në atë universale dhe, së fundi, super inteligjencë artificiale.

"Ndoshta ne po përballemi me një problem jashtëzakonisht të vështirë dhe nuk dihet se sa kohë është caktuar për zgjidhjen e tij, por e ardhmja e njerëzimit mund të varet nga zgjidhja e tij." - Nick Bostrom.

Pjesa e parë e artikullit filloi mjaft pafajësisht. Ne diskutuam për inteligjencën artificiale të fokusuar ngushtë (AI, e cila është e specializuar në zgjidhjen e një problemi specifik si përcaktimi i rrugëve ose luajtja e shahut), ka shumë të tillë në botën tonë. Pastaj ata analizuan pse është kaq e vështirë të rritet inteligjenca artificiale e përgjithshme drejtuese (AGI, ose AI, e cila, për sa i përket aftësive intelektuale, mund të krahasohet me një njeri në zgjidhjen e çdo problemi), është kaq e vështirë. Ne arritëm në përfundimin se shkalla eksponenciale e përparimit teknologjik lë të kuptohet se AGI mund të jetë afër qoshes shumë shpejt. Në fund, ne vendosëm që sapo makinat të arrinin inteligjencën njerëzore, sa vijon mund të ndodhë menjëherë:

Imazhi
Imazhi
Imazhi
Imazhi
Imazhi
Imazhi
Imazhi
Imazhi

Si zakonisht, ne shikojmë ekranin, duke mos besuar se super inteligjenca artificiale (ISI, e cila është shumë më e zgjuar se çdo person) mund të shfaqet gjatë jetës sonë, dhe zgjedhim emocionet që do të pasqyronin më së miri opinionin tonë për këtë çështje.

Para se të futemi në specifikat e ISI, le të kujtojmë veten se çfarë do të thotë për një makinë të jetë super inteligjente.

Dallimi kryesor qëndron midis super inteligjencës së shpejtë dhe super inteligjencës cilësore. Shpesh, gjëja e parë që vjen në mendje kur mendon për një kompjuter super inteligjent është se ai mund të mendojë shumë më shpejt se një person - miliona herë më shpejt, dhe në pesë minuta do të kuptojë se çfarë do t'i duheshin një personi dhjetë vjet. ("Unë e di kung fu!")

Duket mbresëlënëse, dhe ISI me të vërtetë duhet të mendojë më shpejt se kushdo nga njerëzit - por tipari kryesor ndarës do të jetë cilësia e inteligjencës së tij, e cila është krejtësisht e ndryshme. Njerëzit janë shumë më të zgjuar se majmunët, jo sepse mendojnë më shpejt, por sepse truri i tyre përmban një numër modulesh gjeniale gjeniale që kryejnë paraqitje komplekse gjuhësore, planifikim afatgjatë, të menduar abstrakt, për të cilët majmunët nuk janë të aftë. Nëse e përshpejtoni trurin e një majmuni një mijë herë, ai nuk do të bëhet më i zgjuar se ne - edhe pas dhjetë vjetësh nuk do të jetë në gjendje të mbledhë një konstruktor sipas udhëzimeve, gjë që do t'i marrë një personi më së shumti disa orë. Ka gjëra që një majmun nuk do t’i mësojë kurrë, pavarësisht sa orë kalon ose sa shpejt punon truri i tij.

Për më tepër, majmuni nuk e di se sa njerëzisht, sepse truri i tij thjesht nuk është në gjendje të kuptojë ekzistencën e botëve të tjera - majmuni mund të dijë se çfarë është një person dhe çfarë është një rrokaqiell, por kurrë nuk do të kuptojë se një rrokaqiell është ndërtuar nga njerëz. Në botën e saj, gjithçka i përket natyrës, dhe makaku jo vetëm që nuk mund të ndërtojë një rrokaqiell, por gjithashtu të kuptojë që çdokush mund ta ndërtojë atë fare. Dhe ky është rezultat i një ndryshimi të vogël në cilësinë e inteligjencës.

Në skemën e përgjithshme të inteligjencës për të cilën po flasim, ose thjesht sipas standardeve të qenieve biologjike, ndryshimi në cilësinë e inteligjencës midis njerëzve dhe majmunëve është i vogël. Në artikullin e mëparshëm, ne vendosëm aftësitë njohëse biologjike në një shkallë:

Imazhi
Imazhi

Për të kuptuar se sa serioze do të jetë një makinë super inteligjente, vendoseni atë dy pikë më lart se personi në atë shkallë. Kjo makinë mund të jetë vetëm pak super inteligjente, por superioriteti i saj mbi aftësitë tona njohëse do të jetë i njëjtë me tonën - mbi majmunët. Dhe ashtu si një shimpanze kurrë nuk do të kuptojë që një rrokaqiell mund të ndërtohet, ne kurrë nuk mund të kuptojmë se çfarë makine do të kuptojë disa hapa më lart, edhe nëse makina përpiqet të na e shpjegojë atë. Por këto janë vetëm disa hapa. Makina më e zgjuar do të shohë milingonat tek ne - do të na mësojë gjërat më të thjeshta nga pozicioni i saj për vite me radhë, dhe këto përpjekje do të jenë krejtësisht të pashpresë.

Lloji i super inteligjencës për të cilën do të flasim sot qëndron përtej kësaj shkalle. Ky është një shpërthim i inteligjencës - kur një makinë të zgjohet, aq më shpejt ajo mund të rrisë inteligjencën e saj, duke rritur gradualisht vrullin. Mund të duhen vite që një makinë si kjo të tejkalojë shimpanzetë në inteligjencë, por ndoshta nja dy orë për të na tejkaluar me disa pikë. Që nga ai moment, makina tashmë mund të kërcejë mbi katër hapa çdo sekondë. Kjo është arsyeja pse ne duhet të kuptojmë se shumë shpejt pasi të shfaqet lajmi i parë se makina ka arritur nivelin e inteligjencës njerëzore, ne mund të përballemi me realitetin e bashkëjetesës në Tokë me diçka që do të jetë shumë më e lartë se ne në këtë shkallë (ose ndoshta, dhe miliona herë më e lartë):

Imazhi
Imazhi

Dhe meqenëse kemi vërtetuar se është plotësisht e padobishme të përpiqesh të kuptosh fuqinë e një makine që është vetëm dy hapa mbi ne, le të përcaktojmë një herë e përgjithmonë se nuk ka asnjë mënyrë për të kuptuar se çfarë do të bëjë ISI dhe cilat janë pasojat e kjo do të jetë për ne. Kushdo që pretendon të kundërtën thjesht nuk e kupton se çfarë do të thotë super inteligjencë.

Evolucioni ka evoluar ngadalë dhe gradualisht trurin biologjik për qindra miliona vjet, dhe nëse njerëzit krijojnë një makinë super inteligjente, në një kuptim ne do të kapërcejmë evolucionin. Ose do të jetë pjesë e evolucionit - mbase evolucioni funksionon në atë mënyrë që inteligjenca të zhvillohet gradualisht derisa të arrijë një pikë kthese që paralajmëron një të ardhme të re për të gjitha gjallesat:

Imazhi
Imazhi

Për arsyet që do të diskutojmë më vonë, një pjesë e madhe e komunitetit shkencor beson se pyetja nuk është nëse do të arrijmë në këtë pikë kthese, por kur.

Ku përfundojmë pas kësaj?

Unë mendoj se askush në këtë botë, as unë as ju, nuk do të jetë në gjendje të thotë se çfarë do të ndodhë kur të arrijmë pikën e kthesës. Filozofi i Oksfordit dhe teoricieni kryesor i inteligjencës artificiale Nick Bostrom beson se ne mund t'i bashkojmë të gjitha rezultatet e mundshme në dy kategori të gjera.

Së pari, duke parë historinë, ne dimë sa më poshtë për jetën: speciet shfaqen, ekzistojnë për një kohë të caktuar, dhe pastaj në mënyrë të pashmangshme bien nga rrezja e ekuilibrit dhe vdesin.

Imazhi
Imazhi

"Të gjitha speciet vdesin" ka qenë një rregull i besueshëm në histori si "të gjithë njerëzit vdesin një ditë". 99.9% e specieve kanë rënë nga një regjistër jete, dhe është krejt e qartë se nëse një specie varet në këtë trung për një kohë të gjatë, një erë e erës natyrore ose një asteroid i papritur do ta përmbysë trungun. Bostrom e quan zhdukjen gjendjen e një tërheqës - një vend ku të gjitha speciet balancojnë në mënyrë që të mos bien aty ku asnjë specie nuk është kthyer ende.

Dhe megjithëse shumica e shkencëtarëve pranojnë se ISI do të ketë aftësinë për t'i dënuar njerëzit me zhdukje, shumë besojnë gjithashtu se përdorimi i aftësive të ISI do t'i lejojë individët (dhe speciet në tërësi) të arrijnë gjendjen e dytë të tërheqësit - pavdekësia e specieve. Bostrom beson se pavdekësia e një specie është po aq tërheqëse sa zhdukja e një specie, domethënë, nëse arrijmë në këtë, do të jemi të dënuar me ekzistencën e përjetshme. Kështu, edhe nëse të gjitha speciet deri më tani ranë nga ky shkop në vorbullën e zhdukjes, Bostrom beson se trungu ka dy anë, dhe thjesht nuk u shfaq në Tokë një inteligjencë e tillë që do të kuptonte se si të binte në anën tjetër.

Imazhi
Imazhi

Nëse Bostrom dhe të tjerët kanë të drejtë, dhe duke gjykuar nga të gjitha informacionet që kemi në dispozicion, ata mund të jenë të tillë, duhet të pranojmë dy fakte shumë tronditëse:

Shfaqja e ISI për herë të parë në histori do të hapë rrugën që një specie të arrijë pavdekësinë dhe të dalë jashtë ciklit fatal të zhdukjes.

Shfaqja e ISI do të ketë një ndikim kaq të paimagjinueshëm të madh sa që, ka shumë të ngjarë, do ta largojë njerëzimin nga ky regjistër në një drejtim ose në tjetrin.

Evolutionshtë e mundur që kur evolucioni arrin një pikë kthese të tillë, ai gjithmonë i jep fund marrëdhënies së njerëzve me rrjedhën e jetës dhe krijon një botë të re, me ose pa njerëz.

Kjo çon në një pyetje interesante që nuk do ta bënte vetëm një keqbërës: kur do të arrijmë në këtë pikë kthese dhe ku do të na vendosë? Askush në botë nuk e di përgjigjen e kësaj pyetjeje të dyfishtë, por shumë njerëz të zgjuar janë përpjekur ta kuptojnë atë për dekada të tëra. Për pjesën tjetër të artikullit, ne do të kuptojmë se nga kanë ardhur.

* * *

Le të fillojmë me pjesën e parë të kësaj pyetjeje: kur duhet të arrijmë pikën e kthesës? Me fjalë të tjera: sa kohë ka mbetur derisa makina e parë të arrijë super inteligjencë?

Opinionet ndryshojnë nga rasti në rast. Shumë, përfshirë profesorin Vernor Vinge, shkencëtarin Ben Herzel, bashkëthemeluesin e Sun Microsystems Bill Joy, futuristin Ray Kurzweil, ranë dakord me ekspertin e mësimit të makinerisë Jeremy Howard kur ai paraqiti grafikun e mëposhtëm në TED Talk:

Imazhi
Imazhi

Këta njerëz ndajnë pikëpamjen se ISI do të vijë së shpejti - kjo rritje eksponenciale, e cila na duket e ngadaltë sot, do të shpërthejë fjalë për fjalë në dekadat e ardhshme.

Të tjerë, si bashkëthemeluesi i Microsoft Paul Allen, psikologu kërkimor Gary Marcus, eksperti kompjuterik Ernest Davis dhe sipërmarrësi i teknologjisë Mitch Kapor, besojnë se mendimtarë si Kurzweil po nënvlerësojnë seriozisht madhësinë e problemit dhe mendojnë se nuk jemi aq afër pikë kthese.

Kampi i Kurzweil argumenton se nënvlerësimi i vetëm që ndodh është shpërfillja e rritjes eksponenciale dhe dyshuesit mund të krahasohen me ata që shikuan internetin që po lulëzonte ngadalë në 1985 dhe argumentuan se nuk do të kishte ndikim në botë në të ardhmen e afërt.

Dyshuesit mund të shmangin faktin se është më e vështirë për përparimin të ndërmarrë çdo hap të mëvonshëm kur bëhet fjalë për zhvillimin eksponencial të inteligjencës, i cili neutralizon natyrën tipike eksponenciale të përparimit teknologjik. Etj

Kampi i tretë, në të cilin ndodhet Nick Bostrom, nuk pajtohet me të parin ose të dytin, duke argumentuar se a) e gjithë kjo mund të ndodhë absolutisht në të ardhmen e afërt; dhe b) nuk ka asnjë garanci se kjo do të ndodhë fare ose se do të zgjasë më shumë.

Të tjerët, si filozofi Hubert Dreyfus, besojnë se të tre grupet besojnë në mënyrë naive se do të ketë një pikë kthese fare, dhe se me shumë mundësi nuk do të arrijmë kurrë në ISI.

Çfarë ndodh kur i bashkojmë të gjitha këto opinione?

Në vitin 2013, Bostrom kreu një sondazh në të cilin ai intervistoi qindra ekspertë të AI në një sërë konferencash me temën e mëposhtme: "Cilat do të jenë parashikimet tuaja për arritjen e AGI në nivelin njerëzor?" dhe na kërkoi të përmendim një vit optimist (në të cilin do të kemi AGI me një shans 10 përqind), një supozim realist (një vit në të cilin do të kemi AGI me një probabilitet 50 përqind) dhe një supozim të sigurt (viti më i hershëm në të cilin AGI do të shfaqet që nga 90 -probabiliteti i përqindjes). Këtu janë rezultatet:

* Viti mesatar optimist (10%): 2022

* Viti mesatar realist (50%): 2040

* Viti mesatar pesimist (90%): 2075

Të anketuarit mesatar besojnë se në 25 vjet ne do të kemi AGI në vend se jo. Një shans prej 90 përqind që AGI të ndodhë deri në vitin 2075 do të thotë që nëse jeni ende mjaft i ri tani, kjo ka shumë të ngjarë të ndodhë gjatë jetës tuaj.

Një studim i veçantë i kryer kohët e fundit nga James Barratt (autor i librit të mirënjohur dhe shumë të mirë Shpikja jonë e fundit, fragmente nga I paraqita në vëmendjen e lexuesve Hi-News.ru) dhe Ben Hertzel në Konferencën AGI, Konferenca vjetore e AGI, thjesht treguan opinionet e njerëzve për vitin në të cilin arrijmë në AGI: 2030, 2050, 2100, më vonë ose kurrë. Këtu janë rezultatet:

* 2030: 42% e të anketuarve

* 2050: 25%

* 2100: 20%

Pas vitit 2100: 10%

Kurrë: 2%

Ngjashëm me rezultatet e Bostrom. Në sondazhin e Barrat, më shumë se dy të tretat e të anketuarve besojnë se AGI do të jetë këtu deri në vitin 2050, dhe më pak se gjysma besojnë se AGI do të shfaqet në 15 vitet e ardhshme. Isshtë gjithashtu e habitshme që vetëm 2% e të anketuarve, në parim, nuk e shohin AGI në të ardhmen tonë.

Por AGI nuk është një pikë kthese si ISI. Kur, sipas ekspertëve, do të kemi një ISI?

Bostrom pyeti ekspertët se kur do të arrijmë në ASI: a) dy vjet pas arritjes në AGI (domethënë pothuajse menjëherë për shkak të një shpërthimi të inteligjencës); b) pas 30 vjetësh. Rezultatet?

Mendimi mesatar është se kalimi i shpejtë nga AGI në ISI do të ndodhë me një probabilitet 10%, por në 30 vjet ose më pak do të ndodhë me një probabilitet 75%.

Nga këto të dhëna, ne nuk e dimë se në cilën datë të anketuarit do ta quanin një shans 50 për qind të një ASI, por bazuar në dy përgjigjet e mësipërme, le të supozojmë se janë 20 vjet. Kjo do të thotë, ekspertët kryesorë të AI në botë besojnë se pika e kthesës do të vijë në 2060 (AGI do të shfaqet në 2040 + do të duhen 20 vjet për kalimin nga AGI në ISI).

Imazhi
Imazhi

Sigurisht, të gjitha statistikat e mësipërme janë spekulative dhe thjesht përfaqësojnë mendimin e ekspertëve në fushën e inteligjencës artificiale, por ato gjithashtu tregojnë se shumica e njerëzve të interesuar pajtohen se deri në vitin 2060, AI ka të ngjarë të arrijë. Në vetëm 45 vjet.

Le të kalojmë në pyetjen e dytë. Kur të arrijmë në pikën e kthesës, cila anë e zgjedhjes fatale do të na përcaktojë?

Super inteligjenca do të ketë fuqinë më të fuqishme, dhe pyetja kritike për ne do të jetë si më poshtë:

Kush ose çfarë do ta kontrollojë këtë fuqi dhe cili do të jetë motivimi i tyre?

Përgjigja për këtë pyetje do të varet nga fakti nëse ISI merr një zhvillim tepër të fuqishëm, një zhvillim jashtëzakonisht të tmerrshëm, apo diçka në mes.

Sigurisht, komuniteti i ekspertëve po përpiqet t'u përgjigjet edhe këtyre pyetjeve. Sondazhi i Bostrom analizoi mundësinë e pasojave të mundshme të ndikimit të AGI në njerëzim dhe doli se me një shans 52 përqind gjithçka do të shkojë shumë mirë dhe me një shans 31 përqind gjithçka do të shkojë ose keq ose jashtëzakonisht keq. Sondazhi i bashkangjitur në fund të pjesës së mëparshme të kësaj teme, i kryer mes jush, lexues të dashur të Hi-News, tregoi për të njëjtat rezultate. Për një rezultat relativisht neutral, probabiliteti ishte vetëm 17%. Me fjalë të tjera, ne të gjithë besojmë se AGI do të jetë një punë e madhe. Vlen gjithashtu të theksohet se ky studim ka të bëjë me shfaqjen e AGI - në rastin e ISI, përqindja e neutralitetit do të jetë më e ulët.

Para se të hyjmë më thellë në të menduarit për anët e mira dhe të këqija të pyetjes, le të kombinojmë të dy anët e pyetjes - "kur do të ndodhë kjo?" dhe "a është kjo mirë apo keq?" në një tabelë që mbulon pikëpamjet e shumicës së ekspertëve.

Imazhi
Imazhi

Ne do të flasim për kampin kryesor në një minutë, por së pari vendosni për pozicionin tuaj. Ka shumë mundësi, ju jeni në të njëjtin vend si unë para se të filloja të punoja në këtë temë. Ka disa arsye pse njerëzit nuk mendojnë fare për këtë temë:

* Siç u përmend në pjesën e parë, filmat kanë ngatërruar seriozisht njerëzit dhe faktet, duke paraqitur skenarë jorealistë me inteligjencë artificiale, gjë që çoi në faktin se ne nuk duhet ta marrim seriozisht AI -në seriozisht. James Barrat e krahasoi këtë situatë me lëshimin nga Qendrat për Kontrollin e Sëmundjeve (CDC) me një paralajmërim serioz për vampirët në të ardhmen tonë.

* Për shkak të të ashtuquajturave paragjykimeve njohëse, është shumë e vështirë për ne të besojmë se diçka është e vërtetë derisa të kemi prova. Dikush mund të imagjinojë me besim shkencëtarët e kompjuterit të vitit 1988 duke diskutuar rregullisht për pasojat e gjera të internetit dhe atë që mund të bëhet, por njerëzit vështirë se besonin se do të ndryshonte jetën e tyre derisa të ndodhte në të vërtetë. Vetëm se kompjuterët nuk dinin si ta bënin këtë në 1988, dhe njerëzit thjesht shikuan kompjuterët e tyre dhe menduan: “Vërtet? A është kjo ajo që do të ndryshojë botën? Imagjinata e tyre ishte e kufizuar nga ajo që kishin mësuar nga përvoja personale, ata e dinin se çfarë ishte një kompjuter dhe ishte e vështirë të imagjinohet se çfarë do të ishte i aftë një kompjuter në të ardhmen. E njëjta gjë po ndodh tani me AI. Ne kemi dëgjuar se do të bëhet një gjë serioze, por meqenëse nuk e kemi hasur ende ballë për ballë dhe, në përgjithësi, ne vërejmë shfaqje mjaft të dobëta të AI në botën tonë moderne, është mjaft e vështirë për ne të besojmë se do të ndodhë rrënjësisht të ndryshojë jetën tonë. Againstshtë kundër këtyre paragjykimeve që ekspertë të shumtë nga të gjitha kampet, si dhe njerëz të interesuar, kundërshtojnë të përpiqen të tërheqin vëmendjen tonë përmes zhurmës së egocentrizmit kolektiv të përditshëm.

* Edhe sikur të besonim në të gjitha këto - sa herë sot keni menduar për faktin se do të kaloni pjesën tjetër të përjetësisë në hiç? Pak, dakord. Edhe nëse ky fakt është shumë më i rëndësishëm se çdo gjë që bëni ditë pas dite. Kjo ndodh sepse truri ynë zakonisht përqendrohet në gjëra të vogla, të përditshme, pavarësisht se sa deluzionale është situata afatgjatë në të cilën ndodhemi. Thjesht jemi bërë.

Një nga qëllimet e këtij artikulli është t'ju nxjerrë nga kampi i quajtur "Më pëlqen të mendoj për gjëra të tjera" dhe t'ju fusë në kampin e ekspertëve, edhe nëse thjesht jeni duke qëndruar në udhëkryqin midis dy vijave me pika në shesh më lart, plotësisht i pavendosur.

Gjatë hulumtimit, bëhet e qartë se mendimet e shumicës së njerëzve shpejt shkojnë drejt "kampit kryesor", dhe tre të katërtat e ekspertëve bien në dy nënkampet në kampin kryesor.

Imazhi
Imazhi

Ne do t'i vizitojmë të dy këto kampe plotësisht. Le të fillojmë me argëtim.

Pse e ardhmja mund të jetë ëndrra jonë më e madhe?

Ndërsa eksplorojmë botën e AI, gjejmë çuditërisht shumë njerëz në zonën tonë të rehatisë. Njerëzit në sheshin e sipërm të djathtë gumëzhin nga eksitimi. Ata besojnë se ne do të biem në anën e mirë të trungut, dhe ata gjithashtu besojnë se ne do të arrijmë në mënyrë të pashmangshme në këtë. Për ta, e ardhmja është vetëm më e mira që mund të ëndërrohet.

Pika që i dallon këta njerëz nga mendimtarët e tjerë nuk është se ata duan të jenë në anën e lumtur - por që ata janë të sigurt se është ajo që na pret.

Ky besim vjen nga polemika. Kritikët besojnë se vjen nga një eksitim verbues që errëson anët e mundshme negative. Por ithtarët thonë se parashikimet e zymta janë gjithmonë naive; teknologjia vazhdon dhe gjithmonë do të na ndihmojë më shumë sesa të na dëmtojë.

Ju jeni të lirë të zgjidhni ndonjë nga këto opinione, por lini mënjanë skepticizmin dhe hidhini një sy mirë anës së lumtur të rrezes së ekuilibrit, duke u përpjekur të pranoni faktin se gjithçka për të cilën lexoni mund të ketë ndodhur tashmë. Nëse ju i tregoni gjahtarëve -grumbulluesve botën tonë të rehatisë, teknologjisë dhe bollëkut të pafund, do t'u dukej një trillim magjik - dhe ne sillemi në mënyrë mjaft modeste, të paaftë për të pranuar se i njëjti transformim i pakuptueshëm na pret në të ardhmen.

Nick Bostrom përshkruan tre rrugë që mund të ndjekë një sistem superinteligjent i AI:

* Një orakull që mund t'i përgjigjet çdo pyetjeje të saktë, përfshirë pyetjet e vështira të cilave njerëzit nuk mund t'u përgjigjen - për shembull, "si ta bëjmë motorin e makinës më efikas?" Google është një lloj primitiv i "orakullit".

* Një xhin që do të ekzekutojë çdo komandë të nivelit të lartë - duke përdorur montues molekular për të krijuar një version të ri, më efikas të një motori automobilësh - dhe do të jetë në pritje të komandës tjetër.

* Një sovran i cili do të ketë qasje të gjerë dhe aftësinë për të funksionuar lirshëm në botë, duke marrë vendimet e tij dhe duke përmirësuar procesin. Ai do të shpikë një mënyrë më të lirë, më të shpejtë dhe më të sigurt të transportit privat sesa një makinë.

Këto pyetje dhe detyra, të cilat na duken të vështira, do t'i duken sistemit super inteligjent sikur dikush të kërkojë të përmirësojë situatën "lapsi im ra nga tryeza", në të cilën thjesht do ta merrje dhe do ta ktheje përsëri.

Eliezer Yudkowski, një specialist amerikan në inteligjencën artificiale, e tha mirë:

"Nuk ka probleme të vështira, vetëm probleme që janë të vështira për një nivel të caktuar të inteligjencës. Shkoni një hap më lart (përsa i përket inteligjencës), dhe disa probleme papritmas do të kalojnë nga kategoria e "pamundur" në kampin e "të dukshmes". Një hap më lart - dhe të gjithë do të bëhen të dukshëm ".

Ka shumë shkencëtarë, shpikës dhe sipërmarrës të paduruar që kanë zgjedhur një zonë rehatie të sigurt nga tryeza jonë, por na duhet vetëm një udhëzues për të ecur për më të mirët në këtë botë më të mirë.

Ray Kurzweil është i paqartë. Disa idolizojnë idetë e tij, disa e përçmojnë. Disa qëndrojnë në mes - Douglas Hofstadter, duke diskutuar idetë e librave të Kurzweil, me elokuencë vuri në dukje se "është sikur të keni marrë shumë ushqim të mirë dhe pak jashtëqitje të qenve, dhe pastaj të përzieni gjithçka në atë mënyrë që është e pamundur të kuptohet çfarë është e mirë dhe çfarë është e keqe ".

Pavarësisht nëse ju pëlqejnë apo jo idetë e tij, është e pamundur t'i kaloni ato pa një hije interesi. Ai filloi të shpikte gjëra që në adoleshencë, dhe në vitet në vijim ai shpiku disa gjëra të rëndësishme, duke përfshirë skanerin e parë të sheshtë, skanerin e parë që shndërroi tekstin në të folur, sintetizatorin e mirënjohur të muzikës Kurzweil (pianoja e parë elektrike e vërtetë), dhe njohësi i parë i të folurit komercialisht i suksesshëm. Ai është gjithashtu autor i pesë librave të bujshëm. Kurzweil vlerësohet për parashikimet e tij të guximshme dhe rekordi i tij është mjaft i mirë - në fund të viteve 80, kur Interneti ishte ende në fillimet e tij, ai parashikoi që në vitet 2000 Web -i do të bëhej një fenomen global. Wall Street Journal e quajti Kurzweil një "gjeni të shqetësuar", Forbes një "makinë globale të të menduarit", Inc. Revista - "Trashëgimtari i ligjshëm i Edison", Bill Gates - "më i miri nga ata që parashikojnë të ardhmen e inteligjencës artificiale". Në vitin 2012, bashkëthemeluesi i Google Larry Page ftoi Kurzweil në postin e CTO. Në vitin 2011, ai bashkë-themeloi Universitetin Singularity, i cili është pritur nga NASA dhe është pjesërisht i sponsorizuar nga Google.

Biografia e tij ka rëndësi. Kur Kurzweil flet për vizionin e tij për të ardhmen, tingëllon si një çmenduri e çmendur, por gjëja me të vërtetë e çmendur është se ai është larg nga i çmenduri - ai është një person tepër i zgjuar, i arsimuar dhe i arsyeshëm. Ju mund të mendoni se ai është i gabuar në parashikimet e tij, por ai nuk është budalla. Parashikimet e Kurzweil ndahen nga shumë ekspertë të zonës së rehatisë, Peter Diamandis dhe Ben Herzel. Kjo është ajo që ai mendon se do të ndodhë.

Kronologji

Kurzweil beson se kompjuterët do të arrijnë nivelin e inteligjencës së përgjithshme artificiale (AGI) deri në vitin 2029, dhe deri në vitin 2045 ne nuk do të kemi vetëm super inteligjencë artificiale, por edhe një botë krejtësisht të re - koha e të ashtuquajturës singularitet. Kronologjia e tij e AI ende konsiderohet jashtëzakonisht e ekzagjeruar, por gjatë 15 viteve të fundit, zhvillimi i shpejtë i sistemeve të inteligjencës artificiale (AI) të fokusuara shumë ka detyruar shumë ekspertë të qëndrojnë në anën e Kurzweil. Parashikimet e tij janë akoma më ambicioze se ato në sondazhin e Bostromit (AGI deri në 2040, ISI deri në 2060), por jo shumë.

Sipas Kurzweil, Singulariteti i vitit 2045 po drejtohet nga tre revolucione të njëkohshme në bioteknologji, nanoteknologji dhe, më e rëndësishmja, AI. Por, para se të vazhdojmë - dhe nanoteknologjia po ndjek nga afër inteligjencën artificiale - le t'i kushtojmë një moment nanoteknologjisë.

Imazhi
Imazhi

Disa fjalë për nanoteknologjinë

Ne zakonisht i quajmë teknologji nanoteknologjike që merren me manipulimin e materies në rangun 1-100 nanometra. Një nanometër është një miliardi i metrit, ose një milionta e një milimetri; brenda intervalit 1-100 nanometra, viruset (100 nm në diametër), ADN (10 nm në gjerësi), molekulat e hemoglobinës (5 nm), glukozën (1 nm) dhe të tjera mund të akomodohen. Nëse nanoteknologjia na nënshtrohet ndonjëherë, hapi tjetër do të jetë manipulimi i atomeve individuale që janë më pak se një renditje madhësie (~, 1 nm).

Për të kuptuar se ku hasin njerëzit në probleme duke u përpjekur të manipulojnë materien në një shkallë të tillë, le të hidhemi në një shkallë më të madhe. Stacioni Hapësinor Ndërkombëtar është 481 kilometra mbi Tokë. Nëse njerëzit do të ishin gjigantë dhe do të godisnin ISS me kokën e tyre, ata do të ishin 250,000 herë më të mëdhenj se tani. Nëse zmadhoni diçka nga 1 në 100 nanometra 250,000 herë, merrni 2.5 centimetra. Nanoteknologjia është ekuivalenti i një njeriu, që rrotullohet rreth ISS, duke u përpjekur të manipulojë gjëra me madhësinë e një kokërre rëre ose një kokërdhoku. Për të arritur në nivelin tjetër - kontrollin e atomeve individuale - gjigantit do t'i duhet të vendosë me kujdes objektet me diametër 1/40 milimetër. Njerëzit e zakonshëm do të kenë nevojë për një mikroskop për t'i parë ata.

Për herë të parë, Richard Feynman foli për nanoteknologjinë në 1959. Pastaj ai tha: "Parimet e fizikës, me aq sa mund të them, nuk flasin kundër mundësisë së kontrollit të gjërave atom pas atom. Në parim, një fizikan mund të sintetizojë çdo kimikat që ka shkruar një kimist. Si? Duke vendosur atome aty ku kimisti thotë të merret substanca. " Kjo është e gjithë thjeshtësia. Nëse dini të lëvizni molekulat ose atomet individuale, mund të bëni pothuajse gjithçka.

Nanoteknologjia u bë një fushë serioze shkencore në vitin 1986 kur inxhinieri Eric Drexler paraqiti themelet e tij në librin e tij kryesor Makinat e Krijimit, por vetë Drexler beson se ata që duan të mësojnë më shumë rreth ideve moderne në nanoteknologji duhet të lexojnë librin e tij të vitit 2013. Bollëku i plotë (Radikal Bollëk).

Disa fjalë për "goo gri"

Ne thellohemi në nanoteknologji. Në veçanti, tema e "goo gri" është një nga temat jo shumë të këndshme në fushën e nanoteknologjisë, e cila nuk mund të injorohet. Versionet më të vjetra të teorisë së nanoteknologjisë propozuan një metodë nano-montimi që përfshin krijimin e triliona nanorobotëve të vegjël që do të punonin së bashku për të krijuar diçka. Një mënyrë për të krijuar triliona nanorobotë është krijimi i një që mund të përsëritet vetë, domethënë nga një në dy, nga dy në katër, etj. Disa trilion nanorobote do të shfaqen brenda një dite. Kjo është fuqia e rritjes eksponenciale. Qesharake, apo jo?

Funnyshtë qesharake, por saktësisht derisa të çojë në apokalips. Problemi është se fuqia e rritjes eksponenciale, e cila e bën atë një mënyrë mjaft të përshtatshme për të krijuar shpejt një trilion nanobota, e bën vetë-përsëritjen një gjë të frikshme në planin afatgjatë. Po sikur sistemi të rrëzohet, dhe në vend që të ndalojë përsëritjen për nja dy trilionë, nanobotët vazhdojnë të shumohen? Po sikur i gjithë ky proces të varet nga karboni? Biomasa e Tokës përmban 10 ^ 45 atome karboni. Një nanobot duhet të jetë në rendin e 10 ^ 6 atomeve të karbonit, kështu që 10 ^ 39 nanobots do të gllabërojnë të gjithë jetën në Tokë në vetëm 130 përsëritje. Një oqean nanobots ("goo gri") do të përmbytë planetin. Shkencëtarët mendojnë se nanobotët mund të përsëriten në 100 sekonda, që do të thotë se një gabim i thjeshtë mund të vrasë gjithë jetën në Tokë në vetëm 3.5 orë.

Mund të jetë edhe më keq - nëse terroristët dhe specialistët e pafavorshëm arrijnë në duart e nanoteknologjisë. Ata mund të krijojnë disa trilion nanobota dhe t'i programojnë që të përhapen në heshtje në të gjithë botën brenda disa javësh. Pastaj, me prekjen e një butoni, në vetëm 90 minuta ata do të hanë gjithçka fare, pa asnjë shans.

Ndërsa kjo histori horror është diskutuar gjerësisht për vite, lajmi i mirë është se është vetëm një histori horror. Eric Drexler, i cili shpiku termin "goo gri", kohët e fundit tha sa vijon: "Njerëzit i duan historitë horror, dhe kjo është një nga historitë horror të zombies. Kjo ide në vetvete tashmë po ha trurin ".

Pasi të arrijmë në fund të nanoteknologjisë, ne mund ta përdorim atë për të krijuar pajisje teknike, veshje, ushqim, bioprodukte - qeliza të gjakut, luftëtarët e virusit dhe kancerit, indet e muskujve, dhe kështu me radhë - çfarëdo. Dhe në një botë që përdor nanoteknologjinë, kostoja e një materiali nuk do të lidhet më me mungesën e tij ose kompleksitetin e procesit të tij të prodhimit, por më tepër me kompleksitetin e strukturës së tij atomike. Në botën e nanoteknologjisë, një diamant mund të jetë më i lirë se një gomë.

Nuk jemi akoma afër atje. Dhe nuk është plotësisht e qartë nëse e nënvlerësojmë apo mbivlerësojmë kompleksitetin e kësaj rruge. Sidoqoftë, gjithçka shkon në atë pikë që nanoteknologjia nuk është larg. Kurzweil supozon se deri në vitet 2020 do t'i kemi. Shtetet botërore e dinë që nanoteknologjia mund të premtojë një të ardhme të madhe, dhe për këtë arsye ata po investojnë shumë miliarda në to.

Vetëm imagjinoni se çfarë mundësish do të kishte një kompjuter super inteligjent nëse do të arrinte në një montues të besueshëm të nanosharit. Por nanoteknologjia është ideja jonë, dhe ne po përpiqemi ta ngasim atë, është e vështirë për ne. Po sikur të jenë vetëm një shaka për sistemin ISI, dhe vetë ISI të dalë me teknologji që do të jenë shumë herë më të fuqishme se çdo gjë që, në parim, mund të supozojmë? Ne u pajtuam: askush nuk mund ta imagjinojë se për çfarë do të jetë në gjendje superinteligjenca artificiale? Besohet se truri ynë nuk është në gjendje të parashikojë as minimumin e asaj që do të ndodhë.

Çfarë mund të bëjë AI për ne?

Imazhi
Imazhi

Të armatosur me super inteligjencë dhe të gjithë teknologjinë që mund të krijojë super inteligjenca, ISI ndoshta do të jetë në gjendje të zgjidhë të gjitha problemet e njerëzimit. Ngrohja globale? ISI së pari do të ndalojë emetimet e karbonit duke shpikur një mori mënyrash efikase për të gjeneruar energji që nuk lidhen me lëndët djegëse fosile. Ai pastaj do të dalë me një mënyrë efektive, novatore për të hequr CO2 të tepërt nga atmosfera. Kanceri dhe sëmundje të tjera? Nuk është problem - kujdesi shëndetësor dhe mjekësia do të ndryshojnë në mënyra të paimagjinueshme. Uria botërore? ISI do të përdorë nanoteknologjinë për të krijuar mish që është identik me mishin natyral, nga e para, e vërtetë.

Nanoteknologjia do të jetë në gjendje të kthejë një grumbull mbeturinash në një kazan me mish të freskët ose ushqim tjetër (jo domosdoshmërisht as në formën e tij të zakonshme - imagjinoni një kub gjigant mollë) dhe të shpërndajë të gjithë këtë ushqim në të gjithë botën duke përdorur sisteme të përparuara transporti. Sigurisht, kjo do të jetë e mrekullueshme për kafshët që nuk kanë më nevojë të vdesin për ushqim. ISI gjithashtu mund të bëjë shumë gjëra të tjera, si ruajtja e specieve të rrezikuara, apo edhe kthimi i atyre të zhdukur nga ADN -ja e ruajtur. ISI mund të zgjidhë problemet tona më të vështira makroekonomike - debatet tona më të vështira ekonomike, çështjet etike dhe filozofike, tregtinë globale - të gjitha këto do të jenë të dhimbshme të dukshme për ISI.

Por ka diçka shumë të veçantë që ISI mund të bëjë për ne. Joshëse dhe tërheqëse që do të ndryshonte gjithçka: ISI mund të na ndihmojë të përballojmë vdekshmërinë … Duke kuptuar gradualisht aftësitë e AI, ndoshta do të rishqyrtoni të gjitha idetë tuaja për vdekjen.

Nuk kishte asnjë arsye që evolucioni të zgjaste jetëgjatësinë tonë më gjatë se tani. Nëse jetojmë mjaftueshëm për të lindur dhe rritur fëmijët deri në pikën ku ata mund të mbrohen për veten, evolucioni është i mjaftueshëm. Nga pikëpamja evolucionare, 30+ vjet janë të mjaftueshme për zhvillim, dhe nuk ka arsye që mutacionet të zgjasin jetën dhe të zvogëlojnë vlerën e seleksionimit natyror. William Butler Yates e quajti specien tonë "një shpirt të lidhur me një kafshë që po vdes". Jo shumë argëtuese.

Dhe meqenëse ne të gjithë vdesim një ditë, ne jetojmë me idenë se vdekja është e pashmangshme. Ne mendojmë për plakjen me kalimin e kohës - të vazhdojmë të ecim përpara dhe të mos jemi në gjendje ta ndalojmë këtë proces. Por mendimi për vdekjen është i pabesë: i kapur prej saj, ne harrojmë të jetojmë. Richard Feynman shkroi:

“Ka një gjë të mrekullueshme në biologji: nuk ka asgjë në këtë shkencë që do të fliste për domosdoshmërinë e vdekjes. Nëse duam të krijojmë një makinë lëvizëse të përhershme, kuptojmë se kemi gjetur mjaft ligje në fizikë që ose tregojnë pamundësinë e kësaj, ose se ligjet janë të gabuara. Por nuk ka asgjë në biologji që do të tregonte pashmangshmërinë e vdekjes. Kjo më bën të besoj se nuk është aq e pashmangshme, dhe është vetëm çështje kohe që biologët të zbulojnë shkakun e këtij problemi, këtë sëmundje të tmerrshme universale, ajo do të shërohet.

Fakti është se plakja nuk ka të bëjë me kohën. Plakja është kur materialet fizike të trupit konsumohen. Pjesët e makinave gjithashtu degradojnë - por a është plakja e pashmangshme? Nëse e riparoni makinën tuaj ndërsa pjesët konsumohen, ajo do të zgjasë përgjithmonë. Trupi i njeriut nuk është ndryshe - thjesht më kompleks.

Kurzweil flet për nanobotë inteligjentë, të lidhur me Wi-Fi në qarkullimin e gjakut që mund të kryejnë detyra të panumërta për shëndetin e njeriut, duke përfshirë rregullimin ose zëvendësimin e rregullt të qelizave të konsumuara kudo në trup. Përmirësimi i këtij procesi (ose gjetja e një alternative të sugjeruar nga një ASI më i zgjuar) jo vetëm që do ta mbajë trupin të shëndetshëm, por mund të ndryshojë plakjen. Dallimi midis trupit të një 60-vjeçari dhe një 30-vjeçari është një pjesë e vogël e çështjeve fizike që mund të korrigjohen me teknologjinë e duhur. ISI mund të ndërtojë një makinë në të cilën një person do të hyjë kur të jetë 60 vjeç dhe do të largohet kur të jetë 30 vjeç.

Edhe një tru i degraduar mund të rinovohet. ISI me siguri do të dijë ta bëjë këtë pa ndikuar në të dhënat e trurit (personaliteti, kujtimet, etj.). Një burrë 90-vjeçar që vuan nga degradimi i plotë i trurit mund t'i nënshtrohet rikualifikimit, rinovimit dhe kthimit në fillimin e jetës së tij. Mund të duket absurde, por trupi është një pjesë e vogël e atomeve, dhe ISI sigurisht që lehtë mund t'i manipulojë ato, çdo strukturë atomike. Nuk është aq absurde.

Kurzweil gjithashtu beson se materialet artificiale do të integrohen gjithnjë e më shumë në trup me kalimin e kohës. Si fillim, organet mund të zëvendësohen me versione makinerish super të avancuara që do të zgjasin përgjithmonë dhe nuk do të dështojnë kurrë. Atëherë ne mund të bëjmë një ridizajnim të plotë të trupit, duke zëvendësuar qelizat e kuqe të gjakut me nanobota të përsosur që lëvizin vetë, duke eleminuar plotësisht nevojën për një zemër. Ne gjithashtu mund të përmirësojmë aftësitë tona njohëse, të fillojmë të mendojmë miliarda herë më shpejt dhe të kemi qasje në të gjithë informacionin në dispozicion të njerëzimit përmes cloud.

Mundësitë për të kuptuar horizonte të reja do të ishin vërtet të pafundme. Njerëzit kanë arritur ta pajisin seksin me një qëllim të ri, ata e bëjnë atë për kënaqësi, jo vetëm për riprodhim. Kurzweil beson se ne mund të bëjmë të njëjtën gjë me ushqimin. Nanobotët mund të japin ushqim ideal drejtpërdrejt në qelizat e trupit, duke lejuar që substanca jo të shëndetshme të kalojnë nëpër trup. Teoricieni i nanoteknologjisë Robert Freitas tashmë ka zhvilluar një zëvendësim për qelizat e gjakut, të cilat, kur zbatohen në trupin e njeriut, mund ta lejojnë atë të mos marrë frymë për 15 minuta - dhe kjo u shpik nga një person. Imagjinoni kur ISI do të fitojë fuqi.

Në fund të fundit, Kurzweil beson se njerëzit do të arrijnë në pikën ku do të bëhen plotësisht artificiale; koha kur shikojmë materialet biologjike dhe mendojmë se sa primitivë ishin; koha kur ne do të lexojmë për fazat e hershme të historisë njerëzore, të habitur se si mikrobet, aksidentet, sëmundjet ose thjesht pleqëria mund të vrasin një person kundër vullnetit të tij. Në fund të fundit, njerëzit do të mposhtin biologjinë e tyre dhe do të bëhen të përjetshëm - kjo është rruga drejt anës së lumtur të rrezes së ekuilibrit për të cilën kemi folur që në fillim. Dhe njerëzit që besojnë në këtë janë gjithashtu të sigurt se një e ardhme e tillë na pret shumë, shumë shpejt.

Ndoshta nuk do të habiteni që idetë e Kurzweil kanë tërhequr kritika të forta. Veçantia e tij në 2045 dhe jeta pasuese e mëvonshme për njerëzit u quajt "ngjitja e budallenjve" ose "krijimi inteligjent i njerëzve me një IQ 140". Të tjerët vunë në dyshim kornizën optimiste kohore, të kuptuarit e trupit dhe trurit të njeriut, të kujtuar ligjin e Moore, i cili ende nuk është zhdukur. Për çdo ekspert që beson në idetë e Kurzweil, ka tre që mendojnë se ai është i gabuar.

Por gjëja më interesante në lidhje me këtë është se shumica e ekspertëve që nuk pajtohen me të, në përgjithësi, nuk thonë se kjo është e pamundur. Në vend që të thonë "marrëzi, kjo nuk do të ndodhë kurrë", ata thonë diçka si "e gjithë kjo do të ndodhë nëse arrijmë në ISI, por ky është problemi". Bostrom, një nga ekspertët e mirënjohur të AI që paralajmëron rreziqet e AI, gjithashtu pranon:

“Pothuajse nuk ka mbetur ndonjë problem që super inteligjenca nuk mund ta zgjidhë, madje as të na ndihmojë ta zgjidhim. Sëmundjet, varfëria, shkatërrimi i mjedisit, vuajtjet e të gjitha llojeve - e gjithë kjo super inteligjencë me ndihmën e nanoteknologjisë mund të zgjidhet në një moment. Superinteligjenca gjithashtu mund të na japë jetëgjatësi të pakufizuar duke ndaluar dhe përmbysur procesin e plakjes duke përdorur nanomjekësinë ose aftësinë për të na ngarkuar në re. Super inteligjenca gjithashtu mund të krijojë mundësi për rritje të pafundme të aftësive intelektuale dhe emocionale; ai mund të na ndihmojë të krijojmë një botë në të cilën do të jetojmë në gëzim dhe mirëkuptim, duke iu afruar idealeve tona dhe duke i realizuar rregullisht ëndrrat tona.

Ky është një citim nga një prej kritikëve të Kurzweil, megjithatë, i cili pranon se e gjithë kjo është e mundur nëse mund të krijojmë një ASI të sigurt. Kurzweil thjesht përcaktoi se çfarë duhet të bëhet super inteligjenca artificiale, nëse është e mundur. Dhe nëse ai është një zot i mirë.

Kritika më e qartë e avokatëve të zonës së rehatisë është se ata mund të jenë të gabuar kur vlerësojnë të ardhmen e ISI. Në librin e tij The Singularity, Kurzweil kushtoi 20 faqe nga 700 kërcënime të mundshme ISI. Pyetja nuk është kur të arrijmë në ISI, pyetja është cili do të jetë motivimi i tij. Kurzweil i përgjigjet kësaj pyetjeje me kujdes: “ISI buron nga shumë përpjekje të ndryshme dhe do të integrohet thellësisht në infrastrukturën e qytetërimit tonë. Në fakt, do të jetë ngulitur ngushtë në trupin dhe trurin tonë. Ai do të pasqyrojë vlerat tona sepse do të jetë një me ne.

Por nëse përgjigja është, pse janë kaq shumë njerëz të zgjuar në këtë botë të shqetësuar për të ardhmen e inteligjencës artificiale? Pse Stephen Hawking thotë se zhvillimi i ISI "mund të nënkuptojë fundin e racës njerëzore"? Bill Gates thotë se "nuk i kupton njerëzit që nuk shqetësohen" për këtë. Elon Musk ka frikë se ne "po thërrasim një demon". Pse shumë ekspertë e konsiderojnë ISI -në kërcënimin më të madh për njerëzimin?

Ne do të flasim për këtë herën tjetër.

Recommended: