Shkencëtarët kanë frikë nga kërcënimi nga inteligjenca artificiale

Shkencëtarët kanë frikë nga kërcënimi nga inteligjenca artificiale
Shkencëtarët kanë frikë nga kërcënimi nga inteligjenca artificiale

Video: Shkencëtarët kanë frikë nga kërcënimi nga inteligjenca artificiale

Video: Shkencëtarët kanë frikë nga kërcënimi nga inteligjenca artificiale
Video: Top Channel/ “Gati për luftë me rusët”, flet Emanuel Bazanji, ushtaraku shqiptar në Ukrainë 2024, Nëntor
Anonim

Inteligjenca artificiale vetë-përmirësuese (AI) në të ardhmen mund të skllavërojë ose vrasë njerëz nëse dëshiron. Kjo u tha nga shkencëtari Amnon Eden, i cili beson se rreziqet nga zhvillimi i një ndërgjegjeje me mendim të lirë dhe shumë inteligjent janë shumë të larta, dhe "nëse nuk kujdeseni për çështjet e kontrollit të AI tashmë në fazën aktuale të zhvillim, atëherë nesër thjesht nuk mund të vijë ". Sipas botimit anglez Express, njerëzimi, sipas Amnon Eden, është sot në "pikën pa kthim" për zbatimin e komplotit të eposit të famshëm filmik "The Terminator".

Vlen të përmendet se Dr. Amnon Eden është një udhëheqës projekti, qëllimi kryesor i të cilit është të analizojë efektet e mundshme shkatërruese të AI. Pa një kuptim të saktë të pasojave të krijimit të inteligjencës artificiale, zhvillimi i tij mund të kërcënojë me katastrofë, beson shkencëtari. Aktualisht, shoqëria jonë është e dobët e informuar për debatin që po ndodh në komunitetin shkencor në lidhje me analizën e ndikimit të mundshëm të AI. "Në vitin e ardhshëm 2016, analiza e rreziqeve të mundshme do të duhet të bëhet shumë më e përhapur në të menduarit e korporatave dhe qeverive, politikanëve dhe atyre që janë përgjegjës për marrjen e vendimeve," thotë Eden.

Shkencëtari është i sigurt se trillimi shkencor, i cili përshkruan shkatërrimin e njerëzimit nga robotët, së shpejti mund të bëhet problemi ynë i zakonshëm, pasi procesi i krijimit të AI ka dalë jashtë kontrollit. Për shembull, Elon Musk, me mbështetjen e sipërmarrësit Sam Altman, vendosi të krijojë një organizatë jofitimprurëse prej 1 miliard dollarësh që zhvillon AI me burim të hapur që duhet të tejkalojë mendjen njerëzore. Në të njëjtën kohë, vetë miliarderi amerikan Elon Musk e rendit inteligjencën artificiale ndër "kërcënimet më të mëdha për ekzistencën tonë". Steve Wozniak, i cili bashkëthemeloi Apple, tha marsin e kaluar se "e ardhmja duket e frikshme dhe shumë e rrezikshme për njerëzit … përfundimisht do të vijë dita kur kompjuterët do të mendojnë më shpejt se ne dhe ata do të heqin qafe njerëzit e ngadaltë në mënyrë që të në mënyrë që kompanitë të mund të punojnë në mënyrë më efikase."

Imazhi
Imazhi

Vlen të përmendet se shumë shkencëtarë e shohin kërcënimin nga AI. Dhjetëra shkencëtarë, investitorë dhe sipërmarrës të mirënjohur, aktivitetet e të cilëve, në një mënyrë ose në një tjetër, lidhen me zhvillimin e inteligjencës artificiale, kanë nënshkruar një letër të hapur duke kërkuar më shumë vëmendje për çështjen e sigurisë dhe dobisë shoqërore të punës në fushën e UA. Astrofizikani Stephen Hawking dhe themeluesi i Tesla dhe SpaceX Elon Musk janë ndër nënshkruesit e këtij dokumenti. Letra, së bashku me një dokument shoqërues, i cili u hartua nga Instituti i Ardhmërisë së Jetës (FLI), u shkrua mes shqetësimeve në rritje për ndikimin e inteligjencës artificiale në tregun e punës dhe madje edhe mbijetesën afatgjatë të të gjithë njerëzimit në një mjedis ku aftësitë e robotëve dhe makinave do të rriten pothuajse në mënyrë të pakontrollueshme.

Shkencëtarët e kuptojnë faktin se potenciali i AI sot është shumë i madh, kështu që është e nevojshme të hetohen plotësisht mundësitë e përdorimit të tij optimal për ne në mënyrë që të shmangim kurthet shoqëruese, vëren letra FLI. Imshtë e domosdoshme që sistemet artificiale të krijuara nga njeriu të bëjnë pikërisht atë që ne duam të bëjnë. Vlen të përmendet se Instituti Future of Life u themelua vetëm vitin e kaluar nga një numër entuziastësh, ndër të cilët ishte krijuesi i Skype, Jaan Tallinn, në mënyrë që të "minimizonte rreziqet me të cilat përballet njerëzimi" dhe të stimulojë kërkimin me një "vizion optimist të së ardhmes”. Para së gjithash, ne po flasim këtu për rreziqet që shkaktohen nga zhvillimi i AI dhe robotikës. Bordi Këshillimor FLI përfshin Musk dhe Hawking, së bashku me aktorin e mirënjohur Morgan Freeman dhe njerëz të tjerë të famshëm. Sipas Elon Musk, zhvillimi i pakontrolluar i inteligjencës artificiale është potencialisht më i rrezikshëm se armët bërthamore.

Astrofizikani i famshëm britanik Stephen Hawking në fund të 2015 u përpoq të shpjegojë refuzimin e tij të teknologjive të AI. Sipas mendimit të tij, me kalimin e kohës, makinat super inteligjente do t'i shikojnë njerëzit si harxhues ose milingona që thjesht ndërhyjnë në zgjidhjen e detyrave të tyre. Duke folur me përdoruesit e portalit Reddit, Stephen Hawking vuri në dukje se ai nuk beson se makina të tilla super inteligjente do të jenë "krijesa të liga" që duan të shkatërrojnë të gjithë njerëzimin për shkak të epërsisë së tyre intelektuale. Me shumë mundësi, do të jetë e mundur të flitet për faktin se ata thjesht nuk do ta vënë re njerëzimin.

Imazhi
Imazhi

"Mediat kanë shtrembëruar vazhdimisht fjalët e mia kohët e fundit. Rreziku kryesor në zhvillimin e AI nuk është keqdashja e makinave, por kompetenca e tyre. Inteligjenca artificiale super inteligjente do të bëjë një punë të shkëlqyeshme, por nëse ajo dhe qëllimet tona nuk përkojnë, njerëzimi do të ketë probleme shumë serioze, "shpjegon shkencëtari i famshëm. Si shembull, Hawking citoi një situatë hipotetike në të cilën një UA superfuqishëm është përgjegjës për funksionimin ose ndërtimin e një dige të re hidroelektrike. Për një makinë të tillë, përparësia do të jetë sa energji do të prodhojë sistemi i besuar dhe fati i njerëzve nuk do të ketë rëndësi. "Ka pak prej nesh që shkelin milingonat dhe shkelin milingonat nga zemërimi, por le të imagjinojmë një situatë - ju kontrolloni një hidrocentral të fuqishëm që gjeneron energji elektrike. Nëse keni nevojë të ngrini nivelin e ujit dhe si rezultat i veprimeve tuaja një milingonë do të përmbytet, atëherë problemet e insekteve të mbytura nuk ka gjasa t'ju shqetësojnë. Le të mos i vendosim njerëzit në vendin e milingonave, "tha shkencëtari.

Problemi i dytë i mundshëm për zhvillimin e mëtejshëm të inteligjencës artificiale, sipas Hawking, mund të jetë "tirania e pronarëve të makinave" - rritja e shpejtë e hendekut në nivelin e të ardhurave midis njerëzve të pasur që do të jenë në gjendje të monopolizojnë prodhimin e makinave inteligjente, dhe pjesa tjetër e popullsisë së botës. Stephen Hawking propozon zgjidhjen e këtyre problemeve të mundshme në mënyrën e mëposhtme - për të ngadalësuar procesin e zhvillimit të AI dhe për të kaluar në zhvillimin e inteligjencës artificiale jo "universale", por shumë të specializuar, e cila mund të zgjidhë vetëm një gamë shumë të kufizuar problemesh.

Përveç Hawking dhe Musk, letra u nënshkrua nga nobelisti dhe profesori i fizikës në MIT Frank Wilczek, drejtori ekzekutiv i Institutit të Kërkimit të Inteligjencës së Makinerisë (MIRI) Luc Mühlhauser, si dhe shumë specialistë nga kompanitë e mëdha të IT: Google, Microsoft dhe IBM, si dhe sipërmarrës që themeluan kompanitë AI Vicarious dhe DeepMind. Autorët e letrës vërejnë se ata nuk kanë për qëllim të trembin publikun, por planifikojnë të nxjerrin në pah aspektet pozitive dhe negative që lidhen me krijimin e inteligjencës artificiale. "Aktualisht, të gjithë pajtohen se kërkimet në fushën e AI po përparojnë në mënyrë të qëndrueshme dhe ndikimi i AI në shoqërinë moderne njerëzore vetëm do të rritet," thotë letra, "mundësitë që u hapen njerëzve janë të mëdha, gjithçka që qytetërimi modern ka për të ofruar është krijuar nga inteligjenca. person. Ne nuk jemi në gjendje të parashikojmë se çfarë do të jemi në gjendje të arrijmë nëse inteligjenca njerëzore mund të shumëzohet me AI, por problemi i heqjes së varfërisë dhe sëmundjeve nuk është më pafundësisht i vështirë."

Imazhi
Imazhi

Zhvillime të shumta në fushën e inteligjencës artificiale janë përfshirë tashmë në jetën moderne, duke përfshirë sistemet e njohjes së imazhit dhe të të folurit, automjetet pa pilot dhe shumë më tepër. Vëzhguesit e Silicon Valley vlerësojnë se më shumë se 150 startup janë aktualisht duke u zbatuar në këtë fushë. Në të njëjtën kohë, zhvillimet në këtë fushë po tërheqin gjithnjë e më shumë investime, dhe gjithnjë e më shumë kompani si Google po zhvillojnë projektet e tyre bazuar në AI. Prandaj, autorët e letrës besojnë se ka ardhur koha për t'i kushtuar më shumë vëmendje të gjitha pasojave të mundshme të bumit të vëzhguar për aspektet ekonomike, sociale dhe juridike të jetës njerëzore.

Pozicioni që inteligjenca artificiale mund të përbëjë rrezik për njerëzit ndahet nga Nick Bostrom, një profesor në Universitetin e Oksfordit, i cili është i njohur për punën e tij mbi parimin antropik. Ky specialist beson se AI ka ardhur në atë pikë që do të pasohet nga papajtueshmëria e tij me njerëzit. Nick Bostrom thekson se ndryshe nga inxhinieria gjenetike dhe ndryshimet klimatike, për të cilat qeveritë po ndajnë fonde të mjaftueshme për të kontrolluar, "asgjë nuk po bëhet për të kontrolluar evolucionin e AI." Sipas profesorit, një "politikë e një vakumi ligjor që duhet të plotësohet" po ndiqet aktualisht në lidhje me inteligjencën artificiale. Edhe teknologjitë si makinat vetë-drejtuese, të cilat duken të padëmshme dhe të dobishme, ngrenë një numër pyetjesh. Për shembull, a duhet që një makinë e tillë të kryejë frenim emergjent për të shpëtuar pasagjerët e saj dhe kush do të jetë përgjegjës në rast të një aksidenti të kryer nga një automjet pa pilot?

Duke diskutuar rreziqet e mundshme, Nick Bostrom vuri në dukje se "kompjuteri nuk është në gjendje të përcaktojë përfitimet dhe dëmet për njerëzit" dhe "as nuk ka idenë më të vogël të moralit njerëzor". Për më tepër, ciklet e vetë-përmirësimit në kompjuterë mund të ndodhin me një shpejtësi të tillë që një person thjesht nuk mund t'i mbajë nën kontroll, dhe pothuajse asgjë nuk mund të bëhet as për këtë, thotë shkencëtari. "Në fazën e zhvillimit kur kompjuterët mund të mendojnë vetë, askush nuk mund të parashikojë me siguri nëse kjo do të çojë në kaos ose do të përmirësojë ndjeshëm botën tonë," tha Nick Bostrom, duke përmendur si shembull një zgjidhje të thjeshtë të mundshme për një kompjuter - mbylljen në vendet me ngrohje të klimës së ftohtë për të përmirësuar shëndetin e njerëzve dhe për të rritur qëndrueshmërinë e tyre, të cilat "mund të vijnë në krye të inteligjencës artificiale".

Imazhi
Imazhi

Përveç kësaj, Bostrom gjithashtu ngre problemin e copëtimit të trurit të njeriut në mënyrë që të rrisë bio inteligjencën tonë. "Në shumë mënyra, një procedurë e tillë mund të jetë e dobishme nëse kontrollohen të gjitha proceset, por çfarë ndodh nëse çipi i implantuar mund të riprogramohet vetë? Çfarë pasojash mund të çojë kjo - në shfaqjen e një mbinjeriu ose në shfaqjen e një kompjuteri që do të duket vetëm si një njeri? " - pyet profesori. Mënyra se si kompjuterët zgjidhin problemet njerëzore është shumë e ndryshme nga e jona. Për shembull, në shah, truri i njeriut konsideron vetëm një grup të ngushtë lëvizjesh, duke zgjedhur opsionin më të mirë prej tyre. Nga ana tjetër, kompjuteri merr parasysh të gjitha lëvizjet e mundshme, duke zgjedhur më të mirën. Në të njëjtën kohë, kompjuteri nuk pret të shqetësojë ose befasojë kundërshtarin e tij në lojë. Ndryshe nga një qenie njerëzore, duke luajtur shah, një kompjuter mund të bëjë një lëvizje dinake dhe delikate vetëm rastësisht. Inteligjenca artificiale mund të llogarisë në mënyrën më të mirë - për të eleminuar gabimin nga çdo sistem duke hequr "faktorin njerëzor" nga atje, por, ndryshe nga një njeri, një robot nuk është i gatshëm të bëjë vepra që do të shpëtonin jetën e njerëzve.

Ndër të tjera, rritja e numrit të makinave të zgjuara përfaqëson fazën e një revolucioni të ri industrial. Nga ana tjetër, kjo do të thotë që në të ardhmen e afërt, njerëzimi do të përballet me ndryshime të pashmangshme shoqërore. Me kalimin e kohës, puna do të bëhet shumë specialistë të kualifikuar, pasi pothuajse të gjitha detyrat e thjeshta mund të ndërmerren nga robotët dhe mekanizmat e tjerë. Shkencëtarët besojnë se inteligjenca artificiale "ka nevojë për një sy dhe një sy" në mënyrë që planeti ynë të mos shndërrohet në një planet vizatimor "Zhelezyaka", i cili ishte i banuar nga robotë.

Për sa i përket automatizimit gjithnjë e më shumë të proceseve të prodhimit, e ardhmja tashmë ka ardhur. Forumi Ekonomik Botëror (WEF) paraqiti raportin e tij, sipas të cilit automatizimi do të çojë në faktin se deri në vitin 2020 më shumë se 5 milion njerëz që punojnë në fusha të ndryshme do të humbasin punën e tyre. Ky është ndikimi i robotëve dhe sistemeve robotike në jetën tonë. Për të përpiluar raportin, punonjësit e WEF përdorën të dhëna për 13.5 milionë punonjës nga e gjithë bota. Sipas tyre, deri në vitin 2020, nevoja e përgjithshme për më shumë se 7 milion vende pune do të zhduket, ndërsa rritja e pritshme e punësimit në industritë e tjera do të arrijë në pak më shumë se 2 milion vende pune.

Recommended: