Wanasayansi wanaogopa tishio kutoka kwa akili ya bandia

Wanasayansi wanaogopa tishio kutoka kwa akili ya bandia
Wanasayansi wanaogopa tishio kutoka kwa akili ya bandia

Video: Wanasayansi wanaogopa tishio kutoka kwa akili ya bandia

Video: Wanasayansi wanaogopa tishio kutoka kwa akili ya bandia
Video: VITA ! URUSI IMESUSIA SAA YA DUNIA, IMETAJA SABABU ZA MAAMUZI HAYO MAGUMU HADHARANI KABISA 2024, Mei
Anonim

Akili ya kujiboresha ya kujiboresha (AI) katika siku zijazo inaweza kuwatumikisha au kuwaua watu ikiwa anataka. Hii iliambiwa na mwanasayansi Amnon Eden, ambaye anaamini kuwa hatari kutoka kwa maendeleo ya fikra huru na fahamu zenye akili ni kubwa sana, na "ikiwa hautashughulikia maswala ya udhibiti wa AI tayari katika hatua ya sasa ya maendeleo, basi kesho inaweza isije. " Kulingana na toleo la Kiingereza Express, ubinadamu, kulingana na Amnon Eden, leo yuko "mahali pa kurudi" kwa utekelezaji wa njama ya hadithi maarufu ya filamu "The Terminator".

Ni muhimu kutambua kwamba Dk Amnon Edeni ni kiongozi wa mradi ambao lengo lake kuu ni kuchambua athari mbaya za AI. Bila uelewa sahihi wa matokeo ya kuunda akili bandia, maendeleo yake yanaweza kutishia na maafa, mwanasayansi anaamini. Hivi sasa, jamii yetu inaarifiwa vibaya juu ya mjadala unaoendelea katika jamii ya wanasayansi juu ya uchambuzi wa athari inayowezekana ya AI. "Katika 2016 ijayo, uchambuzi wa hatari zinazowezekana utalazimika kuenea zaidi katika fikira za mashirika na serikali, wanasiasa na wale ambao wana jukumu la kufanya maamuzi," anasema Eden.

Mwanasayansi ana hakika kuwa hadithi za uwongo za kisayansi, ambazo zinaelezea uharibifu wa ubinadamu na roboti, hivi karibuni inaweza kuwa shida yetu ya kawaida, kwani mchakato wa kuunda AI haujaweza kudhibitiwa. Kwa mfano, Elon Musk, akiungwa mkono na mjasiriamali Sam Altman, aliamua kuunda shirika lisilo la faida la $ 1 bilioni ambalo linaendeleza chanzo wazi cha AI ambacho kinapaswa kuzidi akili ya mwanadamu. Wakati huo huo, bilionea wa Amerika Elon Musk mwenyewe anaweka ujasusi wa bandia kati ya "vitisho vikubwa kwa uhai wetu." Steve Wozniak, ambaye alianzisha Apple, alisema Machi iliyopita kuwa "siku za usoni zinaonekana kutisha na hatari sana kwa watu … mwishowe siku itafika wakati kompyuta zitafikiria haraka kuliko sisi na wataondoa watu polepole ili ili kampuni zifanye kazi kwa ufanisi zaidi."

Picha
Picha

Ikumbukwe kwamba wanasayansi wengi wanaona tishio kutoka kwa AI. Makumi ya wanasayansi mashuhuri, wawekezaji na wafanyabiashara, ambao shughuli zao, kwa njia moja au nyingine, zinahusiana na ukuzaji wa ujasusi bandia, wamesaini barua ya wazi inayotaka kuzingatiwa zaidi kwa suala la usalama na matumizi ya kijamii ya kazi katika uwanja wa AI. Mwanafalsafa Stephen Hawking na mwanzilishi wa Tesla na SpaceX Elon Musk ni miongoni mwa waliosaini hati hii. Barua hiyo, pamoja na waraka uliofuatana, ambao uliandaliwa na Taasisi ya Baadaye ya Maisha (FLI), iliandikwa huku kukiwa na wasiwasi mkubwa juu ya athari za akili ya bandia kwenye soko la ajira na hata kuishi kwa muda mrefu kwa wanadamu wote katika mazingira ambapo uwezo wa roboti na mashine zitakua karibu bila kudhibitiwa.

Wanasayansi wanaelewa ukweli kwamba uwezo wa AI leo ni mkubwa sana, kwa hivyo inahitajika kuchunguza kabisa uwezekano wa matumizi yake bora kwetu ili kuepuka mitego inayoambatana, barua ya barua ya FLI. Ni muhimu kwamba mifumo iliyotengenezwa na wanadamu ya AI ifanye kile tunachotaka wafanye. Ikumbukwe kwamba Taasisi ya Baadaye ya Maisha ilianzishwa tu mwaka jana na idadi ya wapenda, ambao kati yao alikuwa muundaji wa Skype, Jaan Tallinn, ili "kupunguza hatari zinazowakabili wanadamu" na kuchochea utafiti na "maono ya matumaini ya siku za usoni”. Kwanza kabisa, tunazungumza hapa juu ya hatari ambazo zinasababishwa na ukuzaji wa AI na roboti. Bodi ya Ushauri ya FLI ni pamoja na Musk na Hawking, pamoja na mwigizaji mashuhuri Morgan Freeman na watu wengine maarufu. Kulingana na Elon Musk, maendeleo yasiyodhibitiwa ya ujasusi bandia ni hatari zaidi kuliko silaha za nyuklia.

Mwanasayansi maarufu wa Uingereza Stephen Hawking mwishoni mwa mwaka 2015 alijaribu kuelezea kukataa kwake teknolojia za AI. Kwa maoni yake, baada ya muda, mashine zenye busara zitaangalia watu kama bidhaa zinazoweza kutumiwa au mchwa ambao huingilia tu suluhisho la majukumu yao. Akiongea na watumiaji wa bandari ya Reddit, Stephen Hawking alibaini kuwa haamini kwamba mashine hizo zenye akili nyingi zitakuwa "viumbe wabaya" ambao wanataka kuharibu wanadamu wote kwa sababu ya ubora wao wa kiakili. Uwezekano mkubwa zaidi, itawezekana kuzungumza juu ya ukweli kwamba hawatatambua ubinadamu.

Picha
Picha

“Vyombo vya habari vimekuwa vikipotosha maneno yangu siku za hivi karibuni. Hatari kuu katika ukuzaji wa AI sio uovu wa mashine, lakini uwezo wao. Akili bandia yenye busara itafanya kazi nzuri, lakini ikiwa hiyo na malengo yetu hayatalingana, ubinadamu utakuwa na shida kubwa sana,”anaelezea mwanasayansi huyo mashuhuri. Kwa mfano, Hawking alitolea mfano hali ya kudhani ambayo AI yenye nguvu inawajibika kwa operesheni au ujenzi wa bwawa jipya la umeme. Kwa mashine kama hiyo, kipaumbele kitakuwa ni nguvu ngapi mfumo uliokabidhiwa utazalisha, na hatima ya watu haitajali. Ni wachache wetu ambao hukanyaga vichuguu na kukanyaga mchwa kwa hasira, lakini hebu fikiria hali - unadhibiti kituo chenye nguvu cha umeme wa umeme ambacho kinazalisha umeme. Ikiwa unahitaji kuinua kiwango cha maji na kama matokeo ya matendo yako kichuguu kimoja kitafurika, basi shida za wadudu wanaozama haziwezekani kukusumbua. Tusiweke watu mahali pa mchwa,”mwanasayansi huyo alisema.

Shida ya pili inayowezekana kwa maendeleo zaidi ya ujasusi bandia, kulingana na Hawking, inaweza kuwa "dhulma ya wamiliki wa mashine" - ukuaji wa haraka wa pengo katika kiwango cha mapato kati ya watu matajiri ambao wataweza kuhodhi uzalishaji ya mashine zenye akili, na watu wengine wote ulimwenguni. Stephen Hawking anapendekeza kutatua shida hizi kwa njia ifuatayo - kupunguza kasi ya mchakato wa maendeleo ya AI na kubadili maendeleo sio ya "ulimwengu wote", lakini akili ya bandia iliyo na utaalam sana, ambayo inaweza kutatua shida nyingi tu.

Mbali na Hawking na Musk, barua hiyo ilisainiwa na mshindi wa tuzo ya Nobel na profesa wa fizikia wa MIT Frank Wilczek, mkurugenzi mtendaji wa Taasisi ya Utafiti wa Ujasusi wa Mashine (MIRI) Luc Mühlhauser, pamoja na wataalamu wengi kutoka kampuni kubwa za IT: Google, Microsoft na IBM, pamoja na wafanyabiashara ambao walianzisha kampuni za AI Vicarious na DeepMind. Waandishi wa barua hiyo wanaona kuwa hawana lengo la kutisha umma, lakini wanapanga kuangazia mambo mazuri na hasi ambayo yanahusishwa na uundaji wa akili ya bandia. "Kwa sasa, kila mtu anakubali kuwa utafiti katika uwanja wa AI unaendelea kwa kasi, na ushawishi wa AI kwa jamii ya wanadamu ya kisasa itaongezeka tu," barua hiyo inasema, "fursa ambazo zinafunguliwa kwa wanadamu ni kubwa sana, kila kitu ambacho ustaarabu wa kisasa inapaswa kutoa iliundwa na akili. Hatuwezi kutabiri nini tutaweza kufikia ikiwa akili ya mwanadamu inaweza kuzidishwa na AI, lakini shida ya kujikwamua na umasikini na magonjwa sio ngumu tena."

Picha
Picha

Maendeleo mengi katika uwanja wa akili bandia tayari yamejumuishwa katika maisha ya kisasa, pamoja na mifumo ya utambuzi wa picha na usemi, magari yasiyopangwa na mengi zaidi. Watazamaji wa Silicon Valley wanakadiria kuwa zaidi ya kuanza kwa 150 kunatekelezwa hivi sasa katika eneo hili. Wakati huo huo, maendeleo katika eneo hili yanavutia uwekezaji zaidi na zaidi, na kampuni zaidi na zaidi kama Google zinaendeleza miradi yao kulingana na AI. Kwa hivyo, waandishi wa barua hiyo wanaamini kuwa wakati umefika wa kulipa kipaumbele kwa athari zote zinazowezekana za kuongezeka kwa uchumi, kijamii na kisheria kwa maisha ya mwanadamu.

Msimamo kwamba akili ya bandia inaweza kusababisha hatari kwa wanadamu inashirikiwa na Nick Bostrom, profesa katika Chuo Kikuu cha Oxford, ambaye anajulikana kwa kazi yake juu ya kanuni ya anthropic. Mtaalam huyu anaamini kwamba AI imefika hatua ambayo itafuatwa na kutokubalika kwake na wanadamu. Nick Bostrom anasisitiza kuwa tofauti na uhandisi wa maumbile na mabadiliko ya hali ya hewa, ambayo serikali zinatenga fedha za kutosha kudhibiti, "hakuna kinachofanyika kudhibiti mabadiliko ya AI." Kulingana na profesa huyo, "sera ya ombwe la kisheria ambalo linahitaji kujazwa" kwa sasa linafuatwa kuhusu ujasusi bandia. Hata teknolojia kama gari zinazojiendesha zenyewe, ambazo zinaonekana hazina madhara na zinafaa, huinua maswali kadhaa. Kwa mfano, gari kama hiyo inapaswa kufanya breki ya dharura ili kuokoa abiria wake na ni nani atakayehusika wakati wa ajali iliyofanywa na gari lisilo na mtu?

Akizungumzia hatari zinazoweza kutokea, Nick Bostrom alibainisha kuwa "kompyuta haiwezi kuamua faida na madhara kwa wanadamu" na "haina wazo hata kidogo la maadili ya mwanadamu." Kwa kuongezea, mizunguko ya kujiboresha katika kompyuta inaweza kutokea kwa kasi kwamba mtu hawezi tu kufuatilia, na karibu hakuna kitu kinachoweza kufanywa juu ya hili pia, anasema mwanasayansi. "Katika hatua ya maendeleo wakati kompyuta zinaweza kujifikiria, hakuna mtu anayeweza kutabiri kwa hakika ikiwa hii itasababisha machafuko au kuboresha ulimwengu wetu," alisema Nick Bostrom, akitoa mfano kama suluhisho rahisi kwa kompyuta - kuzima katika nchi zenye joto kali la hali ya hewa ili kuboresha afya ya watu na kuongeza uvumilivu, ambayo "inaweza kuja kwa mkuu wa ujasusi bandia."

Picha
Picha

Kwa kuongezea, Bostrom pia inainua shida ya kung'oa ubongo wa mwanadamu ili kuongeza akili yetu. "Kwa njia nyingi, utaratibu kama huo unaweza kuwa na manufaa ikiwa michakato yote inadhibitiwa, lakini ni nini kinachotokea ikiwa chip iliyowekwa inaweza kujipanga upya? Je! Ni matokeo gani haya yanaweza kusababisha - kuibuka kwa superman au kuibuka kwa kompyuta ambayo itaonekana tu kama mwanadamu? " - profesa anauliza. Njia ambazo kompyuta hutatua shida za wanadamu ni tofauti sana na zetu. Kwa mfano, katika chess, ubongo wa mwanadamu huzingatia tu seti nyembamba za hatua, ukichagua chaguo bora kutoka kwao. Kwa upande mwingine, kompyuta inazingatia hatua zote zinazowezekana, ikichagua bora zaidi. Wakati huo huo, kompyuta haitarajii kumkasirisha au kumshangaza mpinzani wake kwenye mchezo. Tofauti na mwanadamu, kucheza chess, kompyuta inaweza kufanya hoja ya ujanja na ya hila tu kwa bahati mbaya. Akili ya bandia inaweza kuhesabu kwa njia bora - kuondoa kosa kutoka kwa mfumo wowote kwa kuondoa "sababu ya kibinadamu" kutoka hapo, lakini, tofauti na mwanadamu, roboti haiko tayari kutekeleza mambo ambayo yangeokoa maisha ya watu.

Miongoni mwa mambo mengine, kuongezeka kwa idadi ya mashine mahiri inawakilisha hatua ya mapinduzi mapya ya viwanda. Kwa upande mwingine, hii inamaanisha kuwa katika siku za usoni, ubinadamu utakabiliwa na mabadiliko ya kijamii ambayo hayaepukiki. Kwa muda, kazi itakuwa kura ya wataalam waliohitimu sana, kwani karibu kazi zote rahisi zinaweza kufanywa na roboti na mifumo mingine. Wanasayansi wanaamini kuwa akili ya bandia "inahitaji jicho na jicho" ili sayari yetu isigeuke kuwa sayari ya katuni "Zhelezyaka", ambayo ilikaliwa na roboti.

Kwa suala la automatisering zaidi na zaidi ya michakato ya uzalishaji, siku zijazo tayari zimewasili. Jukwaa la Uchumi Ulimwenguni (WEF) liliwasilisha ripoti yake, kulingana na ambayo otomatiki itasababisha ukweli kwamba ifikapo mwaka 2020 zaidi ya watu milioni 5 wanaofanya kazi katika nyanja anuwai watapoteza kazi zao. Hii ndio athari ya roboti na mifumo ya roboti kwenye maisha yetu. Ili kukusanya ripoti hiyo, wafanyikazi wa WEF walitumia data juu ya wafanyikazi milioni 13.5 kutoka kote ulimwenguni. Kulingana na wao, ifikapo mwaka 2020, mahitaji yote ya zaidi ya ajira milioni 7 yatatoweka, wakati ukuaji unaotarajiwa wa ajira katika tasnia zingine utazidi ajira zaidi ya milioni 2.

Ilipendekeza: