ЖАСАНДЫ ИНТЕЛЛЕКТТІҢ АДАМ ӨМІРІНДЕГІ ОРНЫ
ЖАСАНДЫ ИНТЕЛЛЕКТТІҢ АДАМ ӨМІРІНДЕГІ ОРНЫ
Кульбаева Дина Дюсебаевна
М.Х. Дулати атындағы Тараз өңірлік университеті Философия ғылымдарының кандидаты, доцент,
Қазақстан, Тараз
THE PLACE OF ARTIFICIAL INTELLIGENCE IN HUMAN LIFE
Dina Kulbaeva
M.H. Named after DulatiTaraz Regional University Candidate of Philosophical Sciences, associate professor,
Kazakhstan, Taraz
ХХ ғасырдың екінші жартысынан бері түрлі елдің ғалымдары адамның санасы сияқты әртүрлі функцияларды басқара алатын күрделі механизмді жасанды жолмен жасауға тырысып келеді. Әзірге адам санасының баламасы жасалған жоқ. Оны ғылымда "жасанды интеллект" деп атайды. Жасанды интеллект саласындағы негізгі философиялық мәселе-адамның ойлауын модельдеу мүмкіндігі немесе мүмкін еместігі. Егер алда-жалда осы сұраққа теріс жауап алынған болса, онда барлық басқа сұрақтардың мағынасы қажет болмай қалады. Демек, жасанды интеллектті зерттеуді бастағанда, алдын-ала оң жауап алу мүмкіндігі қабылданады. Бұл тұжырым жасауға бірқатар ойлар әсер етеді:
Бірінші дәлел схоластикалық болып табылады және жасанды интеллект пен Киелі кітап араында бір-біріне қарама-қайшылықтың жоқ екендігін дәлелдейді. Тіпті, діннен алыс адамдар да Киелі жазбаның мына сөздерін біледі: «Құдай адамды өзіне ұқсас және өз бейнесі бойынша жаратқан...» Осы сөздерге сүйене отырып, біз Құдай, біріншіден, бізді жаратқандықтан, екіншіден, біз оған ұқсайтындықтан, біз адамның бейнесі мен ұқсастығы бойынша біреуді жасай аламыз деп қорытынды жасай аламыз. Адам үшін биологиялық жолмен жаңа ақыл-ой иесін жасау өте үйреншікті іс. Балаларды бақылай отырып, біз олардың білімнің көп бөлігін оларға о баста алдын-ала қалыптасқан емес, оқу барысында алатынын көреміз. Бұрын адам шығармашылығының шыңы болып көрінген нәрсе — шахмат, дойбы ойнау, визуалды және дыбыстық бейнелерді тану, жаңа техникалық шешімдерді синтездеу шын мәнінде іс жүзінде онша қиын болған жоқ (қазір жұмыс жоғарыда айтылғандарды жүзеге асырудың мүмкіндігі немесе мүмкін еместігі деңгейінде емес, ең оңтайлы алгоритмді табу туралы болып тұр). Енді бұл проблемалар көбінесе жасанды интеллект проблемаларына жатпайтындай деңгейге жетті. Адамның ойлауын толық модельдеу де соншалықты қиын емес болады деген үміт пайда болды. Өзінің ойлау қабілетін көбейту мәселесі өздігімен көбею мәселесімен тығыз байланысты. Өзін-өзі көбейту қабілеті ұзақ уақыт бойы тірі организмдердің құзыреті болып саналды. Алайда, жансыз табиғатта болатын кейбір құбылыстар (мысалы, кристалдардың өсуі, күрделі молекулалардың көшіру арқылы синтезі) өзін-өзі көбейтуге өте ұқсас. 50-жылдардың басында Дж. фон Нейман өзін-өзі көбейтуді мұқият зерттеп, «өзін-өзі көбейтетін автоматтардың» математикалық теориясының негізін қалады [1]. Сондай-ақ, ол теориялық тұрғыдан оларды құру мүмкіндігін дәлелдеді. Сонымен қатар, өзін-өзі көбейту мүмкіндігі туралы әртүрлі бейресми дәлелдер бар. Мысалы, бағдарламашылар үшін ең жарқын дәлел компьютерлік вирустардың болуы. Компьютерлер мен роботтар, негізінен, кез келген мәселені шеше алады деп ойлауға болмайды. Әртүрлі есептерді талдау математиктерді керемет жаңалыққа жетеледі. Берілген типтегі барлық есептерді шешетін біртұтас тиімді алгоритм мүмкін емес есептердің мұндай түрлерінің болуы нақты дәлелденді; бұл тұрғыда мұндай типтегі есептерді компьютердің көмегімен шешу мүмкін емес. Бұл факт машиналар не істей алатынын және не істей алмайтынын жақсырақ түсінуге ықпал етеді. Жасанды интеллекттің келесі философиялық мәселесі – жаратылу мақсаты. Адам өзінен (сапа жағынан болмаса, сан жағынан) асып түсетін интеллект жасай алды делік. Енді адамзат баласымен не болмақ? Адам қандай рөл атқарады? Ол қазір не үшін керек? Ол мылқау және малға айналады ма? Ал жалпы алғанда, жасанды интеллект құру қажеттілігі соншалықты маңызды ма? Шамасы, бұл сұрақтарға ең қолайлы жауап «интеллект күшейткіші» ұғымы болып табылады. Бұл жерде мемлекет президентімен ұқсастық орынды болар еді - ванадий өнеркәсібін дамыту туралы шешім қабылдау үшін оған ванадийдің валенттілігін немесе Java бағдарламалау тілін білу талап етілмейді. Әркім өз ісімен айналысады – химик технологиялық процесті сипаттайды, программист бағдарлама жазады; соңында экономист президентке ақпараттық технологияларды дамытуға инвестиция салу арқылы ел 20%, ал ванадий өнеркәсібінен жылына 10% алатынын айтады. Сұрақты осындай тұжырымдау арқылы кез келген адам дұрыс таңдау жасай алады. Бұл мысалда президент биологиялық интеллект күшейткішін, мамандар тобын пайдаланады. Зияткерлік күшейткіш пен күшті күшейткіштің негізгі айырмашылығы - ерік-жігердің болуы. Өйткені, күтпеген жерден «Запорожец» өндірістік көлігі бас көтеріп, өзі қалаған жолмен жүре бастағанын елестете алмаймыз. Сонымен қатар, интеллектуалды жүйенің өз қалауы болуы мүмкін және біз қалағандай әрекет ете алмайды. Осылайша, алдымызда тағы бір мәселе – қауіпсіздік мәселесі тұр. Бұл мәселе «робот» терминін алғаш қолданған Карел Чапек заманынан бері адамзаттың санасын мазалап келеді [2]. Бұл мәселені талқылауға басқа да фантаст жазушылардың қосқан үлесі зор. Ең танымал ретінде фантаст-жазушы және ғалым Айзек Азимовтың хикаялар сериясын, сондай-ақ «Терминаторды» атап өтуге болады. Айтпақшы, қауіпсіздік мәселесінің ең дамыған және көпшілік қабылдаған шешімін Айзек Азимовтан табуға болады. Біз бұл жерде робототехниканың үш заңы туралы айтып отырмыз [3]. Робот адамға зиян тигізе алмайды немесе әрекетсіздігімен адамға зиян келтіруге мүмкіндік береді.
Бұл бұйрықтар бірінші заңға қайшы келетін жағдайларды қоспағанда, робот адам берген бұйрықтарға бағынуы керек.
Робот бірінші және екінші заңға қайшы келмейтін болса, өз қауіпсіздігін қамтамасыз етуі керек. Бір қарағанда, мұндай заңдар толық сақталған жағдайда, ол адамзаттың қауіпсіздігін қамтамасыз етуі керек. Дегенмен, мұқият үңіліп қарайтын болсақ, мынадай сұрақтар туындайды. Біріншіден, заңдар адам тілінде тұжырымдалған, бұл оларды қарапайым алгоритмдік формаға аударуға мүмкіндік бермейді. Мысалы, ақпараттық технологиялар дамуының осы кезеңінде «зиян» немесе «рұқсат ету» сияқты терминді белгілі бағдарламалау тілдерінің ешқайсысына аудару мүмкін емес.
Әрі қарай, бұл заңдарды автоматтандырылған жүйе түсінетін тілге қайта тұжырымдауға болады делік. Ендігі қызық мынада: жасанды интеллект жүйесі көп қисынды ойлардан кейін «зиян» терминімен нені білдіреді деген сұрақ пайда болады? Ол адамның өмір сүруінің өзі зиян деп шешпей ме? Өйткені, адам темекі тартады, ішеді, қартаяды және жылдар бойы өз денсаулығын жоғалтып, азаптанады. Кішкентай зұлымдық бұл азап тізбегін тез арада жояды емес пе? Әрине, өмірдің құндылығы мен сөз бостандығына қатысты кейбір толықтырулар енгізуге болады. Бірақ бұл енді бастапқы нұсқада болған қарапайым үш заң болмайды. Келесі сұрақ осы болмақ. Бір адамның өмірін құтқару тек екіншісінің есебінен ғана мүмкін болатын жағдайда жасанды интеллект жүйесі не шешеді? Жүйеде кімнің кім екендігі туралы толық ақпарат болмаған жағдайлар әсіресе қызық болайын деп тұр.
Сонда шынымен сенімді қауіпсіздік жүйесі жоқ па? Интеллект күшейткішінің тұжырымдамасына сүйене отырып, біз келесі нұсқаны ұсына аламыз.
Көптеген эксперименттерге сәйкес, біз адам миындағы әрбір жеке нейронның не үшін жауап беретінін нақты білмегенімізге қарамастан, біздің көптеген эмоцияларымыз әдетте толық болжамды аймақта нейрондар тобының (нейрондық ансамбль) қозуына сәйкес келеді. Белгілі бір аймақты ынталандыру қажетті нәтижеге әкелген кезде кері тәжірибелер де жүргізілді. Бұл қуаныш, қысым, қорқыныш, агрессивтілік эмоциялары болуы мүмкін. Бұл, негізінен, біз дененің «қанағаттану» дәрежесін сыртқа шығара алатынымызды көрсетеді. Сонымен бірге бейімделудің және өзін-өзі реттеудің белгілі механизмдерінің барлығы дерлік (ең алдымен техникалық жүйелерді айтамыз) «жақсы» – «жаман» типті принциптерге негізделген. Депрессия жағдайындағы аутодеструктивті әрекетті болдырмау шараларын қолдансақ, сондай-ақ психиканың басқа ерекше жағдайларын қамтамасыз етсек, біз мынаны аламыз. Кәдімгі адам өзіне зиян тигізбейді деп болжанғандықтан, және ешқандай ерекше себепсіз басқаларға зиян келтірмейді, ал интеллект күшейткіші осы жеке тұлғаның бөлігі болып табылғандықтан (міндетті түрде физикалық қауымдастық емес), робототехниканың барлық үш заңы автоматты түрде орындалады. Сонымен бірге бұл жерде қауіпсіздік мәселелері психология мен құқық қорғау саласына ауысады, өйткені (оқытылған) жүйе иесіне ұнамайтын нәрсені жасамайды.
Тағы бір сұрақ қалды - жасанды интеллект құрудың қажеті бар ма, ол осы саладағы барлық жұмыстарды жауып тастай ала ма? Бұл туралы айтуға болатын жалғыз нәрсе, егер жасанды интеллект жасалуы мүмкін болса, ол ерте ме, кеш пе жасалады. Ал оны 100-150 жылдан кейін әлдебір өзін-өзі үйреткен бағдарламашы-механик заманауи техниканың жетістіктерін пайдаланып жасағанша, қауіпсіздік мәселелерін жан-жақты зерттей отырып, қоғамдық бақылаумен жасаған дұрыс. Шынында да, бүгінде, мысалы, белгілі бір қаржылық ресурстары мен материалдары бар кез келген сауатты инженер атом бомбасын жасай алады. қызметкердің орнына екі маманды жалдау қарастырылады.
Қазіргі таңда әлемдегі беделді ғалымдар жасанды интеллектінің дамуына екі түрлі көзқараспен қарайды. Бір тобы жасанды интеллект адам баласына еш қауіп төндірмейді деп сенсе, екінші тобы адамзаттың түбіне жететін жасанды интеллектке ие роботтар деп санайды. 2018 жылы SpaceX, SolarCity және Tesla Motors компанияларының жетекшісі Илон Маск бастаған жасанды интеллект саласындағы бірқатар сарапшылар "Бұл компьютерге сенесің бе?" ("Do you trust this computer?") атты деректі фильмде өздерінің жасанды интеллект дамуына қатысты пікірін білдірді. Олардың басым бөлігі жасанды интеллект дамуын бақылауда ұстау маңызы жайлы айтады.
Илон Маск үндеуімен бірқатар белсенді ғалымдар мен футурологтар жасанды интеллектінің қаупі жайлы Біріккен ұлттар ұйымына да арнайы хат жазған. Хатта жасанды интеллектіге ие әскери қаруларды бақылауда ұстау мәселесі көтеріледі. Илон Маск айтқандай, жасанды интеллект зерттеуінде де ашықтық саясатын қолдануымыз қажет. Әйтпесе, кейбір құпия жоба белгілі бір саяси топ немесе жеке кәсіпкердің тиімділігі үшін қолданылса, ашық қоғам құру мүмкін емес. Расында, көптеген инновациялық технологиялар бір жағынан адамзатқа тиімді болғанымен, екінші жағынан зияны да бар. Бастысы жасанды интеллектінің адам санасының мүмкіндігін иемденген кезде, Азимов жазып кеткен үш негізгі заңға бағынса болғаны. Әйтпесе, болашағымыз бұлыңғыр болуы бек мүмкін!
Пайдаланылған әдебиеттер:
- Тьюринг, А. Может ли машина мыслить? (С приложением статьи Дж. фон Неймана «Общая и логическая теория автоматов» / А. Тьюринг; пер. и примечания Ю.В. Данилова. – М.: ГИФМЛ, 1960.
- Азимов, А. Я, робот. Все о роботах и робототехнике. Серия "Золотой фонд мировой фантастики" / А. Азимов. – М.:Эксмо, 2005.
- Шалютин, И.С. Искусственный интеллект: Гносеологический аспект / И.С. Шалютин. – М.: Мысль, 1985.