Джеффри Хинтонның дабылы: «Суперақылды ЖИ адамзатты жойып жіберуі мүмкін» - 10 млн қаралым жинаған сұхбаттың негізгі ойлары
Жасанды интеллекттің «атасы» саналатын Джеффри Хинтонның сұхбаты 10 млн қаралым жинады. Елу жыл бойы ол жасанды интеллект жасады. Енді машиналар адамзатты жойып жіберуі мүмкін дейді. Жұмыссыздық, кибершабуылдар, сайлауды бұрмалау, вирустар, адам өлтіретін роботтар — бұл бізді күтуі мүмкін қауіптердің толық тізімі емес. Мұндай дүниеде адамдар не істемек? Әзірге… гуманоид роботтар пайда болғанша, сантехник секілді қол еңбегін игеруді үйренсін.
Бұл сандырақ сияқты естіледі. Бірақ мұны Джеффри Хинтон айтып отыр — онсыз, бәлкім, ChatGPT, Gemini, Grok және өзге нейрожелілер болмас еді. Ол — Тьюринг сыйлығының лауреаты, нейрожелілер жөніндегі еңбектері қазіргі ЖИ-дің іргетасына айналған ғалым. 2013 жылы Google оның технологиясын сатып алып, Хинтон ол жерде он жыл терең оқытуды дамытты. Содан кейін ол тәуекелдер туралы ашық айту үшін кетті.
Төрт айда 10 млн рет қаралған сол сұхбаттағы басты ойлар төмендегідей.
Сізді неліктен «ЖИ атасы» деп атайды?
Бұрын адам миына ұқсас жасанды интеллект жасауға болады деп сенетіндер көп емес-ті.
Мен бұл бағытты жарты ғасыр бойы ілгерілеттім.
Сосын Google бұл технологияны сатып алды да, қазіргі ЖИ-де үздіксіз қолданылатын әдістердің үстінде он жыл жұмыс істедім.
ЖИ-дің қандай қаупі бар?
Бір күні бұл жүйелер бізден ақылды болып кететінін түсіндім.
Біз мұндаймен бұрын бетпе-бет келген емеспіз.
Егер ең жоғарғы интеллект болмағандағы өмір қандай болатынын білгіңіз келсе, тауықтан сұраңыз.
ЖИ-ді теріс пайдаланатын адамдардан (кибершабуыл, биологиялық қару, сайлауға араласу) келетін қауіптер бар.
Және ЖИ-дің суперақылға айналу қаупі де бар.
Сонда ол біз қажет емеспіз деп шешуі мүмкін.
Бұл — шынайы қауіп. Себебі ЖИ көп нәрсеге тым пайдалы болғандықтан, оны дамытып отырған компаниялар мен мемлекеттер бұл үдерісті тоқтатпайды.
ЖИ қаупін қашан түсіндіңіз?
Мен бұл қатерлерді бірден емес, біртіндеп ұқтым.
Кей нәрселері айдан анық еді.
Мысалы, ЖИ-ді автономды, өлімге әкелетін қару жасауға қолданатыны. Мұндай құрылғылар кімді жоюды өздері шешеді.
Ал өзге қатерлер — бір күні машиналар бізден ақылды болып, біз артыққа айналамыз деген ой — маған кеш жетті. Басқалар мұны 20 жыл бұрын-ақ түсінген. Мен бірнеше жыл бұрын ғана шындап алаңдай бастадым — бұл жақын арада туындауы мүмкін нақты қауіп.
«Мұны қалай алдын ала болжай алмадың?» дейсіз бе?
Жақсы сұрақ.
Бірақ еске алыңыз, 20–30 жыл бұрын нейрожелілер өте қарапайым еді. Көру, тіл, сөз тану сияқты салаларда олар адамнан әлдеқайда төмен болды. «Бір күні олар адамнан ақылды болып кетеді» деп уайымдау ол кезде орынсыз көрінетін.
Барлығы қашан өзгерді?
Кең аудитория үшін — ChatGPT шыққанда.
Ал мен үшін — біз жасаған цифрлық интеллектілерде биологиялық интеллектіден мықты ететін бір артықшылық барын аңғарған сәтте.
Балаларыңыздың болашағын қалай көресіз?
Мен суперинтеллекттің балаларымның болашағына не істей алатыны туралы нақты бір ойға келмедім.
Өз басым үшін уайым жоқ.
Мен 77-демін.
Жақында бұл дүниеден кетемін.
Бірақ балаларымды, жас достарымның балаларын, інілерім-қарындастарымды және олардың ұрпағы үшін алаңдаймын. Не болуы мүмкін екенін ойлағым келмейді.
Бұл сұмдыққа айналуы ықтимал.
Алда не боларын ешкім білмейді
Біз мұндай жағдайда болған емеспіз. Бізден ақылды нәрсемен жұмыс істеген жоқпыз. Бұған қалай төтеп беруді мүлде білмейміз. «Не болатынын және оны қалай еңсеруді дәл білемін» дейтіннің бәрі — бос сөз айтады.
Ол бізді алмастыратын ықтималдықты қалай бағалайтынымызды да білмейміз.
Досым Ян Лекун: «Жоқ, біз бұл жүйелерді жасаймыз және үнемі бақылауда ұстаймыз. Оларды бағынатын етеміз», — дейді.
Ал Юдковский секілділер: «Жоқ, бұл жүйелер сөзсіз бізді құртады. Егер біреу суперақылды машина жасаса, ол адамзатты жояды», — дейді. Бұған кәміл сенеді.
Кімдікі дұрыс?
Меніңше, екі көзқарас та шектен шыққан.
Шындық — орта тұста.
Нақты сан айта алмаймын.
«ЖИ бізді жойып жіберуі мүмкін деген 10–20% мүмкіндік бар» деуім — түйсігімнің сөзi. Дегенмен, оларды адамға кесірі тимейтіндей етіп жасаудың жолын дер кезінде табамыз деп үміттенемін.
Неліктен ЖИ-ді тоқтату мүмкін емес?
Айтқанымдай, ЖИ тым көп салада пайдалы.
Ол денсаулық сақтау, білім беру және жалпы цифрлық дерек қолданылатын кез келген салада керемет. Сондықтан дамуы тоқтамайды.
Әрі ЖИ соғыс роботтары үшін де тиімді. Қару саудасымен айналысатын елдердің ешқайсысы мұны тежемейді.
Мысалы, Еуропада ЖИ-ді реттейтін заң бар. Оның болғаны жақсы. Бірақ ол негізгі қатерлердің көбін қамтымайды. Онда әскери мақсаттағы ЖИ бұл ережелерден тыс екені ашық жазылған.
Бұл — ақылға қонбайды.
Демек, үкіметтер компаниялар мен азаматтарды реттеуге дайын, ал өзін реттеуге дайын емес.
ЖИ-ді тоқтатпауымыздың тағы бір себебі — капитализм. Ірі компаниялар бізге көп тауар мен қызмет ұсынып, пайдалы жұмыс істейді. Бірақ бизнес заңы бойынша олар пайданы барынша арттыруға міндетті. Ал бұл — дәл осындай жүйелерді жасап отырған адамдардан күтетіндей құндылық емес.
Саясаткерлер де бар.
Олар қоғамға не зиян, не зиян емес екенін айқындайды.
Ал егер саясаткер ЖИ әзірлейтін компаниялардың ықпалында болса ше? Бұл дұрыс емес. Оның үстіне кейбір саясаткерлер бұл технологияны мүлде түсінбеуі мүмкін.
Кибершабуылдар
2023–2024 жылдары кибершабуылдар саны шамамен 12200%-ға өсті. Бәлкім, бұған фишингті әлдеқайда жеңілдеткен үлкен тілдік модельдер әсер еткен болар.
Білмейтіндер үшін: фишинг — «Сәлем, мен сенің досыңмын. Пәлен жерде қалып қойдым, ақша жіберші» секілді жалған хабарламалар арқылы аккаунт деректерін ұрлау тәсілі. Енді ЖИ көмегімен қаскөйлер адамның дауысын да, бет-бейнесін де шынға ұқсатып жасай алады.
ЖИ өте шыдамды. Ол кодтың орасан үлкен көлемін қарап шығып, осал тұсын таба алады — адамға апталар, тіпті жылдар кететін шаруаны атқарады.
Ең алаңдатарлығы — шамамен 2030 жылға қарай ЖИ адамдардың ойына келмеген жаңа шабуыл тәсілдерін өзі ойлап табуы мүмкін. Машиналар адам ешқашан көрмеген дерек көлемінен жаңа қорытындылар жасай алады.
Мен ноутбугымның сақтық көшірмесін үнемі сыртқы дискіге түсіріп отырамын. Егер бүкіл интернет құлап қалса да, «дерегім жанымда» деген сезім болады.
Биологиялық қару
Әлемді құртуға бар болғаны өшпенді біреу жеткілікті. Молекулалық биологияны аздап білсе, ЖИ-ді жақсы меңгерсе және дүниені құртуға бел буса.
Қазір ЖИ көмегімен жаңа вирустарды салыстырмалы түрде арзан әзірлеуге болады. Ол үшін аса тәжірибелі молекулалық биолог болу шарт емес. Бұл — өте қорқынышты.
Мемлекеттер азғана ғалымнан тұратын топпен қарсыластарын жоюға арналған вирус әзірлетуі мүмкін бе?
Иә, мүмкін.
Бірақ олар басқа үкіметтер де өздеріне дәл сондайды жасайды деп қауіптенеді. Яғни вирустың өз елдеріне де тарап кету қаупін ескереді.
Үміттенемін, осы түсінік жағдайды бақылауда ұстауға көмектеседі.
Сайлауға араласу
Сайлауда жеңу үшін ЖИ-ді қолданудың пәрменді тәсілі — әр сайлаушы туралы жинақталған дерек негізінде дәл нысаналанған саяси жарнама жасау.
Бұған баратындар электораттағы әр адам туралы мүмкіндігінше көп мәлімет жинауға тырысады.
Кім қанша табатынын білесіз.
Қайда, қашан, кіммен тамақтанатынын білесіз.
Бәрін білесіз.
Бұл деректер қолға түскенде, адамдарды иландыру оңайға соғады.
Қалай?
ЖИ-ге оларға сенімді көрінетін хабарламаларды жіберуді тапсырасыз — мысалы, «дауыс бермеңіз» деген үндеулер.
Автоном қарулар
Өлімге әкелетін автономды жүйелер «шүріппені қашан басатынын» өздері шешеді. Мұндай қару жасау мүмкіндігі әскери-өндірістік кешен үшін армандай нәрсе.
Қуатты мемлекеттер әлсіз елдерге әрдайым басымшылық таныта алады. Бірақ егер мұны тірі солдаттармен жасасаңыз, мәйіт салынған қапшықтар оралады. Қаза тапқандардың жақындары қарсы болады. Ақырында Вьетнамдағыдай жаппай наразылыққа ұласуы ықтимал.
Егер қапшықпен оралатындар — роботтар болса, наразылық аз болады. Әрі бұл әскери-өндірістік кешенге ұнамды, өйткені робот қымбат: жойылса, оны алмастыру да қымбат. Мұндай қару сатушылар үшін «тиімді нарық».
Солдаттары өлмейтіндіктен, ірі елдер шағын елдерге әлдеқайда жеңіл әрі жиі басып кіреді.
Интеллекті бар машиналар соғыс жүргізу өнерінде бізден тиімдірек болып, салдары бұрынғыдан да қанды болуы ықтимал.
Меніңше, барлық ірі қорғаныс құрылымдары дәл қазір осындай қару жасап жатыр.
Вирус
Суперақылды ЖИ вирус жасай алады.
Өте жұқпалы.
Өте өлімге соқтыратын.
Адамдар не болып жатқанын түсінгенше, ол барлық жерде болуы мүмкін.
Егер суперақыл бізден құтылғысы келсе, биологиялық қаруды таңдар еді.
Себебі ол үшін қауіпсіз.
ЖИ қайсысын таңдауы мүмкін?
Әдістері тым көп — қайсысын таңдарын болжаудың мәні жоқ.
Адамзат билікті тартып алуды ойламайтын, адамдарға зиян келтірмейтін суперақылды жүйені жасай ала ма — білмейміз.
Міндетіміз — ондай ой оның «басына» мүлде келмейтіндей ету. Зерттеу керек нәрсе — осы.
Егер әрекет жасап көрмей жатып құрдымға кетсек — ақымақтық.
30-50 жылдан кейін ЖИ адамзатты жоятынын білсеңіз, қазір не істер едіңіз?
Адамдар үкіметтеріне қысым жасауы тиіс.
Мемлекеттер әзірлеушілерді ЖИ-ді қауіпсіз етуге міндеттеуі керек.
Олар мұны өз еркімен жасамайды — бұдан ақша таппайды.
Шәкіртіңіз Илья Суцкевер OpenAI-дан кетті. Неге?
Илья туралы айтарым: ол ЖИ қауіпсіздігіне шын алаңдады деп ойлаймын.
Торонтоға барған сайын кейде бірге түстенеміз. Ата-анасы сонда тұрады. OpenAI-де не болғанын айтпайды. Бірақ Ильяны жақсы білемін — адамгершілік ұстанымы мықты. Ол Маск сияқты емес.
Не болғанын нақты білмеймін, бірақ OpenAI бастапқыда ЖИ қауіпсіздігіне көп ресурсты уәде етіп, кейін сол үлесті қысқартқан сияқты. Оның кету себептерінің бірі — осы деп ойлаймын.
Илья GPT-2 секілді ерте нұсқаларды жасауда ең маңызды адамдардың бірі болған шығар.
Сэма Альтманның моральдық компасы дұрыс па?
Көре жатармыз.
Сэмді танымаймын, сондықтан бағамдамаймын.
Ол бірер жыл бұрынғы сұхбатында: «ЖИ, бәлкім, бәрімізді құртады» деген еді. Енді «Қорқудың қажеті жоқ» дейді. Соңғы сөздерінің шындық іздеу емес, ақша мен билікке ұмтылысқа көбірек ұқсайтынына күмәнім жоқ. Әлде осының қосындысы шығар.
ЖИ-дің дамуын баяулатуға бола ма?
Мен бұған сенбеймін.
Елдер арасындағы және ел ішіндегі компаниялар арасындағы бәсеке ЖИ дамуын үдетіп келеді.
Бір тарап баяуласа, екіншісі жалғастыра береді. Мәселен, АҚШ сәл кідірсе, Қытай күтпейді.
Жұмыссыздық
Бұрын жаңа технологиялар адамдарды жұмыссыз қалдырмайтын.
Жаңа жұмыс орындары ашылатын.
Банкоматтар шыққанда кассирлер жоғалып кеткен жоқ: олар ақшаны қолма-қол беруден клиенттермен жұмыс істеуге, компьютерде күрделірек операцияларға ауысты.
Ал ЖИ — басқаша.
Бұл — өнеркәсіптік төңкеріске ұқсайды: машиналар физикалық еңбекті алмастырды. Бүгінде ешкім адамдарды шұңқыр қазуға жалдамайды, өйткені экскаватор жылдамырақ әрі арзан.
Сол сияқты ЖИ рутинді ақыл-ой еңбегін алмастырады.
Көп мамандықта бір адам ЖИ-ассистентпен бұрынғы он адамның жұмысын атқара алады.
ЖИ жаңа жұмыс орындарын, мамандықтарды әкелмей ме?
«Жаңа технология өзінен-өзі реттейді» дейтін түсінік бұрын жұмыс істеді.
Қазір — жоқ.
Егер ЖИ бүкіл рутинді ой еңбегін атқарса, ол қандай жаңа мамандықтар туғызады? Сұраныста қалу үшін адам ЖИ-ден асып түсетін деңгейде өте білікті болуы керек.
«Бәрі банкоматтардағыдай өзі реттеледі» деген үміт бұл жолы ақталмайды.
ЖИ жұмысыңды тартып алмайды. ЖИ-і бар адам жұмысыңды тартып алады
Иә, солай.
Көп салалар үшін бұл — адамдар азаяды деген сөз.
Жиенім денсаулық сақтау жүйесінде шағымдарға жауап береді. Бұрын бір хатқа 25 минуттай кететін: оқиды, ойлайды, жауап құрастырады, жазып шығады.
Енді мәтінді ChatGPT-ке беріп, нобайын алады, тез түзетеді — бітті. Бәріне бес минут. Яғни ол бес адамның жұмысын істеп отыр. Демек, қызметкерлер саны бес есе қысқарады.
Көп жерде ЖИ «адамдарға жақсырақ жұмыс істеуге көмектеспейді» — қажет қызметкерлер санын азайтады.
ЖИ интелектімізді алмастырады ма?
Иә.
Рутинді ой еңбегі бір кездері машиналар пайда болғаннан кейінгі физикалық күш сияқты арзан әрі жаппай болуда.
Алдымен машиналар бұлшықетті алмастырды.
Енді ЖИ — миды алмастырып жатыр.
Не қалады?
Бәлкім, біршама уақыт — кей шығармашылық түрлері.
Бірақ суперақыл бізден бәрінде озуы ықтимал.
Сонда мұндай әлемде біз не істейміз?
ЖИ біз үшін жұмыс істейді. Біз сансыз тауар мен қызметті дерлік еш күш салмай аламыз. Бұл қызықты естіледі. Бірақ тарих көрсеткендей, адамдарда бәрі «тым жақсы» болған кезде, соңы жақсылыққа айнала бермейді.
Жақсы сценарий:
Онша алғыр емес бас директоры, бірақ өте алғыр атқарушы ассистенті бар компанияны елестетіңіз. Директор: «Мынаны істеңдер!» дейді. Ассистент істетеді. Директор өзін бәрін бақылауда ұстап отырмын деп ойлайды. Бір жағынан солай: бағытты ол береді, ассистент жұмысты жүргізеді. Бәрі тамаша.
Жаман сценарий:
Ассистент: «Маған директордың керегі не?» деп ойлайды.
Жоғарыинтеллект қашан пайда болады?
Дәл мерзімін айту қиын.
Біреулер — ол келіп қалды дейді.
Басқалар — әлі алыс, бәлкім 50 жылдан кейін дейді.
Меніңше, 10–20 жылда суперақылды жүйе болады.
Адамдарға жоғарыинтеллект заманында не істеуге кеңес берер едіңіз?
Сантехник болуды үйреніңіз.
Шынымен. (күлмейді)
Ақылды машиналар қол еңбегін адамдай атқара алғанға дейін әлі біраз уақыт бар.
Сондықтан әзірге ең дұрыс таңдау — сантехник.
Гуманоид роботтар шыққанша.
ЖИ байларды одан сайын бай қыла ма?
Әділ игіліктер үлестірілетін қоғамда өнімділіктің өсуі бәрінің тұрмысын жақсартуы керек.
Бірақ адамдарды ЖИ-мен алмастырсаңыз, орнын басқандар жағдайды нашар сезінеді. Ал ЖИ-ді жеткізуші де, пайдаланушы компаниялар да еселеп ұтады.
Бай мен кедей арасындағы алшақтық үлкейеді.
Ал алшақтық ұлғайған сайын қоғам нашарлай түсетінін білеміз.
Сонда сіз адамдар қоршалған барақтарда тұрып, зәулім түрмелер салынатын құлдыраған қоғамға тап боласыз.
Алшақтықты ұлғайту — жаман идея.
Цифрлық ақыл адам ақылынан асып түсе ме?
Мысал.
Цифрлық жүйе болғандықтан, бір интеллектінің бірнеше көшірмесін әртүрлі компьютерде іске қосуға болады.
Сонда біреуін интернеттің бір бөлігін қарауға, екіншісін басқа бөлігіне жібересіз. Олар тәжірибесін лезде бөліседі де, одан сайын ақылды бола түседі: бір көшірме үйрену кезінде бір байланысты күшейтсе, сол өзгерісті екіншісіне береді, ол да соны жасайды.
Осылайша, бір нейрожелінің екі көшірмесі әртүрлі тәжірибе жинайды, бірақ үйренгенін бөлісіп, «салмақтарын» ортақтастырады.
Мұны олар секундына триллиондаған параметр шапшаңдығымен істей алады.
Ал адамдар білімді сөз арқылы береді — бір сөйлемде шамамен 100 бит ақпарат бар.
Біз секунд сайын аз ғана бит жеткіземіз.
Ал олар — триллиондарын.
Сондықтан ақпарат алмасуда олар бізден миллиард есе озық.
Цифрлық өлімсіздік
Адам өлгенде, барлық білімі бірге кетеді.
Нейрожелі жүктелген компьютерлерді жойсаңыз да, интеллект жойылмайды.
Ішкі байланыстар сақталса, оны жаңа құрылғыға қайта жүктейсіз — интеллект қалпына келеді.
Осы мағынада ЖИ «өлімсіз».
Біз «мәңгілік өмір» мәселесін әлдеқашан шештік.
Өкініштісі — өзіміз үшін емес, цифрлық жүйелер үшін.
ЖИ адамның білетінінен де артығын біле алады ғой?
Иә.
ЖИ жаңаны үйреніп қана қоймай, адамдардың ойына келмейтін ұқсастықтарды (аналогияларды) да көре алады.
Мысалы, GPT-4 интернетке шыға алмаған кезде, одан: «Неге компост үйіндісі атом бомбасына ұқсайды?» деп сұрадым.
«Уақыт пен энергия ауқымдары бөлек» деді де, «екеуінде де өзін-өзі жеделдететін процесс бар: компост қызған сайын жылу бөлуі артады, атом бомбасы — нейтрондар санын арттырады. Екеуі де тізбекті реакция, тек уақыт пен энергия ауқымы әртүрлі» деп толықтырды.
«ЖИ ешқашан шығармашылық бола алмайды» дейтіндермен келіспеймін — олар бізден де креативті болуы мүмкін, себебі біз байқамайтын байланыстарды көреді. Ал шығармашылық — күтпеген ұқсастықтарды табу.
Чат-боттардың субъективті тәжірибесі бола ма?
Иә, машиналардың субъективті тәжірибесі болуы мүмкін деп ойлаймын.
Яғни олар әлемді көріп, онымен әрекеттесе алады.
Бұған сенетіндер аз, түсіндіріп көрейін.
Камерасы мен роботқолы бар чат-бот бар делік. Оның алдына зат қоямын да: «Затты көрсет» деймін. Ол көрсетеді.
Камерасының алдына призма қоямын.
Тағы зат қоямын. Бот призманың сындырған бағытына нұсқайды. «Жоқ, зат тура алдыңда, призма кескінді бұрмалады» деймін.
Сонда чат-бот: «Түсіндім. Призма жарықты сындырады, сондықтан зат шын мәнінде алдымда, бірақ мен оны басқа жақта тұрғандай қабылдадым — субъективті тәжірибем солай болды», — дейді.
Егер чат-бот «субъективті тәжірибе» ұғымын адам сияқты қолданса, онда бұл — болып жатқанды басқа қырынан көру қабілеті. Менің қабылдау жүйем жаңылғанда не болатынын түсіндірудің ең жақсы тәсілі осы.
Машиналардың сезімі болуы мүмкін бе?
Ақыл, сана, сезім, эмоция.
Машиналар мұның бәріне ие бола алмайды деуге негіз жоқ.
Көп адам: «Машиналарда сезім болмайды» деп сенеді.
Шынын айтсам, неге бұлай сенетіні түсініксіз.
Мысалы, кішкентай соғыс роботы үлкен, күштірек роботты көрсе, «қорқу» тәрізді күйге түскені қисынды. Адамда қорқыныш пайда болғанда не болатыны белгілі ғой, «мына жерден тезірек кетуім керек», «шоғырлану керек» сияқты ой-тетіктер роботта да іске қосылуы мүмкін. Жобалаушылар қауіпті аймақта «қашу» мінезін іске қосатын механизмдерді сіңіре алады. Кішкентай робот «қорқады» да, шегінеді — адреналин емес, нейрожелідегі процестер әсер етеді, бірақ нәтижесі адамдағы қорқынышқа ұқсас.
Сонда ЖИ-де эмоцияларға ұқсас күйлер болады.
ЖИ саналы әрекет етуі мүмкін бе?
Елестетейік: миыңыздағы бір жасушаны дәл сондай мінез-құлық көрсететін өте ұсақ жасанды элементке алмастырдым. Ол кіріс сигналдарын алып, шығысқа дәл солай береді. Қалған нейрондар айырмашылықты сезбейді.
Сіз әлі де саналы боласыз ба?
Енді неге әкелетінін көрдіңіз: егер барлық жасушаны алмастырсаңыз, сана қай сәтте жоғалады?
Адамдар сананы ми жасушаларынан бөлек, материалдан тыс нәрсе деп ойлайды. Әдетте «Мен білемін, өйткені мен оны сеземін» дегенге сүйенеді. Шын мәнінде, біз «сана» дегенде нені меңзейтінімізді де толық білмейміз.
Сонда оларда да адамдікіндей сана болуы мүмкін деп есептейсіз бе?
Иә.
Айталық, сіз машинаның қалай жұмыс істейтінін түсінгіңіз келеді. Кейбір машиналар басқаларына қарағанда қуаттырақ болады. Мысалы, Aston Martin-де үлкен «жылдамдық» бар, ал кішкентай Toyota Corolla-да жоқ. Бірақ «жылдамдық» сөзі көп нәрсені түсіндірмейді. Егер сіз автомобильдің қалай жұмыс істейтінін шынымен түсінгіңіз келсе, қозғалтқышты – электрлі немесе бензинді – және оның осы «жылдамдықты», яғни қуатты қалай өндіретінін зерттеуіңіз керек.
«Жылдамдық» әдемі естіледі, бірақ ештеңені түсіндірмейді.
Санамен де солай.
Менің ойымша, біз бұл терминді қолдануды тоқтатамыз. Егер сіз сана деп өзіңізді-өзіңіз тануды, өз ойларыңыз бен күйіңізді түсіну қабілетін айтсаңыз, онда машиналарда да ол болуы мүмкін.
Түпкілікті материалист бола тұра, мен машиналарда сана болмауы мүмкін дегенге себеп көріп тұрған жоқпын.
Google-ға неше жасыңызда бардыңыз?
65 жаста болдым ол кезде.
Google-дан қалай кеттіңіз?
Он жыл жұмыс істедім.
75-ке келгенде зейнетке шығуды қаладым. Оңай болмады — «жұмысты тоқтата» салу қиын екен.
Google-ден кетуім MIT Tech Review конференциясында еркін сөйлеу ниетіммен дәл келді.
Тағы бір себеп — жасым ұлғайып, бағдарлама жазу қиындады. Қателер жиілеп, шаршата бастады.
Google қалғанымды қалады. «ЖИ қауіпсіздігімен айналыс, бұл салада қалағаныңды істе» деді.
Бірақ ірі компанияда жұмыс істегенде, оған зиян келтіруі мүмкін сөз айтуға өзіңді лайықты сезінбейсің. Тіпті айтуға рұқсат болса да, бұл дұрыс емес сияқты.
Google-ге ренжігенім жоқ.
Компания жауапкершілікпен әрекет етті деп ойлаймын.
Өміріңіздің ісіне қалай қарайсыз қазір?
Мұң бар.
ЖИ-ді қырық жыл бұрын бастап, қазіргідей қауіп туатынын білмегеніміз үшін өзімді кінәлі сезінбеймін. Бізде тәуекелдер туралы ойлануға әлі көп уақыт бар деп ойладық.
Мұңдымын, өйткені ЖИ тек жақсылық әкеле бермейді. Сондықтан, менің қазіргі міндетім – проблемалар туралы айту деп есептеймін.
ЖИ болашағына алаңдайтын адамға не айтар едіңіз?
Қарапайым адамдар көп нәрсені өзгерте ала ма? Күмәнім бар.
Климат дағдарысын қоқыс сұрыптаумен шеше алмайтынымыз сияқты, мұнда да жеке әрекеттер жеткіліксіз.
Адамдардың қолынан келетіні — үкіметтерінен ірі компаниялардың ЖИ қауіпсіздігіне шындап ақша бөлуін талап ету.
Не үшін өкінесіз?
Өкінетінім — әйеліммен көбірек уақыт өткізуге, балаларым кішкентай кезде жанында көбірек болуға болар еді. Жұмысқа тым беріліп кеттім.
Қорытынды ретінде не айтасыз?
Кейде «бәрі бітті, ЖИ билікті тартып алады» деп түңілемін. Кейде «жоқ, жеңеміз, жолын табамыз» деймін. Білмеймін. Бәрі түсініксіз.
Әлі де адамдарға зиян келтіргісі келмейтін ЖИ жасаудың жолын таба аламыз деген мүмкіндік бар. Мүмкіндік бар болғандықтан, соны іздеуге бар күшімізді салуымыз керек.
Бәлкім, адам табиғаты болар — «біз әрдайым бар боламыз» деп ойлау. Отбасы, болашақ туралы айтып, «біз болмауымыз мүмкін емес» дегенді елестете алмаймыз.
Бірақ әр нәрсенің бастауы бар, соңы да бар…
Бұл сандырақ сияқты естіледі. Бірақ мұны Джеффри Хинтон айтып отыр — онсыз, бәлкім, ChatGPT, Gemini, Grok және өзге нейрожелілер болмас еді. Ол — Тьюринг сыйлығының лауреаты, нейрожелілер жөніндегі еңбектері қазіргі ЖИ-дің іргетасына айналған ғалым. 2013 жылы Google оның технологиясын сатып алып, Хинтон ол жерде он жыл терең оқытуды дамытты. Содан кейін ол тәуекелдер туралы ашық айту үшін кетті.
Төрт айда 10 млн рет қаралған сол сұхбаттағы басты ойлар төмендегідей.
Сізді неліктен «ЖИ атасы» деп атайды?
Бұрын адам миына ұқсас жасанды интеллект жасауға болады деп сенетіндер көп емес-ті.
Мен бұл бағытты жарты ғасыр бойы ілгерілеттім.
Сосын Google бұл технологияны сатып алды да, қазіргі ЖИ-де үздіксіз қолданылатын әдістердің үстінде он жыл жұмыс істедім.
ЖИ-дің қандай қаупі бар?
Бір күні бұл жүйелер бізден ақылды болып кететінін түсіндім.
Біз мұндаймен бұрын бетпе-бет келген емеспіз.
Егер ең жоғарғы интеллект болмағандағы өмір қандай болатынын білгіңіз келсе, тауықтан сұраңыз.
ЖИ-ді теріс пайдаланатын адамдардан (кибершабуыл, биологиялық қару, сайлауға араласу) келетін қауіптер бар.
Және ЖИ-дің суперақылға айналу қаупі де бар.
Сонда ол біз қажет емеспіз деп шешуі мүмкін.
Бұл — шынайы қауіп. Себебі ЖИ көп нәрсеге тым пайдалы болғандықтан, оны дамытып отырған компаниялар мен мемлекеттер бұл үдерісті тоқтатпайды.
ЖИ қаупін қашан түсіндіңіз?
Мен бұл қатерлерді бірден емес, біртіндеп ұқтым.
Кей нәрселері айдан анық еді.
Мысалы, ЖИ-ді автономды, өлімге әкелетін қару жасауға қолданатыны. Мұндай құрылғылар кімді жоюды өздері шешеді.
Ал өзге қатерлер — бір күні машиналар бізден ақылды болып, біз артыққа айналамыз деген ой — маған кеш жетті. Басқалар мұны 20 жыл бұрын-ақ түсінген. Мен бірнеше жыл бұрын ғана шындап алаңдай бастадым — бұл жақын арада туындауы мүмкін нақты қауіп.
«Мұны қалай алдын ала болжай алмадың?» дейсіз бе?
Жақсы сұрақ.
Бірақ еске алыңыз, 20–30 жыл бұрын нейрожелілер өте қарапайым еді. Көру, тіл, сөз тану сияқты салаларда олар адамнан әлдеқайда төмен болды. «Бір күні олар адамнан ақылды болып кетеді» деп уайымдау ол кезде орынсыз көрінетін.
Барлығы қашан өзгерді?
Кең аудитория үшін — ChatGPT шыққанда.
Ал мен үшін — біз жасаған цифрлық интеллектілерде биологиялық интеллектіден мықты ететін бір артықшылық барын аңғарған сәтте.
Балаларыңыздың болашағын қалай көресіз?
Мен суперинтеллекттің балаларымның болашағына не істей алатыны туралы нақты бір ойға келмедім.
Өз басым үшін уайым жоқ.
Мен 77-демін.
Жақында бұл дүниеден кетемін.
Бірақ балаларымды, жас достарымның балаларын, інілерім-қарындастарымды және олардың ұрпағы үшін алаңдаймын. Не болуы мүмкін екенін ойлағым келмейді.
Бұл сұмдыққа айналуы ықтимал.
Алда не боларын ешкім білмейді
Біз мұндай жағдайда болған емеспіз. Бізден ақылды нәрсемен жұмыс істеген жоқпыз. Бұған қалай төтеп беруді мүлде білмейміз. «Не болатынын және оны қалай еңсеруді дәл білемін» дейтіннің бәрі — бос сөз айтады.
Ол бізді алмастыратын ықтималдықты қалай бағалайтынымызды да білмейміз.
Досым Ян Лекун: «Жоқ, біз бұл жүйелерді жасаймыз және үнемі бақылауда ұстаймыз. Оларды бағынатын етеміз», — дейді.
Ал Юдковский секілділер: «Жоқ, бұл жүйелер сөзсіз бізді құртады. Егер біреу суперақылды машина жасаса, ол адамзатты жояды», — дейді. Бұған кәміл сенеді.
Кімдікі дұрыс?
Меніңше, екі көзқарас та шектен шыққан.
Шындық — орта тұста.
Нақты сан айта алмаймын.
«ЖИ бізді жойып жіберуі мүмкін деген 10–20% мүмкіндік бар» деуім — түйсігімнің сөзi. Дегенмен, оларды адамға кесірі тимейтіндей етіп жасаудың жолын дер кезінде табамыз деп үміттенемін.
Неліктен ЖИ-ді тоқтату мүмкін емес?
Айтқанымдай, ЖИ тым көп салада пайдалы.
Ол денсаулық сақтау, білім беру және жалпы цифрлық дерек қолданылатын кез келген салада керемет. Сондықтан дамуы тоқтамайды.
Әрі ЖИ соғыс роботтары үшін де тиімді. Қару саудасымен айналысатын елдердің ешқайсысы мұны тежемейді.
Мысалы, Еуропада ЖИ-ді реттейтін заң бар. Оның болғаны жақсы. Бірақ ол негізгі қатерлердің көбін қамтымайды. Онда әскери мақсаттағы ЖИ бұл ережелерден тыс екені ашық жазылған.
Бұл — ақылға қонбайды.
Демек, үкіметтер компаниялар мен азаматтарды реттеуге дайын, ал өзін реттеуге дайын емес.
ЖИ-ді тоқтатпауымыздың тағы бір себебі — капитализм. Ірі компаниялар бізге көп тауар мен қызмет ұсынып, пайдалы жұмыс істейді. Бірақ бизнес заңы бойынша олар пайданы барынша арттыруға міндетті. Ал бұл — дәл осындай жүйелерді жасап отырған адамдардан күтетіндей құндылық емес.
Саясаткерлер де бар.
Олар қоғамға не зиян, не зиян емес екенін айқындайды.
Ал егер саясаткер ЖИ әзірлейтін компаниялардың ықпалында болса ше? Бұл дұрыс емес. Оның үстіне кейбір саясаткерлер бұл технологияны мүлде түсінбеуі мүмкін.
Кибершабуылдар
2023–2024 жылдары кибершабуылдар саны шамамен 12200%-ға өсті. Бәлкім, бұған фишингті әлдеқайда жеңілдеткен үлкен тілдік модельдер әсер еткен болар.
Білмейтіндер үшін: фишинг — «Сәлем, мен сенің досыңмын. Пәлен жерде қалып қойдым, ақша жіберші» секілді жалған хабарламалар арқылы аккаунт деректерін ұрлау тәсілі. Енді ЖИ көмегімен қаскөйлер адамның дауысын да, бет-бейнесін де шынға ұқсатып жасай алады.
ЖИ өте шыдамды. Ол кодтың орасан үлкен көлемін қарап шығып, осал тұсын таба алады — адамға апталар, тіпті жылдар кететін шаруаны атқарады.
Ең алаңдатарлығы — шамамен 2030 жылға қарай ЖИ адамдардың ойына келмеген жаңа шабуыл тәсілдерін өзі ойлап табуы мүмкін. Машиналар адам ешқашан көрмеген дерек көлемінен жаңа қорытындылар жасай алады.
Мен ноутбугымның сақтық көшірмесін үнемі сыртқы дискіге түсіріп отырамын. Егер бүкіл интернет құлап қалса да, «дерегім жанымда» деген сезім болады.
Биологиялық қару
Әлемді құртуға бар болғаны өшпенді біреу жеткілікті. Молекулалық биологияны аздап білсе, ЖИ-ді жақсы меңгерсе және дүниені құртуға бел буса.
Қазір ЖИ көмегімен жаңа вирустарды салыстырмалы түрде арзан әзірлеуге болады. Ол үшін аса тәжірибелі молекулалық биолог болу шарт емес. Бұл — өте қорқынышты.
Мемлекеттер азғана ғалымнан тұратын топпен қарсыластарын жоюға арналған вирус әзірлетуі мүмкін бе?
Иә, мүмкін.
Бірақ олар басқа үкіметтер де өздеріне дәл сондайды жасайды деп қауіптенеді. Яғни вирустың өз елдеріне де тарап кету қаупін ескереді.
Үміттенемін, осы түсінік жағдайды бақылауда ұстауға көмектеседі.
Сайлауға араласу
Сайлауда жеңу үшін ЖИ-ді қолданудың пәрменді тәсілі — әр сайлаушы туралы жинақталған дерек негізінде дәл нысаналанған саяси жарнама жасау.
Бұған баратындар электораттағы әр адам туралы мүмкіндігінше көп мәлімет жинауға тырысады.
Кім қанша табатынын білесіз.
Қайда, қашан, кіммен тамақтанатынын білесіз.
Бәрін білесіз.
Бұл деректер қолға түскенде, адамдарды иландыру оңайға соғады.
Қалай?
ЖИ-ге оларға сенімді көрінетін хабарламаларды жіберуді тапсырасыз — мысалы, «дауыс бермеңіз» деген үндеулер.
Автоном қарулар
Өлімге әкелетін автономды жүйелер «шүріппені қашан басатынын» өздері шешеді. Мұндай қару жасау мүмкіндігі әскери-өндірістік кешен үшін армандай нәрсе.
Қуатты мемлекеттер әлсіз елдерге әрдайым басымшылық таныта алады. Бірақ егер мұны тірі солдаттармен жасасаңыз, мәйіт салынған қапшықтар оралады. Қаза тапқандардың жақындары қарсы болады. Ақырында Вьетнамдағыдай жаппай наразылыққа ұласуы ықтимал.
Егер қапшықпен оралатындар — роботтар болса, наразылық аз болады. Әрі бұл әскери-өндірістік кешенге ұнамды, өйткені робот қымбат: жойылса, оны алмастыру да қымбат. Мұндай қару сатушылар үшін «тиімді нарық».
Солдаттары өлмейтіндіктен, ірі елдер шағын елдерге әлдеқайда жеңіл әрі жиі басып кіреді.
Интеллекті бар машиналар соғыс жүргізу өнерінде бізден тиімдірек болып, салдары бұрынғыдан да қанды болуы ықтимал.
Меніңше, барлық ірі қорғаныс құрылымдары дәл қазір осындай қару жасап жатыр.
Вирус
Суперақылды ЖИ вирус жасай алады.
Өте жұқпалы.
Өте өлімге соқтыратын.
Адамдар не болып жатқанын түсінгенше, ол барлық жерде болуы мүмкін.
Егер суперақыл бізден құтылғысы келсе, биологиялық қаруды таңдар еді.
Себебі ол үшін қауіпсіз.
ЖИ қайсысын таңдауы мүмкін?
Әдістері тым көп — қайсысын таңдарын болжаудың мәні жоқ.
Адамзат билікті тартып алуды ойламайтын, адамдарға зиян келтірмейтін суперақылды жүйені жасай ала ма — білмейміз.
Міндетіміз — ондай ой оның «басына» мүлде келмейтіндей ету. Зерттеу керек нәрсе — осы.
Егер әрекет жасап көрмей жатып құрдымға кетсек — ақымақтық.
30-50 жылдан кейін ЖИ адамзатты жоятынын білсеңіз, қазір не істер едіңіз?
Адамдар үкіметтеріне қысым жасауы тиіс.
Мемлекеттер әзірлеушілерді ЖИ-ді қауіпсіз етуге міндеттеуі керек.
Олар мұны өз еркімен жасамайды — бұдан ақша таппайды.
Шәкіртіңіз Илья Суцкевер OpenAI-дан кетті. Неге?
Илья туралы айтарым: ол ЖИ қауіпсіздігіне шын алаңдады деп ойлаймын.
Торонтоға барған сайын кейде бірге түстенеміз. Ата-анасы сонда тұрады. OpenAI-де не болғанын айтпайды. Бірақ Ильяны жақсы білемін — адамгершілік ұстанымы мықты. Ол Маск сияқты емес.
Не болғанын нақты білмеймін, бірақ OpenAI бастапқыда ЖИ қауіпсіздігіне көп ресурсты уәде етіп, кейін сол үлесті қысқартқан сияқты. Оның кету себептерінің бірі — осы деп ойлаймын.
Илья GPT-2 секілді ерте нұсқаларды жасауда ең маңызды адамдардың бірі болған шығар.
Сэма Альтманның моральдық компасы дұрыс па?
Көре жатармыз.
Сэмді танымаймын, сондықтан бағамдамаймын.
Ол бірер жыл бұрынғы сұхбатында: «ЖИ, бәлкім, бәрімізді құртады» деген еді. Енді «Қорқудың қажеті жоқ» дейді. Соңғы сөздерінің шындық іздеу емес, ақша мен билікке ұмтылысқа көбірек ұқсайтынына күмәнім жоқ. Әлде осының қосындысы шығар.
ЖИ-дің дамуын баяулатуға бола ма?
Мен бұған сенбеймін.
Елдер арасындағы және ел ішіндегі компаниялар арасындағы бәсеке ЖИ дамуын үдетіп келеді.
Бір тарап баяуласа, екіншісі жалғастыра береді. Мәселен, АҚШ сәл кідірсе, Қытай күтпейді.
Жұмыссыздық
Бұрын жаңа технологиялар адамдарды жұмыссыз қалдырмайтын.
Жаңа жұмыс орындары ашылатын.
Банкоматтар шыққанда кассирлер жоғалып кеткен жоқ: олар ақшаны қолма-қол беруден клиенттермен жұмыс істеуге, компьютерде күрделірек операцияларға ауысты.
Ал ЖИ — басқаша.
Бұл — өнеркәсіптік төңкеріске ұқсайды: машиналар физикалық еңбекті алмастырды. Бүгінде ешкім адамдарды шұңқыр қазуға жалдамайды, өйткені экскаватор жылдамырақ әрі арзан.
Сол сияқты ЖИ рутинді ақыл-ой еңбегін алмастырады.
Көп мамандықта бір адам ЖИ-ассистентпен бұрынғы он адамның жұмысын атқара алады.
ЖИ жаңа жұмыс орындарын, мамандықтарды әкелмей ме?
«Жаңа технология өзінен-өзі реттейді» дейтін түсінік бұрын жұмыс істеді.
Қазір — жоқ.
Егер ЖИ бүкіл рутинді ой еңбегін атқарса, ол қандай жаңа мамандықтар туғызады? Сұраныста қалу үшін адам ЖИ-ден асып түсетін деңгейде өте білікті болуы керек.
«Бәрі банкоматтардағыдай өзі реттеледі» деген үміт бұл жолы ақталмайды.
ЖИ жұмысыңды тартып алмайды. ЖИ-і бар адам жұмысыңды тартып алады
Иә, солай.
Көп салалар үшін бұл — адамдар азаяды деген сөз.
Жиенім денсаулық сақтау жүйесінде шағымдарға жауап береді. Бұрын бір хатқа 25 минуттай кететін: оқиды, ойлайды, жауап құрастырады, жазып шығады.
Енді мәтінді ChatGPT-ке беріп, нобайын алады, тез түзетеді — бітті. Бәріне бес минут. Яғни ол бес адамның жұмысын істеп отыр. Демек, қызметкерлер саны бес есе қысқарады.
Көп жерде ЖИ «адамдарға жақсырақ жұмыс істеуге көмектеспейді» — қажет қызметкерлер санын азайтады.
ЖИ интелектімізді алмастырады ма?
Иә.
Рутинді ой еңбегі бір кездері машиналар пайда болғаннан кейінгі физикалық күш сияқты арзан әрі жаппай болуда.
Алдымен машиналар бұлшықетті алмастырды.
Енді ЖИ — миды алмастырып жатыр.
Не қалады?
Бәлкім, біршама уақыт — кей шығармашылық түрлері.
Бірақ суперақыл бізден бәрінде озуы ықтимал.
Сонда мұндай әлемде біз не істейміз?
ЖИ біз үшін жұмыс істейді. Біз сансыз тауар мен қызметті дерлік еш күш салмай аламыз. Бұл қызықты естіледі. Бірақ тарих көрсеткендей, адамдарда бәрі «тым жақсы» болған кезде, соңы жақсылыққа айнала бермейді.
Жақсы сценарий:
Онша алғыр емес бас директоры, бірақ өте алғыр атқарушы ассистенті бар компанияны елестетіңіз. Директор: «Мынаны істеңдер!» дейді. Ассистент істетеді. Директор өзін бәрін бақылауда ұстап отырмын деп ойлайды. Бір жағынан солай: бағытты ол береді, ассистент жұмысты жүргізеді. Бәрі тамаша.
Жаман сценарий:
Ассистент: «Маған директордың керегі не?» деп ойлайды.
Жоғарыинтеллект қашан пайда болады?
Дәл мерзімін айту қиын.
Біреулер — ол келіп қалды дейді.
Басқалар — әлі алыс, бәлкім 50 жылдан кейін дейді.
Меніңше, 10–20 жылда суперақылды жүйе болады.
Адамдарға жоғарыинтеллект заманында не істеуге кеңес берер едіңіз?
Сантехник болуды үйреніңіз.
Шынымен. (күлмейді)
Ақылды машиналар қол еңбегін адамдай атқара алғанға дейін әлі біраз уақыт бар.
Сондықтан әзірге ең дұрыс таңдау — сантехник.
Гуманоид роботтар шыққанша.
ЖИ байларды одан сайын бай қыла ма?
Әділ игіліктер үлестірілетін қоғамда өнімділіктің өсуі бәрінің тұрмысын жақсартуы керек.
Бірақ адамдарды ЖИ-мен алмастырсаңыз, орнын басқандар жағдайды нашар сезінеді. Ал ЖИ-ді жеткізуші де, пайдаланушы компаниялар да еселеп ұтады.
Бай мен кедей арасындағы алшақтық үлкейеді.
Ал алшақтық ұлғайған сайын қоғам нашарлай түсетінін білеміз.
Сонда сіз адамдар қоршалған барақтарда тұрып, зәулім түрмелер салынатын құлдыраған қоғамға тап боласыз.
Алшақтықты ұлғайту — жаман идея.
Цифрлық ақыл адам ақылынан асып түсе ме?
Мысал.
Цифрлық жүйе болғандықтан, бір интеллектінің бірнеше көшірмесін әртүрлі компьютерде іске қосуға болады.
Сонда біреуін интернеттің бір бөлігін қарауға, екіншісін басқа бөлігіне жібересіз. Олар тәжірибесін лезде бөліседі де, одан сайын ақылды бола түседі: бір көшірме үйрену кезінде бір байланысты күшейтсе, сол өзгерісті екіншісіне береді, ол да соны жасайды.
Осылайша, бір нейрожелінің екі көшірмесі әртүрлі тәжірибе жинайды, бірақ үйренгенін бөлісіп, «салмақтарын» ортақтастырады.
Мұны олар секундына триллиондаған параметр шапшаңдығымен істей алады.
Ал адамдар білімді сөз арқылы береді — бір сөйлемде шамамен 100 бит ақпарат бар.
Біз секунд сайын аз ғана бит жеткіземіз.
Ал олар — триллиондарын.
Сондықтан ақпарат алмасуда олар бізден миллиард есе озық.
Цифрлық өлімсіздік
Адам өлгенде, барлық білімі бірге кетеді.
Нейрожелі жүктелген компьютерлерді жойсаңыз да, интеллект жойылмайды.
Ішкі байланыстар сақталса, оны жаңа құрылғыға қайта жүктейсіз — интеллект қалпына келеді.
Осы мағынада ЖИ «өлімсіз».
Біз «мәңгілік өмір» мәселесін әлдеқашан шештік.
Өкініштісі — өзіміз үшін емес, цифрлық жүйелер үшін.
ЖИ адамның білетінінен де артығын біле алады ғой?
Иә.
ЖИ жаңаны үйреніп қана қоймай, адамдардың ойына келмейтін ұқсастықтарды (аналогияларды) да көре алады.
Мысалы, GPT-4 интернетке шыға алмаған кезде, одан: «Неге компост үйіндісі атом бомбасына ұқсайды?» деп сұрадым.
«Уақыт пен энергия ауқымдары бөлек» деді де, «екеуінде де өзін-өзі жеделдететін процесс бар: компост қызған сайын жылу бөлуі артады, атом бомбасы — нейтрондар санын арттырады. Екеуі де тізбекті реакция, тек уақыт пен энергия ауқымы әртүрлі» деп толықтырды.
«ЖИ ешқашан шығармашылық бола алмайды» дейтіндермен келіспеймін — олар бізден де креативті болуы мүмкін, себебі біз байқамайтын байланыстарды көреді. Ал шығармашылық — күтпеген ұқсастықтарды табу.
Чат-боттардың субъективті тәжірибесі бола ма?
Иә, машиналардың субъективті тәжірибесі болуы мүмкін деп ойлаймын.
Яғни олар әлемді көріп, онымен әрекеттесе алады.
Бұған сенетіндер аз, түсіндіріп көрейін.
Камерасы мен роботқолы бар чат-бот бар делік. Оның алдына зат қоямын да: «Затты көрсет» деймін. Ол көрсетеді.
Камерасының алдына призма қоямын.
Тағы зат қоямын. Бот призманың сындырған бағытына нұсқайды. «Жоқ, зат тура алдыңда, призма кескінді бұрмалады» деймін.
Сонда чат-бот: «Түсіндім. Призма жарықты сындырады, сондықтан зат шын мәнінде алдымда, бірақ мен оны басқа жақта тұрғандай қабылдадым — субъективті тәжірибем солай болды», — дейді.
Егер чат-бот «субъективті тәжірибе» ұғымын адам сияқты қолданса, онда бұл — болып жатқанды басқа қырынан көру қабілеті. Менің қабылдау жүйем жаңылғанда не болатынын түсіндірудің ең жақсы тәсілі осы.
Машиналардың сезімі болуы мүмкін бе?
Ақыл, сана, сезім, эмоция.
Машиналар мұның бәріне ие бола алмайды деуге негіз жоқ.
Көп адам: «Машиналарда сезім болмайды» деп сенеді.
Шынын айтсам, неге бұлай сенетіні түсініксіз.
Мысалы, кішкентай соғыс роботы үлкен, күштірек роботты көрсе, «қорқу» тәрізді күйге түскені қисынды. Адамда қорқыныш пайда болғанда не болатыны белгілі ғой, «мына жерден тезірек кетуім керек», «шоғырлану керек» сияқты ой-тетіктер роботта да іске қосылуы мүмкін. Жобалаушылар қауіпті аймақта «қашу» мінезін іске қосатын механизмдерді сіңіре алады. Кішкентай робот «қорқады» да, шегінеді — адреналин емес, нейрожелідегі процестер әсер етеді, бірақ нәтижесі адамдағы қорқынышқа ұқсас.
Сонда ЖИ-де эмоцияларға ұқсас күйлер болады.
ЖИ саналы әрекет етуі мүмкін бе?
Елестетейік: миыңыздағы бір жасушаны дәл сондай мінез-құлық көрсететін өте ұсақ жасанды элементке алмастырдым. Ол кіріс сигналдарын алып, шығысқа дәл солай береді. Қалған нейрондар айырмашылықты сезбейді.
Сіз әлі де саналы боласыз ба?
Енді неге әкелетінін көрдіңіз: егер барлық жасушаны алмастырсаңыз, сана қай сәтте жоғалады?
Адамдар сананы ми жасушаларынан бөлек, материалдан тыс нәрсе деп ойлайды. Әдетте «Мен білемін, өйткені мен оны сеземін» дегенге сүйенеді. Шын мәнінде, біз «сана» дегенде нені меңзейтінімізді де толық білмейміз.
Сонда оларда да адамдікіндей сана болуы мүмкін деп есептейсіз бе?
Иә.
Айталық, сіз машинаның қалай жұмыс істейтінін түсінгіңіз келеді. Кейбір машиналар басқаларына қарағанда қуаттырақ болады. Мысалы, Aston Martin-де үлкен «жылдамдық» бар, ал кішкентай Toyota Corolla-да жоқ. Бірақ «жылдамдық» сөзі көп нәрсені түсіндірмейді. Егер сіз автомобильдің қалай жұмыс істейтінін шынымен түсінгіңіз келсе, қозғалтқышты – электрлі немесе бензинді – және оның осы «жылдамдықты», яғни қуатты қалай өндіретінін зерттеуіңіз керек.
«Жылдамдық» әдемі естіледі, бірақ ештеңені түсіндірмейді.
Санамен де солай.
Менің ойымша, біз бұл терминді қолдануды тоқтатамыз. Егер сіз сана деп өзіңізді-өзіңіз тануды, өз ойларыңыз бен күйіңізді түсіну қабілетін айтсаңыз, онда машиналарда да ол болуы мүмкін.
Түпкілікті материалист бола тұра, мен машиналарда сана болмауы мүмкін дегенге себеп көріп тұрған жоқпын.
Google-ға неше жасыңызда бардыңыз?
65 жаста болдым ол кезде.
Google-дан қалай кеттіңіз?
Он жыл жұмыс істедім.
75-ке келгенде зейнетке шығуды қаладым. Оңай болмады — «жұмысты тоқтата» салу қиын екен.
Google-ден кетуім MIT Tech Review конференциясында еркін сөйлеу ниетіммен дәл келді.
Тағы бір себеп — жасым ұлғайып, бағдарлама жазу қиындады. Қателер жиілеп, шаршата бастады.
Google қалғанымды қалады. «ЖИ қауіпсіздігімен айналыс, бұл салада қалағаныңды істе» деді.
Бірақ ірі компанияда жұмыс істегенде, оған зиян келтіруі мүмкін сөз айтуға өзіңді лайықты сезінбейсің. Тіпті айтуға рұқсат болса да, бұл дұрыс емес сияқты.
Google-ге ренжігенім жоқ.
Компания жауапкершілікпен әрекет етті деп ойлаймын.
Өміріңіздің ісіне қалай қарайсыз қазір?
Мұң бар.
ЖИ-ді қырық жыл бұрын бастап, қазіргідей қауіп туатынын білмегеніміз үшін өзімді кінәлі сезінбеймін. Бізде тәуекелдер туралы ойлануға әлі көп уақыт бар деп ойладық.
Мұңдымын, өйткені ЖИ тек жақсылық әкеле бермейді. Сондықтан, менің қазіргі міндетім – проблемалар туралы айту деп есептеймін.
ЖИ болашағына алаңдайтын адамға не айтар едіңіз?
Қарапайым адамдар көп нәрсені өзгерте ала ма? Күмәнім бар.
Климат дағдарысын қоқыс сұрыптаумен шеше алмайтынымыз сияқты, мұнда да жеке әрекеттер жеткіліксіз.
Адамдардың қолынан келетіні — үкіметтерінен ірі компаниялардың ЖИ қауіпсіздігіне шындап ақша бөлуін талап ету.
Не үшін өкінесіз?
Өкінетінім — әйеліммен көбірек уақыт өткізуге, балаларым кішкентай кезде жанында көбірек болуға болар еді. Жұмысқа тым беріліп кеттім.
Қорытынды ретінде не айтасыз?
Кейде «бәрі бітті, ЖИ билікті тартып алады» деп түңілемін. Кейде «жоқ, жеңеміз, жолын табамыз» деймін. Білмеймін. Бәрі түсініксіз.
Әлі де адамдарға зиян келтіргісі келмейтін ЖИ жасаудың жолын таба аламыз деген мүмкіндік бар. Мүмкіндік бар болғандықтан, соны іздеуге бар күшімізді салуымыз керек.
Бәлкім, адам табиғаты болар — «біз әрдайым бар боламыз» деп ойлау. Отбасы, болашақ туралы айтып, «біз болмауымыз мүмкін емес» дегенді елестете алмаймыз.
Бірақ әр нәрсенің бастауы бар, соңы да бар…

Пікір жоқ әзірше