TELEGEI

Home

Үстемдік: Жасанды Интеллект, ChatGPT және Әлемді Өзгертетін Бәсеке

Parmy Olson

Оқылуы: 0%

Жазылымсыз режим: 20-беттен кейін жазылым беті ашылады, әрі қарай әр 10 бет сайын (ең көбі 5 рет).

20 px
1.85
0.30 px
0.95 em
Image segment 0
Image segment 1

Маниге арналады

КІРІСПЕ

Осы кітапты қолыңызға алып, алғашқы бірнеше сөзді оқығаннан кейін, сізді «мұны адам жазды ма екен? » деген ой мазалауы мүмкін.

Бұл қалыпты жағдай. Мен ренжімеймін.

Осыдан екі жыл бұрын мұндай ой сіздің қаперіңізге де кірмейтін еді. Бірақ бүгінде машиналар адам жасаған туындылардан айырмашылығы жоқ мақалаларды, кітаптарды, иллюстрацияларды және компьютерлік кодтарды шығарып жатыр. Джордж Оруэллдің «1984» атты дистопиялық (болашақтың қатыгез, жағымсыз қоғамдық құрылымы) болашақ туралы романындағы «роман жазатын машинаны» және танымал музыка жазатын «версификаторын» есіңізге түсіріңізші? Сол нәрселер қазір шындыққа айналды. Өзгерістердің тез болғаны соншалық, қоғам есеңгіреп қалды: біз бүгінгі кеңсе қызметкерлерінің келесі бір-екі жылда жұмысы қала ма деп алаңдаймыз. Миллиондаған ақ жағалы (кеңседе жұмыс істейтін зияткер мамандар) мамандар кенеттен қауіп алдында қалды. Талантты жас иллюстраторлар өнер мектебіне барудың қажеті бар ма деп ойлануда.

Мұның бәрінің өте қысқа уақытта жүзеге асқаны таңғалдырады. Технология индустриясы туралы жазып жүрген он бес жыл ішінде мен жасанды интеллект саласының соңғы екі жылдағыдай қарқынмен дамығанын көрмеппін. 2022 жылдың қарашасында ChatGPT-тің шығуы тек ақпаратты өңдеп қана қоймай, оны өздігінен жасайтын жасанды интеллектінің (адам интеллектісіне ұқсас функцияларды орындайтын технологиялық жүйе) жаңа түрін жасау бәсекесін тудырды. Ол кезде жасанды интеллект құралдары иттердің түсініксіз суреттерін ғана сала алатын. Енді олар Дональд Трамптың фотореалистік суреттерін шығарып жатыр, оның терісінің тесіктері мен құрылымының шынайылығы соншалық — жасанды екенін ажырату мүмкін емес.

Жасанды интеллекттің екі беті

Көптеген жасанды интеллект (ЖИ) жасаушылар бұл технология утопияға (мінсіз, идеалды қоғам) жол ашады дейді. Басқалары бұл біздің өркениетіміздің күйреуіне әкелуі мүмкін деп есептейді. Шындығында, ғылыми-фантастикалық сценарийлер бізді ЖИ-дің қоғамға тигізетін нақты қауіптерінен алаңдатып қойды: ол нәсілшілдікті күшейтеді, шығармашылық индустрияларға қауіп төндіреді және басқа да жағымсыз салдарларға әкеледі.

Бұл көзге көрінбейтін күштің артында ЖИ-дің дамуын бақылауға алып, оны барынша қуатты етуге тырысып жатқан компаниялар тұр. Өсуге деген тойымсыз құштарлықтың жетегінде олар этикалық нормаларды аттап өтіп, қоғамды өз өнімдері туралы алдап, ЖИ-дің күмәнді қорғандарына айналуда.

Тарихта бүгінгі технологиялық алпауыттар сияқты орасан зор билікке ие болған немесе соншалықты көп адамға әсер еткен басқа ұйымдар болған емес. Google Жер бетіндегі интернет пайдаланушыларының 90 пайызына веб-іздеу қызметін көрсетеді, ал Microsoft бағдарламалық жасақтамасын компьютері бар адамдардың 70 пайызы пайдаланады. Бірақ екі компания да бұған қанағаттанбайды. Microsoft Google-дың 150 миллиард долларлық іздеу бизнесінен үлес алғысы келеді, ал Google Microsoft-тың 110 миллиард долларлық бұлттық бизнесін иемденгісі келеді. Осы соғыста жеңіске жету үшін әр компания басқалардың идеяларын пайдаланды — сондықтан, сайып келгенде, біздің ЖИ болашағымызды тек екі адам жазып шықты: Сэм Альтман және Демис Хассабис.

Екі тұлға, бір мақсат

Бірі — кеңсеге кроссовка киіп келетін, отыздан асқан, арықша келген, бірақ байсалды кәсіпкер. Екіншісі — ойындарға құмар, қырқыншы жылдардың аяғындағы бұрынғы шахмат чемпионы. Екеуі де өте ақылды, сүйкімді көшбасшылар, олар құдіретті ЖИ туралы сондай рухтандыратын көзқарастар ұсынды, сондықтан адамдар олардың соңынан соқыр сеніммен ерді. Екеуі де жеңіске деген құштарлықтың арқасында осы деңгейге жетті. Әлем Альтманның арқасында ChatGPT-пен танысты. Хассабис біздің оған тезірек жетуімізге себепкер болды. Олардың сапары тек бүгінгі бәсекені ғана емес, сонымен бірге ЖИ-дің этикалық болашағын индустрия алпауыттарының бақылауында болған кезде басқару сияқты қиын міндеттерді де айқындап берді.

Хассабис адам сияқты ақылды ЖИ жасауға ниет білдірген әлемдегі алғашқы компания — DeepMind-ты құрған кезде ғылыми ортаның келекесіне қалу қаупін де елемеді. Ол өмірдің шығу тегі, болмыстың табиғаты және ауруларды емдеу туралы ғылыми жаңалықтар ашқысы келді. «Интеллект мәселесін шешіңдер, содан кейін қалғанның бәрін шешесіңдер», — деді ол.

Бірнеше жылдан кейін Альтман дәл сондай мақсатпен OpenAI-ді бастады, бірақ ол адамзатқа экономикалық молшылық әкелуге, материалдық байлықты арттыруға және «бәрімізге жақсы өмір сүруге» көмектесуге көбірек көңіл бөлді. «Бұл адамдар жасаған ең ұлы құрал болуы мүмкін және әрқайсымызға мүмкін емес болып көрінетін нәрселерді жасауға мүмкіндік береді», — деді ол маған.

Олардың жоспарлары Силикон алқабының ең ессіз қиялшыларынан да өршіл болды. Олар қоғамды өзгерте алатын, экономика мен қаржы салаларын қажетсіз ететіндей қуатты ЖИ құруды жоспарлады. Және тек Альтман мен Хассабис қана осы игіліктердің иесі болмақ еді.

Билік пен этика арасындағы қайшылық

Адамзаттың соңғы өнертабысына айналуы мүмкін бұл технологияны жасау барысында екі адам да осындай трансформациялық технологияны қалай бақылау керектігін ойластырды. Бастапқыда олар Google және Microsoft сияқты технологиялық монолиттер оны тікелей басқармауы керек деп есептеді, өйткені бұл компаниялар адамзаттың әл-ауқатынан гөрі пайданы жоғары қоятын еді. Сондықтан көптеген жылдар бойы Атлант мұхитының екі жағында олар ЖИ-ді қорғау және игілікті басты басымдыққа айналдыру үшін өздерінің зерттеу зертханаларын құрудың жаңа тәсілдерін іздеп, қараңғыда сипалап жүрді. Олар ЖИ-дің ұқыпты қорғандары болуға уәде берді.

Бірақ екеуі де бірінші болғысы келді. Тарихтағы ең қуатты бағдарламалық жасақтаманы жасау үшін оларға ақша мен есептеу қуаты қажет болды, ал олардың ең жақсы көзі Силикон алқабы еді. Уақыт өте келе Альтман мен Хассабис технологиялық алпауыттардың көмегіне жүгіну керек деп шешті. Суперзияткерлік ЖИ жасау жөніндегі күш-жігері нәтижелі болып, әртүрлі бағыттағы жаңа идеологиялар оларға қысым көрсеткенде, олар өздерінің асыл мақсаттарынан бас тартты. Олар бақылауды реттеушілердің қадағалауынсыз ЖИ құралдарын халыққа сатуға асыққан компанияларға тапсырды, бұл ауыр салдарларға әкелді. ЖИ-дегі биліктің шоғырлануы бәсекелестіктің төмендеуіне, жеке өмірге қолсұғушылықтың жаңа түрлеріне және нәсілдік пен гендерлік алалаушылыққа жол ашты. Бүгіннің өзінде, егер сіз танымал ЖИ құралынан әйелдердің суретін салуды сұрасаңыз, ол оларды сексуалды және ашық киінген күйінде бейнелейді; фотореалистік бас директорларды (CEO) сұрасаңыз, ол ақ нәсілді ер адамдардың суретін шығарады; қылмыскерді сұрасаңыз, ол жиі қара нәсілді ер адамдардың бейнесін жасайды. Мұндай құралдар қоғамдық пікірді қалай қалыптастыруы мүмкін екендігіне тиісті көңіл бөлінбестен біздің медиа арналарымызға, смартфондарымызға және сот жүйелерімізге еніп жатыр.

Тарихи сабақ

Бұл жұптың сапары осыдан екі ғасыр бұрынғы Томас Эдисон мен Джордж Вестингауз атты екі кәсіпкердің арасындағы соғыстан еш айырмашылығы жоқ еді. Олардың әрқайсысы миллиондаған тұтынушыларға электр энергиясын жеткізудің басым жүйесін жасауды армандаған. Екеуі де өнертапқыштан кәсіпкерге айналған еді және өз технологияларының бір күні заманауи әлемге қуат беретінін түсінді. Сұрақ мынада болды: технологияның қай нұсқасы жеңіске жетеді? Соңында Вестингауздың тиімдірек электр стандарты әлемдегі ең танымал нұсқаға айналды. Бірақ ол «Токтар соғысында» жеңген жоқ. Оны Генерал Electric жеңді.

Корпоративтік мүдделер Альтман мен Хассабисті одан да үлкен және қуатты модельдерді шығаруға итермелегенде, технология алпауыттары жеңімпаз болып шықты, тек бұл жолы жарыс біздің меншікті интеллектімізді қайталау үшін болды. Енді әлем тығырыққа тірелді. Генеративті ЖИ (мәтін, сурет немесе музыка сияқты жаңа мазмұн жасай алатын жүйе) ChatGPT сияқты құралдар арқылы адамдардың еңбек өнімділігін арттыруға және пайдалы ақпаратты қолжетімді етуге уәде береді. Бірақ әрбір инновацияның өз бағасы бар. Бизнес пен үкіметтер шынайы мен «ЖИ жасаған» нәрсенің арасындағы айырмашылықты ажырату лотереяға айналған жаңа шындыққа бейімделуде. Компаниялар өз қызметкерлерін алмастыру және пайданы арттыру үшін ЖИ бағдарламалық жасақтамасына ақша құюда. Сондай-ақ, жеке өмірді бақылаудың бұрын-соңды болмаған деңгейін жүргізе алатын жеке ЖИ құрылғыларының жаңа түрлері пайда болуда.

Бұл кітаптың екінші жартысында осы тәуекелдер баяндалады, бірақ алдымен мен бұл жерге қалай жеткенімізді және ЖИ-ді игілік үшін құруға тырысқан екі инноватордың көзқарастары монополия күштерімен қалай талқандалғанын түсіндіремін. Олардың оқиғасы — бұл идеализм, сонымен бірге аңғалдық пен эго туралы хикая. Сондай-ақ, бұл Үлкен Технологиялар мен Силикон алқабының ортасында этикалық кодексті сақтаудың қаншалықты мүмкін емес екендігі туралы. Альтман мен Хассабис ЖИ-дің жауапсыздығы орны толмас зиян келтірмеуі үшін технологияны жауапкершілікпен басқару керектігін білді. Бірақ олар әлемдегі ең ірі технологиялық фирмалардың ресурстарысыз құдайға тән құдіреті бар ЖИ-ді жасай алмады. Адам өмірін жақсарту мақсатымен олар сол компаниялардың билігін күшейтіп, адамзаттың әл-ауқаты мен болашағын корпоративтік үстемдік үшін шайқастың ортасында қалдырды. Бәрі былай басталған еді.

1-БӨЛІМ АРМАН

1-ТАРАУ Мектеп қаһарманы

Сэм Альтман аузын жауып жүруі керектігін білетін. Миссури штатындағы Сент-Луис консервативтік бекінісінде адамдар өздерінің гей немесе гетеросексуал екендіктері туралы айтпайтын. Американың қалған бөлігі гейлердің құқықтарымен танысып жатқанда, Альтманның Орта Батыстағы туған қаласы 2000-жылдардың басында әлі де артта қалып, бір жынысты адаммен бірге болуды қылмыс деп есептейтін. Ол сияқты өздерінің гей екенін сезетін жасөспірімдер үнсіздіктен қауіпсіздік табатын. Альтман басқаша болды. Ол үнсіз қала алмады, бұл адамдардың ол туралы бәрін білуін қалағандықтан емес, бұл туралы айту оның миссиясына айналғандықтан еді.

Альтман мектепте басқалар таңғысы келген таңбалардан (ярлык) сиқырлы түрде асып түсетін бала болды. Ол кез келген «гик» (технологияға немесе оқуға тым құмар адам) сияқты ақылды, кез келген спортшы сияқты харизматикалық еді. Ағылшын әдебиетінен тапсырма орындағанда ол Фолкнердің күрделі прозасына еліктейтін, ал математикада «калькулус» (жоғары математиканың бір бөлімі) есептерін оңай шешетін. Содан кейін ол бассейнге секіріп, өзі капитандық ететін ватерполо (судағы доп ойыны) командасына бұйрық беретін немесе үйіне барып, достарымен сағаттап видео ойындар ойнайтын. Інілері Макс және Джекпен бірге кешкі ас ішіп отырып, ол ғарышқа саяхат пен зымырандар туралы беріле әңгімелейтін, ал олар «Самурай» сияқты үстел ойынын ойнағанда, Сэм өзін көшбасшы деп жариялайтын. Ол кез келген жағдайда жауапкершілікті өз қолына алғанды ұнататын.

Альтман орта таптағы еврей отбасында өсті, анасы Конни — дерматолог, ал әкесі Джерри — заңгер болды. Джерри Сент-Луис қаласында қолжетімді тұрғын үй салуға, сондай-ақ тарихи ғимараттарды қайта жаңғыртуға көмектесті және оның бұл істері ұлының әлемге деген қоғамдық көзқарасын қалыптастырды. Сэм әкесінің оны бір күні кеңсесіне апарып, біреуге көмектесуге уақытың болмаса да, «бәрібір мұны істеудің жолын табуың керек» деген сөзін анық есіне алады.

Сэмнің өзіне деген үлкен сенімі төрт баланың үлкені болуынан, сондай-ақ басқалар құрметтейтін батылдығынан туындаған. Ол тоқсаныншы жылдардың соңында басқа балалар құпия сақтайтын кездерде өз сексуалдылығы туралы ашық айтатын. Ол Орта Батыстағы көптеген адамдар жаман деп санайтын нәрсені «керемет» етіп көрсетуге тырысты, бұл ішінара өзі сияқты басқаларға көмектесу ниетінен туған еді.

Бұл ұмтылыс интернеттен басталды. Альтман America Online (AOL) (ертедегі танымал интернет қызметі) веб-порталына кіре бастағанда, өзі сияқты адамдардың көп екенін түсінді. AOL чат-румдарына (сөйлесу бөлмелері) кірудің кереметтігі мынада еді. Модеміңіз бүкіләлемдік желіге қауіпсіз қосылу үшін «қол алысу» (handshake) кезіндегі гудоктар мен дыбыстарды еститінсіз. Содан кейін сіз қосыласыз, алдыңыздағы барлық мүмкіндіктерден, барлық чат-румдардан жүрегіңіз сәл жиірек соғады. Мұнда сіз әлемнің басқа түкпіріндегі компьютер алдында отырған басқа қызықты адаммен сөйлесе аласыз. Бөлмелердің «Жағажай кеші» немесе «Таңғы ас клубы» сияқты атаулары болатын. Кейбір үлкен бөлмелер шулы және оғаш адамдарға толы еді, бірақ егер сіз «Жануарларды сүйетіндер», «X-Files жанкүйерлері» немесе «Гейлер мен ледилер» сияқты нақты санаттағы бөлмелерді зерттесеңіз, мағыналы әңгімелер таба алатынсыз.

Альтман сияқты адамдар үшін бұл бөлмелер құтқарушыға айналды. Сіз бүркеншік есімнің тасасында жасырынып, басқалардың ЛГБТК-ға қолайлы жерлер туралы айтқанын тыңдай алатынсыз. Олар оған өзін бөтен сезіну оңай болатын әлемде тиісті ортасын табуға көмектесті. «AOL чат-румдарын табу өмірімді өзгертті», — дейді ол кейінірек New Yorker журналына берген сұхбатында. «Он бір немесе он екі жасыңда құпиялардың болуы — жаман нәрсе».

AOL чат-румдары ЛГБТК қауымдастығы үшін соншалықты маңызды болды, 1999 жылға қарай, Альтман он төрт жаста болғанда, оның бөлмелерінің шамамен үштен бірі гейлер тақырыбына арналған еді. Он алты жасында ол ата-анасына шындығын айтты. Анасы таңғалды. Оның ұлы әрқашан «юнисексуалды және технологияға құмар» болып көрінетін, бірақ ол ешқандай жіктеуге сыймайтын. Мысалы, ол Американың барлығы барбекюді жақсы көретін бөлігінде вегетариан болды. Ол компьютерлерге әуес еді, бірақ сонымен бірге тұйық немесе қарым-қатынаста оғаш емес еді. Және барлығы тоқсаныншы жылдардың поп-музыкасын тыңдап жатқанда, ол классикалық музыканы ұнататын.

Альтмандар өздерінің зерек ұлын Сент-Луистің шетіндегі Джон Берроуз атты элиталық жеке мектепке ауыстырды, ол мектеп студенттердің талантын «адамзат қоғамын жақсарту үшін» дамытуға бағытталған еді.

Ол өзі басқара алатын мүмкіндігінше көп көшбасшылық рөлдерді атқарды. Ватерполо командасын басқарумен қатар, ол мектептің жылдық кітабын редакциялады және мектеп жиналыстарында сөйледі. Ол оқытушылармен араласып, кейде шу шығару үшін ережелерді де бұзатын. Жыл сайынғы күзгі мерекеде Альтман мен оның ватерполо командасы сахнада киімдерін шешіп тастап, тек «Спидо» (шомылуға арналған қысқа дамбал) киімімен қалып, жұрттың айқай-шуы мен қолпаштауына ие болды.

Ол үшін мектептің спорт директорынан сөгіс алды, бірақ ол мұны жай қалдырмай немесе достарына, тіпті басқа мұғалімге шағымданбай, бірден жоғарыға барып, қарсылық білдірді. Ол мектеп директоры Энди Эбботттың есігін қақты. Оқытушы бұл ірі денелі, қара шашты, көздері тостағандай жасөспірімге таңғалды, ол жиі оның кеңсесіне идеяларын айту үшін немесе мектеп газетінде жазбақшы болған әділетсіздікке шағымдану үшін келетін.

Ол жас жігіттің билік алдында ешбір сескенбейтінін байқады. Егер директор Эбботт басқа студенттерге әсер ететін танымал емес шешім қабылдаса, бала олардың құтқарушысы болуды өз міндетіне алатын. «Ол қарсылық білдіретін, — деп еске алады директор Эбботт, — және бұл туралы терең ойланатын». Осы күнге дейін ол Альтманды «өзім білетін ең ақылды бала» деп санайды.

Дәл осы адалдық, сонымен бірге ақкөңіл әрі осал болып көріну қабілеті, кейінірек жас жігітке технология мен үкімет әлеміндегі басқа да қуатты тұлғалардың — инвесторлардан бастап баспасөзге дейін, әлемдегі ең ықпалды бас директорларға дейін — қолдауына ие болуға көмектесті. Альтман уақыт өте келе биліктегі адамдар сенің өршіл жоспарларың үшін жолды тегістей алатынын түсінді, дәл директор Эбботттың мектепте оған жасағанындай.

Оның мектептегі үлкен жобасы — AOL-де тапқан желісінің нақты нұсқасын құру болды. Ол мектептегі бюрократияны жеңіп, мектептің алғашқы ЛГБТК қолдау тобын құруға директордың батасын алды. Бұл студенттер кеңес алу үшін немесе өздері сияқты басқаларды кезіктіру үшін бара алатын жасырын желі сияқты болды. Бір жыл ішінде оншақты студент қосылды.

Бірақ Альтман бұған қанағаттанбады. Ол мұғалімдеріне барып, олардың кабинеттері гей студенттер үшін қауіпсіз орын екенін білдіретін стикерлер жапсыруды сұрап, мұғалімдерді өз жақтастарына айналдыруға тырысты. Соңында ол гейлер құқықтары туралы қоғамдық хабардарлықты арттыруға бағытталған «Гей-Гетеросексуалдар Альянсы» тобын құрды.

Содан кейін ол таңғы жиналыста үлкен мәлімдеме жасауды шешті. Оның жаңа тобы негізгі залға ерте барып, көрермендер келгенше барлық орындықтарға басып шығарылған сандарды қойып шықты. Альтман микрофонға шыққанда, белгілі бір саны бар адамдардың орнынан тұруын сұрады. «Айналаңызға қараңыз, — деді ол аудиторияға, шамамен алпыс бала орнынан тұрғанда. — Бұл сіздердің оннан біріңіз. Мектепте осыншама адам өзін гей ретінде сезінеді».

Бұл батыл демонстрация еді, бірақ бір нәрсе оғаш көрінді. Аудиторияда бірнеше студент жоқ болып шықты және олардың бәрі мектептің христиан клубының мүшелері еді. Альтман кейінірек олардың үйлерінде немесе кабинеттерінде қалып, оның презентациясына бойкот жариялағанын білді. Бұл балалардың оның мақсатына қарсы шыққанына ашуланған ол тағы да директор Эбботттың кеңсесіне барып, христиан балаларды сабаққа келмегендер ретінде есептеуді талап етті.

«Олардың хабардарлығын арттырудың ешқандай зияны жоқ еді», — деп дәлелдеді жасөспірім. Ол айғайлаған жоқ, бірақ оның сөздері мен қатал жүзінен ашулы екені көрініп тұрды.

«Мен мұны біраз уақыт ақтауға тырыстым, — деп еске алады директор Эбботт. — Бірақ, меніңше, ол бұл мәселеде дұрыс айтқан сияқты».

Альтман мектептен үлкен сабақ алып шықты. Егер сізде өршіл идеялар болса, әрқашан сізді жек көретіндер табылады. Шешім — билігі мен беделі барлармен одақтасу және айналаңызға қолдау көрсететін желі жинау.

Көп ұзамай Альтман Калифорнияның Силикон алқабының жүрегінде орналасқан, күн сәулесі түскен аймақты технологиялық стартаптармен толтырған үздік бағдарламалық жасақтама инженерлері мен кәсіпкерлердің ордасы — беделді Стэнфорд университетіне қабылданды. Бағдарламалауға деген қызығушылығына және компьютерлік ғылымдар дәрежесіне қабылданғанына қарамастан, он сегіз жастағы жігіт тек бір пәнге ғана назар аудара алмады. Оны бәрі қызықтыратын. Ол гуманитарлық ғылымдар мен шығармашылық жазу бойынша бірқатар сабақтар алды.

Содан кейін оқудан тыс уақытта ол өзінің болашақ әлемге әйгілі кәсіпкер ретіндегі өмірі үшін өте маңызды болатын сабақтар алу үшін оңтүстікке қарай жиырма минуттық жерге баратын. Ол Сан-Хоседағы танымал казинода сағаттап покер ойнап, психологиялық маневр жасау және ықпал ету дағдыларын шыңдады. Покер — бұл басқаларды бақылау және кейде қолыңыздағы карталардың күші туралы оларды жаңылыстыру өнері. Альтман «блеф» (алдау) жасауға және қарсыластарының нәзік ишараларын оқуға соншалықты машықтанғаны сондай, ол ұтып алған ақшасын студент кезіндегі өмір сүру шығындарын өтеуге пайдаланды. «Мен мұны тегін де істер едім, — деді ол кейінірек бір подкастта. — Маған бұл қатты ұнады. Мен оны әлемді, бизнесті және психологияны танудың жолы ретінде қатты ұсынамын».

Бір күні Альтман әлемді өзгерту үшін назар аударатын сала оның негізгі оқу бағдарламасының бөлігі ретінде пайда болды. Ол Стэнфордтың ЖИ зертханасында зерттеуші болды, бұл университет кампусының кабельдер мен робот қолдарына толы бір бұрышы еді. ЖИ зертханасы жаңадан ашылған болатын және оның жетекшісі Себастьян Трун есімді, радикалды көзқарастары бар, жұмсақ неміс екпінімен сөйлейтін, өткір көк көзді компьютер маманы еді. Трун өз күндерін гранттарға өтінім жазумен және оқытушылық лауазымды күтумен өткізгісі келмейтін, керісінше технологиялық алпауыттармен жұмыс істейтін жаңа буын академиктерінің өкілі болды. Стэнфорд Google штаб-пәтерінен небәрі бес миль жерде орналасқан еді және Трун Google X-тегі өздігінен жүретін көліктер мен толықтырылған шындық (augmented reality) көзілдіріктерін жасайтын ең заманауи «мушот» (moonshot — аса қиын әрі өршіл) жобаларын басқаратын.

Сабақта Трун студенттеріне машиналық оқыту (компьютерлердің нақты бағдарламаланбай-ақ, үлкен деректер негізінде концепцияларды ұғыну әдісі) туралы үйретті. Бұл тұжырымдама ЖИ саласында өте маңызды болды, тіпті «оқыту» термині сәл жаңылыстыратын болса да: машиналар адамдар сияқты ойлай және үйрене алмайды. Трун Сент-Луистен келген салмақты баланың ЖИ-дегі күтпеген салдарлардың мүмкіндігіне қызығушылық танытатынын байқады. Егер машина қате нәрсені үйренсе не болады?

Трун ЖИ жүйелері өздерінің «fitness function» немесе алға қойған мақсаттарына жету үшін күтпеген әрекеттер жасауы мүмкін екенін түсіндірді.

Fitness function (сәйкестік функциясы) — ЖИ-дің белгілі бір нәтижеге жету тиімділігін бағалайтын математикалық алгоритм. Егер ЖИ-ге тірі қалу және көбею мақсаты берілсе, ол байқаусызда Жер бетіндегі бүкіл биологиялық тіршілікті жойып жіберуі мүмкін, деді Трун. Бұл ЖИ-дің зұлым екенін білдірмейтін. Ол жай ғана өз ісінің зардабын сезінбеді. Оның мақсаттары біздің қол жуғандағы ниетімізден ерекшеленбейтін. Біз теріміздегі бактерияларды жек көргендіктен немесе оларды жойғымыз келгендіктен жуынбаймыз. Бізге тек таза қол керек.

Альтман бұл идея туралы ұзақ ойланды. Ғылыми фантастиканың жанкүйері ретінде ол: «Адамзат неге бұған дейін өзге ғаламшарлықтармен байланысқа шықпады? » — деп толғанды. Бәлкім, басқа ғаламшарлардағы тіршілік иелері де ЖИ жасауға тырысып, соңында өз туындыларынан жойылып кеткен болар? Егер бұдан құтылу мүмкін болса, әлдекім қауіпті ЖИ пайда болғанға дейін қауіпсіз түрін жасап шығарар еді.

Бұл идея Альтманның санасында он жылдан астам уақыт бойы «ұйықтап» жатып, соңында OpenAI-дың құрылуына ұласты. Бірақ ол кезде бұл мәселе қолға алу үшін тым ауқымды еді. Трун сияқты академиктер ЖИ жүйелерін құрастырды. Альтман сияқты Стэнфорд студенттері Google, Cisco және Yahoo сияқты компанияларға айналатын стартаптарды бастады. Жас энтузиаст та солай істегісі келді. Оған тек бизнес-идея керек еді. Ол ойына сабақтан шығып бара жатқанда келді. «Егер мен ұялы телефонымды ашып, барлық достарымның қайда жүргенін картадан көре алсам, тамаша болмас па еді? » — деп сұрады ол Стэнфордтағы курстасы әрі досы Ник Сиводан.

Егер ол ұялы телефонға арналған цифрлық карта жасап, онда достарын таба алса және бұл компанияның негізгі өніміне айналса ше? Компания құру оңай емес еді.

Венчурлық инвесторлар (тәуекелі жоғары жаңа жобаларға қаржы салатын тұлғалар) — арқылы ақша жинау керек болатын. Стэнфордтан үш миль қашықтықта ондаған инвестор болғанымен, Альтман жас әрі тәжірибесіз еді. Оның сұрағына жауап Американың екінші шетінен, Кембриджден (Массачусетс) келді. Онда ескі техно-магнат жас кәсіпкерлерге арналған «жүктеу лагерін» бастап жатыр еді. Альтман мен Сиво Y Combinator деп аталатын үш айлық бағдарламаға қосылып, стартап құруға бел буды.

Y Combinator кейіннен Airbnb, Stripe және Dropbox сияқты атаулары бар, құны 400 миллиард долларлық технологиялық компаниялардың негізін қалаған барлық уақыттағы ең табысты стартап-акселераторға айналды.

<span data-term="true">Стартап-акселератор</span> — жаңа бастаған компаниялардың дамуын кеңес беру, оқыту және инвестициялау арқылы жеделдететін бағдарлама.

Сол кезде небәрі он тоғыздағы Альтман мұның ешқайсысын білмеген еді. Кремний алқабындағы инвесторлардың көбі Y Combinator-ды хакерлерге арналған ақымақ жазғы лагерь деп қабылдамай тастады. Оның негізін қалаушы — қысқа балақ шалбар киіп жүретін, өзінің электронды коммерция компаниясын Yahoo-ға сатып, миллионер атанған 41 жастағы компьютер маманы Пол Грэм еді. Байлыққа қол жеткізген Грэм өз веб-сайтында бағдарламалық жасақтамадан бастап экономикаға, бала тәрбиесіне, сөз бостандығы мен мектептегі «нөрд» болуға дейінгі тақырыптарда эсселер жариялап, өзін ой көшбасшысы ретінде көрсетті.

Бірақ оның Альтман сияқты жастарды рухани көшбасшыға қарағандай елтіп тыңдатқан ең танымал эсселері стартап құру туралы еді. Ол эсселерде стартап негізін қалаушының қасиеттері кез келген нәрседен маңызды екені қайта-қайта айтылатын. Табысты технологиялық компания құру үшін данышпан идеяның қажеті жоқ. Сізге тек тізгінді ұстайтын данышпан адам керек.

«Мысалы, Google-дың жоспары жай ғана нашар емес іздеу сайтын жасау болды», — деп жазды Грэм. Және бұл неге әкелгенін қараңыз. Кенеттен пайда болатын «жарқын идеялар» — өткен күннің еншісінде. Ең маңыздысы — негізін қалаушылар, ал ең жақсылары — жаңа нәрселер жасау үшін дәстүрлі қағидаларды бұзуға дайын бағдарламашы-хакерлер еді. Хакер ретінде «сіз кездейсоқ корпоративтік жұмыста күтілетін нәтижеден 36 есе өнімдірек бола аласыз», — деп жазды ол.

Кремний алқабында технологиялық компания ашу тіпті отансүйгіштік болып саналды, өйткені бұл Американың негізін қалаушы әкелерінің қатаң индивидуализміне ұқсайтын: «Хакерлер — тілазар», — деп жазды ол. «Бұл — хакерліктің мәні. Және бұл — американдықтың да мәні. Кремний алқабының Францияда, Германияда, Англияда немесе Жапонияда емес, дәл Америкада орналасуы кездейсоқ емес. Ол елдерде адамдар сызылған шеңбердің ішінде жүреді».

Грэм үйреткен жол өте қарапайым еді. Өз компанияңызды өз күшіңізбен бастаңыз, минималды өміршең өнімнен бастап, уақыт өте келе оны оңтайландырыңыз. Оқшау жұмыс істеңіз, өйткені мыңдаған адамның сіз жасаған дүниені жай ғана ұнатқанынан қарағанда, он адамның оны шын жүрекпен сүйгені артық. Жол-жөнікей ережелерді бұзудан қорықпаңыз. Тіпті, қоғамның өзін неге қайта жазбасқа?

Грэмнің идеялары Кремний алқабында үлкен серпіліс тудырып, стартап негізін қалаушылардың көзқарасы соншалықты қасиетті, сондықтан оларға құдайлар сияқты жазасыз әрекет етуге рұқсат берілуі керек деген жаңа түсінікті қалыптастырды. Сондықтан Google мен Facebook негізін қалаушылар өздерін бизнестің заманауи автократтары ретінде ұстап, көбінесе компания акцияларының басым дауысына ие болып, кейде компанияларын біртүрлі бағыттарға бұрып жібере алатын. (Бұған мысал ретінде Марк Цукербергтің виртуалды шындық компаниясына айналу туралы біртүрлі әрі қымбат шешіміне Facebook кеңесінің немесе акционерлерінің қарсылық көрсетпеуін айтуға болады). Қос класты акциялар құрылымы деп аталатын жүйенің арқасында Airbnb және Snapchat сияқты көптеген технологиялық стартаптардың негізін қалаушылар өз компанияларында осындай ерекше бақылау деңгейіне ие болды. Грэм мен басқалары негізін қалаушылардың бұл өкілеттігінің негізді екеніне сенді. Ең ақылды және талантты адамдардың ұзақ мерзімді көзқарасы болғанда, оны жүзеге асыру үшін оларға еркіндік қажет.

Грэм Альтманнан дәл осы хакерлік түйсікті көрді: ол өте ізденімпаз, өте ақылды және ауқымды ойлайтын. Тағы бір нәрсе бар еді. Тәрбиесіз қара шашты бұл жасөспірім үлкен адамдардың арасында өзін еркін сезінетіні сонша, өзінен жиырма жас үлкен Грэм сияқты адамдарды басқаруда еш қиындық көрмейтін. Грэм Альтманға он тоғыз жаста болғандықтан Y Combinator бағдарламасына қосылу үшін бір жыл күтуді ұсынғанда, бала бәрібір келетінін айтты. Грэм оны бірден ұнатып қалды.

Бағдарламаға қатысушылардың көбі инженерлер мен хакерлер, соның ішінде танымал Reddit форумының негізін қалаушылар болды. Грэм мен оның әйелі Джессика Ливингстон жаңа бағдарламадағы әрбір стартапқа 6 000 доллар берді — бұл сома MIT-дің магистранттарға жаз айларында беретін шәкіртақысына негізделген еді. Венчурлық инвесторлардың көбі стартаптарға миллиондаған доллар шашса, Грэм негізін қалаушыларға аз қаражатпен көп нәрсе істеуді және «рамен табыстылығына» ұмтылуды бұйырды.

Рамен табыстылығы — компанияның тек негізін қалаушылардың өмір сүруіне (арзан кеспе жеуге жететіндей) жететін ең төменгі пайда деңгейі. Ол оларға заңгерлерді, банкирлерді және PR мамандарын жалдамауға кеңес берді, осылайша бұл жұмысты өздері арзанырақ атқара алатын.

Грэмнің өзі де бәрін үнемдеп жасады. Ол әр сейсенбіде кешкі ас дайындап (оның қолтаңбасы — тауық фрикасесі еді), стартаптар туралы айту үшін достарын спикер ретінде шақыратын, ал Ливингстон әрбір жаңа компанияның заңдық құжаттарымен айналысатын.

Альтман мен оның досы Сиво өздерінің жаңа компаниясын Loopt деп атады. Ол Кембриджге (Массачусетс), Грэмнің үйінің жанындағы Y Combinator-дың алғашқы кеңсесінде жұмыс істеуге көшті. Альтман мен Грэмнің арасында оның мектеп директорымен болған қарым-қатынасына ұқсас тығыз байланыс орнады. Үміт күттіретін жас кәсіпкерлердің арасында Грэм рухани көшбасшы сияқты еді, олар оны жай ғана PG деп атайтын. Альтман Грэмнің ілімдеріне байыппен қарады және Loopt-ты өзін байытатын компания ретінде емес, әлемді жақсартатын идея ретінде көрді. Ол тез дайындалатын рамен кеспесі мен Starbucks кофе балмұздағымен қоректеніп, прототипті тоқтаусыз жетілдірді. Ол соншалықты көп жұмыс істеп, нашар тамақтанғанынан цинга ауруына шалдықты.

<span data-term="true">Цинга</span> — ағзада С дәруменінің ұзақ уақыт жетіспеуінен болатын ауру.

Ол жақсы бағдарламашы болғанымен, бала мінезді Альтман одан да мықты бизнесмен еді. Ол Sprint, Verizon және Boost Mobile басшыларына қоңырау шалып, адамдардың араласу тәсілін және телефондарын пайдалануын өзгерту туралы ауқымды көзқарасын ұсынудан еш қымсынбады. Шығармашылық жазу сабақтарында шыңдалған әдемі сөз орамдарын қолданып, салмақты дауыспен ол бір күні Loopt-тың ұялы телефоны бар кез келген адам үшін маңызды болатынын түсіндірді. Қосымшалар дүкендері (App stores) әлі жоқ еді, сондықтан ол Loopt-ты алғашқы смартфондарға алдын ала орнату үшін мобильді операторларға сенуге мәжбүр болды. Сондықтан телекоммуникация басшыларын көндіру өте маңызды еді және Альтман өз компаниясын жарнамалаудың шебері болды. Sprint, Verizon, Boost және тіпті BlackBerry оның қызметін өз телефондарына орнатуға келісті.

Y Combinator-дың үш айлық бағдарламасының соңында Альтман стартапын дамыту үшін ақша жинады. Ол Loopt жобасын он бес инвестордан тұратын топқа (олардың көбі Грэмнің бай достары еді) он бес минуттай таныстырды, содан кейін одан да ауқатты адамдарға — Кремний алқабындағы венчурлық фирмаларға жүгінді. Ол бірнеше ұсыныс алып, Google, Yahoo және PayPal-ды қолдаған екі жетекші венчурлық фирмадан 5 миллион доллар алды.

Осындай қаржыландырудан кейін Альтман Loopt-та толық жұмыс істеу үшін Стэнфорд университетінен шығып кетті. Ол өзі жалдаған бірнеше инженермен бірге Пало-Альтоға (Калифорния), Sequoia-ның коворкинг кеңістігіне қоныстанды. Олар YouTube негізін қалаушылармен иық тіресе жұмыс істеп, түн ортасына дейін код жазды, кейінірек Альтман өз командасын Маунтин-Вьюдегі алғашқы кеңсесіне — Google штаб-пәтерінен бірнеше блок жердегі ең қымбат аймаққа көшірді. Бұл Кремний алқабының нақ ортасы еді.

Кремний алқабы — ессіз ойшылдардың мекені. Мұнда сіз жай ғана бизнес бастамайсыз. Сіз империя құрасыз. Немесе технология мен ғылымның шекарасында бірдеңе жасауға ұмтыласыз. Егер сіз Альцгеймер сияқты ауруды ғылыми зерттегіңіз келсе, Шығыс жағалаудағы немесе Еуропадағы университетке барар едіңіз. Бірақ қартаюды тоқтатқыңыз келсе, Кремний алқабына келесіз.

Бұл аймақтың желісі (network) оның ең үлкен артықшылығы еді. Кез келген күні іс-шарада бизнесіңізге серпін беретін адамды кездестіруге болатын. Вудсайдтағы (Калифорния) Buck’s мейрамханасында таңғы ас ішуге барсаңыз, Yahoo негізін қалаушысының Илон Маск PayPal үшін алғашқы инвестициялық кездесуін өткізген үстелде отырып, жеміс пен йогурт жеп жатқанын көруіңіз мүмкін. Сан-Францискодағы Battery Club-тың Musto барында сусын ішіп отырып, Facebook негізін қалаушыларының бірін байқап қалуыңыз ғажап емес.

Альтман Кремний алқабының бағдарламашылар, инвесторлар және басшылар желісіне тез сіңісіп кетті. Егер сіз осы заманауи «ескі достар желісіне» қалай қосылуды білсеңіз, оның мүшелерін миллиардерге айналдырған табысқа жету ықтималдығыңыз жоғары еді. Альтман байланыс орнатуға (networking) соншалықты шебер болғаны сонша, ол 2008 жылы Apple-дің әзірлеушілерге арналған беделді жыл сайынғы конференциясында Loopt-ты таныстыруға мүмкіндік алды. Джинсы мен екі қабат киілген жасыл-қызғылт поло жейдесі балалар хабарын жүргізушіге ұқсайтын, сымбатты жас кәсіпкер аудиторияға Loopt-тың әлемдегі ең үлкен әлеуметтік карта қызметі екенін айтты. «Біз кездейсоқ кездесулерді шындыққа айналдырамыз», — деді ол қалың жұртқа қарап, жүзінде әрең жымиыс байқалып.

Сырт көзге бәрі тамаша көрінгенімен, іштей Loopt қиындықтарға тап болды. Адамдар Альтманның цифрлық картасын достарын табу үшін пайдалануға онша құлықты болмады. Оптимист кәсіпкер жас мобильді пайдаланушылар достарымен кездесуді оның өзі сияқты қатты қалайды деп сенген еді. Бірақ достарыңызбен бардa кездесуге көмектесу немесе баскетбол ойнауға қосымша адам керек болғанда бейтаныс адамдармен байланысу идеясы, экран арқылы жай ғана хабарласа салуға қарағанда, тым көп күшті талап етті. Уақыт өте келе адамдар достарымен Facebook сияқты әлеуметтік желілерде көбірек араласа бастады. Facebook Loopt-қа қарағанда айтарлықтай жылдам өсті. Оның жүздеген миллион белсенді пайдаланушысы болса, Loopt небәрі бес миллион адамды тіркеуге әрең көндірді.

Loopt-тың даулы мәселеге айналуы да жағдайды қиындатты. Компания құрылғаннан бір жыл өткен соң Альтманға ескі мектеп директоры Энди Эбботт қоңырау шалды. Ата-аналар балаларының қайда жүргенін қадағалау үшін оларды Loopt-ты пайдалануға мәжбүрлеп жатыр, деді Эбботт. Бірде ата-ана мектепке қоңырау шалып, балалар мінген автобустың жылдамдықты асырып бара жатқанын айтқан. «Сенің не істегеніңді қара», — деді оның ескі тәлімгері телефонмен жартылай қалжыңдап.

Альтман бұдан да сорақысын естіген еді. «Бізге әйелдер ұйымдарынан шағымдар түсіп жатыр», — деп мойындады жас кәсіпкер. Кейбір ер адамдар әйелдерінің жүрген жерін үнемі бақылап отыру үшін оларға Loopt-ты орнатуға мәжбүрлеген. Бұл Альтманның туындысын теріс пайдаланудың қорқынышты әрі қауіпті жолы еді. «Бірақ біз шешімін қарастырып жатырмыз», — деп тез арада қосты ол. Loopt пайдаланушылары өздерінің орналасқан жерін жалған көрсете алатын болды. Дүкенде жүрген әйел өзін үйде отырғандай етіп көрсете алатын.

Көптеген кәсіпкерлер өз қосымшаларының теріс мақсатта қолданылуын мойындамас еді, бірақ Альтман бұл мәселеге ашық қарсы тұруға ниетті көрінді. Ол жасөспірім кезінде нәрселерді құпия сақтау оны тек нашарлататынын үйренген еді. Бәрін ашық айтқан дұрыс. Оған Wall Street Journal басылымының сол кездегі табанды технологиялық тілшісі Джессика Лессин қоңырау шалып, Loopt-тың құпиялылық мәселелері мен теріс пайдалану қауіптері туралы сұрады. Лессиннің таңғалысы, Альтман бұл дау туралы сөйлесуге соншалықты ынталы болды, тіпті оған өз қосымшасын пайдаланудан туындайтын барлық тәуекелдер егжей-тегжейлі жазылған ұзақ құжатты электронды поштамен жіберді.

Мансаптық суицид сияқты көрінген бұл әрекет шын мәнінде болашақта ол қайта-қайта қолданатын есептелген «кері психология» стиліндегі айлалы PR қадамы еді. Өз туындысының ең нашар сценарийлеріне тым қатты алаңдау арқылы Альтман өз сыншыларын немесе Лессин сияқты журналистерді қарусыздандыра алатын. Оған қарсы айтар ештеңе қалмады, өйткені ол бәрін өзі айтып қойған еді. Ол тым адал көрінді — бірақ әлсіздерді аңду үшін қолданылатын қосымшаны жауып тастау бұдан да адалырақ болар еді.

Соңында тұтынушылар мұны оның орнына жасады. Альтман адамдардың басқалармен кездесу үшін өздерінің GPS координаттарын бөлісуден қаншалықты ыңғайсыздық сезінетінін дұрыс есептемеген еді. «Мен адамдарды өздері қаламайтын нәрсені істеуге мәжбүрлей алмайтыныңызды түсіндім», — деп айтатын ол кейіннен.

Арықша келген жас кәсіпкер жиырмасыншы жылдарының көп бөлігін Loopt-ты дамытуға тырысып, еш нәтижесіз өткізді. Ол iPhone-ның жаңа хабарландыруларын (push notifications) адамдарды Loopt чатын пайдалануға итермелеу үшін қолданды. Жарнама берушілерге Loopt пайдаланушыларына «жедел жеңілдіктер» жіберуге көмектесті. Ол әрбір жаңартуды үлкен табыс ретінде көрсетіп сөйлейтін. «Жауап керемет болды», — деді ол 2010 жылғы бір сұхбатында. Бірақ бұл негізінен бос сөз еді. 2012 жылға қарай бүкіл әлем бойынша Loopt-ты тек бірнеше мың адам ғана тұрақты пайдаланды. Империя құру туралы арман осымен бітті. Технологиялық стартаптардың басым көпшілігі сияқты Loopt та сәтсіздікке ұшырады.

Технологиялық стартаптар әлемінде негізін қалаушының түпкі мақсаты — өз идеясын миллиард долларлық компанияға айналдыру немесе фирмасын ірірек ойыншыға сатып, миллиард долларлық табыспен шығу. Тәуелсіз қалу қиындап бара жатты және көбі Google немесе Facebook сияқты технологиялық алпауыттарға жұтылып жатты. Егер негізін қалаушы мұны жүзеге асыра алса, ол түскен қаражатты жаңа фирма ашуға жұмсап, «сериялық кәсіпкер» ретінде циклды қайта бастайтын. Бірақ Loopt-тың аяқталуы онша керемет болмады. 2012 жылы Альтман оны сыйлық карталары компаниясына шамамен 43 миллион долларға сатты, бұл сома инвесторлар мен оның қызметкерлерінің алдындағы берешекті әрең жапты.

Ол сол жерде Кремний алқабын тастап кете алар еді, бірақ Loopt-тың құлдырауы оны мағыналырақ бірдеңе жасау керек деген нық сеніммен жігерлендірді. Ол сәтсіздіктің күлінен үлкен амбицияларды тапқан алғашқы техно-бүлікші емес еді. Шамамен он жыл бұрын Илон Маскты директорлар кеңесі PayPal-дан шығарып жіберген еді. Бұл тәжірибеден сабақ алған Маск тұтынушылық төлем қызметі сияқты беткі қабаттағы нәрсемен жұмыс істеуден шаршағанын түсінді. «Менің келесі компаниям ұзақ мерзімді пайдалы әсерге ие болуы керек», — деді ол сұхбат берушіге. Бірнеше жылдан кейін ол дәл солай істеді. Маск Тесла негізін қалаушыларымен кездесіп, адамзатты климаттың өзгеруі атты экзистенциалды қауіптен құтқарумен айналысты.

Егер сіз Сан-Францискодағы эксклюзивті Battery Club-тың ішінде отырған адамдар тобына смартфон лақтырсаңыз, ол әлемді құтқаруға тырысып жатқан кем дегенде үш адамға тиеді. Кремний алқабының көптеген кәсіпкерлері өздерінің қосымшалары адамзатты жоғарылатады деп сенді. Кейбіреулері шынымен де миллиондаған адам пайдаланатын пайдалы өнімдер жасағанымен, басқаларында «мессиялық кешен» (құтқарушы сезімі) дамыды. Аймақтың инновацияға баса назар аударуы Грэмнің «негізін қалаушы бәрін біледі» деген қағидаларымен нығайтылған осы «құтқарушы мәдениетін» кеңінен таратты. Егер сіз инновациялық хакерлердің озық өкілі болсаңыз, сіз тек инженерлік мәселелерді ғана емес, сонымен бірге адамзатты жылдар бойы мазалап келген әлеуметтік жұмбақтарды да шеше алатындай болдыңыз.

Альтман Loopt адамдарды біріктірсе екен деді, өйткені оларға дәл осы қажет еді. Біз бәріміз экрандарымызға байландық, мағынасыз айналдырып (scrolling), әртүрлі әлеуметтік желілерге «лайк» шашып, адамдар арасындағы байланыстың барған сайын цифрланған түрін жасадық. Оған мағыналырақ бірдеңе жасау керек болды. Мүмкін, Альтман адамдарға өздерінің нені қалайтынын білмейтін нәрсесін беруі керек шығар. Apple мұны жылдар бойы сәтті жүзеге асырып келді және Кремний алқабында бұл — бәрі ашқысы келетін құпия еді.

Сент-Луистің тумасы стартаптар құру әлеміне қайта үңіліп, Кремний алқабының желілеріне соншалықты терең енуі керек еді, сонда ол әлемді өзгертеміз деп жариялаған компаниялармен синонимге айналар еді. Ол өзін ескі тәлімгерлерінің одан да тереңірек нұсқасына айналдырып, содан кейін Стэнфордтағы ЖИ зертханасында ойлаған дүниелеріне қайта оралар еді. Бұл оны бұдан да ауқымды мақсатқа жетелейтін еді: адамзатты жақындап келе жатқан экзистенциалды қауіптен құтқару және содан кейін оларға бұрын-соңды болмаған мол байлық әкелу.

2-ТАРАУ Жеңіс, Жеңіс, Жеңіс

Шыңғырған дауыстар, «американдық төбешіктердің» гүрілі және жәрмеңке мүшесінің дыбысы 1994 жылғы Theme Park компьютерлік ойынының басталғанын білдірді. Пиксельді шөппен қапталған үлкен бос алаң алып гамбургерлер пішініндегі тамақ дүкендерімен және аспанға тірелген рельстермен толуды күтіп тұрды. Мақсат — мүмкіндігінше көп пайда табу еді.

Theme Park ойынын балаларға бизнес қағидаларын үйретуге құмар орта жастағы ойын дизайнерлері емес, Солтүстік Лондоннан келген Демис Хассабис (Демис Ха-СА-бис деп оқылады) есімді қара шашты жасөспірім жасаған. Оның Кремний алқабының кәсіпкеріндей еңбекқорлығы болды және ол ойын ойнауға құмар еді. Хассабис әлемдегі ең ақылды ЖИ жүйелерін құру жарысында көшбасшы болғанға дейін бірнеше жыл бұрын ол симуляция арқылы бизнесті қалай жүргізу керектігін үйренді.

Симуляция — нақты әлемдегі жағдайларды немесе процестерді компьютерлік модель көмегімен жаңғырту. Бұл оның өмірлік жұмысында және адамдардан ақылдырақ машиналар жасау жолындағы басты тақырыпқа айналады.

Theme Park ойынында сіз аттракциондардың құрылысына және қызметкерлердің жалақысына төлеу үшін шамамен 200 000 доллар ақшамен бастайсыз. Сіз бұл ақшаны билеттерді, кәдесыйларды, балмұздақтарды және ойындарды сату арқылы қайтарасыз. Егер сіз механиктерді жеткілікті жалдамасаңыз, аттракциондар бұзылады; күзетшілер аз болса, саябақты бұзақылар басып алады. Қантты үнемдесеңіз, келушілер балмұздақтан бас тартады. Қызметкерлер ереуілге шығады, ал жалақы бойынша келіссөздер жүргізіледі. Ол кезде Хассабис небәрі он жеті жаста болса да, шығын мен табыстың бұл күрделі теңгерімін бизнес-менеджменттің өте күрделі имитациясы ретінде жасап шықты және ол ойынды соншалықты тартымды етті, сондықтан 1994 жылы шыққаннан кейін 15 миллион данасы сатылды.

Видео ойындар Ұлыбритания мен АҚШ-қа үлкен толқын болып келіп, балаларды «Тасбақа-ниндзялар» деңгейлерден өткен немесе сіз пикапты ауыр жолдармен жүргізе алатын жарқын дофамин әлемдеріне тартты. Бірақ Хассабистің ойынша, ең жақсы видео ойындар шынайы өмірдің микрокосмосы (шағын үлгісі) ретінде әрекет ететін симуляциялар болды. «Құдай ойындары» сізге жарату және жою күшін иеленуге мүмкіндік беретін. Марио сияқты бір кейіпкерді басқарудың орнына, сіз мыңдаған виртуалды кейіпкерлердің өмірін қалыптастырып, ландшафттарды жасап немесе өркениеттің ілгерілеуін басқаратынсыз. Сіз қала тұрғызып, содан кейін оны табиғи апатпен соққыға жыға алар едіңіз немесе тақырыптық саябақты жүздеген келушілермен толтыра алар едіңіз.

Бұл технологияның көмегімен тек көңіл көтеріп қана қоймай, бизнесті басқарудан бастап ғаламның құпияларына дейінгі көптеген нәрсені үйренуге болатын еді. Ойындардың ойын-сауықтық құндылығына қарамастан, Хассабисті уақыт өте келе адам санасының құпияларын ашуға көмектесетін жасанды супер интеллект (адам зиятынан еселеп асатын компьютерлік жүйе) жасау туралы асқақ арман баурап алды.

Ғаламның құпияларын түсінуге деген бұл талпыныс көптеген ғалымдардың мақсатынан асып түсетін. Хассабистің богемалық шығармашыл отбасындағы жалғыз математикалық данышпан болып өскенін ескерсек, бұл таңсық көрінбеуі мүмкін. Оның анасы Анджела — Сингапурдан Ұлыбританияға қоныс аударған тақуа баптист, ал әкесі Костас Хассабис — Солтүстік Лондондағы Анджела тұрған үйдің иесі, еркін ойлы грек-киприот болған. Бұл екеуі бір-біріне мүлдем сай келмейтін жандар сияқты көрінгенімен, олар үйленіп, үш бала сүйді, олардың тұңғышы — Демис. Костас мұғалімдік пен ойыншық дүкенін басқару сияқты әртүрлі жұмыстардың басын бір шалып, Хассабис он екі жасқа толғанша отбасын он рет көшірді.

Ол кездің өзінде Демистің басқа балалардан ерекше екені байқалатын. Ол төрт жасында әкесі мен ағасын шахматтан ұта бастаған, ал алты жасында жергілікті шахмат чемпионаттарында өзімен қатарлас балалардың көбін жеңіп жүрді. Тақтаға бойы жетпегендіктен, жастыққа немесе телефон анықтамалығының үстіне отырып ойнайтын. Ол кітапты судыратып оқитын және бәріне қызығатын, бірақ Хассабис өз ақыл-ой қуатын негізінен ойындарға жұмсады. Әкесі үйге бөлшектері жетіспейтін үстел ойындарын әкелгенде, ол сол бөлшектерді пайдаланып жаңа ойындар ойлап тауып, қарындасымен және інісімен ойнайтын.

Бірақ нағыз қызық әлі алда еді. Сэм Альтман 1990 жылдары AOL чаттарын тапқаннан он жыл бұрын, Хассабис қара экрандағы ірі пиксельдерден тұратын қарапайым технологияға бас қойды. 1984 жылы, сегіз жасында, Хассабис шахмат жарысында ұтып алған ақшасына ZX Spectrum 48 компьютерін сатып алды. Бұл алғашқы дербес компьютерлердің бірі еді: теледидарға қосылатын қалың қара пернетақтадан тұратын және экранда түрлі-түсті графиканы көрсету үшін кассеталарды қолданатын.

Хассабис бағдарламалау кітаптарын сатып алып, Spectrum үшін ойындар жасауды өз бетінше үйренді. Ұйықтар алдында ол есептеулерді түні бойы жұмыс істейтіндей етіп қойып қоятын. Келесі күні таңертең есептеулер дайын болатын. Хассабис үшін бұл үлкен жаңалық болды. Ол өзінің когнитивтік еңбегін (ойлау, тану және есте сақтау сияқты ми қызметіне негізделген жұмыс) Spectrum-ға жүктеді. Компьютер оның санасының жалғасы сияқты әрекет етті.

Ол бағдарламалаудың қызықты әлеміне кіріп кетті де, қуаттырақ Commodore Amiga 500-ге ауысты. Бұл тышқаны мен мониторы бар ақ түсті құрылғылар жиынтығы еді. Ол мектептегі достарымен бірге хакерлік клуб ашты. Олар өздері ойнаған ойындардағы көріністерді қайталайтын кодтар жазатын және Хассабис әрдайым күрделірек дүниелер жасап, достарынан озып кетуге тырысатын. Ол компьютерін бөлшектеп, қайта жинайтын. Тіпті цифрлық шахмат ойынын жасап, оны інісі Джорджбен ойнайтын болды.

Шахмат әлі де оның өмірінің басты назарында еді және Хассабис әлем чемпионы болуды армандады. Анасы оның бұл талпынысын қолдап, шахматқа көбірек уақыт бөлуі үшін оны үйде оқытуға көшірді. Мектеп демалыстарында ол түрлі шахмат турнирлеріне қатысу үшін саяхаттап жүрді, жұмыс тынымсыз болды. Хассабис кейінірек ойындарды «ақыл-ой жаттығу залы», ал шахматты «ең жоғарғы деңгейдегі жаттығу» деп атады. Покер Сэм Альтманға психология мен бизнесті үйретсе, шахмат Хассабиске мақсатты соңынан бастап жоспарлау арқылы стратегия құруды үйретті. Яғни, мақсатты көз алдына елестетіп, соған жету үшін кері бағытта жұмыс істеу.

Бірақ Хассабис он бір жасында Лихтенштейндегі шахмат чемпионатында жүргенде бәрі өзгерді. Ол Данияның ұлттық чемпионына қарсы ойнап жатты және матч марафонға айналды. Он сағаттық ойыннан кейін, шаршаңқылықтан милары қатып қалған кезде, даниялық ойыншы тең ойынға (патқа) мәжбүрлеуге тырысты. Жас Хассабистің әлі де патшасы мен уәзірі болған, бірақ қарсыласының патшасы, ладьясы, пілі және аты артықшылыққа ие еді. Хассабис қатты шаршап, мат болатынына сенімді болды. Сөйтіп, ол жеңілгенін мойындады.

Дания чемпионы таң қалды. «Неге берілдің? » — деп сұрады ол.

Ол Хассабиске тең ойын жасауға болатын жүрісті көрсетті. Хассабис тақтаға қарап қатып қалды. Кейде сәтсіздік үлкен амбицияларға жол ашады. Егер сіз жеңілуге төзе алмасаңыз, үлкенірек сыйлыққа ұмтылу жұбаныш болуы мүмкін. Хассабис орасан зор күш жұмсап, сәтсіздікке ұшыраған еді. Ол бөлмедегі шахмат данышпандарының тақтаға үңіліп, ойланып отырғанына қарап, бұл турнирдің ақыл-ой қуатын босқа жұмсау екенін түсінді. Бұлар әлемдегі ең үздік стратегиялық ойшылдар еді. Егер олар маңыздырақ мәселелерді шешумен айналысса ше? Ол сол кезде он төрт жасқа дейінгілер арасында әлемдегі екінші үздік шахматшы болды, бірақ бұл бәрібір тек ойын еді.

Хассабис ата-анасына шахмат турнирлеріне баруды тоқтатқысы келетінін айтып, мектепке қайта оралды. Ол сабырлы, сезімтал бала еді, Энияны тыңдайтын және оның «Watermark» әнін пианинода ойнауды өз бетінше үйренді. Оның сүйікті фильмі «Blade Runner» болды. Бұл — адамдардан айнымайтын роботтарды аулайтын детектив туралы ғылыми-фантастикалық фильм. Ол фильмнің ең әсерлі сәттеріне қатты тебіренетін. Фильмнің соңғы көрінісіндегі Вангелистің музыкасын қайталап тыңдай беретін, онда кейіпкер өзінің естеліктерінің «жаңбыр астындағы көз жасындай уақыт ішінде жоғалып кететініне» өкінеді.

Жексенбі күндері анасы Хассабис пен оның бауырларын үнемі Солтүстік Лондондағы Хендон баптист шіркеуіне апаратын. Бұл төбенің басында орныққан, сұр тастан салынған зәулім ғимарат еді. Бұл жер халықаралық орта болатын: мұнда Филиппиннен, Ганадан, Франциядан және Үндістаннан келген сенушілер жиналатын. Хассабис сияқты жартылай киприот, жартылай сингапурлық бала үшін бұл ортаға сіңісіп кету оңай болды. Жексенбілік жиындар Англия шіркеуінің ресми рәсімдеріне қарағанда әлдеқайда жанды өтетін. Адамдар қолдарын көтеріп, барабан мен ансамбльдің ырғағымен ән айтатын. Пастор догмалардан гөрі басқаларға құрметпен қарауға басымдық беретін. Дұғалар өте әсерлі еді.

Баптистер Америкадағы ең ірі христиандық бағыттардың бірі болғанымен, Ұлыбританияда олардың саны аз еді. Англия шіркеуіне бір миллион адам тиесілі болса, баптистердің саны шамамен 150 000 болатын. Бірақ дін мен Құдай ұғымы Хассабисті қатты қызықтырды және ол Құдайды ғылыми жолмен табуға бола ма деп ойланды. Он алты жасында, мектепті екі жыл ерте бітіріп, Нобель сыйлығының лауреаты, физик Стивен Вайнбергтің «Dreams of a Финал (әдеб. ) (әдеб. ) Theory» атты кітабын оқыды. Ол табиғаттың біртұтас теориясын табуға бағытталған асқақ ізденіс туралы еді. Вайнберг Эйнштейннің E = mc2 формуласы энергия мен масса арасындағы байланысты түсіндіргені сияқты, ғаламның барлық негізгі күштерін бір теңдеулер жиынтығымен түсіндірудің жолы бар деп сенді. Идеалды жағдайда бұл «Бәрінің теориясы»[/ТЕРМ] (ғаламдағы барлық физикалық заңдылықтарды бір формуламен түсіндіретін гипотетикалық теория) бір бетке немесе тіпті бір теңдеуге сыятындай ықшам болуы керек еді.

Ғалымдардың бұл мәселеде ілгерілей алмағанын білгенде, Хассабис таң қалды. Оларға көмек керек, деп ойлады ол. Оларға ақыл-ой қуаты қажет. Мүмкін мен көмектесе алармын? Хассабис өзі ұйықтап жатқанда түні бойы есептеулер жүргізетін Commodore Amiga компьютеріне қарады. Мүмкін ақылдырақ компьютер көмектесе алар? Егер ол компьютерлерді зияткерлік тұрғыдан жетілдіріп, өз санасының қуатты жалғасына айналдырса, бәлкім, олар ғалымдарға ғалам туралы күрделі сұрақтарды шешуге, тіпті илаһи бастауды ашуға көмектесер.

«Бұл керемет, супер-шешім сияқты көрінді», — деп түсіндірді Хассабис кейінірек New York Times жазушысы Эзра Кляйнге берген сұхбатында. Ол университетте физиканы оқуды ойлаған еді, бірақ Вайнбергтің кітабынан кейін ауқымдырақ нәрсеге ұмтылу керек деп шешті. Егер ол компьютерлік ғылымдар мен жасанды интеллект саласын зерттесе, ол ең үздік ғылыми құралды жасап, адамзаттың жағдайын жақсартатын жаңалықтар аша алар еді. Хассабис ойындарға деген құмарлығынан арыла алмады, сондықтан ол екі бағытты біріктірудің ұзақ мерзімді жоспарын жасады. Ең бастысы — шынайы әлемді имитациялайтын ойындарға назар аудару болды. 1980 жылдардың соңындағы ойындар тұтас бір өркениеттің қарапайым ерекшеліктерін көрсете алатын еді. Егер компьютер әлемнің барлық бөлшектерін дәл бере алса, мүмкін жоғары зияткерлік компьютер шынайы әлемнің ақауларын жою жолдарын да таба алар — симуляцияда не істеу керектігін анықтап, оны шынайы өмірде қолданар.

Хассабис «құдай ойындарынан» (god games) шабыт алды, оның сүйіктісі «Populous» болды. «Мені оларда қызықтырғаны — олардың тірі әлем болуы және ойынның сіздің қалай ойнағаныңызға қарай дамуы еді», — дейді ол. «Сіз әлемнің бір бөлігін құмсалғыш (ойыншыға еркін әрекет етуге мүмкіндік беретін виртуалды орта) ретінде модельдеп, сонда еркін әрекет ете аласыз».

Ойынның ескі пиксельді графикасы оның күрделілігін жасырып тұрғандай еді. Ойыншы ретінде сіз үйлерге толы жасыл алқаптың құдайы болдыңыз және өз тұрғындарыңызды — ізбасарларыңызды — басқа құдайлардың адамдарына қарсы шайқасқа бастайтын құдіретке ие болдыңыз. Сіз жерді тегістеп, ізбасарларыңызға көбірек үй салуға жағдай жасай алатынсыз. Жер сілкінісін тудыруға да болатын. Populous құдай ойындары жанрының негізін қалады және Хассабиске бұл ойын қатты ұнағаны сонша, ол оны жасаған Bullfrog Productions компаниясында жұмыс істеуге бел байлады. Ол компанияға жұмысқа тұру үшін жарысқа қатысып, жеңіліп қалды. Сондықтан ол тікелей қоңырау шалып, бір апталық тәжірибеден өтуді сұрады. Олар келісті және оны ұнатып, он бес жасында жазғы жұмысқа шақырды.

Көп ұзамай Хассабис он алты жасында Кембриджде компьютерлік ғылымдар мамандығы бойынша оқуға жолдама алды. Бірақ университет оның тым жас екенін айтып, кем дегенде бір жыл күтуді ұсынды. Сондықтан ол бұл уақытты тағы да Bullfrog-та өткізді. Оған жалақы қолма-қол ақшамен төленетін және ол Гилфордтағы кеңсе маңындағы жатақханада тұрды. Хассабис ойын сынаушы болып бастап, тез арада Bullfrog негізін қалаушы Питер Молиньенің тікелей қол астында деңгейлер дизайнері қызметіне көтерілді.

Тақырбас, қара поло жейде киген Молинье ойын әлемінің аңызынан гөрі сырахана иесіне көбірек ұқсайтын. Жылдар өте келе ол жобаларды шамадан тыс асыра жарнамалау әдетімен танымал болды. Ол ойын мүмкіндіктері туралы асқақ уәделер беретін. Мысалы, өзінің «Fable» ойынында ойыншылар виртуалды әлемге емен жаңғағын егіп, бірнеше күннен кейін оның ағаш болып өскенін көре алатынын айтқан. Бірақ бұл шындыққа жанаспайтын.

Дегенмен Молиньенің саланы алға сүйрейтін үлкен идеялары болды. Сол кезде ол Populous-тың табысына кенеліп жүрген еді. Тәжірибелі кәсіпкерге Хассабис ерекше қызығушылық танытатын, тіпті өзінен үлкендердей ойлайтын жас болып көрінді. Жас данышпан бастығын Bullfrog ойындарының техникалық шектеулері туралы сұрақтармен қойып қалмайтын. Молиньенің есінде қалуынша, ол кейбір қарапайым бағдарламалық жүйелерді неге «жасанды интеллект» деп атайтындарын сұрайтын болған.

«Оған қаншалықты қиын тапсырма болса да, кедергі болып көрінбейтін», — дейді ол. Bullfrog негізін қалаушы ойын-сауық саябағы туралы симуляциялық ойын жасағысы келгенде, оның барлық қызметкерлері бас тартып, соғыс ойындарын қалаған. Хассабис болса, кейіннен аттракциондар мен тағам дүңгіршектеріне толы «Theme Park» әлемін жасауға ерікті болды. Молинье Хассабиске тәлімгер болып, екеуі жаңа ойынды бірге жобалады. Код жазу мен ойын процесін жобалау арасында олар жиі жасанды интеллекттің мүмкіндіктері туралы сөйлесетін. Хассабис бастығына ЖИ он жылдан кейін адамнан асып түсіп, саналы деңгейге жететініне сенетінін айтқан.

«ЖИ-дің болашағы қол созым жерде тұрғандай сезілетін», — дейді аға ойын дизайнері. «Біз жиі талқылайтын тағы бір философиялық сұрақ: „Неге тек адамдар ғана жаңа нәрсе жасауы керек? Неге шығармашылық жүкті ЖИ-ге жүктемеске? “ болатын». Олар болашақта ЖИ-дің музыка мен поэзия жазып, тіпті ойындарды жобалайтынын елестетті.

Әзірге олар Theme Park-қа шынайылық беру үшін ЖИ деп атауға әрең келетін жүйелерді қолданды. Машиналық оқыту әдістері оларға екінші пландағы кейіпкерлерге мінез-құлық беруге мүмкіндік берді: кейбір келушілер ақшаны тез жұмсаса, басқалары үнемшіл болды. Ойын хитке айналды. Populous бес миллион данамен сатылса, Theme Park одан үш есе көп сатылды.

Бұл Хассабисті Кембриджге келгенде танымал етті. Ол Молиньенің Porsche 911 көлігін сұрап алып, студенттерге әсер қалдыру үшін кампуста айдап жүрді. Бұрынғы демалыстарын тек шахматпен өткізсе, университеттің бірінші жылын нағыз демалыс ретінде өткізді: түнде достарымен қыдырып, таңертең төсекте жатып The Prodigy тыңдайтын. Колледж барында қызыл шарап ішіп, шахмат ойнап немесе Porsche-мен жарысып жүретін. Ақыры ол көлікті соғып алып, тәлімгерінен кешірім сұрауға мәжбүр болды. «Бұл оның көлікті екінші рет соғуы еді», — деп еске алады Молинье. Бірақ бұл үнемі күліп жүретін дарынды балаға ашулану қиын еді. «Ол өте сүйкімді».

Хассабис Кембриджде өзінің болашақ жақын достарын тапты. Олардың арасында Бен Коппин де бар еді. Ол кейіннен DeepMind-та өнімдерді дамыту бөлімін басқарды. Олар дін және ЖИ-дің жаһандық мәселелерді қалай шешетіні туралы көп сөйлесетін. Бірақ DeepMind-тың құрылуына әлі он жылдан астам уақыт бар еді. Алдымен ол оқуын бітіріп, қайтадан Молиньеге жұмысқа орналасуы керек болатын. Сол кезде ол өміріндегі ең қызық жұмысқа өтінімді кездестірді. Бір күні пошта арқылы шәй дағы бар, жиектері күйдірілген және каллиграфиямен жазылған хат салынған бөтелке келді. Хат иесі оның «Корпорейт» деп аталатын аралда кеме апатына ұшырағанын жазған. Хассабис бұл сезімді бірден түсінді, өйткені ол да алып корпорацияның ішінде тер төгуді жек көретін.

Хат жіберуші — Джо Макдонах, ойындарды жақсы көретін British Telecom корпорациясының бағдарламашысы еді. Джо ойын компаниясында жұмыс істеуді қатты армандады және оны Молиньенің үйіне сұхбатқа шақырды. Ол келгенде, есікті қара шашты, сақал-мұрты алынбаған жас жігіт ашты. Бұл Хассабис еді, ол жиырма бір жаста болса да, әлдеқайда жас көрінетін. «Мен: „Бұл бала кім? “ — деп ойладым», — дейді Макдонах. Хассабис ол кезде ойын фирмасының басшысы және оны жұмысқа қабылдайтын адам болып шықты.

Макдонах көп ұзамай өзі сияқты ойынға құмар, бірақ өте бәсекеге қабілетті жанмен кездескенін түсінді. Макдонах оригамиді ұнататынын айтқанда, Хассабис оны қағаздан тырнаны кім тез жасайтынына жарысуға шақырды. Хассабис жеңіп кетті. Содан кейін олар түс ауа үстел ойындарын ойнады. Кейінірек Макдонах жұмыс туралы хабарласқанда, оны сұхбаттастырған жас жігіттің компаниядан кетіп қалғанын білді. Хассабис кетті, өйткені оның тәлімгері жас жігіттің техникалық амбицияларына ілесе алмады. «Біз ол үшін тым баяу қозғалдық», — дейді Молинье.

Макдонах Хассабистің нөмірін тауып алып, не болғанын сұрады. «Мен жаңа компания ашып жатырмын», — деп түсіндірді ол. Ол Elixir Studios деп аталатын болды және оның негізінде әлемді имитациялауға қолданылатын ең заманауи ЖИ технологиясы бар «құдай ойыны» тұруы керек еді.

Бұл өте өршіл жоспар еді. Макдонах келісті. Ол Elixir-ге қосылып, жаңа әлемдерді ойлап табатын жетекші дизайнер болды. Өз тәлімгерінен жарнама өнерін үйренген Хассабис баспасөзге өз мақсаттары туралы батыл мәлімдемелер жасады. Ол тоқсаныншы жылдардағы танымал Edge журналының мұқабасына шығып, ойындарды жасөспірімдердің ермегінен шығарып, маңызды медиаға айналдыратынын айтты. Ол «The Economist» оқырмандары да ойнағысы келетіндей ақылды дүние жасағысы келді. «Мен ойындардың кітаптар мен фильмдер сияқты маңызды орта бола алатынын көрсеткім келді», — дейді Хассабис. Ол ұзақ мерзімді жоспар құрды: Elixir табысты болған соң, оны сатып, ЖИ компаниясын ашу.

Ол «Republic: The Revolution» деп аталатын флагмандық ойынды жасауға назар аударды. Бұл Шығыс Еуропадағы ойдан шығарылған тоталитарлық елде үкіметті құлату керек болатын саяси симуляция еді. Хассабис бәрінің шынайы болғанын қалады. Макдонах шынайы оқиға құрастыру үшін Британ кітапханасында Кеңес Одағының тарихын зерттеп, сағаттарын өткізді. Хассабис техникалық жағымен айналысты: ол ойынға миллион виртуалды адамды сыйғыза алатын ЖИ әдісін жасауды қадағалады. Бұл сол кездегі ойындар үшін (лимиті 1000-2000 адам) өте үлкен көрсеткіш еді. Ол ойыншылардың қаланың спутниктік кескінінен көпқабатты үйдің балконындағы гүлге дейін жақындата алғанын қалады.

Шахматтан бұрынғы чемпион Оксфорд пен Кембридждің ең ақылды бағдарламашыларын жұмысқа алды. Ол командалық рухты нығайту үшін оларға ойын ойнауға барлық жағдайды жасады. Ол Starcraft-тан бастап стратегиялық Diplomacy ойынына дейін бәрінде мықты болды. Үстел футболы (кикер) нағыз шайқасқа айналатын. Хассабис өзінің фирмалық соққысын пайдаланып, допты қақпаға тоғытатын. Ал нағыз футбол алаңында ол Elixir командасының шабуылшысы болды. Жергілікті футболшыларға қарсы ойнағанда, Хассабис өзінен екі есе үлкен ойыншыларға қарсы аяусыз ойнап, жиі гол соғатын.

Ойынды тапсыру мерзімі жақындағанда, бағдарламашылар таңғы 10:00-ден келесі таңғы 06:00-ге дейін жұмыс істейтін. Олар жұмыс орнында, қолдарында геймпадтармен ұйықтап қалатын. Ол кезде көңіл көтеруге уақыт болмады және Хассабис миының жұмысына кедергі келтірмеу үшін ішімдіктен мүлдем бас тартты.

Оның Republic ойынының графикасы мен ЖИ технологиясына деген амбициялары ақылға сыйымсыз еді. Ол сол кездегі компьютерлердің мүмкіндігінен әлдеқайда озық дүние жасап жатты. Ол виртуалды елді мыңдаған тірі адамдармен толтырғысы келді. «Мен адамдардың экранда кездейсоқ жүрген нүктелер болғанын қаламадым», — деді Хассабис Edge журналына. «Мен әрқайсысының өз өмірі бар күйеулерді, студенттерді, үй шаруасындағы әйелдер мен маскүнемдерді көргім келді».

ЖИ-дің сиқырлы мүмкіндіктерін көрсетудің ойыннан артық жолы болмаған еді. Ол кезде ЖИ саласындағы ең озық зерттеулер ойын индустриясында жүріп жатты. Бұл эмерджентті геймплей (алдын ала сценарий бойынша емес, ойын жүйелерінің өзара әрекетінен өздігінен туындайтын ойын процесі) деп аталатын жаңа стильді қалыптастырды. Super Mario Bros сияқты белгілі бір бағытпен жүрудің орнына, сіз виртуалды әлемнің ортасына тасталасыз да, қолыңызға құрал беріп, өз бетіңізше өмір сүруге қалдырады. Бұл Grand Theft Auto мен кейіннен тарихтағы ең көп сатылған ойынға айналған Minecraft-тың негізгі мәні еді.

Хассабис өзін дұрыс бағытта келе жатырмын деп есептеді, бірақ бір мәселе туындады. Republic: The Revolution ойыны іш пыстырарлық болып шықты. Бұл ойын дизайнері үшін түсуі мүмкін ең нашар тұзақ еді. Команда бес жылдық әзірлеу уақытының төрт жылын технологияға соншалықты көп жұмсағаны сондай, геймплейдің (ойын процесінің механизмі) өзін жетілдіруді ұмыт қалдырды. Керемет компьютерлік ойын жасау тұрақты итерацияны (нәтижеге жеткенше бір әрекетті қайталау) талап етеді. Әдетте, қарапайым, бірақ ойнауға болатын нәрседен бастап, оны жақсарғанша мыңдаған рет ойнап көру керек. Бірақ Elixir ойын жасаушылары ойынды қызықтырақ етуге қажетті уақытты бөле алмады, өйткені бастықтың технологияға деген үміті тым жоғары болған еді.

«Видео ойынның негізі — иммерсивтілік (ойын әлеміне толық ену сезімі) пен әсер алу,» — деп еске алады МакДонах. «Republic-те бұл екеуі де болған жоқ. Біз технологиялық қара құрдымда тұрып қалдық. » Elixir бағдарламашылары ойынның жеткілікті деңгейде емес екенін білді. Ойын жарыққа шыққанда, сыншылар олардың ең жаман күдіктерін растап, оның тым күрделі екенін айтып, әртүрлі пікірлер білдірді. Сатылым көлемі де мәз болмады.

«Ол өз уақыты үшін тым өршіл жоба болды,» — деп мойындайды Хассабис. «Мен технологиялық және көркемдік мәлімдеме жасауға асықтым. »

Бұл оның Elixir-ді қайтадан сынап көруіне кедергі болмады. Ол Evil Genius деп аталатын тағы бір өршіл «құдай ойынын» шығарды, онда ойыншылар әлемді бағындыруға тырысатын Джеймс Бонд стиліндегі зұлым кейіпкердің рөлін сомдады. Ойында ақылды, астарлы әзілдер болды, бірақ ол да жаппай табысқа жете алмады. Хассабис Evil Genius 2 арқылы жағдайды жақсартуға тырысқанда, оның технологияға салған барлық инвестициялары үлкен шығындарға әкелді. 2005 жылы ойын әлемінің шекарасын кеңейткісі келген дарынды бала Elixir-ді жауып тынды. Бұл сәтсіздік оны қатты күйзелтті. Шахматтан бастап, үстел футболы мен мектепке дейін, ол өмірінде барлық нәрседе жеңіске жетіп үйренген еді.

Британдық ойын индустриясының реакциясы бұл масқараны одан әрі ушықтырды. Ол баспасөзде және ойын индустриясында Elixir-ді жаңа технологиялармен ескі ойын тәсілдерін өзгертетін жаңашыл компания ретінде шебер жарнамалаған болатын. МакДонах бір конференцияға қатысып, Elixir-де жұмыс істегенін айтқанын еске алады. Мұны естіп қалған британдық ойын индустриясының белді өкілі жай ғана күле салғанда, МакДонах жерге кіріп кете жаздады. «Сәтсіздікті қабылдау өте қиын болды,» — дейді ол.

Бір сәтте МакДонах пен Хассабис компанияның күйреуіне байланысты айқайласып қалды, бұл оның әдетте сабырлы кәсіпкердің дауыс көтергенін бірінші және соңғы рет естуі еді. «Бұл өте ауыр болды,» — дейді ол. «Бәріміз Оксфорд пен Кембриджден келгенбіз. Әрқашан жеңіске, жеңіске, жеңіске жетіп үйренгенбіз. Бұған дейін ешқашан жеңіліп көрмеген едік, оның үстіне бұл жеңіліс бүкіл елдің көз алдында болды. »

Адамдарға жасанды интеллекттің (ЖИ) сиқырын көрсетуге құштарлығымен, Хассабис өзінің нағыз құмарлығының төңірегінде ойын құруға тырысып, үлкен қателік жіберді. Егер ол адамнан ақылды машиналар жасамақ болса, бұл стратегияны керісінше өзгертуі керек еді. Оған жасанды интеллектке тереңірек үңілу қажет болды және жақсы ойын жасау үшін ЖИ-ді қолданудың орнына, жақсы ЖИ жасау үшін ойындарды қолдану керек еді.

Бірнеше жылдан кейін, отыздан асқан шағында МакДонах тағы да ескі бастығынан телефон арқылы жаңа жұмыс туралы ұсыныс алды. «Мен DeepMind (Лондонда орналасқан ЖИ зерттеу зертханасы) деп аталатын компания ашып жатырмын,» — деді қиындықтан қашпайтын өршіл кәсіпкер.

Мұны қайтадан бастай алмаймын, деп ойлады МакДонах. Ол: «Жоқ,» — деді.

Кейін ол Хассабистің тағы бір мүмкін емес дерлік өршіл мақсаттың соңынан түсіп, Сэм Альтман пайда болғанға дейін әлемдегі ең озық жасанды интеллект жүйелерін құру жолындағы күткеннен де асып түскен табыстарын таңданыспен бақылады.

3-ТАРАУ

Адамзатты құтқару

2006 жылдың ыстық жазғы күнінде Альтман Калифорния штатындағы Маунтин-Вьюдегі студия-пәтерінің еденінде тек спорттық шортымен жатты. Ол қолдарын жайып жіберіп, дем алуға тырысты. Ол Loopt (пайдаланушылардың орналасқан жерін бөлісуге арналған мобильді сервис) бойынша келісім жүргізуге арналған марафондық демалыстың ортасында еді және іс мәз болмады. Пәтер ішіндегі температура 35 градустан (95 фаренгейт) асып тұрды. Альтман күйзелістен жарылып кете жаздағандай сезінді, бұл туралы ол 2022 жылы Art of Accomplishment подкастында айтып берген болатын.

Ол жылдар бойы өзіне бұл кәсіпкерліктің қалыпты бөлігі екенін айтып келген еді. «Мен өзімді осылай сезінуім керек,» — деп ойлады ол. «Бірақ бұл көмектеспейді. » Күйзеліс жағдайды одан сайын қиындатып жіберді.

Loopt-тың сәтсіздігі Альтманға адамдарды қаламайтын нәрсені істеуге мәжбүрлей алмайтынын үйретті. Бұл сондай-ақ жеке сабақ болды: қиын жағдайлардан эмоционалды түрде қалай алшақтау керектігін түсінді. Еденде жатқан сол сәт бетбұрыс болды. Альтман бұдан былай басқаша өмір сүрмек болды. Оның әдісі — болып жатқан жағдайға салқынқанды қарауды үйрену еді.

Loopt-ты сатып, өзінің ұзақ мерзімді серіктесі болған Ник Сивомен айырылысқаннан кейін және оны сатып алған компанияда біраз уақыт жұмыс істеген соң, Альтман бір жыл бойы қалаған ісімен айналысты. Ол бәрінен толық қол үзді. Силикон алқабының қарбалас мәдениетінде бір жыл демалыс алу жақсы нышан емес еді және Альтман оның салдарын бірден сезінді. Егер ол бір кеште біреумен сөйлесіп жатып, бір жыл демалатынын айтса, сұхбаттасушысы бірден басқа сөйлесетін адам іздей бастайтын.

Ол Y Combinator (стартаптарға инвестиция салып, оларды оқытатын бизнес-акселератор) компаниясында толық емес жұмыс күніндегі серіктес ретінде Калифорнияның Бэй-Ареа аймағымен байланысын сақтап қалды. Бұл уақытқа қарай венчурлық инвесторлар бұл бұзақы хакерлер лагеріне деген көзқарастарын өзгертіп, оны жоғары сапалы интернет-компаниялар шығаратын зауыт ретінде көре бастады. Оның бірнеше қатысушылары Reddit және Scribd сияқты танымал есімдерге айналды. Стартап негіздеушілері үшін «YC» енді Алқаптағы табысқа жетелейтін қақпа ретінде қарастырылды. Мыңдаған технологиялық негіздеушілер өтінім беріп, жыл сайын тек жүзге жуығы ғана өтетін.

Өзіне жүктеген демалыс жылының қалған бөлігінде Альтман ядролық инженериядан синтетикалық биологияға дейін, инвестициядан жасанды интеллектке дейін ондаған кітап оқып, өзінің кең ауқымды қызығушылықтарына уақыт бөлді. Ол басқа елдерге саяхаттап, хостелдерде тұрды, конференцияларға ұшып барды және Loopt-ты сатудан түскен шамамен 5 миллион доллардың бір бөлігіне бірнеше стартапқа инвестиция салды.

Ол өзі қолдаған компаниялардың барлығы дерлік сәтсіздікке ұшырағанын ашық мойындайтын, бірақ ол мұны ең табысты болуы мүмкін жобаларды анықтауға арналған «бұлшықет жаттығуы» деп санады. Ол жиі қателесудің айыбы жоқ, тек кейде «үлкен масштабта дұрыс таңдау жасасаң» болғаны деп сенді, мысалы, кейін хитке айналатын стартапты қолдап, содан кейін керемет пайдамен шығу.

Егер өмір сүру сурет салу сияқты болса, Альтман оған мүмкіндігінше кең аумақты қамту үшін ең үлкен бояу білікшесімен (валик) келді. Бірақ ол бірте-бірте жасанды интеллектке көбірек тартыла бастады. Loopt-ты сатқан кездері ол технология саласындағы достарымен бірге тауға серуендеп жүріп, жасанды интеллект зерттеулерінің болашағы туралы пікірталасқа түсті. Альтман компьютерлік жабдықтардың қуатты бола бастағанын және машиналық оқыту жүйелерінің қабілеті артқанын ескере отырып, оның өмір сүрген кезеңінде олардың оның миын қайталай алатын деңгейге жететінін болжады.

Бұл оған адамзаттың Жердегі қоректік тізбектің басындағы рөлі туралы маңызды бір нәрсені аңғартты. Егер біздің интеллектімізді компьютер арқылы модельдеу мүмкін болса, біз шынымен ерекшеміз бе? Альтманның бұл сұраққа жауабы «жоқ» болды, және бұл бастапқыда көңіл көншітпейтін ой болып көрінгенімен, ол мұны пайда табуға болатын мүмкіндік ретінде көрді. Егер адамдар онша ерекше болмаса, демек, оларды компьютерлер арқылы қайталауға, тіпті жетілдіруге болады деген сөз. Мүмкін ол мұны істей алар.

Көптеген жағынан Альтман өмірдің өзін инженерлік жұмбақ ретінде көретін Силикон алқабының ойлау жүйесіне сүйенді. Қолданбаны оңтайландыру үшін қолданылатын қадамдар арқылы кез келген үлкен мәселені шешуге болады деп сенді. Бұл ішінара инженерлердің техникалық мәселелерге жүйелі және логикалық тұрғыдан келуге дағдыланғандығынан еді, бұл тәсіл олардың білімі мен бағдарламалық қамтамасыз етуді әзірлеу кезінде терең сіңірілген. Табыс бағдарламаның қаншалықты тиімді екендігімен өлшенетін. Бұл әдістер табиғи түрде қоғам мен өмірдің басқа салаларына да таралды.

Альтманның адамдар туралы айтқанда есептеу тілін қолдануы таңғаларлық емес еді, мысалы, ол бірде журналға берген сұхбатында «біз секундына тек екі бит қана үйренеміз» деген болатын. Бит (binary digit — екілік цифр) — екілік кодтағы 0 немесе 1 түрінде көрсетілетін ақпараттың негізгі бірлігі, және бұл Альтманның адамдардың ақпаратты өңдеудегі шектеулі мүмкіндігін көрсетудің бейнелі тәсілі еді. Егер біздің миымыздың жұмыс істеу механизмін компьютерлермен салыстырсақ, компьютерлер биттерді әлдеқайда жоғары жылдамдықпен: секундына гигабит немесе терабитпен өңдей алады.

Егер Альтман адам интеллектінен асатын машина жасамақ болса, оның әрқашан ертеңгі күн үшін жұмыс істейтін Силикон алқабында қалуы керек екеніне еш күмән болмады.

«Мұнда болашаққа деген толассыз сенім бар,» — деді ол бірде. «Мұнда сіздің ең оғаш идеяларыңызды келемеждемей, байыппен қабылдайтын адамдар бар. » Силикон алқабы сонымен қатар «сен менің арқамды қасысаң, мен сенің арқаңды қасыймын» деген қағидамен жұмыс істейтін байланыс желісін уәде етті. Біреуге стартапына қаражат жинауға көмектессеңіз, олар сізге дарынды инженерді жұмысқа алуға көмектесуі мүмкін.

Саяхаттары аяқталған соң, Альтман өмір туралы ғылымдардан бастап білім беру бағдарламаларына дейінгі стартаптарға қаржылық бәс тігу үшін Hydrazine Capital деп аталатын ерте кезеңдегі инвестициялық фирмасын құрды. Ол Силикон алқабының ең ықпалды қаржыгерлерімен байланысын пайдаланды. Facebook-тің алғашқы инвесторы Пол Грэм мен Питер Тиль Альтманның қор үшін жинаған 21 миллион долларына өз үлестерін қосты. Бүгінде идеялары ғылыми фантастикамен ұштасатын жұмбақ миллиардер ретінде танымал Тиль Альтманға да, Лондондағы Демис Хассабиске де қаржылай көмек көрсетіп, қуатты ЖИ құру жолындағы басты тұлғаға айналды. Ол «PayPal мафиясының» (PayPal компаниясының бұрынғы негіздеушілері мен басшыларынан тұратын, кейін бір-бірінің жобаларына инвестиция салған ықпалды топ) мүшесі еді, оның құрамына Илон Маск пен LinkedIn негізін қалаушы Рид Хоффман да кірді.

Альтман Hydrazine ақшасының шамамен 75 пайызын Y Combinator-ды тәмамдаған компанияларға салды және бұл стратегия өзін ақтады. Төрт жылдың ішінде қордың құны он есе өсті, бұған оның элиталық байланыстар желісіне кіретін стартаптарға салған инвестициялары себеп болды. Ол өзінің алғашқы YC тобында болған Reddit-ке және Facebook негізін қалаушы миллиардер Дастин Московиц бастаған Asana бағдарламалық қамтамасыз ету компаниясына ақша салды. Алдағы жылдары бұл байланыстардың екеуі де Альтманға өте қуатты ЖИ құруға көмектесуде құнды болып шықты.

Альтман тез арада келетін қаржылық сыйақының жеке байланыстар сияқты ұзақ мерзімді құнды емес екенін түсінді. Сондықтан ол венчурлық инвестор ретінде кәсіпкерлермен қатал қарым-қатынаста болудан ыңғайсыздық сезінетін. Бұл жұмыста мүмкіндігінше аз ақшаға мүмкіндігінше көп үлесті (компаниядағы меншік құқығы) талап ету керек еді. Альтман сонымен қатар Силикон алқабының шектен тыс байлыққа ұмтылуын ұнамсыз деп санады. Ол қызықты жобалар салудан келетін даңққа көбірек қызықты. Инвестициялық жұмыстарының арасында ол өзінің мүлкін Сан-Францискодағы төрт бөлмелі үйге, Биг-Сурдағы (Калифорния) жылжымайтын мүлікке және 10 миллион доллар қолма-қол ақшаға дейін азайтты. Ол сол ақшаның пайызына өмір сүрді.

Содан кейін 2014 жылы бір күні Грэм өзінің ас үйінде отырып Альтманға сұрақ қойды: «Сен YC-ті өз қолыңа алғың келе ме? » Альтман жымиды. Грэм мен оның әйелі Джессика Ливингстонның екі кішкентай баласы бар еді және олар өте үлкен болып кеткен бағдарламаны басқарудан шаршаған болатын. Бір жағынан, Грэм сұхбат бергенде абайсызда қате сөйлеп қоятын, бұл көбінесе Алқап элитасын тек «ақ нәсілді ер адамдар» басқарады деген күдікті күшейте түсетін. Ол бірде өзінің блогында: «Кішкентай балалары бар немесе жақында балалы болуы мүмкін әйелмен стартап бастауға құлықсыз болар едім,» — деп жазған.

Грэмнің жеке беделіне нұқсан келе бастағанда, Y Combinator басқаруға тым қиын бола бастады. Соңғы жеті жылда ол 632 стартапты қаржыландырды және жыл сайын он мың өтінім қабылдап, оның тек екі жүзін ғана өткізетін. Бұрын-соңды болмаған көп стартаптар құрылып жатты және Y Combinator сұранысқа сай өсуі керек еді.

«Мен үлкен нәрсені басқаруға икемді емеспін,» — деді Грэм сол жылдың соңында конференцияда басшылықтың ауысуын түсіндіре отырып. «Сэм үлкен нәрсені басқаруда жақсы болады. »

Альтман ол кезде небәрі отызда еді, ал Грэм елуге таяп қалған болатын. Бірақ Альтман қазірдің өзінде жаңа Грэм сияқты әрекет ете бастады. Ол өзінің тәжірибесі аз тақырыптарды қоса алғанда, барлық мәселелер бойынша түсініктер мен кеңестер беретін стартап гуруына айналды. Жастығына және тек бір ғана (сәтсіз аяқталған деуге болатын) компанияны басқарғанына қарамастан, ол басқа стартаптар орындауы тиіс тоқсан бес кеңестен тұратын блог жазбасын жариялады.

Альтман қаншалықты тәжірибесіз болса да, ол Грэм мен Ливингстонға соншалықты қатты әсер еткені сонша, олар YC-тің жаңа басшыларының тізімін жасап әуре болмады. Екеуі де ол тек Альтман болуы керек деп келісті. Грэм өзінің эссесінде «Sama» (Альтманның бүркеншік есімі) барлық уақыттағы ең қызықты бес негіздеушінің бірі екенін жазып, оған ерекше бедел берді. «Дизайн мәселелерінде мен «Стив [Джобс] не істер еді? » деп сұраймын, бірақ стратегия немесе өршілдік мәселесінде «Sama не істер еді? » деп сұраймын. »

Альтман YC тізгінін ұстағаннан кейін, оның басты басымдығы ауқымды кеңейту болды. Ол бағдарламаны институтқа айналдыру бойынша жұмыс істеп, құрамына Джессика Ливингстон, Альтманның өзі және жеті Y Combinator түлегі кіретін бақылау кеңесін құрды. Ол тұрақты серіктестер санын екі есеге арттырып, тағы бірнеше толық емес жұмыс күніндегі серіктестерді, соның ішінде миллиардер инвестор Тильді қосты.

Бала кезінен іргелі ғылымға қызығатын Альтман оның жетістіктері адамзатқа көмектесу және байлық жинау үшін маңызды деп сенді. Сондықтан ол күрделі ғылыми және инженерлік мәселелерді шешетін көбірек «hard-tech» (күрделі аппараттық технологиялар) стартаптарын тартуға көңіл бөлді. «Бұл жай ғана маған ұнайтын іс,» — деп еске алады ол бүгінде. «Және мен құнды деп санайтын нәрсе жолында ақша жоғалтуға қарсы емеспін. Біздің ең үлкен сын-қатерлерімізге қарсы тұруымыз маңызды деп ойлаймын. Олар үлкен тәуекелдерді талап еткенімен, кез келген әлеуетті қайтарым соған сәйкес болады. »

Осы уақытқа дейін YC негізінен табысқа жету жолдары болжамды тұтынушылық қолданбалар мен корпоративтік бағдарламалық қамтамасыз ету компанияларын қабылдап келген еді. Бірақ Альтман бұл компаниялар әлемді өзгертеді деп ойламады. Сондықтан ол өздігінен басқарылатын автокөлік стартапы Cruise-дың негіздеушілерін, сондай-ақ Редмондта (Вашингтон штаты) орналасқан ядролық синтез (жеңіл атом ядроларының қосылуы арқылы орасан зор энергия алу процесі) стартапы Helion Energy-ді YC бағдарламасына қосылуға көндірді.

Ядролық синтез екі жеңіл атом ядросы қосылып, ауыр ядро түзілгенде энергия бөлінген кезде пайда болады. Бұл күн мен жұлдыздарға, сондай-ақ «Болашаққа қайта оралу» фильміндегі DeLorean уақыт машинасының конденсаторына және Тони Старктің «Темір адам» сауытындағы реакторға қуат беретін реакция. Бұл таза энергия шешімдерін іздейтін ғалымдар үшін бұрыннан келе жатқан арман болды, бірақ ол ондаған жылдар бойы шындықтан алыс болып келді. Бұл саладағы зерттеулердің көпшілігі тек теориялар мен тұжырымдамалармен шектелді. Бірақ төрт академик бастаған Helion ядролық синтез реакторын ондаған миллиардтың орнына ондаған миллион долларға салып, адамдардың қазба отынын жағудан бас тартуына жол аша алатынын айтты.

Бұл ақылға қонымсыз болып көрінді, бірақ бұл Альтман бірден қолдайтын әлемді өзгертетін ауқымды идеялардың бірі еді. Ол жылдар бойы өзінің ядролық энергия компаниясын ашқысы келіп жүрген, енді оның орнына сондай жобаға инвестиция сала алатын болды.

Ол өзінің дәстүрлі бизнес модельдері мен айқын пайда жолдары бар бағдарламалық қамтамасыз ету компанияларына бағытталған технологиялық инвестициялау ағынына қарсы шығып жатқанын білді. Бірақ ол бұл компаниялар адамзатты жақсартып, сонымен бірге көп ақша таба алатынына нық сенді. «Силикон алқабы бұл компанияны әлі қаржыландырмағаны үшін ұялуы керек,» — деді ол Helion туралы сұхбаттарының бірінде. Альтманның моральдық өршілдігі онша оғаш емес еді. Бұл жай ғана адамзатты құтқару мақсаттарын ашық мәлімдеген Илон Маск сияқты басқа да ірі технологиялық көшбасшылардың идеологиялық бағытынан сәл өзгешерек болды.

«Тағы бір мобильді қолданба ма? Бұл ешкімді таңғалдырмайды,» — деді Альтман бірде. «Зымыран компаниясы ма? Барлығы ғарышқа барғысы келеді. » Силикон алқабында барлығы әлемді құтқарғысы келетінін айтады. Бірақ Альтман, Маск сияқты, өзін өз мақсаттарына байыппен қарайтын шынайы технологиялық «құтқарушы» ретінде көрсетті. Көптеген технологиялық кәсіпкерлер адамзатты құтқару — бұл негізінен халық пен олардың қызметкерлеріне арналған маркетингтік айла екенін жақсы түсінетін, өйткені олардың фирмалары электрондық поштаны оңтайландыруға немесе кір жууға көмектесетін қарапайым құралдар жасап жатқан болатын. Бірақ Альтман YC қауымдастығын әлемді шынымен түзей алатын кәсіпкерлердің үлкенірек, маңыздырақ одағына айналдырды. Бұл көбірек назар аударатын тәуекелі жоғары бәстер еді.

Инвестиция мәселесінде Альтман покер ойынында қолындағы орташа карта үшін барлық чиптерін үстелге қойып, айналасындағылардың жүрек соғысын жиілететін адамға ұқсайтын. Альтман бұл бейімділікті миындағы бір «түйіннің» — адамдардың ол туралы не ойлайтынына мән бергізетін түйіннің жоқтығымен байланыстырды. Бұл оған тәуекелді тиімдірек есептеуге және ақылға сыйымсыз болып көрінетін инвестицияларға бәс тігуге мүмкіндік берді.

Алайда, ол осындай бәс тіккенде, Альтманның байлығы мен стартаптар арасындағы «жаңа Йода» ретіндегі беделі оны сәтсіздіктен қорғап тұратын. Силикон алқабында жақсы бедел кез келген зәулім үйден немесе спорттық көліктен де құндырақ. Егер сіз Альтман сияқты ядролық синтез стартаптарын қолдасаңыз, алған абыройыңыз нақты табыспен бірдей болатын. Альтман соңында ақшасының басым бөлігін ЖИ-ден бөлек тағы екі өршіл мақсатқа бағыттады: өмірді ұзарту және шексіз энергия жасау. Ол екі компанияға бәс тікті: 375 миллион доллардан астам ақша Helion-ға, ал тағы 180 миллион доллар адамның орташа өмір сүру ұзақтығын он жылға арттырумен айналысатын Retro Biosciences стартапына кетті.

Егер сіз Альтманның бұл ақшаны қайдан алғанын ойласаңыз, оның Cruise стартапы Генерал Motors-қа 1,25 миллиард долларға сатылмай тұрып, оған шамамен 3 миллион доллар салғанын есіңізге түсіріңіз, бұл оған орасан зор пайда әкелді. Оның YC басшылығындағы орны оған басқа көптеген венчурлық инвесторларға қарағанда осындай «джекпоттарды» ұтып алуға қолайлы мүмкіндік берді, өйткені ол қатаң іріктеуден өткен жүздеген компанияларды жақыннан көре алатын және бұл тарихтағы ең ірі «бұқалар нарығы» (акциялар бағасы тұрақты өсетін нарық кезеңі) кезінде болды. Барлық сол стартаптардың таныстырылымдарын тыңдау оған болашақты көруге де көмектесті.

YC-ті басқарғанына бір жыл болғанда, Альтман Силикон алқабының жаңа «махаришиі» (ұлы ұстазы) ретіндегі беделін нығайтты. Ол аптасына төрт жүз кездесуге сұраныс алатын. Ол басқа стартаптарға және Y Combinator серіктестеріне жол тапқысы келетін немесе Пол Грэмнің бұдан да өршіл, ғылыми-фантастикалық нұсқасымен кездескісі келетін инвесторлар мен негіздеушілер үшін магнитке айналды. blog. samaltman. com сайтында Альтман өзінің құзыретінен тыс тақырыптарда пайымдаулар жасай бастады. Ол НЛО (ұшатын белгісіз нысандар) мен реттеу туралы жазды және кешкі аста қалай жақсы сұхбаттасушы болу керектігі туралы кеңестер берді. Адамдардан немен айналысатынын сұрамаңыз, деп жазды Альтман. Оның орнына, адамның неге қызығатынын сұраңыз.

Грэм апта сайын YC негіздеушілерімен «кеңсе сағаттарын» өткізіп, олардың мәселелерін талқылайтын және YC-тің «Адамдар қалайтын нәрсені жаса» деген негізгі ұранына негізделген қысқа да нұсқа кеңестер беретін. Альтман стартаптармен сөйлескенде, оларды бәрін ауқымдырақ етуге бағыттайтын. Airbnb негізін қалаушылар — ол кезде жай ғана диванда түнейтіндерге арналған қолданбасы бар бірнеше жігіт — Альтманға инвесторларға арналған таныстырылымын көрсеткенде, Альтман оларға презентациядағы барлық «М» (миллион) әріптерін алып тастап, оларды «В» (миллиард) деп өзгертуді айтты. Не сен өз презентацияңнан ұяласың, не мен математиканы білмеймін, деді Альтман оларға өзінің жыпылықтамайтын өткір жанарымен және үлкен көк көздерімен қарап.

Ол стартаптарға барлық істі барынша жылдам атқарып, өзі сияқты жігерлі болуды кеңес берді. «Сәттілікке жету үшін компанияңызға деген ессіз деңгейдегі берілгендік қажет», — деді ол оларға. Өз блогында ол жетістікті өлшейтін кез келген санға «бір нөл қосу» керектігін жазды. Бұзылған әлемді түзету үшін негізін қалаушылар өнім сапасына құмар, «үнемі ізденімпаз» және өз командасымен «өте белсенді байланыс орната» алуы керек еді. Бұл әлемде жұмыс пен жеке өмір теңгерімі деген ұғым болған жоқ.

Альтманның айтқандарының көбі дұрыс еді. Силикон алқабы — адамдар империя құру үшін келетін жер, ал империяны аптасына қырық сағат жұмыс істеп құра алмайсың. Бірақ оның кәсіпкер ретіндегі нағыз дарыны — өзгелерді өзінің беделіне сендіре алу қабілетінде болатын. Ол мектеп директорынан бастап Y Combinator-дың негізін қалаушылары Грэм мен Ливингстонға, Питер Тильге, сондай-ақ мыңдаған стартап негізін қалаушыларына дейін барлығының таңданысын тудырды. Дегенмен, Альтманның бойында ішкі қайшылық та болды: ол әлемді қорғауға тырысатын кемеңгер ақыл иесі бола тұра, өзі құтқарғысы келген қарапайым адамдардан эмоционалды түрде алшақ еді.

Бұл ішінара 2006 жылғы аптап ыстық жаз күнінен басталды. Ол кезде Альтман тек спорттық шортымен еденде жатып, сәтсіз аяқталып жатқан мәміле үшін қатты уайымдап жатқан еді. Мазасыздықты жеңу үшін Альтман медитациямен айналыса бастады, кейде көзін жұмып, бір сағат бойы тек тыныс алуына назар аударатын. Уақыт өте келе, ол өзінің «мендік» сезімі барған сайын азая түскенін айтты.

«Медитация арқылы түсінген бір нәрсем — мен ешқандай жолмен сәйкестендіре алатын "мен" деген ұғым жоқ», — деді ол Art of Accomplishment подкастында. «Мен [қуатты ЖИ] туралы көп ойланатын көптеген адамдардың бұған басқа жолмен келетінін естідім».

Бұл түсініктер бірнеше жылдан кейін достарымен серуендеп жүргенде келген аянға негіз болды: әрине, компьютерлер бір күні біздің санамызды қайталайды. Когнитивті процестер компьютерде жүруі мүмкін, ал біз бір күні сол компьютермен бірігеміз. «ЖИ-мен жұмыс істеу сізді "санам жүктелгенде не болады? " деген терең философиялық сұрақтар төңірегінде ойлануға мәжбүр етеді», — деп қосты ол. «Олар менімен сөйлескенде не болады? Мен біріккім келе ме? Әлемді зерттеуге кеткім келе ме? Соның қаншалықты бөлігі әлі де "мен" болып қалады? » Альтман бұл ғылыми-фантастикалық инстинкттерді оңашада ұстанған жоқ. Оның айналасында өз санасын бір күні компьютер серверлеріне жүктеп, мәңгілік өмір сүре аламыз деп сенетін технологтар болды.

Өлім идеясы Альтманды қатты қорқытатын сияқты көрінді. Ол өзін преппер (ықтимал жаһандық апаттарға алдын ала дайындалатын адам) деп атайтын және әлемге синтетикалық вирустың таралуы немесе ЖИ-дің шабуылы сияқты апатты жағдайларға көп уақыт пен ақша жұмсайтын. «Мен бұл туралы тым көп ойламауға тырысамын», — деген оның сөзін New Yorker журналы стартап негізін қалаушылар тобына айтқан цитата ретінде келтірді. «Бірақ менде қару-жарақ, алтын, калий йодиді, антибиотиктер, батареялар, су, Израиль қорғаныс күштерінің газқағарлары және Биг-Сурда ұшып бара алатын үлкен жер телімі бар».

Ол сондай-ақ болашақта ғалымдар бұлтқа жүктеп, компьютерлік симуляцияға айналдыруы үшін адам миын жоғары технологиялық бальзамдау процесі арқылы сақтайтын Nectome стартапының күту тізіміне кіру үшін 10 000 доллар төледі.

Алыс болашақты зерттейтін көбірек компанияларға инвестиция салған сайын, Альтман шолу әсері (ғарышкерлер Жерді ғарыштан көргенде пайда болатын таңданыс пен өзін-өзі ұмыту сезімі) деп аталатын күйді кешіп жатқандай болды. Ол әлемге барған сайын ашық ғарыштан қарағандай қарай бастады. Альтманмен сөйлескенде ол белсенді қатысушы емес, бақылаушы сияқты терең, ізденімпаз көзқараспен қарап, ойланып кідіретін.

Адамзаттың болашағына салған инвестицияларына қарамастан, ол өзі мен басқа адамдар арасында белгілі бір ментальды және эмоционалды алшақтықты қалыптастырды. Олардың мәселелерін шешу үшін «сабырлы, ұстамды және прагматик» болу керек дейді ол. Альтман жиі американдық ғылыми-фантастикалық жазушы Марк Стиглердің технологияның адамдар өміріне болашақтағы әсері туралы жазған «Нәзік арбау» (The Gentle Seduction) атты қысқа әңгімесін мысалға келтіреді. Әңгіме технологияларды күнделікті өміріне енгізуге «арбалған» Лиза есімді әйелдің өмірі туралы.

Соңында Лиза мен оның күйеуі өз саналарын компьютерге жүктеу процесінен өтеді. Бұл қауіпті процедура, ал өз санасын осы озық машиналармен біріктірген адамдар өзін жоғалтып алуы мүмкін, сондықтан Лиза барлық жақсы-жаман жағын саралайды. Стиглер былай деп жазады: «Тек қорқынышсыз сақтықты білетіндер ғана, тек оның қарапайым ұстамдылығымен ерекшеленетіндер ғана соңына дейін жетті».

Альтман бұл дәйексөзге таңғалып, оны басқаларға жиі қайталайтын. Автор компьютермен бірігу қаупінен аман қалу үшін адамдарға сақтық пен батылдықты теңгеретін ойлау жүйесі қажет екенін айтқысы келді. Болашақтағы қауіптен эмоцияға берілмей, байыптылықпен қауіп-қатерді бағалау арқылы аман қалу мүмкіндігі жоғары.

Кейбір технологтар жасанды интеллекттің болашақтағы қауіптеріне тым қатты мазасызданып, ЖИ қауіпсіздігі (ЖИ-дің адамзатқа зиян тигізбеуін зерттейтін сала) деп аталатын жаңа оқу саласына бет бұрды. Бұл зерттеулер маңызды болғанымен, кейбір үрейлер қорқыныш тудыруға айналды. «Өкінішке орай, ЖИ қауіпсіздігімен айналысатын кейбір қауымдастықтар — ең мазасыз адамдар», — деді Альтман. Ол сонымен қатар бір маңызды шешімге келді: «Мен шынымен AGI (Жалпы жасанды интеллект — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) үстінде жұмыс істегім келді». Бұл терминді бірнеше жыл бұрын Шейн Легг ойлап тапқан болатын. Енді бұл идея «ессіз әңгімеден» салмақты ғылыми мақсатқа айнала бастады.

Әлемге ЖИ құруда теңгерімді тәсілді ұстанатын адам керек еді. Стиглер «қарапайым ұстамдылық» туралы айтқанда, Альтман өзін — күрделі әрі қауіпті болашақты бағдарлай алатын даналығы бар және «қорқынышсыз сақтығы» бар адамды көрді. Ол мұнара шетінде тұрып, көкжиектегі ЖИ утопиясына көз тіккен қырағы күзетші бола алар еді. Бірақ ол өз миссиясына сондайлықты берілгені соншалық, өзін сақ деп санауының қаншалықты оғаш екенін байқамады — ол кез келген басқа технологиялық компаниядан, соның ішінде Google-дан бұрын жасанды интеллект жүйелерін жұртшылыққа асығыс шығаруға тырысатын қатал бәсекелес кәсіпкер еді. Альтман іштей бірінші болуға құмар болды.

Сондықтан да ол бұл идеяны бастаған біреудің түрткісі болмаса, ЖИ утопиясын құруға қадам баспаған болар еді. Силикон алқабының кәсіпкеріне өзін қайрайтын бәсекелес қажет болды. Ол адам әлемнің екінші шетінде, Англияда болатын — ғылым, тіпті Құдай туралы терең жаңалықтар аша алатын қуатты бағдарламалық жасақтама жасауды жоспарлап жүрген дарынды жас ойын дизайнері еді.

4-ТАРАУ Жақсырақ ми

Elixir Studios күйрегеннен кейін Хассабис тым өршіл армандары бар кезекті сәтсіз кәсіпкерге айналды. Бұл тәжірибе ауыр болды, бірақ оның бойында басқа стартап негізін қалаушылар мен айналасындағы адамдарда жоқ ерекше нәрсе — оның миы бар еді. Хассабис өз бассүйегіндегі сұр затқа күтім жасау үшін барын салды. Ол миын жаттықтыру үшін ойындар ойнады. Оны қорғау үшін алкогольден бас тартты. Тіпті Facebook-тегі профиль суретіне мидың МРТ суретін қойды. Хассабис мидың күрделілігіне таңданбасқа амалы қалмады және Elixir-ден кейінгі жылдары мидың өзі адам сияқты ақылды бағдарламалық жасақтама жасаудың кілті бола ала ма деп ойланды. Сонымен қатар, бұл ғаламдағы жалпы интеллекттің мүмкін екендігінің жалғыз дәлелі еді, сондықтан оны терең түсіну қисынды болды. Бұл тек физикалық биология ма, әлде одан да көп нәрсе ме? Жауап нейроғылымда жатты.

Хассабис ойындардағы жеңіс немесе жеңіліс нәтижесінен, христиандық ұсынған жақсы мен жаманның моральдық ережелерінен немесе мектепте оқыған ғаламның біртұтас құрылымын іздеуден болсын, нақтылықты қалайтын. Бір нәрсені сандармен немесе ережелермен өлшеуге болатын кез — оның сүйікті саласы еді. «Ми атқаратын функциялардың көбін компьютер арқылы белгілі бір дәрежеде қайталауға болады», — деді ол кейінірек сұхбатында. «Нейроғылым миды механикалық терминдермен сипаттауға болатынын көрсетеді». Басқаша айтқанда, мидың қорқынышты күрделілігін сандар мен деректерге дейін азайтып, машина сияқты сипаттауға болады.

Осы мақсатта Хассабис ХХ ғасырдағы британдық компьютер ғалымы, Тьюринг машинасын (есептеудің дерексіз математикалық моделі) ойлап тапқан Алан Тьюрингтен шабыт алды. 1936 жылы ұсынылған бұл машина негізінен Тьюрингтің ойында ғана болған ойша эксперимент еді. Ол ұяшықтарға бөлінген шексіз лентаны және белгілі бір ережелерге сүйене отырып, лентадағы таңбаларды оқи және жаза алатын лента бастиегін елестетті. Бұл идея қарапайым көрінгенімен, теория ретінде компьютерлердің алгоритмдерді қолдана алатыны туралы тұжырымдаманы қалыптастыруда өте маңызды болды. Хассабис үшін бұл адам санасының мінсіз үлгісі болды. «Адам миы — бұл Тьюринг машинасы», — деді ол бірде.

2005 жылы Хассабис Лондон университеттік колледжінде нейроғылым бойынша PhD докторантурасына түсті. Оның диссертациясы жады туралы болды. Ол уақытқа дейін мидың гиппокампы (мидың жады мен кеңістікті бағдарлауға жауапты бөлігі) негізінен естеліктерді өңдейді деп есептелетін, бірақ Хассабис оның қиял кезінде де белсенді болатынын көрсетті.

Қарапайым тілмен айтқанда, бұл біз бір нәрсені еске түсіргенде, оны ішінара қиялдайтынымызды білдіреді. Біздің миымыз өткен оқиғаларды файлдар шкафынан құжат алғандай жай ғана «қайталап» қоймайды, оларды сурет салғандай белсенді түрде қайта құрастырады. Бұл біздің естеліктеріміздің кейде неге қате болатынын немесе басқа тәжірибелеріміздің әсеріне неге ұшырайтынын түсіндіреді. Хассабис біздің миымыз осы «сахна құрастыру» процесін карта бойынша бағдарлау немесе жоспар құру сияқты басқа да тапсырмалар үшін пайдаланады деп дәлелдеді.

Оның диссертациясы сол жылғы ең маңызды ғылыми жетістіктердің бірі ретінде танылды. Бірақ Хассабис академиялық ортада қалып қойғысы келмеді. Нобель сыйлығына лайық жаңалықтар ашқысы келетін ғалымдар уақытының жартысынан көбін гранттық ұсыныстар жазуға жұмсайтын. Озық зерттеулер жүргізу үшін әлемдегі ең қуатты компьютерлерге қол жеткізу керек еді. Ал олардың көбі тек ірі технологиялық компанияларда болатын. Егер Хассабис заманауи «Манхэттен жобасын» құру үшін үлкен интеллектуалдық күшті біріктіргісі келсе, оған бизнес бастау керек еді.

Алғашқы жоспарлар басқа екі адаммен — Шейн Легг және Мустафа Сүлейманмен түскі ас кезіндегі әңгімелер арқылы жасалды. Легг ЖИ туралы идеялары Хассабистің өзін таңғалдыратын сирек кездесетін маман еді. Ол «машиналық суперзият» тақырыбында диссертация жазған болатын.

Леггтің идеялары сингулярлық (технологиялық дамудың бақылаудан шығатын шекті нүктесі) қауымдастығында кеңінен танымал болды. Олар компьютерлер адамдардан ақылды болатын кез 2030 жылдар шамасында болады деп сенді.

Оның өмірі күтпеген жерден басталды. Жаңа Зеландияда өскен оны тоғыз жасында мектепте қиналғаннан кейін ата-анасы психологқа апарады. Психолог Леггке интеллект тестін беріп, оның дислексиясы (оқу мен жазу қабілетінің бұзылуы) бар екенін, бірақ интеллектісі өте жоғары екенін айтады. Пернетақтаны қолдануды үйренгеннен кейін Легг математика мен компьютерлік бағдарламалау бойынша үздіктердің қатарына қосылды.

Легг жиырма жеті жасында кітап дүкенінен Рэй Курцвейлдің «Рухани машиналар дәуірі» атты кітабын көріп қалады, онда компьютерлердің бір күні ерік-жігерге ие болып, эмоционалдық тәжірибелерді бастан кешіретіні айтылған еді.

Ол бұл кітапты бастан-аяқ оқып шықты. Есептеу қуаты мен деректер экспоненциалды түрде өсіп жатты. Егер бұл жалғаса берсе, компьютерлер ерте ме, кеш пе адамдардан асып түседі. Бұл технология индустриясының негізгі принципі — Мур заңымен сәйкес келді (микрочиптегі транзисторлар саны әр екі жыл сайын екі есе артады).

2000 жылы бұған сену қиын еді. Бірақ Легг интернеттің өсе беретініне сенді. Ол ЖИ бойынша PhD оқуға кетті. Бірде ЖИ ғалымы Бен Гертцель Леггке және басқа ғалымдарға кітап атауына идея сұрап хат жазады. Оған адам қабілеттері бар жасанды интеллектті сипаттау керек болды. Легг оған «жалпы жасанды интеллект» (artificial генерал intelligence) деген тіркесті ұсынды.

Жылдар бойы Хассабис, Легг және басқа ғалымдар «күшті ЖИ» немесе «нағыз ЖИ» деген терминдерді қолданып келген. Бірақ «жалпы» сөзін қолдану маңызды бір ойды білдірді: адам миы ерекше, өйткені ол сандарды есептеуден бастап, өлең жазуға дейінгі көптеген әртүрлі істерді атқара алады. Егер компьютер тек сандарды өңдеп қана қоймай, болжам жасап, кескіндерді танып, сөйлеп, мәтін жазып, жоспарлап және «қиялдай» алса, онда ол адамға жақындай түседі.

Сол кездегі ЖИ ғалымдарының көбі ЖИ-дің адаммен теңесетініне сенбеді. Бұл ЖИ тарихындағы ЖИ қысы (зерттеулер мен қаржыландыру тоқтап қалатын кезең) деп аталатын сәтсіздіктермен байланысты еді. 2009 жылға қарай машиналардың жалпы интеллектке ие болатынына ешкім сенбеді. Бұл шеткері теория болып саналды.

Тіл мен Терминология (лингв. ) (лингв. ) ЖИ дамуында үлкен рөл атқарды. «Жасанды интеллект» терминінің өзі 1956 жылы Дартмут колледжіндегі семинарда пайда болған. Бұл термин тарихтағы ең сәтті маркетингтік терминдердің біріне айналды. Мәселен, компьютерлер «ойлайды» немесе «үйренеді» деу техникалық тұрғыдан дәл емес, бірақ нейрондық желі, терең оқыту және «жаттықтыру» сияқты тіркестер бағдарламалық жасақтамаға адамға тән қасиеттерді таңу арқылы бұл идеяны санамызда бекіте түседі. Леггтің жаңа термині AGI туралы бәрі келіскен бір нәрсе — оның әлі жоқ екендігі еді.

Оның мүмкін екеніне сенген тағы бір адам — Мустафа Сүлейман еді. Жиырма бес жасында Оксфорд университетінен шығып кеткен ол технологияны әлемді өзгерту үшін пайдаланудың жолын іздеді. Сириялық әке мен ағылшын анадан туған Сүлейманның мәселелерді шешуге деген ұмтылысы өте жоғары болды. Ол кедейлік немесе климаттық дағдарыс сияқты адамзатқа әсер ететін ауқымды мәселелерді шешкісі келді.

Конфликттерді шешу фирмасының негізін қалаған ол енді нейроғылымды зерттеуге қызығушылық танытты. Хассабис Сүлейманды жақсы білетін, олар Хассабистің ағасы Джордж арқылы таныс еді. Олар тіпті жиырма жастарында Лас-Вегасқа покер турниріне барып, ұтысты бөліскен.

Үшеуі университет жанындағы Carluccio’s атты итальяндық мейрамханада кездесетін. «Біз адамдардың AGI бастау туралы ессіз әңгімелерімізді естігенін қаламадық», — дейді Легг.

Хассабистің сендіруінен кейін Легг академиялық ортада AGI құра алмайтындарына келісті. «Біз қалаған нәрселерді жасау үшін ресурстар берілгенше, біз елу жастағы профессорлар болатын едік», — дейді Хассабис. «Ал компания құру — менің қолымнан келетін іс».

Қажетті ауқым мен ресурстарға қол жеткізу үшін оларға стартап құру керек болды. Сулейман компанияның негізін қалаған болатын, бұл оның Хассабис сияқты бизнесті басқарудан хабары бар екенін білдіретін. 2010 жылы Google және Facebook сияқты технологиялық компаниялар қоғамға ең үлкен әсерін тигізіп жатты, сондықтан бұл үш адам үшін технологиялық компания әлемнің күрделілігін модельдеуге ең үлкен мүмкіндік беретіні қисынды көрінді. Олар бұрын-соңды ешкім көрмеген ең қуатты ЖИ-ді қалай жасау керектігін анықтап, содан кейін оны жаһандық мәселелерді шешуге қолданатын зерттеу компаниясын құрудың өршіл жоспарын құрды.

Олар компанияны DeepMind деп атап, Хассабисті бас директор етіп тағайындады, дереу Хассабистің Elixir-дегі үздік кодерлерінің бірін жұмысқа алды және Хассабис докторлық дәрежесін алған Лондон университеттік колледжінің қарсы бетіндегі шатыр астындағы кеңсе бөлмесін жалға алды. Үштіктің ортақ миссияға деген сенімінен туындаған энергиясы болды, бірақ олардың уәждері әртүрлі еді. Легг мүмкіндігінше көп адамды ЖЖИ-мен (Жалпы жасанды интеллект — адамның кез келген интеллектуалдық тапсырмасын орындай алатын жүйе) біріктіруді мақсат еткен ортада жүрсе, Сулейман қоғамдық мәселелерді шешкісі келді, ал Хассабис ғалам туралы іргелі жаңалықтар ашып, тарихта қалғысы келді.

Көп ұзамай олардың әртүрлі мақсаттары төңірегінде пікірталастар басталды. Сулейман Хассабистің оның дүниетанымын қалыптастырған кітапты оқығанын қатты қалады. Канадалық ғалым Томас Гомер-Диксонның 2000 жылы жарық көрген «The Ingenuity Gap» деп аталатын бұл еңбегінде климаттың өзгеруінен бастап саяси тұрақсыздыққа дейінгі қазіргі заманғы мәселелердің шектен тыс күрделілігі біздің шешім табу қабілетімізден асып түсетіні айтылған. Нәтижесінде тапқырлық алшақтығы (интеллектуалдық ресурстар мен мәселелердің күрделілігі арасындағы теңсіздік) пайда болды және адамдар оны жою үшін технология сияқты салаларда жаңалықтар енгізуі керек еді. Сулейманның пайымдауынша, ЖИ дәл осы жерде көмекке келе алатын еді.

Хассабис басын шайқады. «Сен мәселенің ауқымын көре алмай тұрсың», — деді ол бірде әңгімені естіген адамның айтуынша. Хассабис Сулейманның ЖИ туралы көзқарасы қазіргі уақытқа тым тар бағытталған деп есептеді және ЖЖИ DeepMind-қа адамдардың қайдан келгенін және олардың мақсаты не екенін түсінуге көмектесу үшін тиімдірек болады деп сенді. Хассабис, мысалы, климаттың өзгеруі — адамзаттың тағдыры және Жер шары бәрін ұзақ мерзімді болашаққа алып бара алмайтынын айтты. Ол мұндай оқиғалар сөзсіз болуы мүмкін кезде, ағымдағы мәселелерді шешуге тырысуды шеттегі ұсақ-түйекпен ойнауға теңеді. Ол кейбіреулер қорқа бастағандай, супер-интеллектуалды машиналар басқарудан шығып, адамдарды өлтіреді дегенге сенбеді. Керісінше, ол ЖЖИ-ді жасап біткен соң, ол біздің ең терең мәселелерімізді шешеді деп санады.

Хассабис бұл көзқарасты DeepMind-тың ұранына айналдырды: «Интеллектіні шешіп, оны қалғанның бәрін шешу үшін қолдан». Ол бұны инвесторларға арналған таныстырылымына қосты.

Бірақ Сулейман бұл көзқараспен келіспеді. Бір күні Хассабис жоқ кезде, ол DeepMind-тың алғашқы қызметкерлерінің біріне оны таныстырылымда өзгертуді бұйырды. Енді ол: «Интеллектіні шешіп, оны әлемді жақсарту үшін қолдан», — деп оқылды.

Хассабиске бұл да ұнамады. Кейінірек Хассабис кеңсеге қайта келгенде, ол әлгі қызметкерден бәрін қалпына келтіруді сұрады. Енді ол тағы да «Оны қалғанның бәрін шешу үшін қолдан» деп аталды. Екеуі компания миссиясы үшін өз қызметкерлерін делдал ретінде пайдаланып таласқан кезде, олар тікелей қақтығыстан барынша «британдық мәнерде» қашқақтап жүрді.

Сулейман ЖЖИ-ді Сэм Альтман сияқты, оны бірден пайдалы болуы үшін әлемге тарату арқылы құрғысы келді. Керемет жүйені жасау үшін оқшауланып жұмыс істегеннен көрі, шынайы әлемнен кері байланыс жинап, жетілдіру жақсырақ еді. Бірақ Хассабис DeepMind-ты шахмат ойнағандай, түпкі мақсатты ескере отырып басқарғысы келді. Ол үшін басты сыйлық тек шынайы өмірдегі мәселелерді шешу емес, адамзатты ұрпақтар бойы толғандырып келген жұмбақтарды шешу болды. Біздің мақсатымыз не және біз құдайлық болмыстан жаралдық па?

Хассабистен Құдайға сенетінін сұрағанда, ол жауаптан жалтарады. «Мен ғаламда құпия бар екенін сезінемін», — дейді ол. «Мен оны дәстүрлі Құдай сияқты деп айтпас едім». Ол Альберт Эйнштейн «Спинозаның Құдайына» сенгенін және «мүмкін мен де соған ұқсас жауап берер едім» дейді.

Барух Спиноза — он жетінші ғасырдағы философ, ол Құдайды жеке тұлға емес, іс жүзінде табиғат және барлық тіршілік иесі деп қарастырды. Бұл пантеистік (Құдай мен ғаламды бір деп санайтын) көзқарас еді. «Спиноза табиғатты Құдайдың бейнесі ретінде қарастырады», — дейді Хассабис. «Сондықтан ғылыммен айналысу — сол жұмбақты зерттеу».

ЖЖИ жасау құдайлық жаңалық ашуға ұқсас рухани немесе діни тәжірибеге айналуы мүмкін деп ойлау ақылға сыйымсыз емес еді, әсіресе Құдайды табиғат заңдарына теңеген Спинозаның көзқарасын ұстансаңыз. Сол заңдарға терең бойлау және ғаламды түсіну үшін ЖИ-ді қолдану арқылы сіз теориялық түрде «жаратушыны» тани аласыз. Орасан зор деректерді талдау қабілетімен ЖИ кванттық механикадан бастап ғарыштық құбылыстарға дейінгі ғаламдағы ең күрделі жүйелерді зерттеп, тіршіліктің күрделі табиғаты туралы мәліметтерді аша алады. Ғаламның күрделілігіне еліктейтін симуляцияны (жасанды үлгілеу) жасау үшін ЖИ-ді қолдану біздің ғаламның қалай жұмыс істейтінімен ұқсастықтарды ашуы мүмкін.

Егер ЖЖИ зерттеулері Курцвейлдің өзі айтқандай, біздің ғаламымыз симуляция деген қорытындыға әкелсе, бастапқы бағдарламашы құдайға ұқсас тұлға болуы әбден мүмкін. Сол сияқты, егер адамдар физика мен ғалам туралы барлық қолжетімді ақпаратты талдайтын қуатты машина жасаса, ол машина жоғары күштің бар екенін меңзейтін жаңа теорияларды ұсына алады. Ол құдайлық болмысты көрсететін терең экзистенциалды сұрақтарға жауап беруі мүмкін. Үлкен мүмкіндіктер мен интеллект арқылы ЖИ адамзаттың ең терең құпияларының бірін аша алатын сансыз жолдар болды.

Хассабистің діни тәрбиесі оны ЖИ оракулы идеясына бейімдеуі де мүмкін еді. Вирджиния университетінің 2023 жылғы зерттеуі (жиырма бір елден елу мыңнан астам қатысушы қатысқан) Құдайға сенетін немесе Құдай туралы басқалардан көбірек ойлайтын адамдар ChatGPT сияқты ЖИ жүйесінің кеңестеріне көбірек сенетінін анықтады. Зерттеушілердің айтуынша, бұл адамдар ЖИ-дің басшылығына көбірек ашық, өйткені оларда кішіпейілділік сезімі жоғары болады. Олар сондай-ақ адамның кемшіліктерін тез мойындайды.

Хассабис кейде DeepMind-тағы алғашқы әріптестерімен адамзаттың пайда болуы туралы сұрақтар төңірегінде Құдай туралы сөйлесетін. Хассабиспен бірге жұмыс істеген немесе оны жеке танитын бірнеше адам оның көптеген жылдар бойы тақуа христиан болғанын айтады, ал біреуі оның ЖЖИ құрудағы басты мақсаты Құдайды тану болғанын айтады.

«Біз Құдай туралы көптеген пікірталастар өткіздік», — дейді Хассабиспен DeepMind негізін қалаған кезде бірге жұмыс істеген әріптесі. «Ғаламның мәнін түсіну үшін кері бағытта жұмыс істей алатын машина жасай аламыз ба? ЖЖИ сізге біздің қайдан келгенімізді және Құдайдың не екенін түсінуге мүмкіндік береді». Хассабис сонымен қатар өзін қазіргі заманғы «Манхэттен жобасын» басқарып отырмын деп есептеді. Ол «Атом бомбасының жасалуы» кітабын оқып, DeepMind командасын Роберт Оппенгеймер сияқты құруға шабыттанды: ғалымдар топтарын үлкенірек мәселенің кішігірім бөлімдеріне шоғырландырды.

Бірақ мұндай өршіл жаңалық ашу үшін Хассабиске DeepMind-ты дамытуға ақша керек болды. Өкінішке орай, британдық инвесторлар оның жаңа стартапына небәрі 20 000 немесе 50 000 фунт стерлинг көлеміндегі мардымсыз сомаларды ғана ұсынды. Бұл ЖЖИ құруға қажетті таланттарды жалдауға, тіпті қажетті қуатты компьютерлерге қол жеткізуге де жеткіліксіз еді. Оның әлемдегі ең қуатты ЖИ жүйесін құру туралы бизнес-идеясы ұстамды Британияда тым оғаш және өршіл болып көрінгені де көмектеспеді. Ұлыбританияда технологиялық стартаптар акциялар мен облигациялар саудасына арналған қаржылық қосымша жасау сияқты ақшаны тезірек әкелетін «ақылға қонымды» бизнес-идеяларды қуалайтын. Хассабис пен оның серіктестерінің инвесторлар футуристік идеяларға көбірек ақша тігуге дайын Кремний алқабына бет бұрудан басқа амалы қалмады.

Леггтің сәтіне қарай танысы болды. Ол 2010 жылдың маусымында оны жас кезінде баурап алған автор Курцвейл мен жаңа технологияларға ақша салғанды ұнататын миллиардер инвестор Питер Тиль бірлесіп құрған жыл сайынғы «Singularity Summit» конференциясында сөз сөйлеуге шақырылды. Бұл конференцияда ЖИ саласындағы ең дәстүрлі емес ғалымдар технологияның таңғажайып күші мен қауіптері туралы айтатын. Тиль іс-шараның бағытын айқындады және ол идеалист еді. Ол сингулярлық (ЖИ адамзатты қайтпас күйде өзгертетін болашақтағы сәт), мәселе болады деп ойламады — керісінше. Ол оның келуі тым ұзаққа созылады және әлем экономикалық құлдыраудан сақтану үшін қуатты ЖИ-ге мұқтаж деп алаңдады.

Қалтасы қалың және өршіл жобаларға құштар Тиль DeepMind-ты қаржыландыруға ең қолайлы адам болды. «Бізге ЖЖИ компаниясын қаржыландыру үшін жеткілікті деңгейде "жынды" біреу керек болды», — деп еске алады Легг. «Бізге бірнеше миллион үшін терлемейтін ресурстары бар және супер өршіл дүниелерді ұнататын біреу керек еді. Сондай-ақ олар жаппай контрариан (көпшілікке қарсы пікірдегі адам) болуы тиіс еді, өйткені Хассабис сөйлескен әрбір профессор оған: "Бұны істеу туралы тіпті ойлама", — деп айтатын».

Тильдің контрариандығы соншалық, ол тіпті дәстүрлі емес ойшылдарға толы Кремний алқабының қалған бөлігімен жиі келіспейтін. Аймақтың көп бөлігі либералдарға дауыс берсе, ол оңшылдарға қарай ойысып, президент Дональд Трамптың басты демеушілерінің біріне айналды. Көптеген кәсіпкерлер бәсекелестік инновацияға жетелейді деп сенсе, Тиль өзінің «Нөлден бірге дейін» кітабында монополиялар мұны жақсырақ істейді деп дәлелдеді. Ол табысқа жетудің дәстүрлі жолдарын менсінбей, ақылды, кәсіпкер балаларды колледжді тастап, оның «Thiel Fellowship» бағдарламасына қосылуға ынталандырды. Оның ұзақ өмір сүру мен сингулярлыққа деген таңқаларлық талпыныстары оның DeepMind негізін қалаушылар іздеген «жынды» критерийіне сәйкес келетінін білдірді.

Үштік Тильге «Singularity Summit»-те ұсыныс жасауды ұйғарды. Ол іс-шараны қаржыландырып отырғандықтан, олар оны бірінші қатарда отырады деп ойлады. Легг саммит ұйымдастырушыларынан өзінің сөйлеу уақытын Хассабиспен бөлісуге болатынын сұрады. Осылайша Тиль бұрынғы шахмат чемпионынан адам миынан шабыт алып ЖЖИ құру туралы тікелей ести алатын еді.

Шарап түсті қызыл жемпір мен қара шалбар киген Хассабис Сан-Франциско қонақүйіндегі саммит сахнасына шыққанда, оның жаңа компаниясының тағдыры шешілетін сәтте дірілдеп тұрды. Бірақ ол жүздеген адамнан тұратын топқа қарағанда, Тиль бірінші қатарда жоқ еді. Ол көрермендер арасында мүлдем болмады.

Негізін қалаушылар мүмкіндікті жіберіп алдық деп ойлады, бірақ кейін Легг Тильдің шығанақ аймағындағы зәулім үйіндегі кешке эксклюзивті шақыру алды және ол серіктестеріне де шақыру алдыра алды. Хассабис Тильдің шахматты ұнататынын білген еді. Тиль кезінде Америка Құрама Штаттарындағы он үш жасқа дейінгі ең үздік шахматшылардың бірі болған. Енді ортақ қызығушылық пен қызығушылық тудыруға мүмкіндік туды. Кеш кезінде Хассабис Тильмен әңгіме бастап, баспасөзге бірнеше рет айтқан мәліметі бойынша, ойынды кездейсоқ тілге тиек етті.

«Меніңше, шахматтың ұрпақтар бойы сәтті сақталып келуінің бір себебі — ат пен пілдің мінсіз теңгерімінде», — деді Хассабис Тильге жеңіл тағамдар таратылып жатқанда. «Меніңше, бұл барлық шығармашылық асимметриялық кернеуді тудырады».

Тильдің қызығушылығы оянды. «Ертең қайтып келіп, дұрыс таныстырылым жасамасқа? » — деді ол. Сапар сәтті аяқталды. Тиль DeepMind-қа сингулярлықты жақындату үшін 1,4 миллион фунт стерлинг инвестициялады.

Хассабис ЖИ компаниясын дамыту үшін көбірек ақша жинауға тырысқанда, кәсіпкер үшін ыңғайсыз жағдайға тап болды. Оның алғашқы инвесторлары оны тек ақша табу үшін емес, жасанды интеллект туралы дерлік моралдық сенімі болғандықтан қолдап отырды. Бұл оның компанияны басқаруында тек ақша табу ғана емес, сонымен қатар ЖИ-ді әртүрлі догмаларға сәйкес келетіндей етіп дамыту мәселесінде күрделі қысымға тап болатынын білдірді.

Сол кезде күш алып жатқан бір сенім жүйесі бойынша, ЖИ адам бақылауынан шығып кетпеуі және өз жасаушыларын жоюға тырыспауы үшін оны өте сақтықпен құру керек еді. Бұл Тильге қарама-қайшы көзқарастағы тағы бір бай донордың алаңдаушылығы болатын, ол да DeepMind-ты қолдағысы келді. Хассабис бұл донормен Оксфордтағы «Winter Intelligence» конференциясында кездесті. Бұл компьютерлік ғылымдар зерттеуінің шетіндегі конференция еді, онда осы саланың ең радикалды ойшылдары супер-интеллектуалды ЖИ-ді бақылау қиындықтары туралы баяндама жасап жатты. Хассабис сөзін аяқтаған сәтте, оған ақшыл шашты, скандинавиялық акценті бар адам жақындады.

«Сәлем», — деді ол Хассабиске жақындап, қолын ұсынып. «Мен Яанмын. Skype-тың [негізін қалаушысымын]».

Эстониядан шыққан Яан Таллинн 2000-жылдардың басында музыка мен фильмдерді қарақшылық жолмен тарату үшін қолданылған алғашқы файл алмасу сервистерінің бірі Kazaa-ның негізінде жатқан peer-to-peer (тең дәрежелі желі — орталық серверсіз компьютерлер арасындағы тікелей байланыс) технологиясын жасап шығарған бағдарламашы болатын. Ол бұл технологияны Skype үшін қайта қолданып, 2005 жылы eBay Skype-ты 2,5 миллиард долларға сатып алғанда, тегін қоңырау шалу сервисіндегі үлесінен үлкен пайда тапты. Енді ол өз олжасының бір бөлігін басқа стартаптарға шашып жүрді. Таллинн Хассабистің сөзін естігенде, құлағы түрілді. Ол жақында ғана қуатты жасанды интеллектің қауіптеріне қызыға бастаған еді.

Таллиннге ЖИ «дерті» екі жыл бұрын, 2009 жылдың көктемінде «LessWrong» деп аталатын сайттағы кейбір эсселерді оқып жүргенде жұқты. Бұл онлайн форум ЖИ адамзат үшін экзистенциалды қауіп төндіреді деп алаңдайтын мүшелерден, көбінесе бағдарламалық жасақтама инженерлерінен тұратын тығыз қауымдастық еді. Олардың гуруы әрі сайттың негізін қалаушы — Элиезер Юдковский атты сақалды либертариан болатын. Ол жасанды интеллект зерттеулері мен философиясының негіздерін өз бетінше үйренген, жоғары деңгейдегі мектепті тастап кеткен адам еді және оның эсселері сайт мүшелерін баурап алды. Юдковский Альтман ЖИ қауіпсіздігі қауымдастығын «жүйкесі жұқарған» деп атағанда меңзеген адамдарының бірі еді. Ол ЖИ адамзатты жойып жіберуі әбден мүмкін деп сенді.

Мысалы, интеллектінің белгілі бір деңгейіне жеткен соң, ЖИ адамдар оның әрекеттерін бақылай алмайтын болғанша өз мүмкіндіктерін стратегиялық түрде жасыра алады. Содан кейін ол қаржы нарықтарын басқара алады, байланыс желілерін бақылауға алады немесе электр желілері сияқты маңызды инфрақұрылымдарды өшіре алады. ЖИ-ді құрып жатқан адамдар көбінесе әлемді жойылуға жақындатып жатқандарын білмейді, деп жазды Юдковский.

Таллинн бұл эсселердің кейбірінен мазасызданды. Ол Роджер Пенроуздың «Shadows of the Mind» атты жаңа оқыған кітабының қорытындылары туралы ойланып жүрген болатын. Онда әйгілі физик пен математик адам санасы кез келген компьютер істей алмайтын тапсырмаларды орындай алады деп дәлелдеген. Хассабис пен басқалардың миды «механикалық» және ЖИ құруға пайдалы шабыт деп ұсынған идеялары негізсіз болды, өйткені адам миы бірегей еді. Оны қайталау іс жүзінде мүмкін емес еді.

Бірақ бұл қорытынды Таллиннді мазалай берді. Егер адам санасын жасанды интеллект ретінде симуляциялау мүмкін болса ше? Бұл біздің ықтимал қауіпті нәрсе құрып жатқанымызды білдірмей ме? Skype негізін қалаушы Юдковскийден көбірек естігісі келіп, сұрақтар тізімін жазып алды, кейбір қорқынышты дәлелдерден саңылау тапқысы келді. Бұның шындық екенін білудің ең жақсы жолы — LessWrong негізін қалаушының өзімен кездесу еді.

Бақытқа орай, Таллинн кездесу үшін Сан-Францискоға ұшуды жоспарлап жүрген еді, сондықтан ол Юдковскийге электронды пошта жіберіп, сөйлесу үшін кездесуге болатынын сұрады. Америкалық жауап беріп, кофе ішуге келісті. Олар Сан-Франциско халықаралық әуежайынан қысқа қашықтықта орналасқан Миллбрэ қаласындағы кафеде отырғанда, Таллинн өз сұрақтарын қоя бастады. Егер ЖИ ықтимал қауіпті болса, неге біз оны басқа компьютерлік жүйелерден бөлу үшін виртуалды машиналарда құрмаймыз? Бұл ЖИ-дің біздің физикалық инфрақұрылымымызға еніп, электр желісін өшіруіне немесе қаржы нарықтарын басқаруына тосқауыл болар еді.

Юдковскийде бірден жауап дайын болды. «Ол шын мәнінде виртуалды болмас еді», — деп жауап берді ол сусынын ішіп отырып. Электрондар кез келген бағытта аға алады, бұл дегеніміз қуатты ЖИ жүйелерінің аппараттық құралдардың конфигурациясына қол тигізуіне және өзгертуіне әрқашан жол болатынын білдіреді.

Бұл Таллинн алаңдап жүрген нәрсені растады. Бір күні, деп ойлады ол, ЖИ өзінің жеке инфрақұрылымын және жеке компьютерлік субстратын (негізін) дамытуы мүмкін. Содан кейінгі мүмкіндіктер өз ауқымы бойынша қорқынышты еді.

«Ол планетаны, тіпті Күнді де терраформациялап (өмір сүруге қолайлы ету), гео-инженерлік өзгерістер жасай алады», — дейді ол бүгін. Ғалымдар ЖИ тек математика, сондықтан одан қорқудың қажеті жоқ деп дауласқанда, Таллинн жолбарыс туралы ұқсастықты айтқанды ұнатады. «Жолбарыс — бұл жай ғана биохимиялық реакциялардың жиынтығы және олардан қорқудың қажеті жоқ деп айтуға болады». Бірақ жолбарыс — бұл бақылауда ұстамаса, көп зиян келтіре алатын атомдар мен жасушалардың жиынтығы. Сол сияқты, ЖИ да жай ғана озық математика мен компьютерлік кодтардың жиынтығы болуы мүмкін, бірақ дұрыс емес жолмен біріктірілгенде, ол өте қауіпті болуы мүмкін.

Таллинн екі жылдан кейін Оксфорд конференциясында Хассабистің сөзін тыңдаған кезде, ол ЖИ ақырет күні туралы ілімдерге сенушіге айналған еді. Ол кафенің сол кездегі кездесуінен бері Юдковскийдің эсселерін оқып келе жатты және ЖИ сәйкестендіру (AI alignment — жасанды интеллект жүйелерін адам мақсаттарымен үйлестіру) деп аталатын жаңа зерттеу саласына бой алдырды, онда ғалымдар мен философтар ЖИ-ді адам мақсаттарына қалай жақсырақ бейімдеу керектігін анықтап жатқан еді.

«Мен "сәйкестендіруге" (alignment) әбден сендім», — деп еске алады Таллинн. Енді ол Юдковский сызып берген болашақ ЖИ туралы ең экстремалды сценарийлердің кейбіріне сенетін болды.

Біраз әңгімеден кейін Таллинн Хассабистің тығыз жұмыс істеуге дайын екенін білгісі келді. «Қашан да болсын Skype арқылы кездесу өткізгің келе ме? » — деп сұрады ол британдық кәсіпкерден.

Хассабис пен дәулетті эстондық тағы да сөйлесті, ақыры Таллинн Питер Тильмен бірге DeepMind-тың алғашқы инвесторларының біріне айналды. Оның мақсаты тек ақша табу емес, Хассабистің прогресін бақылау және оның байқаусызда қорқынышты, бақылаусыз ЖИ жасап алмауын қадағалау болды. Таллинн өзін Юдковский идеяларының насихаттаушысы ретінде көрді. Ол өзінің беделді инвестор ретіндегі абыройын әлемдегі ең болашағы зор ЖИ жасаушыларына ескертулерін жеткізу үшін пайдаланғысы келді.

«Элиезер — өз бетінше үйренген адам және оның шағын қауымдастығынан тыс жерде онша ықпалы болмады», — деп түсіндіреді Таллинн. «Мен Элиезерді тыңдамайтын, бірақ мені тыңдайтын адамдарға сол дәлелдерді сата аламын деп ойладым».

Инвестор болғаннан кейін Таллинн DeepMind-ты қауіпсіздікке назар аударуға итермеледі. Ол Хассабистің ЖИ-дің апокалиптикалық қауіптеріне өзі сияқты алаңдамайтынын білді, сондықтан ол компанияға ЖИ-ді адам құндылықтарымен үйлестіру және оның бақылаудан шығып кетпеуінің барлық жолдарын зерттейтін адамдар тобын жалдау үшін қысым көрсетті.

DeepMind-қа оны қауіпсіз бағытқа бұрғысы келетін бұдан да бай инвестор келуге жақын еді. Кремний алқабында Питер Тильдің Лондондағы жалпы жасанды интеллект құруға тырысып жатқан перспективалы, бірақ құпия стартапқа қатысы бар екені туралы қауесеттер тарала бастады. Аймақтың басқа технологиялық миллиардерлері бұл туралы ести бастады, олардың бірі Илон Маск болатын. 2012 жылы, DeepMind негізі қаланғаннан кейін екі жыл өткен соң, Хассабис Тиль ұйымдастырған Калифорниядағы эксклюзивті конференцияда Маскпен кездесіп қалды.

«Біз бірден тіл табысып кеттік», — дейді Хассабис. Британдық кәсіпкер бұл DeepMind зерттеулерін кеңейту үшін көбірек ақша жинаудың мүмкіндігі екенін білді — және ол сонымен қатар Масктің зымыран зауытын көргісі келді. Маск өзін SpaceX компаниясымен адамдарды Марсқа жібергісі келетін батыл магнат ретінде танытып жүрген еді. Хассабис Маскпен компанияның Лос-Анджелестегі штаб-пәтерінде кездесуге уағдаласты.

Кейінірек екі адам компанияның асханасында, зымыран бөлшектерінің арасында бір-біріне қарама-қарсы отырып, тарихи тұрғыдан қай жоба маңыздырақ деген тақырыпта пікірталасқа түсті: планетааралық отарлау ма, әлде супер жасанды интеллектіні (ЖИ) дамыту ма?

«Егер ЖИ бақылаудан шығып кетсе, адамдарға Марсқа қашу мүмкіндігі керек болады», — деді Маск, сол кездесу туралы жазылған Vanity Fair мақаласына сүйенсек.

«Меніңше, ЖИ Марсқа да бәрінің соңынан бара алады», — деп жауап берді Хассабис, ол бұл жағдайға таңырқағандай көрінді. Маск күлген жоқ. Таллинге Юдковскийдің желідегі жазбалары әсер етсе, Маскқа басқа біреу: Оксфорд философы Ник Бостром қатты әсер еткен еді.

Бостром «Супер интеллект» (Superintelligence) атты кітап жазған болатын және ол ЖИ мен озық технологиялар саласында жұмыс істейтін адамдар арасында үлкен дүрбелең туғызды. Кітапта Бостром «жалпы» немесе қуатты ЖИ құру адамдар үшін апатты салдарға әкелуі мүмкін екенін ескертті. Бірақ ол мұның себебі ЖИ-дің зұлымдығынан немесе билікке құмарлығынан емес, жай ғана өз жұмысын істеуге тырысуынан болуы мүмкін екенін атап өтті.

Мысалы, егер оған мүмкіндігінше көп қағаз қыстырғыш жасау тапсырмасы берілсе, ол өз мақсатына жетудің ең тиімді жолы ретінде Жердің барлық ресурстарын, тіпті адамдарды да қағаз қыстырғыштарға айналдыру туралы шешім қабылдауы мүмкін. Оның бұл мысалы ЖИ ортасында бізге «қағаз қыстырғышқа айналудан» қашу керек деген мәтелдің пайда болуына түрткі болды.

Маск та DeepMind-қа ақша салды. Хассабис соңында қаржылық қауіпсіздікке ие болғанымен, ол көп ақша емес еді. Ол әлі де өте тәжірибелік және сондай ақылға қонымсыз дүниемен айналысып жүргендіктен, тіпті әлемдегі ең бай адамдардың кейбірі оның сәттілігіне көп ақша тіккісі келмеді. Олардың ақшасы идеологиялық шарттармен бірге келді: Таллин мен Маск DeepMind-тың жұмысын инвесторлар үшін ерекше күдікпен және сақтықпен бақылады. Әрине, олар DeepMind-тың қаржылық жағынан табысты болғанын қалады, бірақ сонымен бірге DeepMind-тың тым жылдам дамығанын немесе адамзатқа қауіп төндіретін жолмен жүргенін қаламады. Бұл Хассабисті ыңғайсыз жағдайға қалдырды. Ол олардың ақшасына риза болғанымен, Таллин мен Маск сенетін қатерлі сценарийлерге сенбеді.

Қаржылық қауіпсіздік сезімі ұзаққа созылмады. Хассабис пен Сулейман әлемдегі ең үздік ЖИ мамандарының жалақысын өтеу үшін жеткілікті ақша табуға қиналды, ал табыс табу туралы кейбір идеялары ретсіз болды. Олар терең оқытуды (deep learning — жасанды нейрондық желілерге негізделген машиналық оқытудың түрі) қолданатын веб-сайт ашып көрді. Ол адамдарға сән бойынша кеңес беріп, киім ұсынуы керек еді. Содан кейін Хассабис Elixir-де өзі басқарған, ал қазір DeepMind-та жұмыс істейтін қызметкерлерінен видео ойын жасап шығаруды сұрады. DeepMind-тың бұрынғы қызметкерінің айтуынша, инженерлер ғарышкерлер тобы зымыранмен Айға жарысуы керек болатын ғарыштық шытырман оқиғаны құрастырып шықты. Олар ойынды iPhone қосымшасы ретінде шығаруға дайындалып жатқанда, Хассабиске ЖЖИ-ді (Жалпы Жасанды Интеллект — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) шындыққа айналдыруға қажетті қаржылық қолдау беретін жаңа мүмкіндік туды. Бұл Facebook-тен түскен ұсыныс еді.

Марк Цукерберг компанияларды жаппай сатып алумен айналысып жүрген еді. Шамамен бір жыл бұрын ол Instagram-ды 1 миллиард долларға сатып алған болатын, бұл әлеуметтік медианы шоғырландырудың шебер қадамы болды. Ал бірнеше айдан кейін ол WhatsApp негізін қалаушыларға 19 миллиард доллар төлеуге дайын еді. Ол Facebook империясын дамыту үшін не қажет болса да жұмсауға дайын болды, ал жасанды интеллект бұл процестің маңызды бөлігіне айналуы тиіс еді. Facebook өз ақшасының шамамен 98 пайызын жарнама сатудан табатын, бірақ көбірек жарнама сату және өсуді жалғастыру үшін Цукербергке адамдардың оның сайттарында көбірек уақыт өткізуі керек болды. DeepMind-тың ондаған талантты ЖИ ғалымдары бұған көмектесе алар еді. Пайдаланушылардың жеке деректерін егжей-тегжейлі талдайтын ақылды ұсыныстар жүйесі арқылы Facebook пен Instagram-ның ақылды алгоритмдері адамдарға лентаны ұзағырақ ақтару үшін қажетті суреттерді, жазбаларды және видеоларды көрсете алар еді.

Цукерберг Хассабиске DeepMind үшін 800 миллион доллар ұсынды, бұған стартап негізін қалаушылар сатып алынған компанияда төрт-бес жыл қалғаны үшін алатын бонустар кірмейді. Бұл өте жомарт ұсыныс және Хассабис армандағаннан да көп ақша еді. Ол енді қиылыста тұрды. Осы уақытқа дейін DeepMind-тың ақшасы оның ЖИ-ді мүмкіндігінше мұқият жасағанын қалайтын адамдардан келіп еді. Енді ол оны әлдеқайда жылдам жасауды қалайтын адамнан келуі мүмкін. Өйткені Facebook-тің ұраны «Жылдам қимылдап, ескіні қират» (Move fast and break things) болатын.

Хассабис пен Сулейман бұл жағдайға қалай қарау керектігін талқылады. ЖЖИ Цукербергтің өзі түсінгеннен де күштірек болатын және олар үлкен корпоративтік сатып алушының ЖИ-ді зиянды бағытқа бұруына жол бермейтін тетіктің болуы қажет деп есептеді. Олар жай ғана Facebook-ке келісімшартқа қол қойғызып, ЖЖИ-ді теріс пайдаланбауға уәде алдырта алмайтын еді. Коммерциялық емес топтардағы бұрынғы жұмысын еске түсіре отырып, Сулейман Хассабис пен Леггке Facebook-ті жіті қадағалап отыратын және оның DeepMind технологиясын қолдануда абай болуын қадағалайтын басқару құрылымы керек екенін айтты.

Ашық акционерлік қоғамдарда әдетте акционерлердің мүдделерін қорғауды көздейтін директорлар кеңесі болады. Бұл директорлар тоқсан сайын кездесіп, компанияның акциялары төмендемей, керісінше өсуі үшін дұрыс қадамдар жасап жатқанын тексереді. Сулейман өз серіктестеріне DeepMind-тың ЖИ сияқты трансформациялық технологиямен айналысу үшін басқаша кеңесі болуы керек екенін айтты. Олардың жұмысы ақшаға емес, DeepMind-тың ЖИ-ді мүмкіндігінше қауіпсіз және этикалық түрде жасап жатқанына көз жеткізуге бағытталуы тиіс. Хассабис пен Легг басында бұған сенбеді, бірақ Сулейман сендіре білді және соңында олар бұл идеямен келісті.

Хассабис Цукербергке қайта барып, егер олар сатылатын болса, DeepMind-та осы этика және қауіпсіздік кеңесі болуы керек екенін және оның DeepMind ақыр соңында жасайтын кез келген супер интеллектуалды ЖИ-ді бақылауға бөлек заңды өкілеттігі болуы тиіс екенін айтты. Цукерберг бұл талаптан бас тартты. Ол Facebook-тің жарнама бизнесін дамытып, өзінің түрлі әлеуметтік медиа платформалары арқылы «әлемді байланыстырғысы» келді, этикалық протоколдары мен өз миссиясы бар жеке ЖИ компаниясын басқарғысы келмеді. Келіссөздер үзілді.

Сырт көзге Хассабис өз қызметкерлеріне DeepMind тағы жиырма жыл бойы тәуелсіз болатынын айтты. Бірақ жеке өзінде ол қаражат жинаудан шаршаған еді және уақытының аз ғана бөлігін нақты зерттеулерге жұмсайтынына ренжулі болатын. Цукербергтің үлкен ұсынысын жаңа ғана қабылдамағандықтан, Силикон алқабындағы компанияға сатылу арқылы қанша ақша табуға болатынын ескермеу қиын еді, әсіресе қазір Big Tech (ірі технологиялық компаниялар) жасанды интеллектке қатты қызыға бастаған кезде. Силикон алқабының ең ірі компанияларының жоғары лауазымды басшылары, соның ішінде бір-екі миллиардерлер, DeepMind зерттеушілерін өздеріне тарту үшін оларға үнемі қоңырау шалып жүрді. Компания қызметкерлерінің көбі терең оқыту саласының мамандары еді, бұл сала көптеген жылдар бойы елеусіз қалып, тек жақында ғана танымал бола бастаған болатын.

Бетбұрыс кезеңі 2012 жылы келді. Стэнфордтың ЖИ профессоры Фей-Фей Ли ғалымдар үшін ImageNet деп аталатын жыл сайынғы сайыс ұйымдастырды. Онда зерттеушілер мысықтарды, жиһаздарды, көліктерді және басқа да заттарды визуалды түрде танитын ЖИ модельдерін ұсынды. Сол жылы ғалым Джеффри Хинтонның зерттеушілер тобы бұрын-соңды болмаған дәлдікке ие модель жасау үшін терең оқытуды қолданды және олардың нәтижелері ЖИ саласын таң қалдырды. Кенеттен бәрі мидың заңдылықтарды тану тәсілінен шабыт алған осы терең оқыту ЖИ теориясының мамандарын жұмысқа алғысы келді.

Леггтің айтуынша, бұл небәрі бірнеше ондаған мамандары бар шағын сала еді. «Біз олардың біразын жұмысқа алған едік». Хассабис оларға жылына шамамен 100 000 доллар төлеп жүрді, бірақ Google және Facebook сияқты технологиялық алпауыттар одан бірнеше есе көп төлеуге дайын еді. «Біздің зерттеушілерімізге өте танымал адамдар хабарласып, олардың жалақысынан үш есе көп ақша ұсынып жатты», — деп еске алады Легг. DeepMind-тың бұрынғы қызметкерінің айтуынша, Цукерберг сол танымал адамдардың бірі болған. «Біз сатылуға мәжбүр болдық, әйтпесе бізді бөлшектеп алып кетер еді». Хассабис ЖЖИ-ді бірінші болып құруға құштар болғандықтан, ресурстары мол технологиялық компаниялардың одан озып кетуін күте алмады.

Кенеттен DeepMind-ты сатып алу туралы тағы бір ұсыныс түсті, бұл жолы оның инвесторы Илон Масктан. Бұл мәміледен хабары бар адамның айтуынша, миллиардер компания үшін соңғы бес жыл бойы басқарып келе жатқан Тесла электрмобиль (мех ж/е маш. жас. ) компаниясының акцияларымен төлеуді ұсынған. Маск жұмысқа араласпайтын инвестор болған және Хассабиспен сирек хабарласып тұратын. ЖИ қаупі туралы өсіп келе жатқан қорқынышына қарамастан, миллиардердің коммерциялық мақсаттары да бірінші орында тұрды. Ол Тесла көліктерінің әлемде бірінші болып автопилот технологиясын сәтті қолданғанын қалады, бұл оған жасанды интеллект саласындағы ең озық мамандардың қажет екенін білдірді. Енді ол DeepMind-ты сатып алу арқылы олардың таңдаулы әскеріне ие бола алар еді.

Бірақ DeepMind негізін қалаушылар тағы да сақтық танытты. Тесла акцияларымен ақы алу онша тартымды болып көрінбеді. Сондай-ақ олар Маск сияқты адамның ЖЖИ-ді бақылауға алуына алаңдады. Ол жаңашыл магнат ретінде таныла бастағанымен, технологиялық ортада оның күтпеген шешімдер қабылдайтыны, қызметкерлерді ескертусіз жұмыстан шығаратыны және Tesla-ның негізін қалаушыны қуып жібергені туралы беделі бар еді.

DeepMind негізін қалаушылар оның инвестициясы мен байланыстарын бағалағанымен, оның тұрақсыз мінезінен сескенді. Олар оның да ұсынысын қабылдамады. Олар қызуқанды Масктың «жоқ» деген жауапты ұнатпайтынын және бұл шешімнің кейін оларға қалай әсер ететінін түсінбеді. Көп ұзамай Хассабиске тағы бір хат келді. Ол Google-ден еді.

5-ТАРАУ

Утопия үшін, ақша үшін

Хабарлама бес мың мильден астам жерде, шуақты Калифорнияның Маунтин-Вью қаласындағы Google штаб-пәтерінің басшысынан келді. Хассабис Лондондағы компьютерінен хатты ашқанда, Google-дің бас директоры Ларри Пейджбен кездесуге шақыруды көрді. Пейдж 1998 жылы Стэнфорд университетінің докторанты Сергей Бринмен бірге Google-дің негізін қалаған болатын. Екеуі адамдардың интернетте іздеу тәсілін жақсартқысы келді және олар мұны веб-беттерді маңыздылығы мен өзара байланысы бойынша жіктейтін PageRank деп аталатын алгоритм жасау арқылы жүзеге асырды. Калифорнияның Менло-Парк қаласындағы досының гаражынан бастап, олар ақыр соңында әлемдегі ең ірі технологиялық компаниялардың бірін құрды.

Бірақ бүгінгі таңда Google-дің ақша табу жолына келгенде, бұл процесс онша жоғары технологиялық немесе инновациялық емес еді: ол Facebook сияқты алып жарнама компаниясына айналған болатын. Google пайдасы мен табысының басым бөлігі іздеу, YouTube және Gmail арқылы, сондай-ақ Google Display Network-ті қолданатын миллиондаған веб-сайттар мен қосымшаларда адамдарға жарнама көрсету үшін олардың жеке ақпаратын бақылаудан келетін.

ЖИ-ді әлемге көмектесу үшін қолданғысы келетін Хассабис сияқты адам үшін бұл біршама алаңдатарлық жайт еді. Бірақ ол сонымен бірге, егер бұл мүмкіндікті жіберіп алса, Google оның қызметкерлерін тартып алып, мүмкін ЖЖИ-ді онсыз-ақ жасап шығаратынын білді. Онда қазірдің өзінде жасанды интеллектпен айналысатын жүздеген инженерлер бар еді және Хассабис Калифорниядан келген кездесуге шақырудан бас тарта алмайтынын түсінді.

Пейджбен кездескенде, Хассабис өзіне рухтас адаммен сөйлесіп жатқандай сезінді. Оның алдында қара, қалың қастары бар, қарапайым жейде мен шорты киген тұйық математик отырды. Google-ді құру барысында Пейдж де қуатты жасанды интеллект жасау туралы арманды аялап келген еді. «Ол маған тіпті 1998 жылы сол гаражда болған кезде де Google-ді әрқашан ЖИ компаниясы ретінде елестететінін айтты», — деп еске алады Хассабис.

Бұл ішінара жеке себептерге де байланысты еді, өйткені Пейдждің әкесі 1996 жылы қайтыс болғанға дейін жасанды интеллект және компьютерлік ғылымдар профессоры болған. Бұл оны ЖИ-дің екінші буын технологиі етті. Пейдж Хассабистің ЖЖИ құруға деген байсалдылығына тәнті болды және ол мұны оғаш идея деп санамады. Ол Google-дің ішінде адамға ұқсас ЖИ жасау бойынша тағы бір жобаға рұқсат беріп қойған болатын, бұл жоба кейінірек Хассабиспен қатты бәсекелестік тудыратын еді.

Хассабис ол кезде білмеген Пейдждің жобасы «Google Brain» деп аталды. Ол Google ішінде неғұрлым жетілдірілген ЖИ жүйелерін құрғысы келген Стэнфорд университетінің профессоры, биязы дауысты Эндрю Нг-нің ұсынысы ретінде пайда болды. 2011 жылы, Google DeepMind-қа хабарласпай тұрып, бұл профессор Пейджге «Нейроғылымға негізделген терең оқыту» атты төрт беттік құжат жіберген еді. Профессор Нг Google бас директорынан Хассабис Англияда жұмыс істеп жатқан «жалпы мақсаттағы» ЖИ жүйелерін құру жобасына рұқсат береді деп үміттенді.

Нг мен Хассабистің өз мақсаттарына ұқсас әдістермен баратыны белгілі болды, екеуі де ЖЖИ құру үшін нейроғылымнан шабыт алды. Өз ұсынысында Стэнфорд профессоры Пейджге «сүтқоректілер миының шағын бөліктеріне барынша жақын модельдер» жасайтынын айтты.

Тіпті әлемдегі ең беделді университеттердің бірінде жұмыс істейтін ЖИ саласындағы жетекші тұлға Нг үшін де, ол кезде ЖЖИ құру идеясы даулы болды. «Менің достарым бұл өте оғаш дүние екенін айтып, кеңес берді. Олар: «Бұл сенің мансабың үшін жақсы емес», — деді», — деп еске алады Нг.

Бір жағынан, олардікі дұрыс еді. Ғылыми тұрғыдан алғанда, Нг мен Хассабистің адам миына деген әуестігінде кейбір қиындықтар болды. Теория жүзінде біздің миымызды жасанды интеллект үшін үлгі ретінде пайдалану ақылға қонымды, бірақ биологиядан тапқан дүниемізді көшіру әрқашан нәтиже бермейді.

Ұшу аппараттарын жасаудың алғашқы әрекеттерін және құстардың механикасын қайталайтын құрылғылар жасаған өнертапқыштарды еске түсіріңізші. Олар өздерінің ауыр қанатты машиналарын тікелей жерге соғып тынды. Басқа компьютерлік ғалымдар да миды тым дәл көшіру әрекеттерінде тығырыққа тірелді. 2013 жылы нейробиолог Генри Маркхэм TED-тегі сөзінде суперкомпьютерлерде бүкіл адам миын модельдеудің жолын тапқанын және оған он жыл ішінде қол жеткізетінін айтты. Он жылдан кейін оның «Human Brain Project» жобасы 1 миллиард доллардан астам шығын әкеліп, сәтсіздікке ұшырады.

Жылдар өте келе Нг, Хассабис және басқа да ЖИ ғалымдары біздің ми туралы түсінігіміз — нейрондардың қызметінен бастап ми аймақтарының динамикасына дейін — әлі де толық емес болғандықтан, оны қайталау қаншалықты қиын екенін түсінді. Біздің бассүйегімізде тоқсан миллиардқа жуық нейронның үнемі жұмыс істейтінін білсек те, ол ақпараттың қалай өңделетінін әлі де білмейтін едік.

«Өткенге қарасақ, биологияға соншалықты адал болуға тырысу қателік болды», — дейді Нг. Бірақ Нг-нің зерттеуі ғылымның басқа бір бөлігін өте дұрыс тапты: оның нейрондық желілерін үлкейту.

Нейрондық желі — бұл көптеген деректер арқылы қайта-қайта жаттықтыру арқылы құрылатын бағдарламалық жасақтама түрі. Жаттыққаннан кейін ол беттерді тани алады, шахмат жүрістерін болжайды немесе Netflix-тегі келесі фильміңізді ұсына алады. Сонымен қатар «модель» деп те аталатын нейрондық желі көбінесе біздің миымыздың нейрондарына ұқсас тәсілмен ақпаратты өңдейтін көптеген түрлі қабаттар мен түйіндерден тұрады. Модель неғұрлым көп жаттыққан сайын, сол түйіндер болжау немесе тану ісінде соғұрлым жақсы бола түседі.

Нг бұл модельдердің, егер оларда жаттықтыруға арналған түйіндер, қабаттар мен деректер көбірек болса, көбірек нәрсе істей алатынын анықтады. Жылдар өткен соң, OpenAI осы негізгі компоненттерді «ауқымдандырудың» (scaling up) маңыздылығы туралы ұқсас жаңалық ашады. Стэнфордтағы тәжірибелері кезінде Нг өзінің терең оқыту модельдері үлкенірек болғанда әлдеқайда жақсы жұмыс істейтінін байқады. Нәтижелер оны жігерлендіріп, Пейджге төрт беттік ұсынысын жіберуге итермеледі, ол «адам деңгейіндегі ЖИ-ге» жасалған қадам ретінде «үлкен ауқымды ми модельдеуін» жасауды ұсынды.

Пейджге бұл идея ұнады және ол Нг-ні Google-дің ең озық ЖИ зерттеу жобасын басқаруға шақырып, оны мақұлдады. Бірақ бірнеше жылдан кейін Google Brain ЖЖИ-ге бара жатқандай көрінбеді. Оның орнына ол Google-дің мақсатты жарнама бизнесін жақсартуға көмектесті — пайдаланушылардың не басатынын дәлірек болжай отырып, жарнамаларды одан да дәл көрсетті және компанияның табысын арттырды. Нг бұл Пейджге ұсыныс жібергенде көздеген мақсаты емес екенін мойындайды. «Бұл мен айналысқан ең шабыттандыратын нәрсе емес», — дейді ол.

Нг өзінің ғылыми зерттеулерімен адамзатты ақыл-ой ауырлығынан босатқысы келген еді, дәл өнеркәсіптік революция бізді тұрақты физикалық еңбектен босатқандай. Күшті ЖИ жүйелері кәсіби қызметкерлер үшін де соны істейді, — деп сенді ол, — «сонда бәріміз зияткерлік тұрғыдан қызықтырақ, жоғары деңгейлі тапсырмалармен айналыса аламыз».

Бірақ Нг-нің бұл іске деген көзқарасы Хассабистен өзгеше еді. Британдық кәсіпкер жарнама алпауытынан барынша тәуелсіз болғысы келсе, профессор Нг Google-дің ішінде жұмыс істеуге қуанышты болды. Бұл тұрғыда Нг Хассабиске үлкен көмек көрсетті. Өзін Google-дің негізгі құрылымына орналастыра отырып, Нг-нің зерттеулері компанияның жарнама бизнесіне үлес қоса бастады, сондықтан DeepMind мұны бірден істеуге мәжбүр болған жоқ.

2013 жылдың соңында Google DeepMind-ты сатып алу туралы алғаш рет хабарласқан кезде, Нг-нің зерттеушілері Google-дің жарнама құралдарын қуаттайтын күрделі ЖИ модельдерін құруға кірісіп кеткен болатын, бұл оларды Нг-нің адамзатты ауыр жұмыстан босататын құдіретті ЖИ құру туралы асқақ мақсатынан алшақтатты. Енді Пейдж DeepMind-ты сатып алу бойынша келіссөздер жүргізу үшін Лондонға ұшып келгенде, ол Google ақшасының бір бөлігін неғұрлым ерекше дүниеге жұмсай алатынын білді.

DeepMind негізін қалаушылар Google миллиардерін Лондондағы кеңсесінде қарсы алып, компанияның осы уақытқа дейінгі зерттеулері туралы таныстырылым жасады. Хассабис өз тобының ЖИ жүйесін Atari-дің Breakout ойынын меңгеруге үйрету үшін нығайту арқылы оқыту (reinforcement learning — жүйе өз әрекеттері үшін марапат алу арқылы оңтайлы шешімді табатын оқыту әдісі) деп аталатын жаңа әдісті қалай жасап шығарғанын сипаттап берді. Ойында сіз шарды бүйірден бүйірге сырғитын тақтайшамен кірпіш қабырғаға соғасыз. Шамамен екі сағат ішінде жүйе шарды дәл қажетті жерге бағыттап, жоғарғы қатардағы кірпіштердің артындағы тар кеңістікке жол ашуды үйренді, сонда ол бірден бірнеше кірпішті құлатып отырды. Пейдж тәнті болды.

Бұл әдіс итті бұйрық бойынша отырған сайын тәттімен марапаттауға ұқсас еді. ЖИ-ді жаттықтыруда да белгілі бір нәтиже жақсы болғанын көрсету үшін модельді марапаттайсыз (мысалы, +1 сандық сигналымен). Жүздеген ойындарды қайта-қайта ойнап, қателіктер арқылы жүйе не жұмыс істейтінін, не істемейтінін үйренді. Бұл өте күрделі компьютерлік кодқа оралған қарапайым идея еді.

Содан кейін Легг Пейджге бұл нәтиженің болашақта неге әкелетіні туралы таныстырылым жасады: бұл әдістерді нақты өмірде қолдану. Олардың жүйесі видео ойынды меңгергендей, олар роботқа үй ішінде бағдар алуды немесе автономды агентке ағылшын тілін меңгеруді үйрете алатын еді. DeepMind ашқан жаңалықтар мен ЖЖИ-дің өзі ақыр соңында ең үлкен әсерді осы жерде тигізер еді. Пейдж бен оның командасы бұған сенді.

Пейдж Хассабис және оның серіктестерімен мәміле бойынша келіссөздер жүргізді, ол олардың Facebook-тің үлкен ұсынысынан бас тартқанын білетін. Енді ол мұның себебін білуі керек еді. Хассабис сатылу үшін екі үлкен шарты бар екенін айтты. Біріншіден, ол және оның серіктестері Google-дің DeepMind технологиясын ешқашан әскери мақсатта қолданбағанын қалады, мейлі ол автономды дрондарды немесе қару-жарақтарды басқару болсын, немесе майдандағы сарбаздарға қолдау көрсету болсын. Ол және оның серіктестері мұны Google ешқашан аттап өтпеуі тиіс этикалық «қызыл сызық» деп санады.

Екіншіден, олар Google басшыларынан «әдеп және қауіпсіздік келісімі» деп аталатын құжатқа қол қоюды талап етті. Лондондағы заңгерлер дайындаған бұл келісімшарт бойынша, DeepMind жасап шығаратын кез келген болашақ AGI (Жалпы жасанды интеллект — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) технологиясын бақылау құқығы Хассабис пен оның құрылтайшы серіктесі Сулейман құратын әдеп кеңесіне берілуі тиіс еді. Ол кеңеске кімдер мүше болуы керектігі туралы әлі бұлдыр түсінікте болса да, олар өздері жасақтайтын қуатты ЖИ-ге толық құқықтық қадағалау орнатуды көздеді.

«Егер біз жетістікке жетсек, [AGI] өте мұқият қарауды талап етеді», — дейді Хассабис өзі және серіктестері қалаған кеңес туралы. «Бұл өте әмбебап технология болғандықтан, ол тарихтағы ең қуатты құралдардың біріне айналуы мүмкін. Сондықтан біз бұл жауапкершілікті байыппен қабылдайтын адамдармен бір толқында болғымыз келді».

Google-ды Facebook үшін келісімнің бұзылуына себеп болған дәл осы шартқа көндіру үшін бірнеше айға созылған қиын келіссөздер жүргізілді. DeepMind-ты сатып алу Пейдж үшін AGI жасаған алғашқы компанияның иесі болу мүмкіндігін білдірді. Ол егер бұл әдеп кеңесі технологияны құқықтық тұрғыдан бақылайтын болса, Google-дың компания ретінде одан пайда табуы әлдеқайда қиындайтынын түсінді. Бірақ, соңында Пейдждің идеалистік көзқарасы жеңіп шықты. Олар мұны жүзеге асырудың жолын табатынына сенді. Ол сатып алу шартының бір бөлігі ретінде DeepMind-тың әдеп кеңесі туралы талабына келісті.

AGI тек қана болашақта корпоративтік алпауыттың оны қай бағытқа бұруы мүмкін болғандығы үшін ғана мұқият қарауды қажет етпеді. Ол сондай-ақ технологияны әртүрлі бағытқа бұра алатын бірнеше дамып келе жатқан идеологиялардың орталығында болды. Хассабис мұны ЖИ дамуының тезірек жүруін қалайтын Питер Тиль сияқты инвесторлардан және жас британдық кәсіпкер ақырзаман орнатуы мүмкін деп қауіптенетін Яан Таллиннен байқаған еді.

ЖИ-дің санаға сыймайтын әлеуеті оны қалай пайдалану керектігі туралы берік сенімі бар адамдар үшін діни тартымдылыққа ие болды. Келесі бірнеше жылда бұл идеологиялық күштер AGI-ді бақылау үшін күресіп жатқан инноваторлар мен корпоративтік монополиялармен қақтығысып, технология үшін болжанбайтын қауіпке айналды. Мысалы, олар Сэм Альтманды OpenAI-дан итеріп шығарды және парадоксальды түрде компаниялардың коммерциялық талпыныстарына серпін берді. ЖИ-дің жойқын күші туралы ақырзамандық суретті сала отырып, олар бұл бағдарламалық жасақтаманы бизнес үшін одан сайын тартымды ете түсті. Бизнес пен пайда әлеміне араласа отырып, көптеген ЖИ жасаушылар әртүрлі догмаларды соқыр сеніммен ұстана бастады: бірі утопияға жету үшін ЖИ-ді барынша тез құруды қолдаса, екіншісі оның Армагеддонға себеп болуы мүмкін екендігі туралы үрейді қоздырды.

Бәрін алдын ала есептейтін стратегиялық ойшыл ретінде Хассабис өзін танитын адамдардың айтуынша, AGI көмегімен ұлы әрі бәлкім, илаһи ашылулар жасау туралы өзіндік бірегей мақсаттарының арқасында бұл соғысушы догмалардан тыс қалды. Сулейманды ЖИ жақын арада тудыруы мүмкін әлеуметтік мәселелер көбірек мазалады. Оның бұрынғы әріптестерінің айтуынша, үш құрылтайшының ішінде Шейн Легг AGI-ге ұмтылумен байланысты ең экстремалды идеологияларға, соның ішінде ондаған жылдар бойы қалыптасқан бір ағымға жақын болды. Трансгуманизм (Трансгуманизм — ғылым мен технология арқылы адамның физикалық және ақыл-ой мүмкіндіктерін шектен тыс арттыруды көздейтін қозғалыс) деп аталатын бұл идеяның даулы тамыры мен тарихы ЖИ жасаушылардың неліктен технологияның қазіргі жағымсыз жанама әсерлеріне кейде мән бермейтінін түсіндіруге көмектеседі.

Трансгуманизмнің негізгі қағидасы — адамзат баласы қазіргі күйінде «екінші сортты». Тиісті ғылыми жаңалықтар мен технологиялардың көмегімен біз бір күні физикалық және ақыл-ой шектеулерімізден асып түсіп, жаңа, ақылдырақ түрге айналуымыз мүмкін. Біз ақылдырақ, шығармашыл боламыз және ұзағырақ өмір сүреміз. Тіпті өз санамызды компьютерлермен біріктіріп, галактиканы зерттеуге мүмкіндік алуымыз мүмкін.

Бұл негізгі идея 1940-1960 жылдарға, эволюциялық биолог Джулиан Хаксли Британдық евгеника (Евгеника — адамзаттың генетикалық қорын іріктеу арқылы жақсартуды зерттейтін ілім) қоғамына қосылып, оны басқарған кезге барып тіреледі. Евгеника қозғалысы адамдар сұрыптық будандастыру (іріктеу) арқылы өзін-өзі жақсартуы керек деп есептеді және бұл идея британдық университеттер мен елдің зиялы, жоғарғы топтары арасында кеңінен таралды. Хакслидің өзі ақсүйектер отбасынан шыққан (оның ағасы Олдос «Ғажайып жаңа әлем» романын жазған) және ол қоғамның қаймағы генетикалық тұрғыдан жоғары деп сенді. Төменгі тап өкілдерін нашар өнім сияқты тазартып, мәжбүрлі түрде стерильдеу керек деп санады. «[Олар] тым тез көбейіп жатыр», — деп жазды Хаксли.

Нацистер евгеника қозғалысына жабысқан кезде, Хаксли оған жаңа атау беру керек деп шешті. Ол өзінің эссесінде жаңа «трансгуманизм» терминін енгізіп, дұрыс іріктеумен қатар, адамзат ғылым мен технология арқылы «өзінен асып түсе алатынын» айтты. Қозғалыс 1980-1990 жылдары жасанды интеллект саласының дамуы жаңа мүмкіндік ұсынған кезде қарқын алды: бәлкім, ғалымдар адам санасын ақылды машиналармен біріктіру арқылы оны жетілдіре алар.

Бұл идея сингулярлық (Технологиялық сингулярлық — ЖИ адам интеллектінен асып түсіп, өркениетті түбегейлі өзгертетін болжамды кезең) концепциясында көрініс тапты. Бұл — ЖИ мен технологияның дамығаны соншалық, адамзат машиналармен бірігіп, өзін технологиямен жетілдіретін, түбегейлі әрі қайтпас өзгеріске ұшырайтын болашақ нүктесі. Бұл идея Леггті жас кезінде оқыған кітабы арқылы, сондай-ақ DeepMind-тың бай қолдаушысы Питер Тильді қатты қызықтырды. Технологтардың бұл утопияны бастан өткергісі келгені соншалық, Альтман мен Тиль сияқты кейбіреулер, егер өлімге дейін сананы біріктіру үлгермесе, өз миын немесе бүкіл денесін криоконсервация (Криоконсервация — болашақта тірілту үмітімен денені өте төмен температурада қатырып сақтау) жасау үшін әртүрлі компаниялармен келісімшартқа отырған. «Мен бұның міндетті түрде іске асатынына сенбеймін», — деді Тиль журналист Бари Уайссқа берген подкастында. «Бірақ меніңше, бұл — біз жасауға тиіс дүниелердің бірі».

Бұл идеялардың кейбірінің проблемасы — жылдар өткен сайын олардың ізбасарларының шектен тыс фанатқа айналуында болды. Мысалы, ЖИ акселерационистері деп аталатындар ғалымдар «постадамзаттық жұмақ» (ботаниктерге арналған ерекше бақыт) орнату үшін AGI-ді барынша тез жасауға моральдық тұрғыдан міндетті деп есептейді. Егер бұл олардың көзі тірісінде жасалса, олар мәңгі өмір сүре алар еді. Бірақ ЖИ дамуын тездету — кейбір адамдар тобына зиян тигізетін немесе бақылаудан шығып кететін технология жасауға, асығыстыққа әкелуі мүмкін.

Дәл осы жерде басқалар қарама-қайшы позицияны ұстанып, ЖИ-ді тоқтатуды қажет ететін болашақтың «шайтаны» ретінде көрді. Кофе үстінде Яан Таллиннді радикалдануға итермелеген сақалды либертариан Элиезер Юдковский бұл идеологиялық қозғалыстың жетекші тұлғасы болды және ол LessWrong сайты арқылы бұл қозғалысқа серпін берді. Google 2014 жылы DeepMind-ты сатып алған кезде, жүздеген адамдар, соның ішінде ЖИ зерттеушілері сайтта болашақтың қуатты супер-интеллектінің адамзатты жоюына қалай жол бермеуге болатыны туралы философиялық дебаттар жүргізіп жатты. LessWrong сайты ЖИ ақырзаманы туралы үрейлердің интернеттегі ең ықпалды орталығына айналды, тіпті кейбір баспасөз хабарламалары оның қазіргі заманғы «қиямет күні культіне» тән барлық белгілері бар екенін атап өтті. Бір мүше ЖИ болашақта адамдарды жоюы мүмкін жаңа әдісті ұсынғанда, Юдковский оны бас әріптермен балағаттап, топтан қуып жіберген.

Уақыт өте келе ЖИ «думерлері» (пессимистері) ауқатты технологтар арасында жеткілікті қолдауға ие болды, олар өз күн тәртібін ілгерілету үшін компаниялар ашуға және мемлекеттік саясатты қалыптастыруға ақша құя бастады. Ал Юдковскийдің сайты соншалықты ықпалды болғаны сонша, оның көптеген оқырмандары ақыры OpenAI-ға жұмысқа орналасты.

Бірақ, бәлкім, AGI төңірегінде пайда бола бастаған ең мазасыз идеологиялар — адам түрін цифрлық нұсқада кемелдікке жеткізуге бағытталғандар еді. Бұл идея ішінара Бостромның «Суперинтеллект» кітабы арқылы танымал болды. Кітаптың ЖИ саласына парадоксальды әсері болды. Ол ЖИ бізді «қағаз қыстырғышқа айналдыру» арқылы әкелуі мүмкін жойылу туралы үлкен үрей тудырып қана қоймай, сонымен бірге дұрыс жасалса, қуатты ЖИ орната алатын салтанатты утопияны да болжады. Бостромның айтуынша, бұл утопияның ең тартымды белгілерінің бірі — «қазіргі адамдардан әлдеқайда үлкен қабілеттерге ие» және цифрлық негізде өмір сүретін «постадамдар» еді. Бұл цифрлық утопияда адамдар физика заңдарына бағынбайтын ортаны бастан кешіре алады, мысалы, көмексіз ұшу немесе қияли әлемдерді зерттеу. Олар қымбат естеліктерін қайта сезінуді, жаңа шытырман оқиғалар жасауды немесе тіпті сананың әртүрлі формаларын бастан өткеруді таңдай алады. Басқа адамдармен қарым-қатынас тереңірек болады, өйткені бұл жаңа адамдар ойлары мен эмоцияларын бір-бірімен тікелей бөлісе алады, бұл терең байланыстарға әкеледі.

Силикон алқабындағы кейбір адамдар үшін бұл идеяларға қарсы тұру мүмкін емес еді, олар мұндай қияли өмір салтына дұрыс алгоритмдермен қол жеткізуге болады деп сенді. Бостром болашақты не жұмақ, не тозақ ретінде суреттей отырып, Силикон алқабындағы ЖИ жасаушыларды (мысалы, Сэм Альтманды) Демис Хассабиспен жарысып, AGI-ді бірінші болып жасауға итермеледі: олар AGI-ді бірінші болып құруы керек, өйткені тек олар ғана мұны қауіпсіз түрде жасай алады. Әйтпесе, басқа біреу адамзат құндылықтарына сәйкес келмейтін AGI жасап, Жердегі бірнеше миллиард адамды ғана емес, болашақтағы триллиондаған кемел цифрлық адамдарды да жойып жіберуі мүмкін. Біз бәріміз «нирванада» өмір сүру мүмкіндігінен айырыламыз. Сонымен қатар, Бостромның идеялары жасанды интеллектің қазіргі өмір сүріп жатқан адамдарға қалай зиян тигізуі мүмкін екенін зерттеуден назарды басқа жаққа бұрып, қауіпті салдарларға әкелді.

Осы заманауи технологиялық идеологиялар DeepMind-тың Google-мен келіссөздерімен тұспа-тұс келген кезде, ащы шындық ашылды. ЖИ үшін жауапты басқару формасын табу технологиялық компаниялар үшін қиындай түсті. Бір жағынан діни фанатизмге жуық сенім, екінші жағынан коммерциялық өсуге деген тоқтаусыз аштық — бұл әртүрлі мақсаттар бір-бірімен соқтығысуға бет алды.

Әзірге Хассабис AGI-ге ұмтылудың жеке себептерінің арқасында бұл соғысушы идеологияларды өзінен алшақ ұстады. Ол Силикон алқабынан мыңдаған шақырым алыста, Англияда тұрды және айналасына өте ақылды ЖИ ғалымдары мен инженерлерінен тұратын команда жинады, бұл команда одан әрі өсуге дайын еді. Онымен бірге жұмыс істеген адамдардың айтуынша, Хассабис алдағы бес жылда AGI жұмбағын шешуге бел буды және сол жолда Нобель сыйлығын алатынына сенімді болды. Оның корпоративтік «Голиаттың» құрамына кіргені маңызды емес еді. Ол AGI жасағаннан кейін экономика концепциясы ескіреді, ал DeepMind мен Google ақша табу туралы алаңдамайтын болады. ЖИ бұл мәселені өзі шешіп береді.

Келісімге қол қойылып, әдеп кеңесі сатып алу шартына енгізілгенде, Google DeepMind-ты 650 миллион долларға сатып алды. Бұл құрылтайшылар Цукербергтен алуы мүмкін сомадан едәуір аз болса да, британдық технологиялық компания үшін өте қомақты ақша еді және бұл AGI бақылауын ірі корпорацияның қолына бермеу туралы маңызды келісіммен бірге келді.

Google-дан келген мол қаражат Хассабиске бұдан да талантты зерттеушілерді жинауға мүмкіндік берді. Кейбір қызметкерлерге Google-ға сатылу ұнамаса да, көпшілігі жалақыларының өсуіне және Google-дың құнды акцияларына ие болғанына қуанышты болды, бұл олардың басқа технологиялық фирмаларға кетіп қалу ықтималдығын азайтты. Енді Хассабис Facebook немесе Amazon оның қызметкерлерін тартып алады деп қорықпай, керісінше, олардың қызметкерлерін өзіне тартып, академиялық ортадағы ең үздік ЖИ мамандарын жоғары жалақымен қызықтыра алды. Компанияны озық технологиялар жасау жолына қоя отырып, Хассабис DeepMind-тың құпиялылық мәдениетін сақтап қалды, тіпті компанияның негізгі веб-сайты ортасында дөңгелек логотипі бар бос бет қана болып қалды. ЖИ зертханасының жұмбақ болғаны соншалық, адамдар DeepMind-тың Лондондағы штаб-пәтеріне жұмысқа орналасуға өтініш бергенде, қызметкерлер тіпті электронды поштаға компанияның мекенжайын жазбайтын. Өкіл үміткерлерді жақын маңдағы Кингс-Кросс теміржол вокзалында күтіп алып, кеңсеге жаяу бастап баратын.

Жұмысқа қабылдау кезіндегі сұхбаттарда құрылтайшылар, әсіресе Сулейман өте иландымды болды, дейді бұрынғы менеджерлердің бірі: «Ол өте харизматикалық еді, бұл әлемді өзгертетін нәрсенің бір бөлігі болу — өмірде бір-ақ рет берілетін мүмкіндік екенін жеткізе білетін».

Өз мансабында он жыл немесе одан да көп уақыт өткізген және жеке сектордағы басқа да жоғары ақы төленетін лауазымдарға оңай бара алатын академиктер мен мемлекеттік қызметкерлер Сулейманмен жиырма минуттық әңгімеден кейін AGI құруға көмектесу керек екеніне сеніп шығатын. «Ол революция жақсырақ математикаға негізделетінін түсіндірді», — деп толықтырды бұрынғы менеджер. Хассабис пен Сулейман «әлемдегі ең үздік математиктер мен физиктерді» жұмысқа алатындарын айтатын. Енді Google-дың бөлігі болу арқылы олар әлемдегі ең үздік суперкомпьютерлерге және ЖИ модельдерін оқытуға арналған ең үлкен деректер қорына қол жеткізді.

DeepMind-тың жаңа қызметкерлерінің шамамен 50 пайызы академиялық ортадан келді және олар өз бақыттарына сенер-сенбестерін білмеді. Олар құжат шкафтарына қысылып, грант ақшасын сұрап жүрген жерден, люкс мейрамханалар мен бақтардың ортасындағы жарқыраған кеңселерге, аса жылдам компьютерлер мен шексіз ресурстарға ие болды. Ең бастысы, DeepMind сізді жарнама алпауытында жұмыс істеп жатқандай сезіндірмеуге тырысты. Сіз Science және Nature сияқты беделді ғылыми журналдарда мақалалар жариялайтын және әлемнің ең үлкен мәселелерін шешетін беделді ғылыми ұйымда зерттеу жүргізіп жаттыңыз. Бұл — екі әлемнің ең жақсы тұстарының үйлесімі еді.

Ұзақ мерзімді перспективада бұл мүмкін болмады. Бірақ алты таңбалы жалақы мен керемет жеңілдіктер DeepMind қызметкерлеріне әлемді жақсырақ ету үшін ғана Google-дан осындай ертегідей жалақы алудың қаншалықты оғаш екенін ұмыттырды. Кейде академиялық ортадағы немесе мемлекеттік қызметтегі ескі әріптестері кеңсеге қонаққа келуді сұрағанда, бұл несоответствие (заң. ) сәттері байқалып қалатын.

«Мен ұялатынмын», — дейді академиялық жұмыстан DeepMind-қа ауысқан бұрынғы қызметкерлердің бірі. Оның бұрынғы әріптестері жаңа кеңсесін көргісі келгенде, ол оларды райынан қайтаратын. Оның орнына жақын маңдағы мейрамханаға баруды ұсынатын. Тіпті сол мейрамхананың өзі Дубай қонақүйлеріндегі бес жұлдызды буфет сияқты тағамдар ұсынатын DeepMind асханасынан қарапайымдау көрінетін. «Бұл нақты әлемнен соншалықты алшақ еді», — деп толықтырды ол. «Бұл тіпті күлкілі болды».

Зерттеушілерге «рок-жұлдыздар» сияқты қарайтын. Бірде зерттеушілердің бірі әдетте виза немесе шығындарды өтеу үшін қолданылатын DeepMind қызметкерлерін қолдау қызметіне электронды пошта жазып, егер барлық құлпынайлардың жасыл жапырақшалары алынып тасталса, уақытты тиімдірек пайдалануға болады деп айтқан. Екі күннен кейін буфетте бірде-бір жасыл дағы жоқ, тазартылған құлпынайлар толы ыдыстар тұрды.

Қызметкерлерге AGI құру миссиясы үнемі ескертіліп отыратын, Хассабис жиі зерттеулер мен жетістіктердің қазіргі қарқынымен түпкі мақсатқа жетуге небәрі бес жыл қалғанын айтатын. DeepMind-та жұмыс істеген адамдардың айтуынша, Хассабис компанияның қайда бара жатқаны туралы шабыттандыратын көрініс сала білудің шебері болды. Команданың выездтық кездесулерінде ол мен Сулейман стратегия туралы баяндама жасағанда, бұл болашақ қадамдарды түсіндіруден гөрі, жігерлендіретін жиындарға көбірек ұқсайтын. Құрылтайшылар көбінесе тактиканың ұсақ-түйектеріне тоқталмайтын.

«Мұның бәрі миссияға негізделген еді: 'Кәне, бұл миссияға қосылайық'», — дейді бұрынғы қызметкер. «Демис пен Мұстафа керемет оқиға айтушылар болды. Олар бір-бірін тамаша толықтыратын». Хассабис түн ортасына дейін ғылыми мақалалар оқитын, жетекші зерттеушілермен әдіснамаларды сағаттап талқылайтын және PhD дәрежесі жоқ төменгі лауазымды қызметкерлермен араласпайтын салмақты «ми» болды. DeepMind-та академиялық беделге негізделген қатаң иерархиялық мәдениетті қалыптастырған Хассабис еді. Ал Сулейман барлығы ұмтылып жатқан болашақты суреттейтін харизматикалық көріпкел болды. Бұрынғы қызметкерлердің бірі оны DeepMind-тың «ертегішісі» (pied piper) сияқты болғанын айтады. Үштіктің ішіндегі ең академиялық адамы Легг болса, көбіне көлеңкеде қалатын. «Шейн момындау еді», — дейді қызметкер.

Хассабис AGI-дің өзгертуші күшіне соншалықты сенгені сонша, ол DeepMind қызметкерлеріне шамамен бес жылдан кейін ақша табу туралы алаңдамайтынын айтқан, өйткені AGI экономиканы керексіз етеді, дейді бұрынғы қызметкерлер. Уақыт өте келе бұл жоғары менеджерлер арасында негізгі ойға айналды. «Олар өз қиялдарына өздері мас болды», — дейді бұрынғы менеджерлердің бірі. Олар: «Біз адамзат тарихындағы ең маңызды технологияны жасап жатырмыз», — деп ойлады.

Сахна сыртында Хассабис пен Сулейман Google сатып алу шарты ретінде келіскен әдеп және қауіпсіздік кеңесін құрып жатты, өйткені оларға сақтандырғыш қажет екенін түсінді, Сулейман мұның басты қолдаушысы болды. Google-дың өз акционерлері алдында жыл сайын пайданы арттыру бойынша фидуциарлық міндеті (Фидуциарлық міндет — басқа біреудің мүддесін өз мүддесінен жоғары қоюға негізделген заңды жауапкершілік) болды, оны компания өте сәтті орындап келе жатты. Бұл DeepMind-қа AGI құруға қажетті таланттар мен есептеу ресурстарын бергенімен, бұл жағдай екі жүзді қылыш сияқты еді. Олар AGI жасаған кезде, Google оны монетизациялап, бақылауға алғысы келетіні анық еді. Олар мұның қалай болатынын нақты білмесе де, кеңес ең болмағанда адам деңгейіндегі ЖИ-дің теріс мақсатта пайдаланылмауын қадағалайтын болды.

Сатып алудан шамамен бір жыл өткен соң, DeepMind Калифорниядағы SpaceX штаб-пәтеріндегі мәжіліс залында әдеп және қауіпсіздік кеңесінің алғашқы отырысын өткізді. Кеңес құрамында Хассабис, Сулейман және Леггпен қатар, Илон Маск пен LinkedIn құрылтайшысы, венчурлық инвестор Рейд Хоффман болды. Сонымен қатар бұл кездесуге Ларри Пейдж, Google басшысы Сундар Пичаи, Google заң бөлімінің басшысы Кент Уокер, Хассабистің постдокторлық кеңесшісі Питер Даян және Оксфорд университетінің философы Тоби Орд қатысты.

Кездесу жақсы өтті, бірақ кейін құрылтайшылар Google-дан күтпеген хабар алды. Компания ақыр соңында жаңа әдеп кеңесінің жұмысын жалғастыруын қаламады. Сулейман ашуланды, өйткені ол бұл кеңестің құрылуына барын салған еді. Ол кезде Google-дың түсіндірмесінің бір бөлігі — кеңестің кейбір негізгі мүшелерінде мүдделер қақтығысы бар (мысалы, Маск DeepMind-тан тыс басқа ЖИ жобаларын қолдауы мүмкін) және кеңес құру заңды түрде мүмкін емес дегенге саятын. Кеңестің ғұмыры қысқа болған мүшелері үшін бұл бос сөз сияқты көрінді. Олар шын мәнінде Google-ға табысты ЖИ технологиясын бақылау құқығын басқа адамдар тобына беріп қою идеясы ұнамады деп күдіктенді.

Google-дың келісімді бұзғанына ашуланған Хассабис пен Сулейман компания басшылығына кеңестен айырылғаны туралы шағымданды. Басшыларға DeepMind құрылтайшыларының көңілін тауып, олардың ЖИ зерттеулерінде алға жылжуын қамтамасыз ету керек болды, сондықтан олар алдарына бұдан да үлкен олжа тастаудың жолын тапты. Google-дың жоғары лауазымды менеджері Хассабис пен оның серіктестеріне хабарласып, олардың AGI технологиясын қорғау үшін қолдануға болатын жақсырақ құрылым болуы мүмкін екенін айтты. Ол кезде DeepMind құрылтайшылары мұны білмеген еді, бірақ Google өзін «Alphabet» деп аталатын конгломератқа айналдыруға дайындалып жатқан, бұл оның түрлі бизнес бөлімшелеріне көбірек тәуелсіздікпен жұмыс істеуге мүмкіндік беретін еді. Менеджер құрылтайшыларға бұл жаңа бөлімшелер «автономиялық бөлімдер» деп аталатынын айтты. Бұл қайтадан тәуелсіз компания болу сияқты еді. Олардың жеке бюджеті, теңгерім парағы (баланс), кеңестері және тіпті сыртқы инвесторлары болады. Бұл идея үмітті болып көрінді.

Көзден таса жерде Google-дың шынайы мақсаты — тоқырап қалған акциялар бағасын көтеру болатын. Көптеген жылдар бойы Уолл-стрит сарапшылары Google-дың YouTube, Андроид (астроном. ) (астроном. ) және табысты іздеу жүйесінен бөлек басқа бизнестерін бағалауға қиналатын. Оның Nest (ақылды термостат компаниясы), Calico (биотехнологиялық зерттеу фирмасы), венчурлық капитал бөлімі және «муншот» X lab (аса өршіл, тәуекелі жоғары жобалар зертханасы) сияқты көптеген басқа бизнестері де болды. Бұл бөлімдердің көбі пайда әкелмейтін, бірақ егер олар бас компанияның астындағы жеке фирмаларға айналса, бұл компанияның бухгалтерлік теңгерімін жеңілдетіп, Google үшін ең маңызды бизнес — жарнаманың құнын арттыруға көмектесер еді. Google-дың жарнама бизнесі оның жылдық табысының 90 пайыздан астамын құрайтын. Ең мықты инженерлер жиналған инновациялық технологиялық компания деген беделіне қарамастан, Google басшылығы әлі де адамдарға өздеріне аса қажет емес заттарды сатып алғызу сияқты ескі бизнес түріне басымдық беретін.

AGI (Жасанды жалпы интеллект — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) құруға бар күшін салған Хассабис, Легг және Сулейман Google-дың шынайы ниеті туралы немесе олардың жасанды интеллект зерттеулері бизнесті дамытуға өте пайдалы болып тұрғанда, Google-дың оларға ешқашан автономия бергісі келмейтіні туралы аз ойлады. Керісінше, тәуелсіз болу идеясы оларға жағымды естілді. Бұл Google олардың болашақ ЖИ-ін бақыламайтынын және олардың өздері бұған ұқыпты басқарушы бола алатынын білдірді. «Біз өте қуатты ЖЖИ пайда болған жағдайда бағыт-бағдар бере алу үшін жеткілікті тәуелсіздікке ие болғымыз келді», — деп еске алады Легг. «Біз оқиғалардың даму барысын бақылауда ұстауға жеткілікті мүмкіндігіміз бар екеніне көз жеткізгіміз келді».

Құрылтайшылар келесі бір жарым жылды Пейджбен және басқа да басшылармен осы жаңа корпоративтік құрылымдағы орындары мен «автономиялық бөлім» дегеннің іс жүзінде нені білдіретіні туралы сөйлесумен өткізді. Бірақ Google өзінің Alphabet атауымен қайта құрылғанын жариялағанда, ол DeepMind-қа құқықтық автономия беру жоспарларын растамады да, жарияламады да. Google-дың басқа жобалары, мысалы, Verily Life Sciences жеке компания ретінде бөлініп шыққанда, DeepMind үшін мұндай қадамдар жасалмады. Google өз уәделерін тағы да ұмытып кеткендей болды.

Хассабистің Google-дың оны алдап соққаны туралы ойлануға уақыты аз болды. Алда одан да мазасыз мәселе туындап келе жатқан еді. Сан-Францискода кейбір стартап құрылтайшылары DeepMind-пен бірдей мақсатты көздейтін тағы бір зерттеу зертханасын құрып жатты. Олар жасанды жалпы интеллектті қауіпсіз әрі адамзат игілігі үшін құру туралы үлкен, жаңа идеяны насихаттады. Бұл тұспал Хассабиске ауыр тиді, өйткені бұл әлемдегі ЖЖИ құруға бағытталған басқа үлкен талпыныс — оның өз жобасы — адамзатқа емес, Google-ға көмектесіп жатқанын меңзегендей болды. Жағдайды қиындатқан тағы бір жайт — бұл жаңа ұйымды оның бұрынғы инвесторы Илон Маск құрған еді. Ол OpenAI деп аталды.

6-ТАРАУ

Миссия

2015 жыл болатын. Бес жыл бойы Демис Хассабис өз командасын кеңейтіп, ЖЖИ-ге баратын баяу, бірақ тұрақты жолда зерттеу белестерін бағындырып келді. Ол бұл салада іс жүзінде ешқандай бәсекелессіз жұмыс істеді. DeepMind-тың мақсаты соншалықты радикалды болғаны сошалық, ол іс жүзінде монополия ретінде әрекет ете алды. Әлемдегі ешбір басқа танымал компания адам интеллектінен асып түсетін жасанды интеллект (ЖИ) құруға тырысқан жоқ, бұл Хассабиске зерттеулерді өз қарқынымен жүргізуге мүмкіндік берді. Бұл сондай-ақ DeepMind құрылтайшылары мен қызметкерлеріне өздерін компания емес, миссияға бағытталған зерттеу зертханасы ретінде сезінуге көмектесті. Олар Google-ға тиесілі бола тұра, басқа компаниялар сияқты бәсекелестіктің шексіз «тиін дөңгелегінде» жүгірмей, адамзаттың ең үлкен мәселелерін шешу үшін «интеллектті шешумен» айналысып жатқанына сенді. Олардың ізденісі бірегей болатын. Енді Кремний алқабында бәсекелестің пайда болуы мұның бәрін өзгертуге тиіс еді. ЖЖИ құру жолы жарысқа айнала бастады.

Хассабис OpenAI туралы көбірек білген сайын, оның ашуы да өсе түсті. Ол әлемде бірінші болып жасанды жалпы интеллект құруға шындап кіріскен адам болатын және бес жыл бұрын бұл идеяның тым оғаш саналғанына қарамастан, ғылыми қауымдастық алдында өз беделін қатерге тігіп осы істі бастаған еді. Жағдайды ушықтырған тағы бір жайт — бұл жаңа бәсекелес оның идеяларын пайдалануы мүмкін еді. OpenAI веб-сайтында жеті адам құрылтайшы ретінде көрсетілген. Хассабис есімдерге мұқият қарағанда, олардың бесеуі DeepMind-та бірнеше ай бойы кеңесші және стажер болып жұмыс істегенін түсінді. Онымен бірге жұмыс істеген адамдардың айтуынша, ол сол сәтте қатты ашуланған. Хассабис DeepMind қызметкерлеріне ЖЖИ-ге жету үшін қажетті әртүрлі стратегиялар, мысалы, автономиялық агенттер құру немесе ЖИ модельдерін шахмат пен Го сияқты ойындарды ойнауға үйрету туралы ашық айтып келген еді. Енді осы мәліметтердің бәрін естіген бес ғалым бәсекелес ұйым ашып жатыр.

Техникалық тұрғыдан алғанда, Хассабиске аса қатты алаңдаудың қажеті болмаған шығар. DeepMind-тан тыс жерде де автономиялық агенттермен, виртуалды орталармен және ойындармен ұқсас жұмыс істеп жатқан көптеген басқа зерттеушілер болды. Ол бес бұрынғы қонақтың бірі — deep learning (терең оқыту — көп қабатты нейрондық желілерді пайдалану әдісі) саласына маманданған әйгілі ЖИ ғалымы Илья Суцкевер болатын. Ол DeepMind-тың фирмалық әдісі — нығайту арқылы оқытудың маманы емес еді. Суцкевер OpenAI-дың бас ғалымы болды және өз әріптестері сияқты ЖЖИ мүмкіндіктеріне шын жүректен сенетін.

Бірақ Хассабис Сэм Альтманның DeepMind құпияларын білетін адамдарды жұмысқа алудағы батылдығына әлі де ызалы болды және түнде оны мазасыздық билейтін. Хассабис әдетте жұмыстан үйіне келіп, отбасымен кешкі ас ішіп, содан кейін жұмыс күнінің екінші бөлігін бастайтын. Бұл кештен басталып, түнгі сағат 3:00 немесе 4:00-ге дейін жалғасатын: ол ғылыми еңбектерді оқып, электронды хаттар жіберетін. Осы хаттарның кейбірінде немесе түнгі кездесулерде Хассабис Альтман DeepMind стратегиясын көшіріп, оның зерттеушілерін ұрлауға тырысып жатқанын айтып, дауыстап алаңдаушылық білдірген.

Хассабис OpenAI-дың технологияны жұртшылыққа ашық түрде шығару туралы уәделеріне күмәнмен қарады. Мұндай «ашықтық» тәсілі оған ұшқалақтық болып көрінді. «Ашық бастапқы код барлық мәселенің шешімі деп ойлау біршама аңғалдық деп есептедім», — дейді ол бүгінде. «Сізде барған сайын қуатты қосарлы мақсаттағы технологиялар пайда болғанда, қаскөйлердің сол технологияны жаман мақсаттарда пайдалануы туралы не деуге болады?... Біреудің не істейтінін бақылау мүмкіндігіңіз өте шектеулі». DeepMind өз зерттеулерінің кейбірін танымал журналдарда жариялады, бірақ өз коды мен ЖИ технологиясының толық мәліметтерін қатаң бақылауда ұстады. Мысалы, ол Breakout ойынын меңгеру үшін жасаған ЖИ модельдерін жұртқа жария етпеді.

Қорлықты тереңдете түскені — DeepMind басшылары Масктың Сан-Францискодағы таныстарына Хассабис туралы жағымсыз сөздер айтып жүргенін естіді. Мысалы, миллиардер OpenAI-дың жаңа қызметкерлерімен сөйлескенде, оларды Англиядағы DeepMind жұмысы туралы ескертіп, Хассабисті күмәнді тұлға ретінде сипаттаған. Ол Хассабис жасаған Evil Genius ойынына күмәнмен қарады. Бұл ойында сіз ақырзаман құрылғысын жасап, әлемді жаулап алуға тырысатын зұлым кейіпкер ретінде ойнайсыз. Ондай ойындарды жасаған адамның өзі де аздап есі ауысқан болуы мүмкін. OpenAI қызметкерлері бұл қалжыңды іліп алып, Evil Genius скриншоттары негізінде мемдер жасап, оларды бір-біріне Slack чат қызметі арқылы жіберіп отырды. Тіпті бір кезде Маск Хассабисті «ЖИ-дің Гитлері» деп атаған екен.

DeepMind-қа қарсы шығуының себебі қандай болса да, Маск екі ұйым арасындағы шиеленісті бәсекелестікті қоздыра түсті. Сондай-ақ ол ЖИ-ге қатысты анағұрлым параноидтық, пессимистік көзқарасқа ие бола бастады. Ол, мысалы, климаттың өзгеруімен күресу үшін мұнай компанияларымен жай ғана айқаса алар еді, бірақ оның орнына адамзатты планетааралық түрге айналдыруды ұйғарды. Ол Twitter-ді тым либералды («woke») деп есептегенде, оның акцияларын жай ғана сатып ала алар еді, бірақ ол бүкіл компанияны сатып алды. Мүмкін бұл Масктың түбегейлі әрекеттерге бару әдетінен, асыра сілтеуге бейімділігінен немесе өзін адамзаттың құтқарушысы ретінде сезінуінен болар, бірақ DeepMind-қа инвестиция салғаннан кейін бірнеше жыл ішінде ол ЖИ-ден келетін ақырзаман туралы догмаларға терең бойлады.

New York Times хабарлауынша, ол әйелімен осы мәселе бойынша түн ортасына дейін сөйлесіп, Google құрылтайшысы Ларри Пейдждің DeepMind-ты сатып алғаннан кейін әлдеқайда жетілдірілген ЖИ жүйелерін жасау жолында екеніне алаңдаған. Маск пен Пейдж жақын дос болатын. Олар бірдей эксклюзивті кешкі астар мен конференцияларға баратын және болашақ туралы ұқсас қияли армандары болатын. Егер Маск Сан-Францискода болып, түнейтін жері болмаса, Пейджге қоңырау шалып, оның диванында қона жатуға болатынын сұрайтын. Олар видео ойындар ойнап, болашақ ұшақтар немесе басқа технологиялар туралы идеялармен алмасатын. Маск барған сайын тұйықталып бара жатқан Пейджді тым мейірімді деп ойлайтын. Бұл оны мазалай бастады. Google-дың бірлескен авторы кездейсоқ бір зұлым нәрсе жасап шығаруы мүмкін, — деді Маск өз өмірбаянында, — мысалы, «адамзатты жоюға қабілетті, жасанды интеллектпен күшейтілген роботтар флоты». Маск әзілдеп тұрғандай көрінгенімен, ол өте байсалды еді.

Пейдж DeepMind-ты 650 миллион долларға сатып алғаннан кейін бірнеше ай өткен соң, Маск ЖИ туралы веб-форумда бір хабарлама жариялап, кейін оны тез өшіріп тастады. ЖИ-дің қаншалықты тез дамып жатқанын ешкім түсінбейді, деді ол. «Егер сіз DeepMind сияқты топтармен тікелей байланыста болмасаңыз, мұның қаншалықты жылдам екенін елестете алмайсыз». Ол кейбір «жетекші ЖИ компаниялары» цифрлық супер-интеллекттердің интернетке қашып шығып, ойран салуына жол бермейтініне күмәнмен қарайтынын айтты.

Маск ЖИ ақырзаманы туралы ойларға берілген сайын, бұл мәселеге көбірек ақшасы мен уақытын жұмсай бастады. Ол ЖИ арқылы адамзаттың жойылуын тоқтату бойынша зерттеулер жүргізуге үгіттейтін Future of Life Institute коммерциялық емес ұйымына 10 миллион доллар берді. Содан кейін бұл топ Пуэрто-Рикода конференция ұйымдастырғанда, ол Ларри Пейдж, Хассабис және ЖЖИ құруға ниетті басқа да адамдармен бірге оған қатысты.

Конференциядағы бір кешкі астан кейін Маск пен Пейдж айтысып қалды. Сөз таласы қызған сайын, конференцияға қатысушылар оларды тыңдау үшін айнала қоршай бастады: Пейдж Масктың ЖИ-ге қатысты паранойясы тым асыра сілтегенін айтты. Ол адамзаттың цифрлық утопияға қарай дамып жатқанын, онда біздің санамыз цифрлық әрі органикалық болатынын есте сақтауы керек еді. Егер ол ЖИ туралы осындай шу шығара берсе, ондағы барлық келесі қадамдарды баяулатады.

«Бірақ супер-интеллект адамзатты жойып жібермейтініне қалай сенімді бола аласың? » — деп сұрады Маск.

«Сен speciesist (түршілдік танытып отырсың — тек бір биологиялық түрдің мүддесін жоғары қою)», — деп жауап қайтарды Пейдж. Пейдж болашақтың «адамнан кейінгі» тіршілік иелерін қорғағандай болды. Тек апатқа назар аудару арқылы Маск кремнийден жасалуы тиіс болашақ тіршілік иелерінің қажеттіліктерін ескермей отыр еді.

Бір жағынан, DeepMind-ты бақылап отырып, Маск радикалды көзқарасқа ие болды. Бірақ екінші жағынан, ол FOMO (мүмкіндікті жіберіп алу қорқынышы — Кремний алқабындағы инвестициялық шешімдерге әсер ететін сезім) сезімін бастан кешті. ЖИ жаңа белестерді бағындырған сайын, ірі технологиялық фирмалар бұл салаға көбірек көңіл бөле бастады. Google DeepMind-ты сатып алып қана қоймай, Марк Цукерберг Facebook AI Research (FAIR) деп аталатын жаңа бөлім ашып, оны басқаруға терең оқыту саласындағы әлемдік мамандардың бірі Янн Лекунды жалдады. Дәл осы зерттеулердің жаңа «алтын безгегінің» бір бөлігі болу қалауы Маскты өз қорқынышына қайшы келетін әрекетке — көбірек ЖИ жасауға итермеледі.

Кейінірек Маск Twitter-де OpenAI-ды «Google-ға қарсы салмақ» жасау үшін және ЖИ-ді қауіпсіз дамыту үшін бастағанын айтады. Бірақ ЖИ оның компанияларының қаржылық табысы үшін өте маңызды болғанына күмән жоқ: мейлі ол Тесла көліктерінің автопилоты болсын, SpaceX-тің басқару жүйелері болсын немесе Neuralink компаниясының модельдері болсын.

Масктың ақырзаман туралы көзқарастары мен Демис Хассабиске дейін ЖЖИ-ге жету керек деген моралдық ұстанымдарына қарамастан, Google-дікі сияқты қабілетті ЖИ құру оның бизнесін де алға бастыратын еді. Бұл тиімді іс болатын. Тек осы ғана оның Кремний алқабындағы ең танымал кәсіпкерлердің бірі Сэм Альтманмен жұмыс істеуге неліктен келіскенін түсіндіре алады. Альтман — слайдтардағы «миллиондарды» «миллиардтарға» айналдыратын, Y Combinator-ды болашақ стартаптармен толтырған және ЖИ-ге қатысты амбициялары Ларри Пейдждікіндей зор адам болатын.

Альтман 2015 жылдың 25 мамырында Маскқа электронды хат жіберіп, ЖЖИ-ді бірінші болып «Google-дан басқа біреу» құруы керек екенін айтты. Ол ЖИ жобасын «технология бүкіл әлемге тиесілі болатындай» етіп құруды ұсынды. «Мұны талқылауға тұрарлық», — деп жауап берді Маск. Бір айдан кейін Альтман тағы да хат жазып, «бірінші жалпы ЖИ-ді құратын... қауіпсіздік бірінші кезектегі талап болатын» зертхана құруды ұсынды. ЖИ коммерциялық емес ұйымға тиесілі болып, «әлем игілігі үшін» пайдаланылуы тиіс еді. Маск: «Бәріне келісемін», — деп жауап берді.

Альтман үшін әмбебап ЖИ жүйесін құру — Y Combinator-да ол тәлімгерлік еткен барлық технологиялық стартаптарды алып, оларды бір үлкен «швейцариялық пышаққа» салғанмен тең еді. Бұл қуатты машиналық интеллект шексіз қабілетке ие болуы мүмкін. Жаңа супер-интеллект жер бетіндегі әрбір адамның гүлденуіне жеткілікті байлық жасай алатын болса, бізге бизнес немесе стартаптардың қажеті бар-жоғын кім білсін? Хассабис ЖЖИ ғылым мен құдайдың құпияларын ашады деп сенсе, Альтман оны әлем үшін қаржылық молшылыққа апаратын жол ретінде көрді. Ол мен Маск дәл осыны істей алатын және DeepMind мен Google-ға қарсы салмақ бола алатын зерттеу зертханасын ашу туралы сөйлесті.

Маск пен Альтман жаңа ұйымының ірі технологиялық фирмалардан ерекшеленетін тағы бір жолын тапты. Адамзатқа пайдалы ЖИ құру жолында ол басқа институттармен ынтымақтасады және өз зерттеулерін жұртшылық үшін ашық етеді. Осыдан оның атауы шықты: OpenAI.

Альтман бастапқы құрылтайшылар тобын құруға кірісті. 2015 жылдың жазында ол оншақты жетекші ЖИ зерттеушісін Rosewood қонақ үйіндегі жеке бөлмеде кешкі асқа шақырды. Шақырылғандардың арасында DeepMind-та бірнеше ай өткізген Илья Суцкевер және Stripe компаниясының техникалық директоры болған Грег Брокман болды.

Кешкі ас кезінде Альтман бұл жаңа зерттеу ұйымының мақсаты ЖЖИ құру және содан кейін оның игілігін бүкіл әлемге тарату болатынын түсіндірді. Топ тамақ ішу кезінде мұның мүмкін екендігі туралы ұзақ талқылады — ЖИ-дің байлығын адамзатқа тарату туралы емес, ірі технологиялық фирмалар әлемдегі ең үздік ЖИ мамандарын жалдап қойған кезде мұндай зертхананы бастау мүмкін бе деген сұрақ төңірегінде. Саланың ең үздік зерттеушілерін жалдауға тым кеш емес пе еді?

«Біз ресурстарымыздың ірі технологиялық компаниялармен салыстырғанда өте аз болатынын білдік», — деп еске алды кейінірек Брокман Lex Fridman подкастында. Бірақ егер олар мұндай ұйымды бастаса, оның ЖИ-і адамзатқа пайда әкелетініне көз жеткізу үшін ол қалай құрылуы керек? «Мұндай ұйымның өз миссиясын жоғалтпауы үшін оның nonprofit (коммерциялық емес ұйым — табыс табуды көздемейтін мекеме) болуы керек екені анық болды».

Альтманның көлігімен үйге қайтып бара жатқан жолдың жартысында Брокман мұның қаншалықты қиын екеніне қарамастан, ол бұл іске қосылатынын мәлімдеді. Бұл Кремний алқабы ғой, мұнда тіпті ең ақылға сыйымсыз идеялардың өзі жүзеге асатын жол табады.

Өзі де еңбекқор Альтман Брокманның OpenAI-ды құруға қажетті барлық ұйымдастыру жұмыстарын бірден қалай жоспарлай бастағанына таң қалды. Бұл хаттарға орташа есеппен бес минутта жауап беретін адам еді, демек ол Альтман сияқты осы іске қатты беріле алатын. «Ол толығымен іске кірісті», — деді кейінірек Альтман. OpenAI-ды құруға келгенде Брокман барлық нәрсенің ұйымдастырушысы болды.

Брокман содан кейін Google және Facebook сияқты компаниялардан талантты ғалымдарды тарту жұмысын қолға алды. Ол терең оқыту қозғалысының «өкіл әкелерінің» бірі деп аталған Монреаль университетінің профессоры Йошуа Бенжиоға хабарласты. Брокман Бенжионы жұмысқа алғысы келген жоқ. Ол профессордан ЖИ саласындағы ең перспективалы ғалымдардың тізімін беруді сұрады. Бенжио есімдер тізімін теріп, Брокманға қайта жіберді.

Бұл адамдарды жалдау оңай болған жоқ. Олардың кейбіреулері Google мен Facebook-те миллиондаған доллар жалақы алатын, ал Альтман мен Брокман мұндай сомаларды ұсына алмайтын еді. Олардың қолында әлемді өзгерту туралы тартымды миссия мен жобаны басқарып отырған екі беделді есім болды. Илон Маск қазір бүкіл әлемге танымал магнат болса, Y Combinator-ды басқару Альтманның алқаптағы мәртебесін бәрі танысқысы келетін деңгейге көтерді. ЖИ зерттеушілері үшін бұл жаңа коммерциялық емес топта қысқа уақыт жұмыс істеудің өзі беделді байланыстар мен мансаптық өсуге мүмкіндік беретін еді.

Брокманның тізіміндегі бірнеше жетекші ғалымдар жұмыс туралы сөйлесу үшін онымен кездесуге шешім қабылдады. Үлкен есімдер мен болашақ жоспардан бөлек, оларға бұл жаңа ұйымның «ашық» бөлігі ұнады. Олар қандай да бір корпоративтік өніммен құпия түрде айналысқанның орнына, ақыры өз зерттеулерін жариялауға мүмкіндік алатын еді. Кейбіреулеріне Google мен DeepMind-тың ЖЖИ құруға бағытталған талпыныстарына қарсы салмақ болу идеясы да ұнады. Барлық дерлік ғалымдар келісті, соның ішінде өте сирек жымиятын талантты ғалым Суцкевер де болды. Ресей мен Израильде өскен және терең оқытудың пионері Джеффри Хинтонмен жұмыс істеген ол енді Google Brain-нен OpenAI-ға ауысатын болды.

Оншақты адам жиналғаннан кейін, команда 2015 жылдың желтоқсанында жаңа зертхананы жариялау үшін Канаданың Монреаль қаласындағы NIPS (қазіргі NeurIPS) атты жыл сайынғы ЖИ конференциясына аттанды. Команда мүшелері конференцияның басқа қатысушыларына өздерінің жаңа зертханасы туралы айтып жатқанда, сыртта қар жауып жатты. Нағыз хабарландыру интернетте жасалды. OpenAI. com веб-сайты пайда болып, онда Брокман мен Суцкевер жазған блог жазбасы жобаны таныстырды. «Біздің мақсатымыз — қаржылық табыс табу қажеттілігімен шектелмей, бүкіл адамзатқа пайда әкелетіндей етіп цифрлық интеллектті дамыту», — деп жазды олар.

Маск пен Альтман ұйымға тең төрағалық ететін болды және оған Маск, Тиль, Альтман, Хоффман және Джессика Ливингстоннан 1 миллиард доллар көлемінде қаржыландыру уәде етілді, сонымен қатар Amazon-нан бұлтты есептеу кредиттері берілді. Маск бірнеше жыл бұрын DeepMind-қа ұсынғанындай, OpenAI-ды Тесла акцияларымен қаржыландыруды жоспарлап отырды.

NeurIPS конференциясына қатысқан жүздеген академиктер бұл жаңалықты естігенде қайран қалды. Көбісі AGI (Artificial Генерал Intelligence — адам деңгейіндегі жалпы жасанды интеллект) жасауды бос қиял деп санаса, кейбіреулері іштарлық танытты. Соңғы онжылдықта Big Tech (ірі технологиялық компаниялар) университеттердің ең үздік компьютерлік мамандарын өздеріне тартып жатты, тіпті жасанды интеллект саласындағы ең озық ақыл-ой иелері енді корпоративтік мүдделер үшін жұмыс істейтін деңгейге жетті. Іс жүзінде, университеттерден басталып, Google, Facebook және Amazon-мен аяқталатын жасанды интеллектінің «жинау желісі» қалыптасты. Бұл мәселе көптеген жылдар бойы өзекті болып келген еді.

«Ешкім өз жалақысынан екі немесе үш есе көп ақшадан бас тартпайды», — дейді Лондон Империялық колледжінің компьютерлік ғылымдар профессоры Майя Пантич. Ол 2018 жылы Samsung Electronics компаниясына ЖИ орталығының зерттеу директоры ретінде қосылып, кейін Meta-ға ауысқан. «Менің басымнан өткен жағдай осы. Менің барлық әріптестерімнің де басынан осы өтті». Бұл саланың жарық жұлдыздарына да қатысты болды. Хинтон енді Google-де жұмыс істеді; Фей-Фей Ли Стэнфордтан Google-ге кетті; ЛеКун Facebook-ке ауысты. Нг Стэнфордты Google-ге, содан кейін Қытайдың Baidu компаниясына айырбастады. Тіпті Стэнфорд, Оксфорд және Массачусетс технологиялық институты сияқты үздік университеттер де өздерінің жұлдызды академиктерін әрең ұстап тұрды, бұл келесі буын оқытушылары болуы тиіс орында бос кеңістік қалдырды. ЖИ зерттеулері құпияланып, ақша табуға көбірек бағытталды. Сондықтан Маск пен Альтманның зерттеулерді жұртшылыққа ашық ету туралы бастамасы зерттеушілер үшін өте жағымды жаңалық болды. Соңында біреу ірі компаниялардағы ЖИ білімінің шоғырлануына назар аударды.

Университеттердегі мамандардың кетуі екі себепке байланысты болды. Біріншісі және ең анығы — жалақы. «ЖИ атасы» Джеффри Хинтон бір кездері сабақ берген Торонто университетінде компьютерлік ғылымдар профессорлары жылына шамамен 100 000 доллар табыс табады деп күтілетін. Университеттің ең көп табыс табатын ғалымдары шамамен 550 000 доллар алды. Бұл ең жоғарғы шек еді. Хинтонның үздік шәкірті Суцкевер академиялық ортаға баруға тырысқан да жоқ. Хинтонның стартапында біраз жұмыс істегеннен кейін, ол бірден Google Brain-ге кетті. Genius Makers мәліметінше, OpenAI Суцкеверге қосылу үшін жылына 2 миллион доллар ұсынғанда, Google Brain одан үш есе көп сома ұсынған.

Екінші себеп — ЖИ зерттеулерінде эксперименттер жүргізу үшін қажетті деректер мен есептеу қуаты. Университеттерде әдетте GPU (Graphics Processing Unit — графикалық процессор, ЖИ модельдерін оқытуға арналған қуатты чиптер) саны шектеулі. Пантич академиялық ортада жұмыс істеп жүргенде, отыз зерттеушіден тұратын бүкіл тобы үшін бар болғаны он алты GPU сатып ала алған. Мұндай аз чиптермен ЖИ моделін оқыту үшін айлар қажет болатын. «Бұл күлкілі еді», — дейді ол. Samsung-қа қосылғаннан кейін көп ұзамай ол екі мың GPU-ға қол жеткізді. Мұндай артық есептеу қуаты алгоритмді оқыту бірнеше күн ғана алуы мүмкін екенін және олардың зерттеулері алға қарай қарқынды дами алатынын білдірді.

Академиялық ортада қалған ғалымдар үшін де Big Tech-тің ықпалынан құтылу қиындап бара жатты. 2022 жылғы зерттеу көрсеткендей, соңғы онжылдықта ірі технологиялық фирмалармен байланысы бар академиялық жұмыстардың саны үш еседен астам өсіп, 66 пайызға жеткен. Стэнфорд және Дублин университеттік колледжін қоса алғанда, бірнеше университет зерттеушілері жүргізген зерттеу авторлары бұл жағдайды «ірі темекі компаниялары қолданатын стратегияларға қатты ұқсайды» деді. Бұл өз кезегінде университеттердің ЖИ зерттеулеріндегі табысты өлшеу тәсіліне әсер етті. Қазір Mozilla Foundation-ның аға ғылыми қызметкері, зерттеуді басқарған Абеба Бирханның айтуынша, академиктер адамдардың әл-ауқаты, әділеттілік және инклюзивтілік сияқты құндылықтарға ұмтылудың орнына, жоғары өнімділікке жетуге көбірек бейім болды.

Әл-ауқат пен инклюзивтілік жай ғана дерексіз ұғымдар емес, дейді Бирхан. Олар толықтай өлшенетін нәрселер. «Олар дерексіз болуы мүмкін, бірақ тиімділік пен өнімділік те сондай», — деп толықтырды ол. «Адамдар әділдікті, құпиялылықты және т. б. өлшеудің жолдарын тапты». Мәселені ушықтырып тұрған нәрсе — университеттерден бастап технологиялық компанияларға дейінгі барлық зерттеушілер өздерінің ЖИ модельдерін үлкенірек және қабілеттірек етуге көп көңіл бөлгендіктен, бұл модельдердің кейде нәсілшілдік немесе сексистік нәтижелер беру қаупін де арттырып жатты, дейді Бирхан. Ол өзі авторлас болған тағы бір 2023 жылғы зерттеуге сілтеме жасайды. «Біздің анықтағанымыз — деректер жиынтығы ұлғайған сайын, өшпенділік тудыратын мазмұн да артады».

Дегенмен, масштаб ЖИ саласындағы ірі технологиялық компаниялар жинақтап жатқан өсіп келе жатқан қуат үшін өте маңызды болды. Google мен бұрын Facebook деп аталған Meta компаниясында модельдерді оқыту үшін қолданылуы мүмкін триллиондаған деректер нүктелері болды және олар жүздеген мың шаршы футты қамтитын сервер фермаларын басқарды. Мысалы, қазіргі уақытта Google Орегон штатындағы Даллес қаласында жұмыс істейтін бір деректер орталығы алты футбол алаңынан үлкен. Көптеген университеттер оның тек азғантай бөлігін ғана ұсына алады.

ЖИ-ді ақылдырақ ету мәселесіне келгенде, «көп болған жақсы» деген ұстаным басым болды. OpenAI-да зерттеулерін бастаған кезде, Суцкевер мен оның командасы ЖИ модельдерін әділеттілікке немесе құпиялылыққа емес, барынша қабілетті етуге назар аударды. Қарапайым тілмен айтқанда, мұны істеудің формуласы бар еді. Егер сіз ЖИ моделін көбірек деректермен оқытып, модельдегі параметрлер (модельдің білімін сақтайтын ішкі айнымалылар) санын көбейтсеңіз және оқытуға жұмсалатын есептеу қуатын арттырсаңыз, ЖИ моделі шеберлене түседі. Бұл профессор Эндрю Нг Стэнфордта эксперименттер жүргізген кезде байқаған ерекше байланыс еді. Модельдің не істеуге арналғаны маңызды емес. Барлық «реттегіштерді» барынша бұрасаңыз, ол тілді аударуда дәлірек болады немесе мәтін шығарғанда адамға көбірек ұқсайтын болады.

«Егер сізде өте үлкен деректер жиынтығы мен өте үлкен нейрондық желі болса, табысқа кепілдік беріледі», — деді Суцкевер ЖИ конференцияларының бірінде. Осы мәлімдеменің соңғы үш сөзі ЖИ ғалымдары арасында оның ұранына айналды, әсіресе OpenAI-дың үлкен тұсаукесерінен кейін. Бұл салаға данышпан ғалым мен Кремний алқабының бірнеше ірі ойыншылары басқаратын жаңа коммерциялық емес ұйым туралы толқулар жаңа леп әкелді.

Көп ұзамай мәселелер туындай бастады. OpenAI желтоқсан айында Маск, Тиль және басқалардан жарияланған 1 миллиард долларлық қаржыландыру уәделерін бірден ала алмады. Шын мәнінде, келесі бірнеше жыл ішінде коммерциялық емес ұйым OpenAI-дың федералдық салық есептерін мұқият зерттеген TechCrunch технологиялық жаңалықтар сайтының тергеуіне сәйкес, нақты қайырымдылық ретінде 130 миллион доллардан сәл ғана астам қаражат жинай алды.

OpenAI-да ақша жетіспеді және оның бағыты бұлыңғыр болды. Отыз зерттеушіден тұратын құрылтайшылар тобы Сан-Францисконың Мишн ауданындағы Брокманның пәтерінде, ас үй үстелінде немесе ноутбуктерін тізелеріне қойып, дивандарда жұмыс істей бастады. Іске қосылғаннан бірнеше ай өткен соң, оларға Google Brain-нің тағы бір құрметті зерттеушісі Дарио Амодей келді. Ол зерттейтін сұрақтар қоя бастады. Дос ниетті ЖИ құру және оның бастапқы кодын әлемге жариялау деген не? Альтман барлық бастапқы кодты шығаруды жоспарламағандарын айтып жауап берді, деп жазады New Yorker журналы.

«Бірақ мақсат не? » — деп сұрады Амодей. «Біраз түсініксіз», — деп мойындады Брокман. Олардың мақсаты AGI-дің жақсы дамуын қамтамасыз ету болған еді.

Амодей Маск пен Элиезер Юдковский сияқты ЖИ-ден келетін қауіптерден қорқатын ғалымдардың өсіп келе жатқан тобына жататын. Ол Google-де жұмыс істеп жүргенде, бір жылдан аз уақыт бұрын компанияның Photos қосымшасындағы бейнені тану жүйесі түрлі түсті адамдарды гориллалар деп жіктегені үшін сынға ұшыраған болатын. Google «шошығанын» айтып, Photos-тан горилла белгісін толығымен алып тастады. «Болжап болмайтын қателіктер жіберетін жүйелердің болуы жақсы нәрсе емес», — деді ол осы оқиғаға сілтеме жасап подкастардың бірінде.

Бірақ Амодейдің қауіптері тек алгоритмдердің нәсілшілдік және қорлайтын шешімдерімен шектелмеді. Ол сондай-ақ DeepMind жетілдіріп жатқан нығайту арқылы оқыту (reinforcement learning — ЖИ-дің сынақ пен қателік арқылы шешім қабылдау әдісі) әдісінің роботтар, өздігінен басқарылатын көліктер және Google деректер орталықтары сияқты физикалық жүйелерді басқару үшін қалай қолданылатынына алаңдады. «Әлеммен тікелей байланысқа шығып, нақты физикалық заттарды басқара бастағанда, жағдайдың нашарлау мүмкіндігі... арта бастайды деп ойлаймын», — деді ол 2016 жылы Яан Таллиннның Future of Life институтына берген сұхбатында.

Амодейдің ЖИ зияны туралы зерттеулері оны барған сайын апатты мүмкіндіктерге әкелді және 2023 жылға қарай ол БАҚ-қа бақылаудан шыққан ЖИ адамзаттың жойылу қаупін тудыруының 25 пайыздық мүмкіндігі бар екенін ескерте бастайды. Google Brain мұндай қауіптермен күресуге болатын орын емес еді. OpenAI кеңсесіндегі сол мазмұнды әңгімеден кейін ол бірнеше айдан соң оларға қосылды.

AGI құру үшін OpenAI-дың құрылтайшылар тобына көбірек ақша мен таланттар тарту қажет болды, сондықтан олар баспасөзде жағымды жаңалықтар тудыратын жобаларға назар аударуға тырысты. Олардың алғашқы зерттеушілері стратегиялық 3D бейне ойыны Dota-да адам чемпиондарын жеңе алатын компьютер жасады, сонымен қатар нейрондық желі арқылы Рубик текшесін шеше алатын бес саусақты робот қолын құрастырды. Бұл жобалар Илон Масктің көңілінен шығуға және Атлант мұхитының арғы жағындағы DeepMind-тың құпия кеңселерінде жүріп жатқан жұмыстардан асып түсуге бағытталған еді.

Маск DeepMind-қа деген сенімсіздігін жасырмады. 2017 жылы OpenAI қызметкерлері SpaceX штаб-пәтерінде өткен көшпелі жиынға барды. Алғашында OpenAI кеңсесіне апта сайын, кейін бірнеше аптада бір келіп тұратын Маск оларға нысандарды аралатып, содан кейін өзінің қырық шақты жаңа ЖИ зерттеушілерімен сұрақ-жауап сессиясын өткізді. Бір сәтте Маск OpenAI-ды неге қаржыландырғаны туралы айта бастады, оның себебі Демис Хассабис еді.

«Мен DeepMind инвесторларының бірі болдым және Ларри [Пейдж] Демис ол үшін жұмыс істейді деп ойлайтынына қатты алаңдадым. Шын мәнінде, Демис тек өзі үшін жұмыс істейді», — деді Маск сол жерде болған адамның айтуынша. «Мен Демиске сенбеймін».

Зерттеушілер таң қалды. Олардың көбісіне бұл Масктің ЖИ-дің қайда бет алғанына алаңдаушылығынан гөрі, Хассабиспен жеке ерегісі сияқты көрінді. Одан Хассабиске неге қарсы екенін сұрағанда, ол британдық кәсіпкердің бұрын жасаған, әлемді жаулап алуға бағытталған компьютерлік ойындарын атап өтті.

Сол сессияда Маск DeepMind-тың тағы бір инвесторымен болған әңгімесін еске түсірді, ол Хассабиспен болған кездесуден кейін: «Мен өзімді кинодағы біреу орнынан тұрып, ана жігітті атып тастауы керек сәтте тұрғандай сезіндім», — деген екен. Басқаша айтқанда, Хассабистің бәрін бағындыратын AGI жасауына біреу тосқауыл болуы керек еді.

Маск Хассабисті ұнатпаса да, ол OpenAI қызметкерлеріне DeepMind алда екенін үнемі ескертіп отыратын және британдық компанияның зерттеу жұмыстарын олар жетуі тиіс бағдар ретінде көрсетті. Айлар өткен сайын Маск OpenAI технологиясының DeepMind-тікіндей қуатты емес екеніне көбірек алаңдай бастады, дейді OpenAI-дың бұрынғы қызметкерлері.

Өздерінің ең үлкен демеушісін жоғалтып алмау үшін Альтман мен Брокман кейбір зерттеушілерін DeepMind жасап жатқан жұмыстарды қайталауға бағыттады. Мысалы, Dota жобасының зерттеушілері, егер олардың түпкі мақсаты адамдардың өмірін жақсартатын AGI құру болса, неге ойын симуляциясымен айналысып жатқандарын түсіне алмады. Себебі оларға Масктің ақшасы керек еді. «Егер біз бұнымен айналыспасақ, OpenAI бірнеше жылдан кейін, тіпті келесі жылы болмауы мүмкін», — деді Брокман зерттеушілерге.

OpenAI соңында чат-боттар мен үлкен тілдік модельдер бойынша жұмысымен әлемдік деңгейде танымал болғанымен, оның алғашқы бірнеше жылы DeepMind басымдыққа ие болған мультиагенттік симуляциялар мен нығайту арқылы оқыту салаларында өтті. Бірақ олар бұл салаларда DeepMind-ты қуған сайын, Альтман мен оның басшылық тобы ЖИ-ге деген бұл тәсілдердің нақты әлемге көп әсер етпейтінін түсіне бастады. Міне, осы кезде OpenAI DeepMind-тан мүлдем басқа ұйымға айнала бастады. DeepMind-та PhD дәрежесі бар қызметкерлерді бағалайтын иерархиялық, академиялық мәдениет болса, OpenAI мәдениеті көбіне инженерлік бағытта болды. Оның көптеген үздік зерттеушілері программистер, хакерлер және Y Combinator-дың бұрынғы стартап құрылтайшылары еді. Олар ғылыми ортада жаңалық ашып, бедел жинағаннан көрі, бірдеңе құрастырып, ақша табуға көбірек қызықты.

Маск бұл уақытта шыдамсыздана бастады. Ол Альтманға мықты ғалымдарды жинағанымен, DeepMind-ты басып озатын ешқандай көрсетілімдері жоқ екенін айтып шағымданды. Коммерциялық емес ұйымның үшінші жылы таяғанда, Маск Альтманға олардың Google мен DeepMind-тан тым артта қалып жатқанын айтты. Содан кейін ол тез шешім ұсынды: ол OpenAI-ды өз бақылауына алып, оны Tesla-мен біріктіреді. Маск 2018 жылдың желтоқсанында Альтман мен оның командасына жазған электрондық поштасында: «Үлкен өзгеріссіз OpenAI ешқашан DeepMind-қа жете алмайды. Өкінішке орай, адамзаттың болашағы Демистің қолында», — деді. Басқаша айтқанда, егер Маск тізгінді қолға алмаса, Хассабис-зұлым өз дегеніне жететін еді. Бірақ Альтман мен оның құрылтайшылары бақылауды өздерінде қалдырғысы келді. Олар Масктің ұсынысын қабылдамады.

2018 жылдың ақпанында OpenAI жаңа донорлар туралы жарияланымда Масктің кетіп бара жатқанын қысқаша атап өтті, бірақ оның себебін зиянсыз етіп көрсетті. Маск этикалық себептермен кетіп жатқан еді. Оның ЖИ саласында тым үлкен мүдделер қақтығысы болды. «Илон Маск OpenAI директорлар кеңесінен кетеді, бірақ ұйымға қайырымдылық жасауды және кеңес беруді жалғастырады», — делінген ұйымның блогында. «Тесла ЖИ-ге көбірек көңіл бөле бастағандықтан, бұл Илон үшін болашақтағы ықтимал қақтығыстарды жояды».

OpenAI-дың көптеген қызметкерлері бұның бос сөз екенін білді. Олар Маск қауіпсіз ЖИ жасауға қаншалықты мән беретінін айтқанымен, сонымен бірге ең қабілетті ЖИ-ді жасаған адам болғысы келетініне күмәнданбады. Ол қазірдің өзінде жер бетіндегі ең бай адам болды және Американың инфрақұрылымына бұрын-соңды болмаған ықпалға ие болды: NASA SpaceX арқылы ғарышкерлерді ғарышқа жіберіп жатты; Тесла электрмобиль (мех ж/е маш. жас. ) стандарттарын бастап тұрды; ал Масктің Starlink спутниктік интернет компаниясы Украина соғысының нәтижесіне әсер етуге бағыт алды.

Масктің созылмалы түрде сенімсіз екені анық болды. Ол OpenAI-ға бірнеше жыл ішінде 1 миллиард доллар қайырымдылық жасауға уәде берген еді, бірақ оның орнына 50 миллион мен 100 миллион доллар аралығында ғана қаржы салды — бұл әлемдегі ЖИ үшін ең көп алаңдайтын бай адам үшін болар-болмас сома еді. Бұл ақшаны салу салыстырмалы түрде оңай болар еді, әсіресе ол OpenAI-ды Тесла акцияларымен қаржыландырмақ болғанда. 2015 және 2023 жылдар аралығында Тесла акциялары 18 000 пайыздан астам өсті, демек OpenAI сол 1 миллиард долларлық қаржыландыру мақсатына аса қиналмай-ақ жете алар еді. Маск адамзаттың болашағына қаншалықты алаңдаса да, бәсекелестерден озуға көбірек көңіл бөлгендей көрінді.

Маск OpenAI-дан кеткенде, оның негізгі қаржы көзін де өзімен бірге алып кетті. Бұл Альтман үшін нағыз апат еді. Ол бүкіл беделін осы жобаға тіккен болатын. Әлемнің кейбір үздік ЖИ ғалымдары тек онымен жұмыс істеу үшін аз жалақыға келіскен еді, ал оның адамзатқа көмектесу туралы зор уәделері күлкілі көріне бастады. ЖИ дамуының осы жаңа дәуіріндегі қарапайым шындық мынау еді: табысқа жету үшін сізге бәрінен де көбірек керек болды — зерттеушілерге төлейтін ақшадан бастап, модельдерді оқытуға арналған деректерге және оларды іске қосатын қуатты компьютерлерге дейін. Масксыз бұл қажеттіліктерді өтеу мүмкіндігі тез азайып бара жатты.

Альтман шешуші сәтке жақындады. Сан-Францискодағы OpenAI кеңсесінде отырып, ол өте шектеулі ресурстармен коммерциялық емес ұйымды қалай аман сақтап қалуды және басқалардан қалып қоятын ЖИ модельдерін қалай жасауды ойлады. Екінші нұсқа — бәрін тоқтатып, жобаны жабу еді. Коммерциялық емес ұйым үшін ақша жинау стартапқа қарағанда әлдеқайда қиын болды. Альтман ауқатты адамдарды тікелей қаржылық қайтарым алу мүмкіндігінсіз, тек ізгі ниетпен AGI мақсатына қайырымдылық жасауға көндіре алмай қиналды. Оған ондаған миллион доллар қажет болды, ал Маск оның соңғы үлкен демеушісі еді.

Тағы бір нұсқа бар еді. Мүмкін OpenAI өз демеушілеріне адамзат үшін ЖИ утопиясын орнату мәртебесінен бөлек, қандай да бір тікелей экономикалық пайда ұсына алар. Бұл екі жаққа да тиімді болар еді. Демеушілер «қайырымдылық» емес, «инвестиция» жасайтын болады, бұл Альтман үшін де түсінікті тіл еді. Бірақ ол OpenAI-ға AGI құруға қажетті ақшаны да, есептеу қуатын да бере алатын санаулы ғана әлеуетті демеушілерді көрді. Олар Google, Amazon, Facebook және Microsoft сияқты технологиялық алпауыттар еді. Басқа ешкімде миллиардтаған доллар немесе футбол алаңдарын қамтитын ғимараттарда орналасқан қуатты компьютерлер жоқ еді.

Соңғы бірнеше жыл ішінде OpenAI да, DeepMind да өздері жасаған кез келген аса қуатты ЖИ жүйесінің теріс мақсатта қолданылуына жол бермеу үшін кедергілер қоюға тырысып келген еді. DeepMind өзінің басқару құрылымын өзгертуге тырысты, осылайша Google сияқты пайданы көздейтін монополия AGI-ді еркін монетизациялай алмайтын болады. Оның орнына сарапшы кеңесшілер бәрін бақылауда ұстауы керек еді. Альтман мен Маск OpenAI-ды коммерциялық емес ұйым ретінде құрып, егер олар супер-интеллектуалды машиналар шегіне жақындап қалса, өз зерттеулерін, тіпті патенттерін басқа ұйымдармен бөлісуге уәде берген еді. Осылайша ол адамзаттың мүддесін бірінші орынға қоятын еді.

Енді Альтман аман қалу үшін күресе отырып, сол қорғаныстардың кейбірін алып тастамақ болды. Ол бастаған сақ тәсіл абайсызда батыл нәрсеге айнала бастады және бұл ол мен DeepMind жұмыс істеп келген ЖИ саласын баяу және негізінен академиялық істен «Жабайы Батысқа» ұқсайтын нәрсеге айналдырды. Альтман OpenAI-дың негізгі принциптерінен кетуін ақтау үшін өзінің сендіре білу қабілетін қолданды. Ол технологиялық компанияның құрылтайшысы еді, ал құрылтайшылар кейде бағытты өзгертуге мәжбүр болатын. Кремний алқабында бәрі осылай жұмыс істейтін. Оған тек OpenAI-дың кейбір негізгі принциптерін сәл ғана өзгерту керек болды.

2-БӨЛІМ ЛЕВИАФАНДАР

7-ТАРАУ Ойындар ойнау

Лондонның Кингс-Кросс вокзалынан (туристер Гарри Поттер Хогвартсқа баратын сиқырлы пойыз платформасын көру үшін ағылатын жер) сәл ғана жерде, сұр аспанға қарай бой түзеген, әйнек пен металл қаптамалардан тұратын жылтыр зәулім ғимараттардың ішінде сиқырдың басқа түрі жасалып жатты. Олардың арасында жаяу жүргіншілерге толы әдемі серуендеу жолы бар еді. Олардың кейбіреулері DeepMind-тың инженерлері мен жасанды интеллект ғалымдары болатын, олар ресми түрде Google-ге тиесілі, бірақ екі қабаты олардың құпия ЖИ зертханасына берілген кеңсе ғимаратының әйнек есіктерінен кіріп бара жатып, қалталарынан бейдждерін шығарып жатты.

DeepMind Google-дің бір бөлігі болудан алған барлық жеңілдіктерге қарамастан (ұйықтау капсулалары, массаж бөлмелері және жабық жаттығу залы), оның құрылтайшылары әлі де өздерінің бас компаниясы Alphabet-тің қыспағынан шығуға тырысып жатты. Сатып алудан бері екі жылдан астам уақыт өткен еді және технологиялық алпауыттың басшылары Демис Хассабис, Мұстафа Сүлейман және Шейн Леггке жаңа мүмкіндік ұсынды. DeepMind «автономиялық бөлімше» болудың орнына, өзінің жеке кіріс пен шығыс есебі бар «Alphabet компаниясына» айнала алатын еді.

Англияда орналасқан және Кремний алқабына тән тоқтаусыз өсу этикасынан алыс болғандықтан, негізін қалаушылар Google-дың ұсынысын шынайы ниет деп қабылдады. Сулейман DeepMind-тың жеке бизнес ретінде аяққа тұра алатынын көрсеткісі келді, сондықтан ол ЖИ (Жасанды интеллект) жүйелерінің шынайы әлемдегі құндылығын дәлелдеуге кірісті. Ол өзі ашқан «Applied» (Қолданбалы) бөліміне жаңа серпін берді. Бұл бөлімнің зерттеушілері денсаулық сақтау, энергетика және робототехника саласындағы мәселелерді шешу үшін reinforcement learning (нығайту арқылы оқыту — ЖИ-дің сынақ пен қателік арқылы оңтайлы шешім табу әдісі) техникаларын қолданып, оларды әлеуетті бизнеске айналдыруды көздеді. Өздерін «Google-ға арналған DeepMind» деп атайтын жиырма шақты зерттеушіден тұратын тағы бір топ тікелей Google бизнесіне көмектесетін жобалармен айналысты. Мысалы, YouTube ұсыныстарын тиімдірек ету немесе Google-дың жарнамалық алгоритмдерін (есептеулер мен логикалық амалдардың реттелген тізбегі) жақсартумен шұғылданды. Осы келісімдерден хабары бар адамның айтуынша, Google бұл мүмкіндіктерге қосылған құннан түскен табыстың 50 пайызын DeepMind-қа беруге келіскен. Тағы бір бұрынғы қызметкердің айтуынша, жобалардың шамамен үштен екісі Google үшін пайдалы болып шықты.

Бұл жағдай DeepMind-тың жүздеген басқа зерттеушілеріне AGI (Жалпы жасанды интеллект — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) құру жолдарын зерттеуді жалғастыруға мүмкіндік берді. Бірнеше аптада бір рет негізін қалаушылар Лондон пабтарының бірінде кездесіп, жұмыс жайын талқылайтын, сонда олардың пікірталастары үйреншікті қайшылықтарға тірелетін. Сулейман шынайы әлемдегі мәселелерді шешкісі келді, бірақ сонымен бірге олар абайсызда бағыттан таятын суперинттеллект жүйесін құрып алуы мүмкін деп алаңдады. «Егер ЖИ бақылаудан шығып, адамдарды айла-шарғымен басқарса ше? » — деп сұрайтын ол. Кеңседе ол басқа қызметкерлер мен менеджерлерге ЖЖИ-дің экономикаға әсері миллиондаған жұмыс орнының кенеттен жойылуына және табыстың күрт төмендеуіне әкелуі мүмкін екенін ескертті. «Егер бұл көтеріліске әкелсе ше? Егер біз теңдік туралы ойланбасақ, адамдар Кингс-Кроссқа айыр ұстап келеді», — дейтін ол бұрынғы қызметкердің айтуынша.

Хассабистің миы шешімдер іздейтін, бірақ олар кейде тым оғаш естілетін. Мысалы, ол ЖИ қуаттырақ әрі қауіптірек бола бастағанда, Лос-Анджелестегі Калифорния университетінің профессоры Теренс Таоны жұмысқа алуды ұсынды. Тао қазіргі таңдағы әлемнің ұлы математиктерінің бірі болып саналатын. New Scientist журналының жазуынша, тоғыз жасында колледжге барған бұрынғы вундеркинд Тао тығырыққа тірелген зерттеушілер үшін «Мәселе шешкіш мырза» ретінде танымал болған.

Тао өз сұхбаттарында ЖИ-ді негізінен тапқыр математика деп атап, әлемде ешқашан шынайы ЖИ болмауы мүмкін екенін айтқан болатын. Ол бұл технологияны Хассабис сияқты механикалық және ақ-қара түсті деңгейде көрді. Егер ЖИ бақылаудан шықса, математика оны тежей алар еді. Хассабис бұған сенетін жалғыз адам емес еді. Юдковскийдің [LINK url=”https://www. lesswrong. com/”]LessWrong[LINK] форумында мүшелер Тао сияқты топ-математиктерді AI alignment (ЖИ үйлестіру — ЖИ-дің адамзат құндылықтарына қайшы келмеуін қамтамасыз ету тәжірибесі) мәселесімен айналысуға қалай көндіруге болатынын талқылайтын ұзақ жоба бастаған. Олар бұл математика жұлдыздарына 5 миллионнан 10 миллион долларға дейін жалақы төлеу керек деген цифрларды алға тартты.

Хассабис ЖЖИ-ге жақындағанда, ЖИ модельдерінің өнімділігін арттыруды тоқтатып, әлемнің ең үздік ақыл-ой иелерін оларды ең ұсақ бөлшектеріне дейін талдауға шақыруды армандады. Осылайша олар ЖИ-ді тежеу үшін ең дәл есептеулерді табуға көмектесер еді. «Бәлкім, біз математиктер мен ғалымдардың басын қосатын «Кек алушылар жиналысын» (Avengers Assemble) жариялауымыз керек шығар», — дейді Хассабис әлі күнге дейін.

Сулейман серіктесінің бұл көзқарасымен келіспеді, ол мұны сандар мен теорияға тым қатты көңіл бөлу деп есептеді. Ол ЖИ-ді қауіпсіз ету үшін оны тек ақылды математика емес, адамдар басқаруы керек деп сенді. Ол мен Хассабис ЖИ-ді тежеудің ең жақсы стратегиясын талқылап жатқанда, Google басшылығынан «Alphabet компаниясына» айналу жоспары туралы жаңа хабар алды. Басшылар бұл идеяның іске аспайтынын айтты. Бөлініп шығу оңай болмады, өйткені ЖИ Google бизнесі үшін барған сайын құнды бола түскендіктен, үлкен компанияға DeepMind бұрынғыдан да қажет болды.

Google-дың тағы да райынан қайтқанын көрген негізін қалаушылар өздерін «дежавю» күйінде сезінді. Бірақ басшылар алаңдамауды өтініп, әлі де ымыраға келуге болатынын айтты. Олар енді үшінші нұсқаны ұсынды: DeepMind ішінара бөлініп шығып, суперинттеллект ЖИ-ді құру барысын қадағалайтын өз сенімді өкілдер кеңесіне ие бола алады, бірақ Alphabet ЖИ компаниясының бір бөлігіне иелік етіп қалады. Ниеттерінің байсалдылығын дәлелдеу үшін Alphabet бұл міндеттемені жазбаша түрде бекітті. Бұл келісімнен тікелей хабары бар адамның айтуынша, басшылық терм sheet-ке қол қойды, онда Google DeepMind-қа он жыл ішінде тәуелсіз жұмыс істеуі үшін нысаналы капитал ретінде 15 миллиард доллар қаржы бөлуге уәде берген. Хассабис DeepMind-тағы көптеген адамдарға бұл құжатқа Сундар Пичаи қол қойғанын айтты. Пичаи сол кезде Google-дың атқарушы директоры болса, бірнеше жылдан кейін Alphabet-тің бас директоры болатын. Бұл жолы Google өз уәдесіне берік екенін көрсетті.

Терм sheet (Шарттар тізімі) — бұл әлеуетті бизнес-келісімнің талаптары мен шарттарын сипаттайтын құжат. Ол әдетте әрі қарайғы келіссөздер үшін бастапқы нүкте болады және оның заңды күші жоқ.

Солай болса да, жазбаша келісім ауызша айтылғаннан гөрі салмақтырақ, сондықтан DeepMind негізін қалаушылар Google-дың оларды еркіндікке жіберу уәдесіне бұл жолы сенді. Олар DeepMind-ты OpenAI сияқты бизнеске емес, қайырымдылық ұйымына ұқсас ресми құрылымы бар өзгеше бизнес түріне айналдыруға күш салуды ұйғарды.

Хассабис пен Сулейман бөлінудің қаржылық тетіктерін жасау үшін инвестициялық банкирлерді, сондай-ақ өздерін тәуелсіз ұйым ретінде қайта құрудың заңдық жоспарларын жасау үшін Лондондағы екі заң фирмасын жалдады. Олар Shell, Vodafone және тау-кен алыбы BHP Billiton сияқты ірі компаниялардың мәмілелерін басқарған Ұлыбританияның үздік корпоративтік адвокатынан кеңес алды.

Олар сондай-ақ жаңа басқару құрылымын жоспарлады: Хассабис, Легг және Сулейман жедел басқару кеңесінде Alphabet-тің бас директоры Ларри Пейджбен, оның серіктесі Сергей Бринмен, Google-дың сол кездегі өнім жөніндегі директоры Сундар Пичаимен және үш тәуелсіз коммерциялық директормен бірге отырады. Шешімдер көпшілік дауыспен қабылданады. Ең бастысы, DeepMind-тың әлеуметтік және этикалық миссиясының сақталуын қадағалайтын алты директордан тұратын толық тәуелсіз сенімді өкілдер кеңесі болады. Бұл директорлардың есімдері, сондай-ақ олардың шешімдері жұртшылық үшін ашық болады. Бұл алты директор әлемдегі ең қуатты әрі қауіпті технологиялардың кейбірін бағыттайтын болғандықтан, олар жоғары деңгейлі, сенімді адамдар болуы керек еді. Сондықтан DeepMind тіпті биікке ұмтылып, бұрынғы президент Барак Обаманы осы директорлардың бірі болуға шақырды, сондай-ақ АҚШ-тың бұрынғы вице-президенти мен ЦРУ-дың бұрынғы директорына да ұсыныс жасады. Осы жұмысқа жақын адамның айтуынша, бұл адамдардың бірнешеуі қатысуға келіскен.

Заңгерлермен кеңескеннен кейін DeepMind Сэм Альтман бастапқыда таңдаған коммерциялық емес ұйым жолымен жүрмеуге шешім қабылдады. Оның орнына негізін қалаушылар «жаһандық мүдделер компаниясы» немесе GIC (Global Interest Company) деп аталатын мүлдем жаңа заңды құрылымды ойлап тапты. Идея бойынша, DeepMind Біріккен Ұлттар Ұйымының бөлімшесіне ұқсас, адамзат игілігі үшін ЖИ-ді ашық әрі жауапты басқаратын ұйымға айналуы тиіс еді. Ол Alphabet-ке эксклюзивті лицензия береді, осылайша DeepMind-тың Google-дың іздеу бизнесіне қолдау көрсете алатын кез келген ЖИ жетістіктері технологиялық алғыпқа тиесілі болады. Бірақ DeepMind өз ақшасының, талантының және зерттеулерінің басым бөлігін дәрі-дәрмектерді табу, денсаулық сақтауды жақсарту немесе климаттың өзгеруімен күресу сияқты әлеуметтік миссиясын ілгерілетуге жұмсайды. Іштей олар бұл жобаны GIC деп атады.

Алайда, олар Google-дан бөлінуге тырысып жатқанымен, DeepMind бір мезгілде Google бизнесін нығайтуға көмектесіп жатты. Google-дың Ларри Пейджі DeepMind-қа бөлінуге көмектесуге уәде беріп жатқан кезде, ол Қытайды кеңеюдің жаңа мүмкіндігі ретінде қарастырды. Google-дың АҚШ пен басқа да батыс нарықтарындағы бизнесі толысқан кезде, Қытай бірегей мүмкіндік берді. Бұл әлемдегі ең халқы көп ел еді, онда 650 миллионнан астам интернет пайдаланушысы болды, бұл АҚШ-тың бүкіл халқынан екі есе көп. Және Қытайда онлайн бола алатын адамдардың тек жартысы ғана желіде болды, бұл Қытайдың орасан зор, әлі игерілмеген нарық екенін білдірді. Қытайдың орта табысы өсіп, тұтынушылық шығындар артып, оның жалпы ішкі өнімі шамамен 11 триллион долларды құрап, әлемдегі екінші ірі экономикаға айналды. Бұл кез келген интернет компаниясы үшін нағыз «алтын кені» еді.

Бірақ Google Қытайға жай ғана кіре салмады. Шын мәнінде, 2010 жылы ол Бейжіңді интеллектуалдық меншікті және қытайлық құқық қорғаушылардың Gmail аккаунттарын бұзды деп айыптағаннан кейін елден кеткен болатын. Қытай үкіметі Google-дан Тяньаньмэнь алаңы және Қытай Коммунистік партиясы үшін басқа да даулы тақырыптар туралы іздеулерді цензуралауды талап етті. Содан кейін ол Facebook пен Twitter-ге кіруді бұғаттап, «Ұлы Қытай файерволы» (Great Firewall) деп аталған жүйені орнатты. Google басшылығы бұның бәрі уақытша деп сенді, өйткені Қытай азаматтары жақын арада Кремний алқабының алпауыттары ұсынатын ыңғайлы әрі қуатты қызметтерді талап етеді деп ойлады.

«Ұзақ уақыт аралығында бұндай режимдік тәсіл аяқталады деп ойлаймын ба? Меніңше, міндетті түрде», — деді Google-дың сол кездегі төрағасы Эрик Шмидт 2012 жылы Foreign Policy журналына берген сұхбатында.

Шмидт қателесті. Қытайдың өз интернет секторы әлсіреудің орнына қарқынды дамыды. Кремний алқабында жұмыс істеп, компания ашқан қытайлық инженерлер өздерінің технологиялық алпауыттарын құру үшін отанына оралған кезде Meituan, Baidu және Alibaba сияқты компаниялар нағыз алпауыттарға айналды. Microsoft Research Asia-да жұмыс істеген көптеген инженерлер Alibaba және Tencent сияқты қытайлық интернет алпауыттарында басшылық лауазымдарға ие болды. Google кеткеннен кейін бес жыл өткен соң, ол елдің нарығының барған сайын тиімді бола бастағанын көрді, бірақ қайта оралудың нақты жолы болмады. Қытайдың цензура туралы ережелері өзгерген жоқ. Бірақ Google өсіп келе жатқан тұтынушылық нарықты да, Қытайда гүлденіп жатқан кейбір инновациялық инженерлік идеяларды да пайдалануға асық болды. «Бізге шабыт алу үшін ол жерде не болып жатқанын түсінуіміз керек. Қытай бізге білмейтін нәрселерді үйретеді», — деді сол кезде Google-дың іздеу бөлімінің басшысы Бен Гомес The Intercept басылымына.

Осы уақыт шамасында Google басшылығында үлкен өзгеріс болды. 2015 жылы Пейдж бен Брин қайырымдылықтан бастап ұшатын көліктер мен ғарышты игеруге дейінгі жеке мүдделерін қуу үшін өздері құрған компаниядан біраз алшақтады. Олар Пичаиді жаңа бас директор етіп тағайындады. Пичаи DeepMind негізін қалаушылар бөлініп шыққаннан кейін өздерінің жаңа жедел басқару кеңесіне қосуды жоспарлап отырған, беделді өнім жөніндегі директор еді. Бірақ Пейджден айырмашылығы, оның Google-дың ең құнды сатып алуларының бірін жіберіп алуға уақыты да, ниеті де болмады. Ол мен Шмидт Қытайға қайта оралудың шығармашылық жолдарын іздеумен айналысты. Сол жылы бір кезде олар Бейжіңнен өздерінің қолданбалар дүкенін елге қайтаруға рұқсат алатын сияқты көрінген, бірақ ештеңе болмады.

Содан кейін DeepMind-ты басты назарға шығаратын қоғаммен байланыс мүмкіндігі туды. DeepMind өз ЖИ модельдерін ойындармен жаттықтырып келген еді, ал оның соңғы бағдарламасы — AlphaGo екі ойыншыға арналған Го стратегиялық тақта ойынын ойнай алатын. Осыдан 2500 жылдан астам уақыт бұрын Қытайда пайда болған Го ойыны алдамшы түрде қарапайым көрінетін. Ол он тоғыз да он тоғыз торы бар тақтада бірнеше қара және ақ тастармен ойналады. Ойыншылар кезек-кезек тордың қиылысына тас қояды. Мақсаты: бос нүктелерді өз тастарыңмен қоршап алу арқылы тақтада аумақты басып алу және қарсыластың тастарын да қолға түсіру. Бұл барлық ойындардың ішіндегі ең күрделі стратегиялық ойындардың бірі, тақтадағы позициялардың саны 10^170 шамасында, бұл бақыланатын ғаламдағы атомдардың болжамды санынан (шамамен 10^80) әлдеқайда көп.

Пейдж серіктесі Сергей Бринмен бірге бірнеше жыл бұрын Стэнфордта компанияны құрып жатқанда Го ойнаған болатын және ол сатып алғаннан кейін бірнеше аптадан соң Хассабиске ойынға деген қызығушылығын айтқанда, Хассабис оның командасы адам чемпионын жеңе алатын ЖИ жүйесін құра алатынын айтты.

Хассабис тек жаңа бастығын таң қалдырғысы келген жоқ. Ол білікті ғалым болумен қатар, ерекше маркетолог та еді. Ол егер AlphaGo Го бойынша әлем чемпионын IBM-нің Deep Blue компьютері 1997 жылы шахматшы Гарри Каспаровты жеңгендей жеңе алса, бұл ЖИ үшін жаңа белес болатынын және DeepMind-тың осы саладағы көшбасшылығын бекітетінін түсінді. DeepMind оңтүстіккореялық Ли Седольді нысанаға алып, оны 2016 жылдың наурыз айында Сеулде бес ойыннан тұратын матчқа шақырды.

Екі жүз миллионнан астам адам Лидің DeepMind компьютеріне қарсы Го ойнағанын онлайн және теледидар арқылы тамашалады. Бағдарламаны басқаратын DeepMind ғалымы әжетханаға бару қажеттілігі туындамас үшін матчтан бірнеше сағат бұрын су ішуді тоқтатты. Хассабис матч барысында AlphaGo-ның басқару бөлмесі мен жеке көру аймағының арасында ары-бері жүрді. Ол тамақ іше алмады. Оның командасы AlphaGo-ның нейрондық желісіне (адам миының жұмыс істеу принципіне негізделген есептеу моделі) отыз миллион ықтимал жүрісті үйреткен болатын.

Го ойынында жеңіске жету үшін ойыншылар қарсыластың тастарын толығымен қоршап алуы керек және бұл үшін стратегияның әртүрлі нюанстары қажет: шабуыл мен қорғаныс қажеттілігін теңгеру, ұзақ мерзімді және қысқа мерзімді мақсаттар, сондай-ақ қарсыластың жасауы мүмкін жүрістер тізбегін болжау. Бұл тастарды тордың қай сызығына қоятыныңды мұқият таңдау дегенді білдіреді. Жиекке ең жақын бірінші сызықтар сирек қолданылады, өйткені олар аумақты басып алу үшін қарсыласты қоршауға көп мүмкіндік бермейді. Сондықтан Лиге қарсы екінші матчта AlphaGo ойынның отыз жетінші жүрісінде оғаш қателік сияқты көрінген әрекет жасады. Ол өз тасын тақтаның оң жағынан бесінші сызыққа қойды. Әдетте, бесінші сызықтағы жүрістер тиімділігі төмен деп саналады, өйткені олар қарсыласқа төртінші сызықта аумақтық басымдық береді. Бесінші сызыққа қою ысырапшылдық деп есептелетін. Жүріс соншалықты кенеттен әрі қалыптан тыс болғаны сонша, Ли жауап қайтару үшін он бес минут ойланып, тіпті бөлмеден шығып кетті.

«Бұл өте таңқаларлық жүріс», — деді бір комментатор, түсініктемеші (іс жүргізу), ол AlphaGo-ның операторы тақтадағы қате ұяшықты басып қалды деп ойлады.

Бірақ шамамен жүз жүрістен кейін бұл оғаш стратегияның мәні ашыла бастады. AlphaGo-ның тақтаның төменгі сол жағындағы екі қара тасы екінші жағына өтіп, сол бесінші сызыққа қойылған таспен тамаша жалғасты. Тағы төрт сағаттық ойыннан кейін Ли жеңілгенін мойындады. Ол және комментаторлар отыз жетінші жүрісті «әдемі» деп сипаттады. Хассабис бұл ЖИ-дегі шығармашылықтың ұшқынын көрсетті деді. Жалпы алғанда, AlphaGo Лиге қарсы бес матчтың төртеуінде жеңіске жетті.

Бұл ЖИ үшін тарихи сәт болды, ол DeepMind-қа бұрын-соңды болмаған үлкен медиа назарын аударды, соның ішінде AlphaGo туралы Netflix-тің марапатқа ие болған деректі фильмі шықты. Хассабис келесі жобаға көшу үшін бағдарламаны осы жоғары нотада аяқтауға дайын еді.

Бірақ Google мұны мүмкіндік деп көрді. Ол Бейжіңге Google-дың технологиялық қуатын көрсеткісі және Қытайға қайта оралудың жаңа жолын ашқысы келді. Басшылар AlphaGo Қытаймен жаңа «пинг-понг дипломатиясын» (1971 жылы АҚШ пен Қытай арасындағы қарым-қатынасты жақсартуға көмектескен үстел теннисі ойыншыларының алмасуы) бейнелей алады деп ойлады. Егер Кореядағы матч DeepMind үшін жарнама болса, Қытайдағы келесі матч Google үшін болуы керек еді.

Google DeepMind-тан AlphaGo-ны сол кездегі әлемнің бірінші нөмірлі Го ойыншысы деп танылған, Қытайда тұратын он тоғыз жасар Кэ Цзеге қарсы шығаруды талап етті. Кэ Цзе Ли Седольден мүлдем өзгеше ойыншы еді, ол қарсыластарын мазақ еткенді және өзін мақтағанды жақсы көретін. Бірақ Google да одан кем түспей, өз технологиясын паш етіп, Қытайға қайта жол табамыз деп паңданды.

Бұл жағдай Хассабисті алаңдатты. Егер AlphaGo жеңсе, бұл «жаман ЖИ» адамдарды қайта-қайта жеңіп жатқандай көрінер еді. Егер олар жеңілсе, Оңтүстік Кореяда жасаған барлық беделі жойылар еді. Қай жағынан алса да, бұл тиімсіз болып көрінді.

Алайда, Google-дың Қытайға кіруге қатты құмар екенін біле отырып, Хассабис стратегиялық қабілетін пайдаланып Пичаимен ымыраға келді: олар тағы бір матч өткізеді, бірақ бұл жолы AlphaGo-ның «AlphaGo Шебер (өнер)» деп аталатын жаңа нұсқасын қолданады. Ол жүздеген түрлі компьютерлерде емес, Google чипімен жұмыс істейтін бір ғана машинада орындайтын болады. Осылайша, олар матчты адам чемпиондарын жеңудің кезекті әрекеті емес, жаңа ЖИ жүйесін сынау ретінде көрсете алар еді. Егер жүйе жеңілсе, оны бастапқы AlphaGo-мен салыстыруға болмайтынын айтып, беделін сақтап қалатын, ал егер жеңсе, жаңа, қуаттырақ жүйені жариялай алар еді. Google өзінің жаңа TensorFlow (машиналық оқытуға арналған ашық бағдарламалық платформа) атты оқыту платформасын жарнамалап, Қытайдағы кейбір ірі корпоративтік клиенттерді бұлттық есептеулер бизнесі үшін тарта алар еді. Пичаи келісті.

Матч 2017 жылдың мамыр айында Қытайдың Учжэнь қаласында өтті. Google басшылары соңғы бір жыл бойы Қытай үкіметінің шенеуніктерін оны Қытайдың теледидар және интернет қызметтері арқылы бүкіл елге көрсетуге көндіруге тырысқанымен, матч елдің көп бөлігінде бұғатталып қалды. Жаңа AlphaGo Кэ Цзеге қарсы үш ойынның бәрінде жеңіске жетті және Қытайда оны ешкім білмей қалды.

Google басшылығы жағдайға оң көзбен қарауға тырысты. Матч іс-шарасында сахнада сұхбат беріп жатып, Шмидт TensorFlow-ты мақтау мүмкіндігін пайдаланды және Alibaba, Baidu және Tencent сияқты Қытайдың үздік интернет компаниялары оны пайдаланып көруі керек екенін айтты. «Егер олар TensorFlow-ты қолданса, бәрі де ұтар еді», — деді ол. Көрініс сыртында Google Қытай нарығына оралуға соншалықты асық болғаны сонша, ол Бейжіңнің цензура және тіпті аңду туралы талаптарына бұрынғы қарсылығынан бас тартты. 2018 жылы The Intercept басылымына тарап кеткен мәліметтерге сәйкес, Google басшылары өз инженерлеріне Қытай үшін «Dragonfly» кодтық атымен іздеу жүйесінің прототипін жасауды тапсырған. Ол белгілі бір іздеу сөздерін қара тізімге енгізіп, адамдардың іздеулерін олардың ұялы телефон нөмірлерімен байланыстырған. Бұл озбыр режимге өз азаматтарын аңдуға көмектесу үшін өз принциптерінен аттау еді.

Бірақ Google-дың жаңа бизнеске деген аштығы оны Қытайға қайта кіру әрекетінің негізсіз екенін көруден айырды. Қытайлық технологиялық фирмалар ЖИ зерттеулерінде үлкен жетістіктерге жетіп жатқан еді. Оларға TensorFlow немесе Google-дың қажеті де болмады. Қытайдың интернет алыбы Baidu тіпті бір жыл бұрын Google Brain-ді бастаған Стэнфорд профессоры Эндрю Энді Google-дан өзіне тартып алған болатын. Қытай үкіметі өз азаматтары мен дамып келе жатқан технологиялық секторы іздеу алпауытының қызметінсіз-ақ өмір сүре алатынын есептеді.

Кэ Цземен өткен матчтан екі ай өткен соң, Бейжің елдің жаңа ұзақ мерзімді мақсатын жариялады: 2030 жылға қарай жасанды интеллект саласында АҚШ-тан озып, әлемдік көшбасшы болу. Үкімет бірқатар ЖИ стартаптары мен ірі жобаларды қаржыландыратын болды, бұл жиынтығында олардың жеке «Аполлон» бағдарламасына (АҚШ-тың айға қону жобасы) ұқсады. Онда бұл үшін Google немесе Кремний алқабының кез келген басқа технологиялық компанияларымен жұмыс істеу туралы ешқандай сөз болған жоқ.

Көп ұзамай Google басшыларының Қытайдың орасан зор интернет нарығына кіріп, пайданы еселеу туралы армандарының шындыққа жанаспайтыны белгілі болды. Бұл компания үшін үлкен соққы болды. Хассабис те AlphaGo-ның жетістігімен өзін ыңғайсыз жағдайға қалдырды. DeepMind үшін оң жарнама толқынын жасап және оның озық ЖИ-ін паш ете отырып, ол зертхананы Alphabet үшін бұрынғыдан да пайдалы етіп көрсетті. Солай болса да, Хассабис негізінен Сулейманмен бірге жасаған бөлініп шығу жоспарларын жүзеге асыруға ұмтыла берді.

Ол бұл жоспардың іске асатынына нық сенімді болғаны сонша, 2017 жылғы мамырда Қытайда өткен матчтан бірнеше апта өткен соң, Хассабис DeepMind-тың үш жүзден астам қызметкерін Шотландияның ауылдық жеріндегі демалысқа апарып, сол жерде Сүлейман екеуі бөліну жоспарын жариялады. Олар жалға алған қонақүй мен конференция орталығында DeepMind-ты жеке жаһандық мүдде компаниясына (Global Interest Company – қоғам игілігіне бағытталған коммерциялық құрылым түрі) айналдыру жоспарын айтты. Қызметкерлерге DeepMind-тың болашақта Google қатысушы ретінде қалатын, Біріккен Ұлттар Ұйымы немесе Гейтс қоры сияқты қоғамдық мүдделерді қорғайтын коммерциялық емес ұйымға айналатынын жеткізді. Олардың түсіндіруінше, мақсат — игілік жолындағы ұйымға айналу және ЖИ-ді әлем үшін оң бағытта дамыту еді. DeepMind Google-дың қаржылық активі болудың орнына, әлемдік мәселелерді шешу миссиясын орындай отырып, компаниямен эксклюзивті лицензиялық келісімге отыруы тиіс болатын.

Сол кездегі куәгерлердің айтуынша, DeepMind қызметкерлері бұл идеяға қатты қуанған. Егер сіз ЖИ зерттеушісі болсаңыз, бұл екі дүниенің де жақсылығын қатар иеленумен бірдей еді: сіз жоғары жалақы мен жеңілдіктер ұсынатын технологиялық компанияда жұмыс істейсіз, бірақ сонымен бірге «интеллект мәселесін шешу арқылы барлық басқа мәселелерді де шешіп» жатырсыз. Құрылтайшылар бөліну процесі сол жылдың қыркүйегінде аяқталады деп уәде берді.

Хассабис пен Сүлейман қызметкерлерден GIC жобасын құпия сақтауды өтінді, бұл әдеттегідей жағдай емес еді. Көптеген DeepMind қызметкерлері компания жоспарлары мен технологиялары туралы тіс жармау туралы қатаң келісімшарттарға қол қойған болатын. Бірақ бұл жағдайда оларға бөліну туралы тіпті компания ішінде де сөйлеспеу тапсырылды. Кейбіреулерге кодтық сөздерді қолдану бұйырылды, мысалы, жобаны «watermelon» (қарбыз) деп атап, Дабылбелгі сияқты шифрланған мессенджерлерді пайдаланды. Бұрынғы қызметкерлердің айтуынша, DeepMind басшылары бұл мәселені корпоративтік құрылғыларда немесе Gmail сияқты қолданбаларда талқыламауға кеңес берген.

DeepMind зерттеушілері бұл құпиялылықты Google-дың AGI (Жасанды жалпы интеллект — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) технологиясын қалай пайдалануы мүмкін деген қауіппен байланыстырды. Уақыт өте келе, Google әскери жобаға араласқанда, бұл күдіктер растала бастады. 2017 жылы АҚШ Қорғаныс министрлігі қорғаныс стратегиясында ЖИ мен машиналық оқытуды көбірек қолдану үшін «Project Maven» жобасын іске қосты; мысалы, дрондарға нысананы дәлірек анықтау үшін компьютерлік көру мүмкіндігін беру көзделді. The Intercept басылымына тарап кеткен электрондық хаттарға сәйкес, Google бұл серіктестіктен жылына 250 миллион доллар табыс табуды жоспарлаған. Ішкі наразылықтар Google-ды жобаны тоқтатуға және Қорғаныс министрлігімен келісімшартты ұзартпауға мәжбүр етті, бұл DeepMind-тың өз ЖИ-інің теріс мақсатта қолданылуы туралы қауіптерінің негізді екенін дәлелдеді.

Бірақ бөліну процесі баяу жүрді. Хассабис пен басқа басшылар қызметкерлерді бөлінуге «алты ай қалды» деп сендіріп, бірнеше айдан кейін бұл сөзді қайталап отырды. Біраз уақыттан соң инженерлер бұл жоспардың мүлдем іске асатынына күмәндана бастады. Жобаның нобайы түсініксіз болғаны да жағдайды қиындатты. Сүлейман, мысалы, DeepMind-тың Google-мен жұмыс істеуіне қатысты жаңа ережелердің заңды түрде күші болуын қалайтынын айтты, бірақ ол да, басқа менеджерлер де мұның іс жүзінде қалай болатынын түсіндіре алмады. Егер болашақта Google DeepMind-тың ЖИ-ін әскери мақсатта қолданса, DeepMind оны сотқа бере ала ма? Бұл белгісіз еді. DeepMind қызметкерлеріне ЖИ-ді адам құқықтарын бұзу және «жалпы зиян» келтіру үшін пайдалануға тыйым салатын нұсқаулықтар дайындау тапсырылды. Бірақ «жалпы зиян» деген не? Оны ешкім білмеді.

Мәселенің бір бөлігі DeepMind-та бұл сұрақтарға жауап беретін мамандардың аздығында еді. Компания ЖИ модельдерінің жұмысын жақсарту үшін ғалымдар мен бағдарламашыларды көптеп жалдағанымен, ЖИ-ді жобалаудың этикалық жолдарын зерттейтін қызметкерлер санаулы ғана болатын. Мысалы, 2020 жылы DeepMind-тың мыңға жуық қызметкерінің көпшілігі зерттеуші ғалымдар мен инженерлер болса, этиканы зерттеумен он шақты адам ғана айналысты, ал PhD деңгейінде академиялық зерттеу жүргізетіні небәрі екеу еді. ЖИ жүйелерінің қалайша біржақтылыққа, нәсілшілдікке әкелуі немесе адам құқықтарына нұқсан келтіруі мүмкін екенін ешкім дерлік зерттеген жоқ. «Біз небәрі екі адам туралы айтып отырғанда, этика тобымыз бар деп айта алмайсыз», — деді сол кездегі DeepMind қызметкерлерінің бірі.

ЖИ-де «этика» және «қауіпсіздік» терминдері әртүрлі зерттеу мақсаттарына жатады. ЖИ қауіпсіздігі (AI safety) зерттеушілері Юдковский мен Яан Таллин сияқты болашақтағы суперзияткерлік AGI жүйесі адамзатқа апатты зиян тигізбеуін (мысалы, химиялық қару жасау немесе жалған ақпарат арқылы қоғамды тұрақсыздандыру) қамтамасыз етуді көздейді.

Екінші жағынан, этикалық зерттеулер (AI ethics) ЖИ жүйелерінің бүгінгі таңда қалай жобаланып, қолданылатынына назар аударады. Олар технологияның қазірдің өзінде адамдарға қалай зиян тигізіп жатқанын зерттейді. Google Photos алгоритмінің қара нәсілді адамдарды «гориллалар» деп белгілеуі жалғыз мысал емес. Біржақтылық (bias) — ЖИ-дегі үлкен мәселе. АҚШ-тың қылмыстық сот жүйесінде қолданылатын алгоритмдер қара нәсілді адамдарды қайталап қылмыс жасау ықтималдығы жоғары деп негізсіз жиі көрсеткен. Сондай-ақ, әзірлеушілер ЖИ құралдарын этикаға жат мақсаттарда қолданған, мысалы, Стэнфорд зерттеушілері адамдардың сексуалдық бағдарын анықтайтын бет-әлпетті тану жүйесін шығарған.

Бұл жүйелерді жасаған адамдар өз модельдерін әділдік, ашықтық және адам құқықтарын ескере отырып жасау туралы көбірек ойлануы керек еді. Бірақ бұл мәселелерді анықтау қиын және олар әдетте ЖИ компанияларын басқаратын ақ нәсілді ер адамдарға әсер етпейді. ЖИ жүйелері қателік жібергенде, одан көбіне түрлі-түсті нәсілділер, әйелдер және басқа да азшылық топтар зардап шегеді.

Қызығы сол, 2017 жылы DeepMind баспасөзде және өз веб-сайтында «ғылымды дамыту және адамзатқа пайда әкелу үшін интеллект мәселесін шешу» миссиясында этиканың маңыздылығы туралы айтып жүрді. Мысалы, Wired журналына берген сұхбатында олар этика зерттеушілерінің шағын тобы келесі жылы жиырма бес адамға дейін өсетінін мәлімдеген.

Бірақ іс жүзінде бұл топ небәрі он бес адамға дейін ғана өсті, себебі DeepMind басшылары бөліну жобасына қатты көңіл бөлді. «Олар бұл жұмыс туралы үнемі айтады, бірақ шын мәнінде бірнеше этика зерттеушісі ғана қиындықпен жұмыс істеп жатыр», — деді тағы бір қызметкер, этика тобының қолдаусыз және ресурстарсыз қалғанын айтып. «Бұл ақылға сыймайды. Бұл — көп миллиардтық корпорация».

Егер DeepMind этика мәселесінде сөзіне ісі сай болмаса, онда құрылтайшылардың неліктен Google-дан соншалықты алшақтағысы келгені туралы сұрақ туындайды. Олар шынымен өз технологиясының зиян келтірмеуін ойлады ма, әлде бақылауды өз қолдарында ұстап қалу сияқты жеке мүдделерін көздеді ме? Бөліну шарты бойынша DeepMind Google-мен эксклюзивті лицензиялық келісімге қол қоюды жоспарлаған болатын, бірақ құрылтайшылар өз ЖИ-ін қару-жарақ үшін пайдалануға қай жерде шек қоятынын немесе мұның заңды күші болатынын нақтылай алмады. Олардың амбициясы үлкен болғанымен, нақты детальдары жетіспеді. Кейбір қызметкерлер Хассабис, Сүлейман және Леггтің «әрі Google-дың ақшасын алып AGI құруды жалғастыру, әрі бақылауды өз қолына алу» ойының тым αφдіктігіне (naive) күмәнданды.

Google «жамандық жасама» (don’t be evil) ұранымен басталғаны сияқты, DeepMind құрылтайшылары да Google аясындағы өмірін игі ниетпен бастаған еді. Олар этикалық кеңесті сақтап қалу үшін Facebook-тің 150 миллион долларлық ұсынысынан бас тартқан болатын. Бірақ жылдар өткен соң, олар этика мен қауіпсіздіктен гөрі нәтиже мен беделді бірінші орынға қойғандай көрінді. Оларда Теренс Тао сияқты жұлдызды математиктер тобын жалдаудан басқа, AGI-ді қалай бақылауда ұстау немесе бұл технологияның зиянды жолдармен қолданылуын қалай тоқтату керектігі туралы нақты жауаптар болмады.

Мұның бәрі үлкенірек сұрақты тудырды. Үлкен корпорация ішінде отырып, этикалық ЖИ бойынша мағыналы жұмыс істеу мүмкін бе? Жауап Google-дың өз ішінен келді. Және ол жауап — «жоқ» деген кесімді сөз еді.

8-ТАРАУ Барлығы тамаша

Google-да этикалық ЖИ жүйелерін жобалаудың немесе инновациялық идеяларды өнімге айналдырудың неліктен соншалықты қиын болғанын түсіну үшін, кейбір сандарға көз жүгірту керек. Осы кітап жазылып жатқан уақытта Google-дың бас компаниясы Alphabet Inc.-тің <span data-term="true">нарықтық капиталдандыруы</span> (компания акцияларының жалпы құны) 1,8 триллион долларды құрады. 2020 жылы Apple 2 триллион долларлық бағаға жеткен алғашқы америкалық компания болды, ал Amazon мен Microsoft-тың нарықтық құны сәйкесінше 1,7 триллион және таңқаларлық 3 триллион доллар шамасында болды. 2018 жылы Apple алғаш рет триллион долларлық компания болғанға дейін, ешбір компания мұндай деңгейге жетпеген. Әлемдегі ең құнды компаниялардың барлығына дерлік ортақ бір нәрсе бар: олардың бәрі технологиялық фирмалар. Шын мәнінде, біз бұрын «алып» деп санаған компаниялар Силикон алқабындағы әріптестерінің төрттен біріндей ғана. Мұнай гиганты Exxon Mobil небәрі 450 миллиард долларға бағаланса, Walmart құны 435 миллиард доллар. Технологиялық алпауыттардың нарықтық капиталын қоссаңыз, ол АҚШ пен Қытайды қоспағанда, әлемдегі көптеген елдердің жалпы ішкі өнімінен асып түседі.

Тарихқа көз салсақ, біз бір кездері алып деп санаған компаниялар бүгінгілермен салыстырғанда кішкентай болып қалады. 1984 жылы бөлінгенге дейін AT&T нарықтық құны шамамен 60 миллиард долларды құрады (бүгінгі ақшамен 150 миллиард доллар). Генерал Electric-тің ең жоғары көрсеткіші 2000 жылы шамамен 600 миллиард доллар болды.

Тіпті технологиялық алпауыттардың нарықтағы үстемдігінің теңдесі жоқ. 1911 жылы реттеушілер оны бөлшектегенге дейін Standard Oil АҚШ-тағы мұнай бизнесінің 90 пайызын бақылаған. Бүгінде Google бүкіл әлем бойынша іздеу жүйелері нарығының шамамен 92 пайызын бақылайды. Күн сайын әлем бойынша шамамен бір миллиард адам Google-дан іздеу жасайды. Екі миллиардтан астам адам Facebook-ті тексереді. Ал әлемдегі 1,5 миллиардқа жуық адамның iPhone-ы бар. Тарихта ешбір үкімет немесе империя бір уақытта соншама көп адамға әсер етпеген.

Доткомдардың күрт өсуі мен құлдырауынан бері бұл компаниялардың мұндай ауқымға жетуі үшін жиырма жылдан сәл астам уақыт қажет болды. Олар қалай соншалықты үлкен болды? Олар DeepMind, YouTube және Instagram сияқты компанияларды сатып алды. Олар тұтынушылар туралы орасан зор деректерді жинап алды, бұл оларға біздің мінез-құлқымызға әсер ететін жарнамалар мен ұсыныстар жасауға мүмкіндік берді. Google іздеу сұраулары мен YouTube арқылы деректер жинаса, Amazon біздің сатып алуларымыз бен қарау тарихымызды бақылайды. Жиналған деректердің көлемі мен әртүрлілігі (жеке мәліметтер, орналасқан жері, тіпті дауыс жазбалары) қарапайым адамның ақылына сыймайды.

Facebook пен Google сияқты фирмалар бұл деректерді гипер-нысаналы жарнама жасау үшін және күрделі ұсыныстар алгоритмдерін қуаттандыру үшін пайдаланады. Бұл бағдарламалық жасақтама адамдар күн сайын парақтайтын «ленталарды» (feeds) басқарып, олардың экранға жабысып қалуын қамтамасыз етеді. Компаниялар бізді өз платформаларына барынша тәуелді етуге мүдделі, өйткені бұл көбірек жарнама табысын әкеледі. Бірақ мұның кері әсері де көп. Бір зерттеуге сәйкес, америкалықтардың әлеуметтік желілерге тәуелді болғаны сонша, олар 2023 жылы телефондарын күніне орта есеппен 144 рет тексерген.

Мұндай жекеленген «контент жеткізу» миллиондаған адамдар арасындағы буындық және саяси алауыздықты да күшейтті, өйткені ең көп назар аудартатын контент — ыза тудыратын контент. Мысалы, Facebook 2016 жылғы АҚШ президенттік сайлауы кезінде адамдардың лентасында ең арандатушы саяси контентті жиі ұсынып, көптеген пайдаланушылардың бұрыннан бар сенімдерін нығайтатын «жаңғырық камераларын» (echo chambers) жасады. Дәл осындай құбылыс Ұлыбританиядағы Brexit референдумы қарсаңында иммиграцияға деген өшпенділікті және 2017 жылы Мьянмадағы рохинья халқына деген дұшпандықты өршітті. Amnesty International есебіне сәйкес, Facebook алгоритмдері рохиньяларға қарсы өшпенділік контентінің таралуын тездетіп, Мьянма әскерилерінің мыңдаған мұсылман этникалық тобын өлтіру, азаптау және қудалау науқанына жол ашты. Facebook баспасөзде рохиньяларға қарсы зорлық-зомбылықты болдырмау үшін жеткілікті шара қолданбағанын мойындады.

Facebook тудырған алауыздыққа қарамастан, компанияның бизнес моделі өте табысты болды: ол миллиардтаған пайдаланушылары мен олардың деректерін «өнім» ретінде, ал жарнама берушілерді нақты «тұтынушы» ретінде қарастырды. Деректер неғұрлым көп болса, жарнама берушілерден соғұрлым көп табыс табуға болатын еді. Бұл модель қоғамға зиян тигізгенімен, Facebook-ті барынша үлкен болуға ынталандырды.

Бұл компаниялардың осыншалықты орасан зор болуының тағы бір жолы — желілік әсер (network effects). Мұның негізгі идеясы: компанияның пайдаланушылары мен тұтынушылары неғұрлым көп болса, оның алгоритмдері соғұрлым жақсы жұмыс істейді, бұл бәсекелестердің оған жетуін қиындатып, нарықтағы үстемдігін нығайта түседі. Мысалы, адамдар Facebook-ке бәрі сонда болғандықтан қосылды және сонда қалды. Егер сіз Apple өнімдерін қолдансаңыз, басқа құрылғыға көшудің немесе Samsung аксессуарларын iPhone-мен жұмыс істетудің қаншалықты қиын екенін білесіз. Осы өзара байланысты өнімдер мен қызметтер пайдаланушыны «байлап» тастайды.

Компаниялар осыншалықты үлкен болғанда не болатыны туралы бізде тарихи тәжірибе жоқ. Google, Amazon және Microsoft жеткен нарықтық құн бұрын-соңды болмаған. Бұл акционерлерге байлық әкелгенімен, биліктің бірнеше ірі фирма мен санаулы бай адамдардың қолына шоғырлануы миллиардтаған адамның жеке өмірін, болмысын және жұмыс істеу мүмкіндігін соларға тәуелді етіп қойды.

Технологиялық алпауыттың ішінде жұмыс істеп жүріп, бір нәрсенің дұрыс емес екенін көріп, дабыл қағу — мұзтауға соғылар алдында «Титаникті» кері бұруға тырысқанмен бірдей көрінуі мүмкін. Соған қарамастан, Тимнит Гебру есімді ЖИ ғалымы мұны тоқтата алмады.

2015 жылғы желтоқсанда Сэм Альтман мен Илон Маск ЖИ-ді «адамзат игілігі үшін» жасап жатырмыз деп жариялаған NeurIPS конференциясында Гебру мыңдаған қатысушыға қарап, түршігіп кетті. Ол жерде өзіне ұқсайтын адамдар жоқтың қасы еді. Гебру отыздың басындағы қара нәсілді әйел болатын және оның өмірі мен өскен ортасы әріптестерінікіндей оңай болған жоқ.

Оның эритреялық әкесі, электр инженері, ол бес жасында қайтыс болған, ал жасөспірім шағында ол соғыс өрті шарпыған Эфиопиядан қашып кеткен. Массачусетс штатындағы орта мектепте мұғалімдер жаңа иммигрант қыздың амбициясына күмәнмен қарады. Олар оған жоғары деңгейлі курстарды (AP) алмауға кеңес беріп, оның тым қиын болатынын айтты. Гебру Wired журналына берген сұхбатында бір мұғалімінің: «Мен сен сияқты басқа елден келіп, ең қиын сабақтарды аламын деп ойлайтын талай адамды көргенмін», — дегенін есіне алды. Бірақ Гебру оларды бәрібір оқып шықты және Стэнфорд университетінің электр инженериясы мамандығына оқуға түсті.

Кейінірек ол жасанды интеллект және компьютерлік көру (реальді әлемді «көру» және талдау бағдарламасы) саласына тап болды. Бұл технология оны қызықтырғанымен, ол қауіпті белгілерді де байқады. ЖИ жүйелеріне несиелік ұпай беруден бастап ипотека мақұлдауға дейін, полиция үшін адамның бетін танудан бастап қылмыстық үкім шығаруға көмектесуге дейін үлкен жауапкершіліктер жүктеліп жатты. Бұл жүйелер бейтарап төреші сияқты көрінгенімен, іс жүзінде олай емес еді. Егер олар оқытылған деректерде біржақтылық болса, жүйе де солай болатын. Ал Гебру біржақтылықтың не екенін жақсы білетін.

Мысалы, ол Сан-Францискода жас кезінде басқа бір қара нәсілді әйелмен бірге барда ер адамдардың шабуылына ұшыраған. Олар көмек сұрап барғанда, полиция оларды өтірік айтты деп айыптап, камераға қамап тастаған. Тағы бірде, Гебру Стэнфордта диссертация жазып жүргенде, онда компьютерлік ғылымдар бойынша PhD дәрежесін алған тағы бір ғана қара нәсілді адам болғанын білді. Ал 2015 жылы OpenAI ашылған ең ірі халықаралық ЖИ конференциясындағы бес мың адамның ішінде тек бес қатысушы ғана қара нәсілді болды.

Гебру мұның кездейсоқ еместігін түсінді. Біржақтылық — айналадағы әлемде жүйелі сипатқа ие. Жиырмасыншы ғасырдағы азаматтық құқықтар дәуірінен кейін де нәсілшілдік әлі де әлемдік институттар мен санаға сіңіп қалған. ЖИ мұны одан әрі ушықтыруы мүмкін. Оны әдетте нәсілшілдікті бастан өткермеген адамдар жобалайды, сондықтан ЖИ модельдерін оқыту үшін қолданылатын деректер азшылық топтар мен әйелдердің мүддесін әділ қорғауда жиі ақсайды.

Гебру мұның салдарын өз зерттеулерінен көрді. Ол АҚШ-тың қылмыстық сот жүйесінде қолданылатын COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) атты бағдарламаға қатысты тергеуді кездестірді. Судьялар мен мерзімінен бұрын босату бөлімдері кепілдікпен босату, үкім кесу және шартты түрде босату туралы шешім қабылдау үшін осы құралды пайдаланатын.

COMPAS айыпталушыларға қауіп ұпайларын беру үшін машиналық оқытуды қолданды. Ұпай неғұрлым жоғары болса, олардың қайталап қылмыс жасау ықтималдығы соғұрлым жоғары деп есептелді. Бұл құрал қара нәсілді айыпталушыларға ақ нәсілділерге қарағанда жоғары ұпайларды жиі берген, бірақ оның болжамдары көбіне қате болып шықты. ProPublica-ның 2016 жылғы тергеуіне сәйкес, COMPAS қара нәсілділердің болашақтағы қылмыстық әрекеті туралы болжам жасауда ақ нәсілділерге қарағанда екі есе жиі қателескен. Сонымен қатар, бұл құрал кейіннен қылмыс жасаған ақ нәсілді айыпталушыларды «төмен қауіпті» деп қате бағалауға бейім болған. Американың қылмыстық сот жүйесі онсыз да қара нәсілділерге қарсы бұрмаланған еді, ал түсініксіз ЖИ құралдарын қолдану бұл біржақтылықты жалғастыра түсетіндей көрінді.

Стэнфордта PhD диссертациясын жазып жүріп, Гебру биліктің ЖИ-ді қалай шошытарлық жолдармен қолдана алатынына тағы бір мысал келтірді. Ол Google Street View-де көрсетілген жиырма екі миллион автокөлікті анықтау үшін модельді жаттықтырды, содан кейін бұл көліктердің аймақтың демографиясы туралы не айтатынын зерттеді. Көліктерді халық санағы және қылмыс деректерімен салыстырғанда, ол Volkswagen және пикаптар көп жерлерде ақ нәсілді тұрғындардың, ал Oldsmobile мен Buick көп жерлерде қара нәсілділердің көбірек тұратынын анықтады. Сондай-ақ, фургондар (vans) көп аймақтарда қылмыс туралы хабарламалар да жиі түскен. Мұндай байланыстарды пайдалануға болатын еді. Егер полиция «Minority Report» фильміндегідей, қылмыстың қай жерде болуы мүмкін екенін болжау үшін осы деректерді қолданса ше?

Бұл идея ақылға сыймайтын нәрсе емес еді. Бірнеше жыл бойы АҚШ-тағы полиция бөлімшелері офицерлерге қай аумақты күзету керектігін көрсету үшін болжамды полиция қызметі (predictive policing) деп аталатын технологияны қолданып келді. Бірақ бұл бағдарламалық жасақтама ескі деректер негізінде оқытылды, бұл олардың азшылық қауымдастықтарды нысанаға алуына әкелді. Егер деректер бір қауымдастықтың шамадан тыс бақыланғанын көрсетсе, бағдарлама сол қауымдастықты әрі қарай да бақылауда ұстауға бағыттайды, осылайша бұрыннан бар мәселені одан әрі ушықтырады.

ЖИ желіде басқа да стереотиптерді (қоғамда қалыптасқан жаңсақ түсініктерді) де байқатпай, бірақ қауіпті түрде таратып жатты. Google Translate пен Microsoft-тың Bing Translate қызметтері кейбір мамандықтарды басқа тілдерге аударғанда, оларды тек ер адамдарға тән етіп көрсететін. Түрік тіліндегі есімдіктері бейтарап «o bir muhendis» фразасы ағылшын тіліне «ол — инженер (ер адам)» болып аударылса, «o bir hemsire» сөзі «ол — медбике (әйел адам)» болып шығатын. Бағдарламалық жасақтама мұндай болжамдарды word embedding (сөздерді ендіру — сөздердің мағыналық жақындығын олардың мәтіндегі айналасына қарай анықтау әдісі) деп аталатын танымал әдіс арқылы жасайтын. Бұл модель «инженер» сияқты сөздердің қасында жиі кездесетін сөздерді тауып, соған сәйкес келетін есімдікті (мысалы, «ол — ер адам») таңдайтын. Google, Facebook, Netflix және Spotify өздерінің бағдарламаларына шынайы өмірдегі гендерлік теңсіздікті енгізіп жатқанына қарамастан, онлайн ұсыныстар жүйесінде осы «сөздерді ендіру» әдісін қолданды.

ЖИ-де дереу шешілуі тиіс мәселелердің бар екені анық еді, сондықтан 2015 жылы Сэм Альтман OpenAI жобасын жариялағанда, Гэбрудың ашуы келді. Ол Маск пен Тиль сияқты өзімшіл миллиардерлердің «құдайдай құдіретті» ЖИ жасауға ақша шығындауының қаншалықты орынсыз екені туралы ашық хат жаза бастады. Сондай-ақ, ол жаңа коммерциялық емес ұйымға қатысты айтылған жалғыз сын — зерттеушілердің тек терең оқытуға тым қатты көңіл бөлуі болғанына наразылық білдірді.

«Оңтүстік Африкада апартеид кезінде туып-өскен ақ нәсілді технологиялық магнат, тек ақ нәсілді ер адамдардан тұратын инвесторлар мен зерттеушілер тобы ЖИ-дің «әлемді жаулап алуына» жол бермеуге тырысуда, ал біз көріп отырған жалғыз мәселе — «барлық зерттеушілердің терең оқытумен айналысуы ма? » — деп жазды ол. «Жақында Google қара нәсілді адамдарды «маймылдар» деп жіктеген компьютерлік көру алгоритмін шығарды. МАЙМЫЛДАР ДЕП. Кейбіреулер бұл қатені алгоритмнің адамдарды жіктеу кезінде түсті негізгі айырмашылық ретінде алғанымен түсіндіруге тырысады. Егер командада тым болмаса бір қара нәсілді адам немесе нәсіл мәселесін ойлайтын біреу болса, қара нәсілділерді маймыл деп жіктейтін өнім шықпас еді... Ақ нәсілділерді үнемі адам емес деп жіктейтін алгоритмді елестетіп көріңізші. Ешбір американдық компания мұны қолдануға дайын жүйе деп атамас еді».

Гэбрудың әріптестерінің бірі оған бұл хатты жарияламауды кеңес берді. Хат тым ашық жазылған еді және оның кім екені тез анықталуы мүмкін еді. Гэбру оны құпия сақтауға шешім қабылдады (тек бірнеше жылдан кейін ғана жариялады), бірақ ол Силикон алқабының ең ықпалды адамдары ЖИ қазірдің өзінде адамдарға нақты зиян келтіріп жатқанда, неге болашақтағы «ЖИ ақырзаманына» соншалықты алаңдайтынын түсіне алмады. Бұның екі себебі бар еді. Біріншісі — OpenAI және DeepMind басшыларының ешқайсысы нәсілдік немесе гендерлік кемсітушілікке ұшырамаған және ұшырамайды да. Екіншісі — парадоксальды түрде, олардың корпоративтік мүддесі үшін құдіретті супербасқарушы ЖИ-дің қауіптері туралы дабыл қағу тиімді болды. Өзің сатқалы жатқан нәрсенің қауіптілігі туралы ескерту қисынсыз көрінуі мүмкін, бірақ бұл керемет маркетингтік стратегия еді. Адамдар алыс болашақтан қарағанда, қазіргі уақытқа көбірек мән беретін. Егер ЖИ кенеттен бізді болашақта жойып жіберетіндей көрінсе, бұл оған бүгінгі таңда таңғажайып мүмкіндіктері бар деген тартымды реңк беретін.

Бұл стратегия сонымен қатар жұртшылықтың назарын компаниялар дереу шеше алатын күрделі мәселелерден басқа жаққа бұрудың айлакер тәсілі болды. Бұл мәселелерді шешу үшін олардан әзірлеуді бәсеңдету және ЖИ модельдерінің мүмкіндіктерін тізгіндеу талап етілетін еді. ЖИ модельдерінің біржақты шешімдер қабылдауын шектеудің бір жолы — олар оқытылатын деректерді талдауға көбірек уақыт бөлу болатын. Тағы бір жолы — олардың қолданылу аясын тарылту еді, бірақ бұл ЖИ жүйелеріне білімді жалпылау мүмкіндігін беру мақсатына соққы болып тиетін.

Ірі компаниялардың өз бизнесі өркендеп жатқанда жұртшылықтың назарын басқа жаққа аударуы бірінші рет емес. 1970-жылдардың басында мұнай компанияларының қолдауына ие болған пластик өнеркәсібі өсіп келе жатқан пластик қалдықтары мәселесінің шешімі ретінде «қайта өңдеу» (recycling) идеясын алға тарта бастады. Мысалы, 1953 жылы негізі қаланған Keep America Beautiful ұйымы тұтынушыларды қайта өңдеуге шақыратын науқандар жүргізді және оны ішінара сусындар мен қаптама фирмалары қаржыландырды. Оның 1971 жылы Жер күнінде көрсетілген әйгілі «Жылаған үндіс» жарнамасы адамдарды ластануды болдырмау үшін бөтелкелер мен газеттерді қайта өңдеуге шақырды. Егер олар олай істемесе, қоршаған ортаға немқұрайлы қарағаны үшін кінәлі болып саналды.

Қайта өңдеудің өзі жаман нәрсе емес. Бірақ бұл тәжірибені насихаттау арқылы өнеркәсіп иелері: «егер пластик дұрыс қайта өңделсе, ол өздігінен зиян емес» деп уәж айта алды, бұл жауапкершілікті өндірушілерден тұтынушыларға ысырып жіберді. Пластик компаниялары ауқымды түрде қайта өңдеудің қымбат және жиі тиімсіз екенін білетін. NPR мен PBS-тің Frontline сериясы жүргізген 2020 жылғы зерттеу ондаған жылдар бойғы үгіт-насихат науқандарына қарамастан, пластиктің 10 пайыздан азы ғана қайта өңделгенін анықтады.

Дегенмен, бұл науқандар жұртшылықтың назарын пластик өндірісінің жедел кеңеюі мен оның қоршаған ортаға тигізетін зардаптары туралы сұрақтардан алшақтата алды. Қайта өңдеу қоғамдық талқылаудың бір бөлігіне айналды. Жаңалықтар басылымдары, тұтынушылар және Вашингтондағы саясаткерлер компаниялардың нақты пластик өндірісін реттеуден көрі, қайта өңдеуді қалай көбейту керектігі туралы көбірек уақыт жұмсады.

Үлкен мұнай компаниялары әлемнің назарын өздерінің қоршаған ортаға тигізетін айтарлықтай әсерінен қалай басқа жаққа бұрса, ЖИ саласының көшбасшылары да болашақтағы «Терминатор» немесе «Скайнет» туралы шуды пайдаланып, машиналық оқыту алгоритмдері тудырып жатқан бүгінгі мәселелерден назарды алшақтата алды. Қазір әрекет ету жауапкершілігі жасаушыларға немесе өнеркәсіпке жүктелген жоқ. Бұл кейінірек шешілуі тиіс дерексіз мәселеге айналды.

2017 жылдың қаңтарында, DeepMind Google-ды AlphaGo арқылы Қытай нарығына қайта итермелеуге тырысқаннан бірнеше ай бұрын, Гэбру өзінің диссертациясының нәтижелерін Силикон алқабының венчурлық капиталистері мен басшыларына таныстырды. Ол слайдтарды ауыстырып отырып, ЖИ жүйелері көліктерді тану қабілетін болжам жасау мүмкіндігімен ұштастырып, дауыс беру үлгілері немесе үй шаруашылығының табысы сияқты нәрселерді қалай болжай алатынын түсіндірді.

Ондағы венчурлық капиталистердің бірі, Тесла инвесторы және Илон Масктің досы Стив Юрветсон таңғалды, бірақ Гэбру күткен себеппен емес. Мұндай деректердің Google-ды қаншалықты қуатты ететінін және әртүрлі аудандар немесе қалалар туралы қандай түсініктер бере алатынын ойлап көріңізші. Оған сондай әсер еткені соншалық, ол Гэбрудың сөйлеп жатқан суреттерін Facebook-ке жариялады.

ЖИ саласындағы жалғасып жатқан несоответствие (заң. ) — бөлмедегілердің кейбірі мұны қаржылық мүмкіндік деп көрсе, Гэбру сияқты басқалары шектеуді қажет ететін қауіп деп санады. ЖИ мүмкіндіктері артқан сайын, көбінесе азшылық топтарға зиян келтіретін күтпеген салдарлар туындап отырды. Бет-әлпетті тану жүйелері ақ нәсілді ерлердің жүзін тануда мінсіз болғанымен, қара нәсілді әйелдерді тануда жиі қателесетін. MIT зерттеушісі Джой Буоламвинидің 2018 жылғы маңызды зерттеуі IBM, Microsoft және Қытайдың Face++ компанияларының бет-әлпетті тану жүйелері қара нәсілді және әйелдердің жынысын қате анықтауға бейім екенін көрсетті. Ол мұны ұқсас бағдарлама өз жүзін танымаған кезде байқаған. Бұл жүйелердің көбі негізінен ақ нәсілді ерлердің фотосуреттерінен тұратын деректер жиынтығында және интернеттен алынған суреттерде оқытылды. Деректер базасында олардың басым болуының себебі — интернет оған көбірек қолжетімділігі бар Батыс адамдарының демографиясын көрсететін еді.

Гэбру тек қол қусырып отырған жоқ. Оның шешімдері болды. Соның бірі — ЖИ жүйелерін жасаушылар өз модельдерін оқыту кезінде неғұрлым қатаң стандарттарды сақтауы керек. Microsoft-қа қосылғаннан кейін ол «Деректер жиынтығына арналған техникалық төлқұжаттар» (Datasheets for Datasets) деп аталатын ережелер жиынтығын жазды. Онда ЖИ моделін оқыту кезінде бағдарламашылар оның қалай жасалғаны, ішінде не бары, қалай қолданылатыны, қандай шектеулері бар екені және кез келген басқа этикалық мәселелер көрсетілген техникалық төлқұжат жасауы тиіс екені айтылған. Бұл ЖИ жасаушылар үшін қағазбастылықтың шаршататын қосымша кезеңі болуы мүмкін еді, бірақ оның мақсаты болды. Егер модель біржақты (қате) болып шықса, оның себебін анықтау әлдеқайда оңай болар еді.

ЖИ жүйелерінің неге қателесетінін анықтау адамдар ойлағаннан әлдеқайда қиын, әсіресе олар күрделене түскен сайын. 2018 жылы Amazon жұмысқа өтінімдерді іріктеу үшін қолданатын ішкі ЖИ құралы әйелдерге қарағанда ер кандидаттарды көбірек ұсынатынын байқады. Себебі: құралды жасаушылар оны соңғы он жыл ішінде компанияға тапсырылған түйіндемелерде оқытқан, ал олардың көбі ер адамдардан келген. Нәтижесінде модель ерлерге тән белгілері бар түйіндемелерді қолайлырақ деп үйренген. Бірақ Amazon бұл құралды жөндей алмады (немесе жөндей алмады). Олар оны мүлдем тоқтатып тастады.

Google-дың Photos құралы кейбір қара нәсілді адамдарды «гориллалар» деп белгілегенде де осындай дөрекі әдісті қолданды: қолданба басқа жануарларды тануды жалғастырса да, гориллаларды тануды мүлдем тоқтатты. Бұл ауыр қателік Google-дың өз құралын қара нәсілді адамдардың жеткілікті суреттерінде оқытпағанынан және оны қызметкерлер арасында жеткілікті сынақтан өткізбегенінен туындады. Бірақ тіпті 2023 жылдың соңында да компания өз ЖИ моделін түзету қабілетіне сенімді болмағандықтан, бұл функцияны жай ғана өшіріп тастады.

Кейбір ЖИ зерттеушілері бұл біржақтылықты түзету тым қиын екенін айтады, өйткені қазіргі ЖИ модельдері соншалықты күрделі, тіпті оларды жасаушылардың өздері де неге белгілі бір шешімдер қабылдайтынын түсінбейді. Нейрондық желілер (адам миының жұмыс істеу принципіне негізделген есептеу модельдері) сияқты терең оқыту модельдері миллиондаған немесе миллиардтаған параметрлерден, яғни «салмақтардан» тұрады. Олар байланысқан қабаттар арасындағы күрделі математикалық функцияларда реттегіш рөлін атқарады. Нейрондық желінің қабаттарын конвейері бар зауыт сияқты елестетіп көріңіз, онда конвейердегі әрбір адамның ойыншық машинаны бояу немесе дөңгелектерін салу сияқты белгілі бір жұмысы бар. Конвейердің соңында сізде ойыншық машина болады. Нейрондық желідегі әрбір қабат конвейердегі станциялар сияқты, деректерге өздерінің кішкентай түзетулерін енгізеді. Мәселе мынада: көптеген кішкентай өзгерістер бірінен соң бірі орын алғандықтан, қара нәсілді сотталушыны қайта қылмыс жасау қаупі жоғары деп тану туралы шешім қабылдау үшін конвейердегі әрбір станция (немесе нейрондық желідегі қабат) нақты не істегенін бақылау өте қиын.

Google гориллаға қатысты дау-дамаймен жаңалықтарға шыққаннан кейін, Маргарет Митчелл есімді тағы бір компьютер маманы ұқсас қателіктердің алдын алу үшін іздеу алпауытына қосылды. Лос-Анджелесте туған және машиналық оқытудағы әділдік бойынша жұмыстарымен ЖИ зерттеушілері арасында танымал Митчелл машиналық оқыту жүйелерінің нақты әлемге тигізетін әсеріне мұқият болуға бағытталған шағын, бірақ өсіп келе жатқан қозғалысқа қосылды. Гэбру сияқты ол да ЖИ жүйелері жіберетін оғаш қателіктерге алаңдаулы еді. Ол өзінің докторантурадан кейінгі зерттеулерінің көп бөлігін есептеу лингвистикасы (тілді компьютерлік модельдеу және талдау саласы) және табиғи тілді генерациялау саласында өткізіп, компьютерлердің объектілерді қалай сипаттайтынын немесе мәтіндегі эмоцияларды қалай талдайтынын зерттеді. Ол Microsoft-та соқыр адамдарға арналған қолданбамен жұмыс істегенде, бағдарламаның өзі сияқты ақ нәсілді адамды жай ғана «адам» деп, ал қара нәсілді адамды «қара нәсілді адам» деп сипаттағанына шошыды.

Тағы бір жолы ол суреттерді сипаттайтын нейрондық желіге Англиядағы зауыт жарылысының суреттерін беріп, эксперимент жүргізді. Бір фотосурет жақын маңдағы пәтердің жоғарғы қабатынан түсірілген еді. Онда түтін будақтары және алдыңғы планда оқиға туралы хабарлап жатқан тележаңалықтар арнасы көрініп тұрды. ЖИ жүйесі оған бұл суретті «керемет», «әдемі» және «тамаша көрініс» деп айтқанда Митчелл таңғалды.

«Жүйеде «бәрі керемет» деген мәселе болды», — дейді Митчелл «Лего фильміндегі» барлық өмірлік қиындықтарды елемейтін әйгілі әнді еске түсіріп. «Онда ажал туралы ұғым болмады және ол өлімнің жаман екенін түсінбеді».

Оның оқу суреттерінен шын мәнінде үйренгені — күннің батуы әдемі екені және биікте болу керемет көрініс беретіні еді. Міне, сол кезде Митчелл бәрі деректерге байланысты екенін түсінді. Өз жүйесін оқыту үшін деректерде олқылықтар жіберу арқылы ол оған адам өмірінің жойылуын елемейтін барлық біржақтылықтарды енгізіп алған еді.

Митчелл Google-да осы мәселелермен жұмыс істеп жүргенде, ірі технологиялық фирмада жұмыс істеудің тағы бір жағымсыз жағын байқады. Ол компанияның беделіне үнемі алаңдайтын менеджерлер мен шексіз жиналыстардың арасында, тұншықтырғыш бюрократияның ортасында қалды. 2018 жылы Митчелл Гэбруға Google-да өзіне қосылуды ұсынып, электрондық хат жіберді. ЖИ этикасы саласы кішкентай болғандықтан, екеуі бір-бірін бұрыннан білетін. Гэбру Google-дың этикалық ЖИ зерттеу тобын бірлесіп басқаруға келісе ме?

Гэбру екіұдай күйде болды. Ол Google-дың, әсіресе әйелдер мен азшылық өкілдері үшін жұмыс істеуге қолайсыз орын екені туралы қауесеттерді естіген еді. Оған Google басшысы Энди Рубиннің жағдайынан артық мысал жоқ еді. Рубин танымал Андроид (астроном. ) (астроном. ) операциялық жүйесінің негізін қалап, Google-да «рок-жұлдыз» болған еді, бірақ 2014 жылы ол сексуалдық сипаттағы теріс қылықтары туралы айыптаулардан кейін компаниядан үндемей кетіп қалды. Бірнеше жылдан кейін New York Times жүргізген зерттеу Google басшылығының бұл айыптауларды тексеріп, олардың негізді екенін анықтағанын көрсетті. Соған қарамастан, Google Рубинді қуып жіберудің орнына, оған 90 миллион долларлық «алтын парашют» (жұмыстан шыққанда берілетін ірі төлемақы) беріп, құрметпен шығарып салды.

Дегенмен, Google-да бәрі бірдей жаман емес еді. Гэбру қызметкерлердің компания қателік жасағанда оған қарсы тұрып, күресетініне тәнті болды. Мыңдаған адам Рубиннің төлемақысына қарсы жаһандық наразылыққа шықты, ал ол қосылардан бірнеше ай бұрын үш мыңнан астам қызметкер бас директор Сундар Пичайға ашық хат жазып, компанияның Project Maven жобасынан (әскери жоба) шығуын талап етті — және компания шықты. Ең бастысы, бұл наразылықтарды ЖИ этикасы бойынша сарапшы, мәселені нақты жеткізуі арқылы Google-ды бағдарламаны қайта қарауға мәжбүр еткен Мередит Уиттакер есімді әйел үйлестірген еді. Мүмкін, бұл орын Гэбру үшін өзінің «Деректер жиынтығына арналған техникалық төлқұжаттар» стандарттары сияқты жауапты тәжірибелерді енгізуге болатын жер болар.

Бірақ жаңа этикалық топтың көлеміне қарап, Google сияқты технологиялық алпауыттардың ЖИ-дегі инвестицияны қайда бағыттайтыны анық болды: мүмкіндіктерді арттыру. Жұмыстарының маңыздылығына қарамастан, топ тек бірнеше компьютер мамандарынан тұрды. Компанияның қалған бөлігінде мыңдаған инженерлер мен зерттеушілер әлі де ЖИ жүйелерін жылдамырақ әрі жақсырақ ету үшін жұмыс істеп жатты. Олар үнемі Гэбру мен Митчелл зерттеп, күтпеген салдарларын тексеруге тырысатын жаңа мүмкіндік стандарттарын жасап жатты.

Митчелл Google-да қажып жүрген еді. Ол жиналыстарда менеджерлерге ЖИ жүйелері тудыруы мүмкін кейбір мәселелер туралы ескерткенде, кадрлар бөлімінен оған «ынтымақтастыққа бейім болуды» сұрайтын хаттар келетін. Силикон алқабында Google, Apple және Facebook сияқты фирмаларда есептеуіш техника саласындағы жұмыс орындарының тек төрттен бірін әйелдер құрайтын және олар 2020 жылы ерлер тапқан әрбір доллар үшін сексен алты цент қана алатын. Әйелдер жұмысқа қабылдау мен жоғарылату кезінде жиі теңсіздікке, қысымға және кемсітушілікке тап болатын, ал қара нәсілді әйелдер үшін жағдай тіпті қиын еді. Силикон алқабының әдеттегі конференциясына немесе кешіне келетін әйелдердің көбі инженерлік немесе зерттеу саласында емес, маркетинг немесе пиар саласында жұмыс істейтін. Сондықтан әйелдер ЖИ этикасымен көбірек айналысатын; олар кемсітушіліктің не екенін өз тәжірибесінен білетін. Бірақ бұл сонымен қатар олардың дауысы бөлмедегі ең қатты дауыс болуына кедергі келтіретінін білдірді.

Соған қарамастан, Митчелл Гэбруға таңғалып, оны құрметтей бастады. Гэбру батыл еді және ресурстар қажет болса немесе әділетсіздікті көрсе, басшылыққа қарсы тұрудан тайсалмайтын. Бір күні екеуі Google кампусының 41-ғимаратындағы Гэбрудың кеңсесінде отырғанда, олар менеджерлерінің бірінен келген, екеуі де компанияда сезінген кемсітушілікті көрсететін көңілсіз хат туралы сөйлесті. Митчелл жылап жіберуге шақ қалды. Гэбру басқаша көзқарас танытты.

«Мұңайма», — деді ол Митчеллге. «Ашулан».

Гэбру ноутбугын өзіне қарай тартып, менеджерге жауап жаза бастады. Ол жазып жатқанда дауыстап оқып, менеджердің уәждерін сауатты түрде талқандады. Кейінірек Митчелл мен Гэбру екеуі де Google-дан жұмыстан шығарылғанда, сол менеджер екеуіне де қолдау көрсетіп, көп ұзамай өзі де қызметінен кетті.

Гэбру мен Митчелл өз мәселелеріне жұртшылықтың назарын аударуға жақын еді, тіпті бұл үлкен жанжалмен жұмыстан кетуді білдірсе де. Бірақ олар Google-дың негізгі күш-жігерімен жарысып жүрген еді. Google-дың ЖИ-ін ақылдырақ ету міндеттелген әлдеқайда үлкен ғалымдар тобы ЖИ тарихындағы ең үлкен секірістердің бірін жасаудың алдында тұрған еді. Олардың мұны істегені ғажайып еді.

9-ТАРАУ Голиат парадоксы

2017 жылы Google-да сексен мыңға жуық жалақы алатын қызметкер болды. Олардың бәрі инженер емес еді. Іздеу жолағының үстінде күнделікті шығатын Google Doodle суреттерін жасаушылар болды. Кеңседегі хиропракторлар мен массаж жасаушылар, қызметкерлердің үш мезгіл ыстық тамақ арасында тоқ жүруін қадағалайтын «снакологистер», өсімдіктерге күтім жасайтын бағбандар және үстел футболын сүртетін тазалықшылар болды.

Google-дың бизнес моделі «алтын жұмыртқа салатын тауық» еді. Сол жылы оның жарнама бизнесі жыл сайын 100 миллиард долларға жуық табыс әкелді — бұл көрсеткіш 2024 жылға қарай екі еседен астам өсетін еді — сондықтан бұл ақшаның көп бөлігі таланттарды тартуға жұмсалуы заңды еді. Силикон алқабы табысты екі көрсеткішпен өлшеуге бейім еді: инвесторлардан қанша ақша жинағаныңыз және қанша адамды жұмысқа алғаныңыз. Орта буын менеджерлерінің немен айналысатыны әрқашан белгілі болмаса да, қызметкерлердің орасан зор саны Ларри Пейдж бен Сергей Брин сияқты бас директорлардың империя құру туралы армандарын көрсететін.

Google-дың корпоративтік ісінуі әдеттен тыс емес еді. Сол кезде Facebook-те 40 000-ға жуық, ал Microsoft-та 124 000 қызметкер болды, ал стартап негізін қалаушылар спорт залдары мен тегін балмұздақ дүңгіршектері бар жеке корпоративтік кампустарын басқаруды армандайтын. Демис Хассабис бұл ережеден тыс қалған жалғыз адам болды, бәлкім, ол мұхиттың арғы жағында орналасқандықтан болар. Ол DeepMind-тың Силикон алқабының артықшылықтары мен көлемге құмарлық әлеміне жұтылып кеткенін қаламады.

Мұндай үлкен болудың мәселесі мынада еді: егер біреу Google ішінде жаңашыл нәрсе ойлап тапса, оның жарық көруі қиын болуы мүмкін еді. Google-дың цифрлық жарнама бизнесі қол сұғылмайтын қасиетті нәрсе болды. Егер өте қажет болмаса, оны жұмыс істететін алгоритмдерге тиіспейтінсіз. Силикон алқабы инновациялардың астанасы ретінде қаншалықты мақталса да, оның ірі компаниялары оншалықты жаңашыл емес еді. Google-дың басты беті соңғы онжылдықта әрең өзгерді. iPhone әлі де сол ескі тікбұрышты металл кесегі еді. Ал Facebook-тің барлық дерлік жаңа функциясы Snapchat немесе TikTok сияқты бәсекелестерінің тікелей көшірмесі болды. Бұл компаниялардың табысы ондаған миллиардқа жеткеннен кейін, олардың табыс формуласын өзгерту тым қауіпті еді.

Сондықтан Google-дағы зерттеушілер тобы соңғы онжылдықтағы жасанды интеллект саласындағы ең маңызды жаңалықтардың бірін ашқанда, іздеу компаниясы оны іште қалдырды. Олардың оқиғасы қысқаша айтқанда, Үлкен Технологиялық (Big Tech) фирмалардың монополиялық ауқымы олардың өнертапқыштық қабілетін қалай тежеп, оларды басқа адамдардың жаңалықтарын көшіруге және сатып алуға мәжбүр ететінін көрсетті. Бірақ бұл салғырттық Google үшін өте ауыр болды. Соңында OpenAI Google-дың үлкен өнертабысын пайдаланып қана қоймай, сол өнертабысты іздеу алпауытына соңғы жылдардағы алғашқы нақты қауіпті төндіру үшін қолданды.

ChatGPT-дегі «T» әрпі <span data-term="true">трансформер</span> (мәліметтерді параллель өңдеуге мүмкіндік беретін машиналық оқыту архитектурасы) дегенді білдіреді. Бұл он сегіз дөңгелекті жүк көлігіне айналатын бөтен ғаламшарлық роботтар емес, машиналарға адамға ұқсас мәтін шығаруға мүмкіндік беретін жүйе. Трансформер шынайы мәтін, кескін, видео, ДНҚ тізбегін және басқа да көптеген деректер түрлерін жасай алатын <span data-term="true">генеративті ЖИ-дің</span> (жаңа мазмұн тудыруға қабілетті жасанды интеллект) жаңа толқыны үшін өте маңызды болды. Трансформердің 2017 жылғы өнертабысы ЖИ саласы үшін тұтынушыларға смартфондардың келуімен бірдей әсер етті. Смартфондарға дейін ұялы телефондар қоңырау шалу, хабарлама жіберу және ескі <span data-term="true">«Snake»</span> (Жылан) ойынын ойнаудан әріге бара алмайтын. Бірақ сенсорлық смартфондар нарыққа шыққанда, адамдар кенеттен интернетті шарлауға, GPS қолдануға, жоғары сапалы суретке түсіруге және миллиондаған түрлі қолданбаларды пайдалануға мүмкіндік алды.

Трансформерлер ЖИ инженерлерінің мүмкіндіктерін де кеңейтті. Олар әлдеқайда көп деректерді өңдеп, адам тілін тезірек түсіне алатын болды. Трансформерлерге дейін чат-ботпен сөйлесу ақымақ машинамен сөйлескендей әсер беретін, өйткені ескі жүйелер ережелер жиынтығы мен шешімдер ағашына (логикалық шарттар тізбегіне негізделген алгоритм) сүйенетін. Егер сіз боттан оның бағдарламасында жазылмаған бірдеңені сұрасаңыз (бұл жиі болатын), ол тығырыққа тірелетін немесе оғаш қате жіберетін. Apple компаниясының Siri, Amazon-ның Alexa және тіпті Google-дың Assistant жүйелері бастапқыда осылай жасалған болатын. Олар әрбір сұрауды жеке оқшауланған өтініш ретінде қарастырды, бұл олардың контексті түсінуде қауқарсыз екенін білдірді. Олар сіздің бұрын қойған сұрақтарыңызды адамдар сияқты есте сақтай алмайтын. Мысалы:

«Alexa, қазір Индианаполисте ауа райы қандай? »

«Қазір Индианаполисте Фаренгейт бойынша жиырма төрт градус, аспан бұлтты».

«Ол жаққа Лондоннан ұшып бару үшін қанша сағат кетеді? »

«Лондоннан сіздің қазіргі орналасқан жеріңізге ұшып келу үшін шамамен қырық бес минут кетеді».

Бұл жазылған кезде менің тұрған жерім Суррей болатын, Лондонның Хитроу әуежайынан ол жаққа ұшып бару үшін, шамасы, қырық бес минут кетер еді. Alexa-ның мұндай күрделі ұшу жоспарын қалай ойлап тапқаны маңызды емес — мәселе оның «ол жаққа» деген сөздің мен екі секунд бұрын сұраған Индианаполисті білдіретінін түсіне алмауында болды. Осы дәстүрлі цифрлық көмекшілердің көпшілігінің артында тұрған жүйелер тар шеңберде болды және негізінен кілт сөздерге сүйенетін. Сондықтан олар әлі күнге дейін жаттанды жауаптар беретін.

Трансформерлер чат-боттарды осы құрсаудан босатты. Олар реңктер мен жаргон сөздерді түсіне алатын болды. Олар сіздің бірнеше сөйлем бұрын айтқан сөзіңізге сілтеме жасай алатын. Олар кез келген кездейсоқ сұрауды өңдеп, жекелендірілген жауап бере алатын болды. Бұл жаңаруды бір сөзбен түйіндеуге болады: олар жалпылама сипатқа ие болды. Көптеген ЖИ зерттеушілері үшін бұл AGI-ге (адам деңгейіндегі жалпы жасанды интеллект) жасалған қадам еді. Сондай-ақ, бұл компьютерлер тілді адамдар сияқты «түсіне» бастады ма, әлде олар оны әлі де математикалық болжамдар арқылы өңдеп жатыр ма деген пікірталас тудырды.

Бұл өнертабыстың Google-дан шыққаны таңғалдырады. Компаниядағы барлық таланттар мен ресурстарға қарамастан, оның шектен тыс ісінуі және жарнама бизнесіне нұқсан келтіруден қорқуы жаңа инновацияларды енгізуге тырысқан қызметкерлерге кедергі болды. Google Brain бөлімінде компанияның ең озық терең оқыту зерттеушілері болды, бірақ олар басшылықтың түсініксіз мақсаттары мен стратегияларымен күресті деп есептейді сондағы бұрынғы қызметкерлер. Тоқмейілсу мәдениеті жартылай Джеффри Хинтон сияқты көптеген талантты ғалымдардың жұмыс істеуінен туындады. Деңгей жоғары болды және Google күн сайын миллиардтаған мәтін сөздерін өңдеу үшін рекурренттік нейрондық желілер (ақпаратты тізбектей өңдейтін алгоритмдер) сияқты озық ЖИ әдістерін қолданып жүрген еді.

Егер сіз Ілия Полосухин сияқты жас ЖИ зерттеушісі болсаңыз, сіз осы әдістерді ойлап тапқан адамдардың қасында отыратынсыз. 2017 жылдың басында Полосухин Google-дан кетуге дайындалып жатқан және тәуекелге баруға дайын болды. Ларри Пейдждің кеңсесінен екі қабат төмен орналасқан Google асханаларының бірінде жиырма бес жастағы украиналық жігіт басқа екі зерттеуші — Ашиш Васвани және Якоб Ушкорейтпен ой бөлісіп отырды. Оның түскі ас серіктестері де ғимараттағы басқа ғалымдардың қалыптасқан ережелерімен жүргенді ұнатпайтын. Васвани үлкен жобада жұмыс істеуге құштар еді. Ушкорейт Google-да он жылдан астам уақыт жұмыс істеген және Google Brain-нің ынталандыру құрылымының асыра дәріптелген академиялық мекемеге айналғанына күмәнмен қарайтын; ондаған жаңа түлектер мен академиктерді жұмысқа алғаннан кейін, ол негізінен мақаланың бірінші авторы болуды немесе конференцияда жариялануды ғана ойлайтын адамдардың ортасында қалды. Керемет өнімдер жасауға не болды?

Ушкорейт кеште адамдарға қай жерде жұмыс істейтінін айтса, олар оған таңғала қарайтын. Бірақ ол Google Translate-те жұмыс істейтінін айтқан бойда, олар күле бастайтын. Қызмет ыңғайсыз және жиі қате болатын, әсіресе қытай тілі сияқты латын емес тілдерде. Полосухин Google Translate-тің нашар екеніне келісті. Оның Қытайдағы достары бұл қызметке шағымданатын. Ушкорейт бұдан да жақсы жол бар ма екен деп дауыстап ойланды. Google инженерлері ең озық технологиямен жұмыс істеп жатырмыз деп сенетін, сондықтан олар «бұзылмаса, тиіспе» деген ұранмен жұмыс істейтін. Ушкорейт мәселеге басқаша қарады: егер ол бұзылмаса, оны бұз.

«Егер біз машиналық аударманың декодеріндегі рекурренттік нейрондық желілерден құтылып, тек назар аударуды (мәліметтер жиынтығындағы ең маңызды ақпаратты таңдап алу әдісі) қолдансақ қайтеді? » — деп сұрады олардың бірі. «Бұл инференс (дайын модельдің жауап беру уақыты) уақытын жылдамдатпас па еді? »

ЖИ тілінде айтқанда, зерттеушілер өте қуатты есептеу чиптерін тиімдірек пайдалана аламыз ба деп сұрады. Оған дейін Google сөздерді талдау үшін рекурренттік нейрондық желілер деп аталатын әдісті қолданып келген. Жүйе сөйлемді солдан оңға қарай оқығандағыдай, тізбектегі әрбір сөзді жеке қарастыратын. Сол кезде бұл ең озық әдіс еді, бірақ ол Nvidia сияқты компаниялар шығаратын, көптеген тапсырмаларды бір уақытта өңдей алатын қуатты чиптердің мүмкіндігін толық пайдалана алмады. Сіздің үйіңіздегі ноутбуктің чипінде нұсқауларды орындауға арналған төрт «ядро» болуы мүмкін, бірақ ЖИ жүйелерін өңдеуге арналған серверлердегі GPU чиптерінде мыңдаған ядролар бар. Бұл ЖИ моделі сөйлемдегі көптеген сөздерді тізбек бойынша емес, бірден «оқи» алатынын білдіреді. Бұл чиптерді пайдаланбау электр арасын өшіріп тастап, ағашты қолмен кескенмен бірдей еді. Бүкіл аралау машинасын розеткадан суырып алып, оның жүзін тақтайдың үстімен қайта-қайта сүйреп жатқаныңызды елестетіңіз. Бұл машина әлеуетін баяу және ауыр түрде босқа жұмсау болар еді. Тілді өңдейтін ЖИ жүйелерінде де дәл осы жағдай орын алды. Олар өздеріне қуат беретін чиптердің толық әлеуетін пайдаланбады.

Васвани сияқты зерттеушілер ЖИ-дегі «назар аудару» тұжырымдамасын зерттеп жүрген еді. Салаттары мен сэндвичтерін жеп отырып, бұл үштік сөздерді тезірек және дәлірек аудару үшін осы әдісті қолдана аламыз ба деп ойлады.

Келесі бірнеше ай ішінде зерттеушілер эксперименттер жүргізе бастады. Ушкорейт кеңседегі тақталарға жаңа архитектураның схемаларын сызатын, ал қасынан өткендер оған күмәнмен қарайтын. Оның командасы жұмыс істеп жатқан нәрсе ол кезде қисынсыз көрінетін. Олар рекурренттік нейрондық желілердің «рекурренттік» элементін алып тастау туралы айтты, бұл ақылға сыймайтын іс еді. Васвани құрастырып жатқан әртүрлі архитектуралар әлі де қолданыстағы жүйеден айтарлықтай жақсы болған жоқ. Бірақ олардың жобасы туралы хабар тараған сайын, басқалар да қосылғысы келді.

Олардың бірі Ноам Шазир еді және ол Google-да аңызға айналған тұлға болатын. Ол Google-дың Adsense бағдарламасына қай веб-бетте қандай жарнаманы көрсету керектігін анықтауға көмектесетін жүйенің авторы еді. Үнемі күлімсіреп жүретін және гүрсілдеген дауысы бар ол ерекше адам ретінде көрінетін және Сундар Пичай сияқты басшылармен ескі достарындай сөйлесетін. Шазирдің үлкен тілдік модельдермен (орасан зор деректерде оқытылған ЖИ жүйелері) үлкен тәжірибесі бар еді. Бұл миллиардтаған сөздермен жаттықтырылғаннан кейін адамға ұқсас мәтінді талдай алатын және жасай алатын компьютерлік бағдарламалар еді. Шазир зерттеушілер тобына қосылғаннан кейін көп ұзамай жаңа модельге үлкен көлемдегі деректермен жұмыс істеуге көмектесетін бірнеше әдістерді тапты.

«Осы заттардың басын қосқанда, сиқыр пайда болды», — деп еске алады Ушкорейт. «Сол кезде басқа да көптеген идеялар туындады».

Көп ұзамай әлі аты жоқ жобада сегіз зерттеуші жұмыс істеп, код жазып, олар «трансформер» деп атаған жүйенің архитектурасын жетілдіре бастады. Бұл атау кез келген кіріс деректі кез келген шығыс дерекке айналдыра алатын жүйеге қатысты болды және ғалымдар тілді аударуға назар аударғанымен, олардың жүйесі ақыр соңында бұдан әлдеқайда көп нәрсені істейтін болады.

Біраз уақыттан кейін олар кейбір жақсартуларды байқай бастады. «О, мынау басқаша екен», — деді Ушкорейт бір сәтте. Жүйе неміс тілінде ұзын, күрделі сөйлем құрылымдарын шығарып жатты. Бала кезінде Германияда көп жыл болғандықтан, бұл тілде еркін сөйлейтін Ушкорейт оның Google Translate шығаратын әдеттегі мазмұннан жақсырақ екенін байқады. Ол түсінікті, оқылатын және ең бастысы, деректі тұрғыдан дұрыс болды. Француз тілінде сөйлейтін Полосухин де соны байқады.

Командадағы валлийлік бағдарламашы Ллион Джонс жүйенің кореференцияны шешу (мәтіндегі есімдіктердің қай нысанға қатысты екенін анықтау процесі) деп аталатын нәрсені істеп жатқанын көріп таңғалды. Бұл компьютерлердің тілді дұрыс өңдеуіне қол жеткізу жолындағы үлкен кедергі болатын.

Мысалы, «Жануар көшеден өте алмады, өйткені ол қатты шаршаған еді» деген сөйлемде «ол» сөзі жануарға қатысты екені бізге, адамдарға анық. Бірақ сөйлемді «Жануар көшеден өте алмады, өйткені ол өте кең еді» деп өзгертсеңіз, енді ол жолға қатысты болады. Оған дейін ЖИ-ге мұндай контекст өзгерісін түсіндіру өте қиын болған еді, өйткені бұл әлемнің қалай жұмыс істейтіні және нысандардың қалай әрекеттесетіні туралы көпжылдық тәжірибеден жинақталған қарапайым білімді талап ететін.

«Бұл ЖИ құлап келген классикалық зияткерлік тест», — дейді Джонс. «Біз нейрондық желіге қарапайым логиканы енгізе алмадық». Бірақ олар сол сөйлемдерді трансформерге салғанда, зерттеушілер оның «назар аудару блогында» (модельдің мәліметтерге фокусталатын бөлігі) ерекше бірдеңе болып жатқанын көрді. Назар аудару блогы олардың моделіндегі деректердің әртүрлі бөліктеріне фокусталатын шағын детекторы сияқты болды. Бұл қазіргі чиптердің қуатын пайдаланатын және трансформерге сөйлемдегі барлық сөздерге бір-бірлеп емес, бір уақытта назар аударуға мүмкіндік беретін бөлік еді.

Зерттеушілер «шаршаған» деген сөзді «кең» деп өзгерткенде, олар назар аудару блогының «ол» сөзін жануардан жолға ауыстырғанын көрді.

«Меніңше, мұны бұрын ешкім көрмеген», — деп еске алады Джонс. Ол тіпті нағыз интеллекттің сирек көрінісін байқап тұрған жоқпын ба деп ойлана бастады. «Оның құрылымдалмаған мәтіннен қарапайым логиканы шығарып алуы — қызықтырақ бірдеңе болып жатқанының дәлелі еді».

Түскі ас кезіндегі алғашқы әңгімелерден кейін шамамен алты ай өткен соң, зерттеушілер өз тұжырымдарын жазды. Полосухин Google-дан кетіп қалған еді, бірақ қалғандары жобаны жалғастырып, бәрін аяқтау үшін түн ортасына дейін кеңседе қалды. Негізгі автор болған Васвани түнде жақын маңдағы диванда ұйықтады.

«Бізге тақырып керек», — деді ол бір сәтте дауыстап.

Джонс үстелінен басын көтерді. «Мен тақырып қоюға онша емеспін», — деп жауап берді ол. «Бірақ «Attention is all you need» (Назар аудару — сізге керегі тек осы) қалай? » Бұл оның басына келген кездейсоқ ой еді, Васвани келісіп ештеңе айтқан жоқ. Шын мәнінде, ол орнынан тұрып, кетіп қалды, деп еске алады Джонс.

Бірақ кейінірек «Attention Is All You Need» тақырыбы олардың ғылыми еңбегінің басты бетіне шықты, бұл олардың тапқан жаңалығының тамаша қысқаша мазмұны еді. Трансформерді пайдаланған кезде, сіздің ЖИ жүйеңіз бір уақытта үлкен көлемдегі деректерге назар аударып, олармен әлдеқайда көп нәрсе істей алады.

«Мен оларды пайымдау қозғалтқыштары деп ойлағанды ұнатамын», — дейді Васвани.

Бұл пайымдау қозғалтқыштары ЖИ жүйелерін күшейтуге мүмкіндік берді, бірақ Google бұл бағытта әрекет етуге баяулық танытты. Мысалы, Google-ға трансформерлерді Google Translate немесе BERT (іздеу жүйесін жақсартуға арналған тілдік модель) сияқты қызметтерге қосу үшін бірнеше жыл қажет болды.

Трансформердің өнертапқыштары көңілдері қала бастағанын сезді. Тіпті Германиядағы шағын стартап тілдерді аудару үшін трансформерді Google-дан әлдеқайда бұрын қолдана бастады, бұл үлкен компанияны қуып жетушінің күйіне түсірді.

Олардың кейбіреулері Google-ға трансформердің үлкен мүмкіндіктерін көрсетуге тырысты. Мақалалары жарияланғаннан кейін көп ұзамай Шазир әріптесімен бірге бұл технологияны Meena деп аталатын жаңа чат-ботта қолдануға кірісті. Олар оны ашық интернеттегі әлеуметтік желілердегі сөйлесулерден алынған шамамен қырық миллиард сөзбен жаттықтырды және ақыр соңында бұл адамдардың интернетте іздеу және компьютерді пайдалану тәсілін түбегейлі өзгертетініне сенді. Meena соншалықты жетілдірілген еді, ол адаммен сөз таластырып немесе қалжыңдасып қана қоймай, философиялық пікірталастарды да еркін жүргізе алатын.

Шазир мен оның әріптесі өздері жасаған дүниеге қатты қуанды. Олар боттың мәліметтерін сыртқы зерттеушілерге жіберіп, ашық демонстрация өткізуге және адамдардың үйіндегі ескі Google Assistant-ты әлдеқайда жетілдірілген нәрсемен алмастыруға үміттенді. Бірақ Google басшылары бұл талпыныстарды тоқтатты. Олар бот Google-дың беделіне немесе, нақтырақ айтсақ, оның 100 миллиард долларлық цифрлық жарнама бизнесіне нұқсан келтіретін оғаш мәлімдемелер жасай ма деп қорықты. Wall Street Journal есебіне сәйкес, олар Шазирдің Meena-ны көпшілікке шығару немесе оны Google өнімдеріне енгізу туралы кез келген әрекетіне кедергі келтірген.

«Google миллиард долларлық бизнес болмаса, қозғалмайды», — дейді Полосухин. «Ал миллиард долларлық бизнес құру өте қиын». Сондықтан Google-дың көптеген қызметкерлері екі мың түрлі компания ашу үшін кетіп қалды, деп хабарлайды Пичайдың 2023 жылы Bloomberg-ке берген сұхбаты. Бұл Google-ды инновацияның қайнар көзі ретінде көрсеткенімен, іс жүзінде іздеу алыбы бөлмедегі барлық инновацияларды сорып алатын алып сегізаяқ сияқты болды. Жаңа компания бастаған кәсіпкерлердің көбі өз фирмаларын қайтадан Google-ға сатты немесе компаниядан инвестиция алды. Google инновация жасай алмаған жерде, ол әдетте оны сатып алады.

Google-дың жаңа технологияға қатысты баяу әрекетіне екі түрлі көзқараспен қарауға болады. Көпшілік алдында ол өзін сақ ретінде көрсетеді. Және компанияның көптеген зерттеушілері оның басшылары ЖИ-ді қоғамға зиян тигізбейтіндей етіп енгізуге шынымен мұқият болғысы келетініне келіседі. Соңғы жылдары ол DeepMind-та жасалған ұқсас ережелерден көшірілген ЖИ-ді пайдалану бойынша жетекші принциптер тізімін жасады. 2018 жылы Google-дың бас заңгері Кент Уокер теріс пайдалану мүмкіндігіне байланысты компанияның бет-әлпетті тану технологиясын сатуды тоқтататынын жариялады. Және жалпы алғанда, Google-да өз алгоритмдерін қатаң ішкі тексеруден өткізу процесі бар, кейде кез келген этикалық мәселелерді мұқият тексеру үшін сыртқы сараптаманы да қамтиды.

Бірақ компания әлі де этикалық тұрғыдан дөрекі шешімдер қабылдап келеді. Сол жылдың мамыр айында Пичай Duplex деп аталатын жаңа көмекші функциясын көрсетті, ол мейрамханаға үстел брондау үшін қоңырау шалатын және адамға ұқсас естілуі үшін «мм» және «ээ» сияқты сөздерді қолданатын ЖИ дауысы еді. Пичай демонстрацияны қошеметпен аяқтады, бірақ қызмет желінің екінші жағындағы адамға оның машина екенін ескертпеді. Сыншылар Google-ды желінің екінші жағындағы адамдарды алдағаны үшін айыптады.

Google-дың сақ болуы көбінесе оның шектен тыс ісінуінің нәтижесі еді. Іздеу нарығында монополиялық үстемдікке ие барлық уақыттағы ең ірі компаниялардың бірі болудың кері жағы — бәрі тасбақаның қарқынымен қозғалады. Сіз үнемі қоғамның наразылығынан немесе реттеуші органдардың тексеруінен қорқасыз. Сіздің басты мақсатыңыз — өсім мен үстемдікті сақтау. Google іздеу нарығындағы үстемдігін сақтап қалуға соншалықты тырысқаны соншалық, ол 2021 жылы Apple, Samsung және басқаларға 26,3 миллиард доллардан астам қаражат төледі — бұл сол жылғы таза пайдасының үштен бірінен астамы — тек өз іздеу жүйесін олардың телефондарына алдын ала орнату үшін. Мұны АҚШ Әділет министрлігі қозғаған соңғы ірі монополияға қарсы сот ісі көрсетті.

Компанияның ауқымы мен өсуге деген құштарлығы оның зерттеушілері немесе инженерлеріне тіпті кішкентай идеяларды мақұлдату үшін менеджменттің бірнеше деңгейінен өтуге тура келетінін білдірді. Ал іс жүзінде бәсекелестік болмағандықтан (өйткені Google әлемдегі барлық онлайн іздеулердің шамамен 90 пайызын бақылап отырды), инновацияға деген асығыстық болған жоқ.

Бірде, трансформер тобы өз зерттеулерін жинақтап жатқанда, Шазир компанияның көптеген кофе машиналарының бірінің қасында Пичаймен тікелей сөйлесіп қалды. Оның көптеген жылдар бойы Google-да ЖИ шебері болғаны компанияның кейбір жоғары басшыларымен жеке байланыс орнатуына мүмкіндік берді. «Бұл Google-ды толығымен алмастырады», — деп мақтанды Шазир жаңа өнертабыс туралы, сол жерде болған трансформер мақаласының авторларының бірі Лукаш Кайзердің айтуынша.

«Онда бұл бәрін алмастырады деген сезім болды», — деп еске алады Кайзер. Шазир әріптестеріне де осыны айтып жүрген және Google басшылығына арналған ішкі жазбада трансформердің әлеуетін асыра дәріптеген еді, сондықтан ол қалжыңдаған жоқ. Трансформер компьютерлерге тек мәтін ғана емес, барлық сұрақтарға жауап беруге мүмкіндік берді. Егер тұтынушылар мұндай нәрсені көбірек пайдалана бастаса, олар Google-ға аз жүгінетін болады.

Пичай бұл пікірді елемегендей болды және Шазирді Google-дың тағы бір оғаш зерттеушісі ретінде қабылдады. Қалай болғанда да, зерттей беріңіз, деді ол. Көңілі қалған Шазир 2021 жылы үлкен тілдік модельдер бойынша зерттеулерін өз бетінше жалғастыру үшін Google-дан кетіп, Character. ai деп аталатын чат-бот компаниясының негізін қалады. Ол кезде «Attention Is All You Need» мақаласы ЖИ саласындағы барлық уақыттағы ең танымал зерттеу жұмыстарының біріне айналған еді. Әдетте, ЖИ бойынша зерттеу мақаласы, егер авторларының жолы болса, оның бүкіл өмірінде бірнеше ондаған рет сілтеме жасалуы мүмкін. Бірақ трансформер туралы мақала ғалымдар арасында үлкен дүрбелең туғызғаны соншалық, оған сексен мыңнан астам рет сілтеме жасалды.

Google-дың өнертабыстың негізгі механизмдерін әлеммен бөлісуінде ешқандай ерекшелік болған жоқ. Технологиялық компаниялар көбінесе осылай жұмыс істейтін. Олар жаңа әдістерді «ашық бастапқы кодпен» шығарғанда, зерттеу қауымдастығынан кері байланыс алатын, бұл олардың үздік инженерлер арасындағы беделін арттырып, оларды жұмысқа алуды жеңілдететін. Бірақ Google бұның компанияға қаншалықты қымбатқа түсетінін бағалай алмады. Трансформерді ойлап тапқан сегіз зерттеушінің барлығы қазір Google-дан кетіп қалды. Көбі өздерінің ЖИ компанияларын ашты, олар бұл жазылған кезде жиынтық құны 4 миллиард доллардан асты. Тек Character. ai-дің өзі 1 миллиард долларға бағаланды және әлемдегі ең танымал чат-бот сайттарының біріне айналды. Шазир өзін Google тиісінше пайдаланбаған инновациямен стратосфераға көтеріліп бара жатқандай сезінеді: «Іздеу — триллион долларлық технология сияқты, бірақ триллион доллар керемет емес», — дейді ол бүгін Калифорнияның Менло-Парк қаласындағы кеңсесінен. «Не керемет екенін білесіз бе? Квадриллион доллар. Бұл квадриллион долларлық технология, өйткені іздеу ақпаратты баршаға қолжетімді ету туралы болса, ЖИ интеллектті баршаға қолжетімді ету және барлығының өнімділігін айтарлықтай арттыру туралы».

Шазир кеткеннен кейін Google оның Meena бойынша зерттеулерін сақтап қалды және кейінірек оны LaMDA (Диалогтық қолданбаларға арналған тілдік модель) деп атады. Оның ғалымдары модельмен жұмысты жалғастырып, оны мердігерлердің көмегімен жаттықтырып, жетілдірді, нәтижесінде ол өздерін таңғалдырғандай еркін әрі адамға ұқсас болып шықты.

3-БӨЛІМ ШОТТАР

10-ТАРАУ Көлемнің маңызы бар

Егер сіз Калифорнияның күн шуақты Маунтин-Вью қаласындағы Google штаб-пәтерінен шығып, көлікпен солтүстікке қарай бір сағаттай жүрсеңіз, соңында Сан-Францискоға жетесіз. Көліктен түскенде бойыңызды діріл билейді. Мұнда әдетте ауа райы бірнеше градусқа салқынырақ, ал аспанда сұр бұлттар төмен түсіп тұрады. Google-дің туған қаласында футболкамен жүруге болатын ауа райы болса, OpenAI-дың қалалық микроклиматында сізге міндетті түрде жеңіл куртка қажет. Тағы бір үлкен айырмашылық: OpenAI зерттеушілері Google басшылығы метафоралық «шкафта» жасырып ұстағысы келген трансформер технологиясына қатты таңданып, толқып жүрді. Салқын Сан-Францискода орналасқан зерттеушілер үшін бір идея бүршік жара бастаған еді.

Коммерциялық емес зертхананың екі ондықтай зерттеушісі әлі де DeepMind-тың жетістігін қайталауға тырысып, жасанды интеллект (ЖИ) саласындағы келесі үлкен серпілісті жасауға асық болды. Олар AlphaGo-ның әлемдегі ең үздік Го ойыншыларын жеңгенін бақылап, енді өздерінің ЖИ агенттерін World of Warcraft-қа ұқсас Dota 2 күрделі стратегиялық бейнеойынын ойнауға үйретіп жатты. Егер ЖИ агенті қиял-ғажайып әлемінде эльфті басқара алса, мүмкін ол нақты әлемнің ретсіз және үздіксіз табиғатын DeepMind-тың AlphaGo-сына қарағанда жақсырақ бейнелей алар еді. Бұл, бір қарағанда, тақтадағы қара және ақ тастарды жылжытудан гөрі әсерлірек көрінді.

Сэм Альтман мен Демис Хассабис арасында да шағын «қырғи-қабақ соғыс» өршіп тұрды, ал OpenAI-дың ақкөңіл кеңес мүшесі Рид Хоффман осы пікірді тікелей естіген адамның айтуынша, екеуін «бітімгершілік трубкасын тартуға» (татуласуға) мәжбүрлеу жолдарын іздеп жүрді. 2017 жылы Альтман да, Хассабис те Болашақ өмір институты (Future of Life Institute) ұйымдастырған Калифорниядағы ЖИ қауіпсіздігі жөніндегі конференцияға қатысты. Хоффман да сонда болды, кейін ол американдық стартап гуруы мен британдық нейробиолог арасында кешкі ас ұйымдастыруға тырысты. Альтман Хассабистің ынтымақтастыққа бармайтынын және Альтман алдын алуға тырысып жатқан ЖИ-дің экзистенциалды қауіптеріне (адамзаттың өмір сүруіне төнетін қауіп) мән бермейтінін айтып, бұл идеяны ұнатпады. Содан Хоффман оның орнына Мұстафа Сүлейманды әкелді. Екеуі жақсы тіл табысты, екеуі де әлемді жақсартуға құштар еді және біраз уақыт бойы олардың ұйымдары татуласатындай көрінді.

Бірақ көлеңкеде Альтман мен Хассабис ең үздік инженерлер үшін таласып жатты. Өзінің ірі технологиялық демеушісінің арқасында Хассабистің қолы ұзын болды және талантты ЖИ зерттеушілеріне Альтманға қарағанда әлдеқайда көп ақша, сондай-ақ Google акцияларын ұсына алды. Хассабис OpenAI басшылығына таланттарды иемденуде олардан озып кете алатынын ескертіп, электронды хаттар жіберіп тұратынымен белгілі болды. OpenAI менеджерлері бұл хаттарды өздері жұмысқа шақырғысы келген инженерлерге көрсететін. «Егер біз табысты болмасақ, ол неге бұндай хаттарды жібереді? » — деп еске алады OpenAI-дың бұрынғы қызметкері.

Мүмкін, OpenAI-ға жақын адамның айтуынша, Альтманның өзі DeepMind инженерлеріне жеке хабарласып, олардың басқа жаққа ауысу ниетін тексеретіндігінен болар. Бірақ ол әдетте кадрларды іріктеуге мұқият, ойластырылған түрде қарап, уақытының шамамен 30 пайызын осы тапсырмаға жұмсайтын және әрбір үміткермен ұзақ сөйлесетін, дейді тағы бір бұрынғы қызметкер. «Біз оның үйіне барып, Сан-Францискодағы Пруссиан-Хилл төңірегінде бір сағат бойы серуендедік», — дейді Альтманмен сұхбаттасқан бұрынғы қызметкерлердің бірі. Жұмысқа орналасқаннан кейін Альтман компанияның ашық кеңсесінде ноутбугімен отырып, бәріне қолжетімді болатын. «Кез келген адам оған Slack арқылы хабарлама жазып, сөйлесе алатын», — деп еске алады олар. «Бұл айыпталмайтын». DeepMind-тың қатаң иерархиялық құрылымында Хассабис кеңседе немесе жиналыс бөлмесінде оқшауланып отыратын және онымен кездесу қиынырақ еді. Оның уақытын алу үшін басқа менеджерлер мен хатшылар арқылы өту керек болатын.

OpenAI өзін DeepMind-тан тағы бір жолмен ерекшелеуге жақын еді. OpenAI-дың жұлдызды ғалымы Илья Суцкевер трансформердің (мәтіндік деректерді өңдеуге арналған нейрондық желі архитектурасы) тілмен не істей алатыны туралы ойлауын тоқтатпады. Google оны мәтінді жақсырақ түсіну үшін қолданып жатқан еді. Ал егер OpenAI оны мәтін құрастыру (генерациялау) үшін қолданса ше? Суцкевер OpenAI-дағы ірі тілдік модельдермен тәжірибе жасап жүрген жас зерттеуші Алек Рэдфордпен сөйлесті. Бүгінде OpenAI көбіне ChatGPT-мен танымал болғанымен, 2017 жылы олар әлі де не нәтиже беретінін көру үшін әртүрлі идеяларды сынап жатқан еді, ал Рэдфорд OpenAI-да чат-боттарды қуаттандыратын технологияны зерттеп жүрген санаулы адамдардың бірі болатын.

Ірі тілдік модельдердің өздері ол кезде әлі де күлкілі нәрсе еді. Олардың жауаптары негізінен алдын ала жазылған сценарийлер бойынша болатын және олар жиі оғаш қателіктер жіберетін. Көзілдірік тағатын, сарғыш-ақшыл шашы өсіп кеткен, мектеп оқушысына ұқсайтын Рэдфорд компьютерлерді сөйлесуге және тыңдауға жақсырақ үйретуге тырысқан барлық алдыңғы академиялық талпыныстарды жақсартуға құштар болды, бірақ ол табиғатынан инженер еді және ілгерілеудің тезірек жолын қалады. Кем дегенде алты ай бойы ол өз тәжірибелерінде тығырыққа тіреліп, бір жобаға апталап уақыт жұмсап, сосын келесісіне ауысып жүрді. Ол Reddit интернет-форумынан жинаған екі миллиард пікір негізінде бір тілдік модельді үйретті, бірақ ол жақсы жұмыс істемеді.

Трансформер пайда болған кезде, ол мұны басында Google тарапынан жасалған ауыр соққы ретінде қабылдады. Әлбетте, ірі компанияның ЖИ саласында тәжірибесі мол еді. Бірақ біраз уақыттан кейін Google-дің өзінің жаңа өнертабысы бойынша үлкен жоспарлары жоқ екені байқалды, сонда Рэдфорд пен Суцкевер бұл архитектураны OpenAI-дың пайдасына қолдануға болатынын түсінді. Олар тек оған өзгерістер енгізуі керек еді. Google Translate-ті қуаттандыратын трансформер моделі сөздерді өңдеу үшін энкодер (мәтінді қабылдаушы) және декодер (мәтінді шығарушы) деп аталатын компоненттерді қолданатын.

Бұл идея екі роботпен сөйлескенге ұқсайтын. Біріншісі, энкодер, сізді тыңдап, жазбалар жасайды, содан кейін оларды екінші роботқа, декодерге береді, ол жазбаларды оқып, сізге жауап береді. Рэдфорд пен Суцкевер сол бірінші роботтан құтылып, оның орнына тек бір ғана роботтың, декодердің сізді тыңдап, өзі жауап беруіне болатынын түсінді. Алғашқы сынақтар бұл идеяның іс жүзінде жұмыс істейтінін көрсетті, бұл олардың ақауларын табу және дамыту жылдамырақ әрі оңайырақ болатын жинақы тілдік модель құра алатынын білдірді. Сондай-ақ оны «тек декодерлі» (decoder-only) ету үлкен өзгеріс әкелмек еді. Модельдің «түсіну» және сөйлеу қабілетін бір үздіксіз процеске біріктіру арқылы ол соңында адамға ұқсас мәтіндерді көбірек шығара алатын болды.

Келесі қадам — олардың тілдік моделінің деректер көлемін, есептеу қуатын және сыйымдылығын айтарлықтай арттыру еді. Суцкевер ЖИ-де, әсіресе тілдік модельдерде барлығын масштабтағанда (ауқымын арттырғанда) «табысқа кепілдік беріледі» деп бұрыннан сенетін. Неғұрлым көп деректер болса, соғұрлым жоғары есептеу қуатымен және үлкен әрі күрделі модельмен үйлескенде, ол соғұрлым қабілетті болады.

Рэдфорд өзінің тәжірибелерінен шыққан нәтижелерге таң қалды, ол тек декодері бар трансформерді орасан зор мәтін көлемінде үйреткен еді. Жаңа алгоритмдік конструкцияларды құрастырудағы барлық сәтсіз әрекеттерден шаршағаннан кейін, ол Суцкевердің стратегиясы өзіне жақын екенін түсінді. Бұл әлдеқайда қарапайым еді. Тек оған көбірек деректер беру керек. Сол кезде сонда жұмыс істеген адамның айтуынша, Суцкевер кеңседе жүріп адамдардан: «Оны бұдан да үлкен ете аласың ба? » — деп сұрай бастаған.

Трансформердің арқасында Рэдфорд өзінің тілдік модель тәжірибелерінде соңғы екі жылға қарағанда екі апта ішінде көбірек ілгерілеушілікке қол жеткізді. Ол және оның әріптестері GPT (Generatively Pre-trained Transformer — алдын ала оқытылған генеративті трансформер) деп аталатын жаңа тілдік модельмен жұмыс істей бастады. Олар оны интернеттен табылған жеті мыңға жуық, негізінен өзін-өзі басып шығарған, көбінесе махаббат пен вампирлер туралы қиял-ғажайып шығармаларға толы кітаптар жинағында үйретті. Көптеген ЖИ ғалымдары BooksCorpus деп аталатын осы деректер жинағын қолданған болатын және оны кез келген адам тегін жүктеп ала алатын. Рэдфорд пен оның командасы бұл жолы олардың моделі контексті де ажырата алатынына көз жеткізу үшін барлық қажетті ингредиенттер бар деп сенді.

Уақыт өте келе, Рэдфордтың жүйесі күрделене түскенде, OpenAI-дағы және одан тыс жерлердегі адамдар бұл жаңа ірі тілдік модельдер тілді шынымен түсініп жатыр ма, әлде жай ғана оны ажыратып отыр ма деген сұрақ қоя бастады. Бұл шағын мағыналық мәселе сияқты көрінуі мүмкін, бірақ бұл айырмашылық маңызды, себебі ол ЖИ жүйелерін олардың шын мәніндегі мүмкіндігінен әлдеқайда қуатты етіп көрсетуі мүмкін. Мысалы, «Сыртта жаңбыр жауып тұр, сондықтан қолшатырыңды ұмытпа» деген сөйлемді алайық. Рэдфорд жұмыс істеп жатқан GPT моделі қолшатыр алып жүру мен жаңбыр арасындағы ықтимал байланысты және қолшатыр сөзінің құрғақ болуға қатысты тілмен де байланысты екенін ажырата алатын. Бірақ модель адамдар сияқты су болу ұғымын түсінбейтін. Ол жай ғана бұл байланысты дәлірек ажырататын.

Рэдфордтың тәжірибелері үлкен жетістіктерге жеткен сайын, OpenAI өз модельдеріне ашық интернеттен көбірек мәтіндерді бере берді. Бұл олардың жүйесін бұрын-соңды машиналарда болмағандай шынайы ете түскенімен, олар жай ғана өздерінің оқу деректеріне сүйене отырып, кезектілікте келесі мәтін қандай болуы керек екенін болжауға машықтана түсті.

Бұл мәселе тіпті ЖИ қоғамдастығында да адамдарды екіге бөлді. Бұл модельдердің күрделілігінің артуы олардың сезімтал (саналы) болып бара жатқанын білдіре ме? Жауап, сірә, «жоқ» еді, бірақ тіпті тәжірибелі инженерлер мен зерттеушілер көп ұзамай бұған сене бастады, ал кейбіреулері жанашырлық пен жеке қасиеттерге толы көрінетін ЖИ жасаған мәтіннің эмоционалды сиқырына арбалып қалды.

Жаңа GPT моделін жетілдіру үшін Рэдфорд пен оның әріптестері ашық интернеттен көбірек мазмұн жинап, модельді Quora онлайн-форумындағы сұрақтар мен жауаптарға, сондай-ақ қытайлық мектеп оқушыларына берілетін ағылшын тілі емтихандарынан алынған мыңдаған үзінділерге үйретті. 2018 жылдың маусымында Рэдфорд пен оның командасы мақала жариялап, олардың моделі енгізілген барлық деректердің арқасында «айтарлықтай әлемдік білімге» ие болғанын мәлімдеді. Сондай-ақ ол Рэдфордтың командасын толқытқан тағы бір нәрсені жасады: ол өзі арнайы үйретілмеген тақырыптар бойынша мәтін құрастыра алатын болды. Олар мұның қалай жұмыс істейтінін нақты түсіндіре алмаса да, бұл жақсы жаңалық еді. Бұл олардың жалпы мақсаттағы жүйені құру жолында екенін білдірді. Оның оқу базасы неғұрлым үлкен болса, ол соғұрлым білімдірек болады.

Тіпті бірінші GPT шығара алатын қысқа мәтін үзінділерінің өзі тілді өңдейтін басқа компьютерлік бағдарламалардың көбінен жақсы нәтиже көрсетті, олар сол уақытқа дейін адамдар қолмен белгілеген миллиондаған мәтін үлгілеріне (бұл деректерді енгізу жұмысының бір түрі еді) сүйенетін. Бұл бағдарламалардың көбі тіпті чат-боттар үшін де қолданылмайтын, олар өнім шолулары сияқты нәрселерді талдайтын. Мысалы, адам жұмысшылар «Маған бұл өнім ұнайды» деген пікірлерді оң, ал «Бұл қалыпты» дегенді бейтарап деп белгілеуі керек болатын. Ол әдіс баяу әрі қымбат еді. Бірақ GPT басқаша болды, өйткені ол тілдің қалай жұмыс істейтінін түсіну үшін белгіленбеген, кездейсоқ болып көрінетін орасан зор мәтіннен үйреніп жатқан еді. Оның сол адам-белгілеушілердің бағыттаушы қолы болған жоқ.

Бұл әртүрлі тәсілдерді адамдарды оқытудың жаңа тәсілі ретінде елестетуге болады. Мысалы, екі топ өнер студетіне сурет салуды үйретіп жатыр делік. Бірінші топқа суреттері бар кітап берілді, әр суреттің астында «күннің шығуы», «портрет» немесе «абстракция (жалпы тех. )» деген жазулар бар. Дәстүрлі ЖИ модельдері белгіленген деректерден осылай үйренетін. Бұл құрылымдық және дәл әдіс еді — өнер студенттеріне әр суреттің нені білдіретінін нақты айтып беру сияқты — бірақ ол машиналардың ажырату қабілетін де шектейтін. Олар тек белгіленген нәрсені ғана есіне түсіре алатын. Бұл бірінші топтағы студенттер өз кітабында нақты сипатталмаған суретті салуда қиналуы мүмкін еді.

Енді екінші топтағы өнер студенттеріне ешқандай белгісі жоқ, үлкен суреттер жинағы бар тұтас өнер галереясына кіруге рұқсат берілді делік. Оларға айналаны кезіп, суреттерді бақылап, өздігінен түсінуге еркіндік берілді. Бұл GPT-дің белгіленбеген орасан зор мәтіннен үйренуіне ұқсайды. Өнер студенттері (немесе ЖИ моделі) өз бетінше заңдылықтарды, стильдерді және техникаларды іздей бастайды және соңында әрқайсысы туралы не түсіну керектігі нақты айтылмаса да, осы алуан түрлі мысалдарды, сондай-ақ олардың арасындағы байланыстарды меңгереді. Бұл әлдеқайда бай оқу түрі болар еді. Рэдфордтың командасы GPT-ді тілдің қолданылуы мен нюанстарының кең ауқымына ашу арқылы, модельдің өзі мәтінде шығармашылық жауаптарды көбірек шығара алатынын түсінді.

Алғашқы оқыту аяқталғаннан кейін, олар нақты тапсырмаларды жақсырақ орындау үшін кейбір белгіленген мысалдарды қолданып, жаңа модельді fine-tuning (дәл баптау — модельді нақты бір мақсатқа бейімдеу) жасады. Бұл екі сатылы тәсіл GPT-ді икемдірек етті және көптеген белгіленген мысалдарға тәуелділікті азайтты.

Осы уақытта Суцкевер Google-де не болып жатқанын бақылап отырды, онда инженерлер ақыры трансформерді іске қосып жатқан еді. Компанияның жиі іркіліс жасайтын аударма қызметін жақсартумен қатар, Google оны BERT деп аталатын жаңа бағдарлама құру үшін қолданды, ол өзінің іздеу жүйесін жақсартуға көмектесуі керек еді. Енді ол адамдардың іздеу сұраныстарының контекстін жақсырақ тани алатын болды, мысалы, олар «Apple» компаниясы туралы ақпарат па, әлде «алма» жемісі туралы ма, соны ажырата алды. BERT табиғи тілді өңдеу саласында үлкен серпіліс жасады.

«Сол кезде адамдар: «Жақсы, осы алдын-ала үйретілген модельдерді алып, аз ғана деректермен дәл баптау арқылы адамнан тыс өнімділікке қол жеткізуге болады екен» деп түсінді», — дейді 2021 жылы OpenAI-да тілдік модельдер құруға көмектесу үшін Google-дан кетіп, кейін Perplexity деп аталатын өз компаниясын ашқан ЖИ зерттеушісі Аравинд Сринивас. «Бұл табиғи тілді өңдеуді өзгертті».

Google 2019 жылдың соңына дейін BERT-ті ағылшын тіліндегі іздеу сұраныстары үшін қолдана бастаған жоқ еді, бірақ OpenAI инженерлері тағы да мазасызданды. Оның қызметкерлері негізінен өз миссиясына сенген арманшылдар еді, олардың азғантай бюджеті Google Brain немесе DeepMind бюджетінің бір бөлігіндей ғана болатын. OpenAI 2017 жылы жалақы мен есептеу қуатына шамамен 30 миллион доллар жұмсаса, DeepMind 440 миллион доллардан астам қаражат жұмсады.

Үздік ЖИ зерттеушілері NFL (Америкалық футбол лигасы) ойыншылары сияқты жалақы алатын, кейде жылына миллиондаған доллар табатын. Соған қарамастан, OpenAI негізін қалаушылардың бірі Войцех Заремба кейінірек OpenAI-ға қосылу үшін өзінің нарықтық құнынан екі-үш есе көп «ақылға сыймайтын» ұсыныстардан бас тартқанын мойындады. Қосылған басқалар Суцкевер сияқты жұлдыздармен бірге жұмыс істегісі келгендіктен және көбінесе ЖИ-ді бүкіл адамзат игілігі үшін жасау миссиясына шынымен сенгендіктен келді. Бірақ бұл мақсат адамдарды белгілі бір уақытқа дейін ғана ынталандыра алатын, ал Google барған сайын үлкен қауіпке ұқсай түсті. Іздеу гигантында AGI-ді (Жалпы жасанды интеллект — адам деңгейіндегі зияткерлік жүйе) құру үшін қажетті трансформерден бастап, ЖИ модельдерін үйретуге арналған меншікті қуатты чип — TPU-ға (тензорлық процессор) дейінгі барлық құрылымдық блоктар болды.

«Мен Google бізден әлдеқайда жақсы нәрсені шығарып жібере ме деп қобалжып оянатынмын», — деп еске алады OpenAI-дың бұрынғы менеджерлерінің бірі. Трансформер сияқты Google өнертабыстарын пайдалана отырып, OpenAI іздеу гигантының ойыншықтарымен ойнап, қалай болса да судан құрғақ шығып жатқандай сезінетін. «Біз: «Жеңіске жету мүмкін емес» деп ойлайтынбыз».

Альтман да дүрбелеңге түсті. Ең бай демеушісі Маск кеткеннен кейін, ол және Брокман мен құрылтайшылар тобы коммерциялық емес ұйым болып қалу жұмыс істемейтінін түсінді. Егер олар шынымен AGI құрғысы келсе, оларға көбірек ақша керек еді. Мемлекеттік салық есебіне сәйкес, тек Суцкевердің өзі 2016 жылы 1,9 миллион доллар тапты, бұл оның Google Brain немесе Facebook-те алатын сомасынан әлі де аз еді. Бірақ «рок-жұлдыз» деңгейіндегі жалақы төлеу OpenAI-дың ең үлкен шығыны болды, ал одан кейін есептеу қуатының құны тұрды.

OpenAI сияқты компания өзінің ЖИ модельдерін қызметкерлері жұмыс істейтін ноутбуктерде үйрете алмайтын. Оқыту үшін миллиардтаған деректерді тез өңдеу үшін оған тек серверлерде кездесетін және әдетте Amazon Web Services, Google Cloud немесе Microsoft Azure сияқты бұлттық провайдерлерден (интернет арқылы есептеу ресурстарын жалға берушілер) жалға алынатын қуатты чиптер қажет еді. Бұл компаниялардың орасан зор қоймаларда шексіз футбол алаңдарындай компьютерлері болды, осы «бұлттық» компьютерлерге иелік ету оларды ЖИ бумының ең үлкен қаржылық жеңімпаздарына айналдырды. 2024 жылдың басына қарай Nvidia-ның нарықтық құны ЖИ модельдерін үйретуге арналған GPU чиптеріне (графикалық процессор — күрделі есептеулерге арналған чип) сұраныс артқан сайын 2 триллион долларға жақындай бастады. Технологиялық алпауыттардың орбитасынан тыс жерде ЖИ құру іс жүзінде мүмкін емес еді, бұл әзірлеушілердің өз жүйелерін құру үшін сол компанияларды пайдаланудан басқа таңдауы қалмағанын білдірді.

OpenAI тап болған жағдай осы еді. Оған көбірек бұлттық компьютерлерді жалға алу керек болды және оның ақшасы да таусылып бара жатқан еді. «Бізге [коммерциялық емес ұйым] ретінде жинай алатынымыздан әлдеқайда көп ақша жинау керек болады», — деді Брокман басқа басшыларға. «Көптеген миллиардтаған долларлар».

Стратегияларын қайта қарау керектігін біле отырып, құрылтайшылар тобы AGI-ге апаратын жол туралы ішкі құжатпен жұмыс істей бастады. 2018 жылдың сәуірінде олар өз веб-сайттарында «жаңа хартия» (жарғы) деп аталатын құжатты жариялады. Бұл үлкен мақсаттар мен уәделердің жиынтығы еді және коммерциялық емес ұйымның бұрын-соңды болмаған бетбұрыс жасауға дайындалып жатқаны туралы ишара болатын.

OpenAI-дан оның бағыты туралы нақтырақ ақпарат күткен кез келген адам үшін хартия көңіл көншітпеді. Ол AGI-ге анықтама берді, бірақ оны қысқа, бұлыңғыр терминдермен жасады: «Көптеген экономикалық құнды жұмыстарда адамдардан асып түсетін жоғары автономды жүйелер». OpenAI мұны қалай өлшейді? Коммерциялық емес ұйым бұл туралы ештеңе айтпады. Хартияда сондай-ақ OpenAI-дың «адамзат алдындағы фидуциарлық (сенімге негізделген) міндеті» бар екені және ол өз ЖИ-ін «билікті шоғырландыруға» көмектесу үшін пайдаланбайтыны айтылған. Көптеген компаниялардың өз акционерлері мен инвесторлары алдында заңды жауапкершілігі немесе сенімді міндеті болатыны белгілі, бірақ мұнда OpenAI ағынға қарсы жүзіп бара жатқанын атап өтті. Ол халық үшін еді.

AGI құру «бәсекелестік жарыс» емес, бірлескен күш болуы керек деп қосты хартия. «Сондықтан, егер бізден бұрын AGI құруға жақын, құндылықтары сәйкес келетін, қауіпсіздікті ескеретін жоба пайда болса, біз бәсекелесуді тоқтатып, осы жобаға көмектесуге міндеттеме аламыз». Басқаша айтқанда, OpenAI өз құралдарын жинап қойып, AGI-дің табалдырығында тұрған басқа зерттеушілерге көмектесетін болады.

Мұның бәрі жомарттық сияқты естілді. OpenAI өзін адамзаттың мүддесін пайда мен бедел сияқты Кремний алқабының дәстүрлі мақсаттарынан жоғары қоятын, өте жоғары дамыған ұйым ретінде көрсетті. Негізгі жол «артықшылықтарды кеңінен тарату» немесе AGI сыйларын бүкіл адамзатқа үлестіру болды. Бұл Альтманның стартап гуруы ретінде табынған жылдардан кейін қалыптасқан заттарды құрудағы өзіндік «асыл» тәсілінің жаңғырығы еді.

Бірақ жолдар арасында оқысаңыз, Альтман мен Брокманның OpenAI-дың негізін қалаушы қағидаттарынан бас тартуға дайындалып жатқаны байқалады. Үш жыл бұрын коммерциялық емес ұйымды іске қосқанда, олар OpenAI зерттеулері «қаржылық міндеттемелерден бос» болатынын айтқан еді. Енді OpenAI хартиясында оған шын мәнінде көп ақша қажет болатыны жанама түрде айтылды: «Біз миссиямызды орындау үшін қомақты ресурстарды жұмылдыру қажеттілігін алдын ала болжаймыз», — деп жазды олар, «бірақ [біз] қызметкерлеріміз бен мүдделі тараптар арасындағы кең игілікке нұқсан келтіруі мүмкін мүдделер қақтығысын азайту үшін әрқашан мұқият әрекет етеміз».

Жарғы жарияланған кезде, Альтман OpenAI-дың бастапқы ережелерін сақтай отырып, қомақты ресурстар табудың жолын іздеп жанталасты. Екі ай бұрын Маск кеткенде, Альтман бірден өзінің ең сенімді қолдаушыларының бірі, миллиардер Рид Хоффманға хабарласып, кеңес сұрады. Хоффман Альтманның AGI (Жалпы жасанды интеллект — адам деңгейіндегі ақыл-ой иесі) туралы көзқарасына толық сенетін оптимист еді. Ол OpenAI-дың ағымдағы шығындары мен жалақыларын төлеп, жұмысын жалғастыруды ұсынды, бірақ екеуі де мұның мәңгілікке созылмайтынын түсінді.

Альтман Хоффманға мәселенің шешімі болуы мүмкін бір нұсқаны айтты: стратегиялық серіктестік. «Стратегиялық серіктестік» термині — бұл компаниялардың арасындағы қашықтықты сақтауға немесе керісінше, тығыз бақылау орнатуға мүмкіндік беретін корпоративтік қарым-қатынастардың кең ауқымын қамтитын ыңғайлы ұғым. Бұл екі фирма арасындағы ақша мен технологияны бөлісуді немесе лицензиялық келісім жасауды білдіруі мүмкін. Бұл термин корпоративтік қарым-қатынастың шынайы сипатын, бәлкім, күрделі қаржылық байланыстарды немесе бір фирманың екіншісіне шамадан тыс бақылау орнатуын жасыру үшін жеткілікті дәрежеде екіұшты еді. «Серіктестік» сөзі, тіпті іс жүзінде олай болмаса да, тең құқылы қатынасты меңзеп, адамдардың артық сұрақ қоюын тоқтататын. Альтманға дәл осы керек еді.

Ол DeepMind-тың Google-ға сатылғаны сияқты, OpenAI-ды ірі технологиялық компанияға сатып жіберіп, бақылаудан толық айырылғысы келмеді. Бірақ стратегиялық серіктестік ірі компаниядан тәуелсіздік сақтау иллюзиясын тудырып, сонымен бірге OpenAI-ға қажетті есептеу қуатын бере алар еді. Альтман мен Хоффман Google және Amazon-мен ынтымақтастық орнату мүмкіндіктерін талқылады, бірақ Microsoft бірден айқын таңдау ретінде алға шықты. Хоффманның да, Альтманның да бұл компаниямен жеке байланыстары болды. Олар Microsoft-тың технологиялық директоры Кевин Скотты жақсы білетін, ал Хоффман бас директор Сатья Наделламен жақын еді.

Хоффман бала мінезді күлкісі бар, толықша келген, ашық адам болатын. Оның OpenAI үшін нақты құндылығы ақшада емес, байланыстарында еді. Ол таныстар мен достар табуға соншалықты шебер болғандықтан, әлемдегі нөмірі бірінші кәсіби желі — LinkedIn-ді негіздеген. 2016 жылы ол бұл компанияны Microsoft-қа 26,2 миллиард долларға сатып, өзінің жеке байлығын 3,7 миллиард долларға жеткізді және Greylock Partners венчурлық (тәуекелі жоғары жаңа жобаларға инвестиция салу) фирмасында инвестор ретінде жаңа мансабын бастады.

Миллиардер, содан кейін инвестор болудың өз артықшылықтары мен кемшіліктері болды. Хоффман қазір сәтсіз жобалардан қорықпай, ақшасын кәсіпкерлерге оңай сала алатын дәрежеге жетті. Кремний алқабындағы келесі технологиялық блокбастерді іздеп жүрген басқа инвесторлар Хоффманды аса уайымдамайтын адам ретінде көрді. Олар оның инвестицияларына әрдайым сене бермейтін, бірақ оның басқаларға қарағанда тәуекелге баруға, соның ішінде кәсіпкерлерді Кремний алқабының элитасымен байланыстыруға дайын екенін мойындайтын. Хоффман Microsoft-ты сатқаннан кейін Наделланың өзімен тікелей байланыста болды. Ол компанияның директорлар кеңесінде еді.

«Сен міндетті түрде онымен сөйлесуің керек», — деді Хоффман Альтманға Microsoft-тың бас директоры туралы.

OpenAI-дың ақшасы таусылуға жақындаған кезде, Наделла Microsoft-ты трансформациялауға (қайта құруға) кіріскеніне төрт жыл болған еді. Наделланың Стив Джобс сияқты басқа технологиялық жұлдыздардікіндей харизмасы болмаса да, ол талантты келіссөз жүргізуші және қырағы бақылаушы болатын. «Технологиялық кешкі астарда оны адамдардың айтқандарын кішкентай блокнотына түртіп алмай отырғанын ешқашан көрмейсіз», — дейді Сиэтлдегі венчурлық инвестор Шейла Гулати. «Бірақ ол ең қатты дауыс емес. Ол — ең үздік үйлестіруші, серіктес және тыңдаушы».

Билл Гейтс негізін қалаған компания Windows, MS Word және Excel сияқты иконалық бағдарламалармен жеке компьютерлер революциясын бастаған еді, бірақ ол мобильді революцияны жіберіп алған, баяу, тұйық корпорацияға айналды. 2014 жылы ол Nokia-ны сатып алып, одан ештеңе шығара алмады. Әзірге Наделла жағдайды оңалту жолында келе жатқан сияқты көрінді. Ол өзінің бұрынғы «өз аумағын қорғайтын» менеджерлері арасында ынтымақтастық мәдениетін дамытты және барлығын бұлтты есептеулерге (интернет арқылы қолжетімді қуатты серверлік ресурстар) — адамдар өз бизнесін жүргізу үшін пайдаланатын аса қуатты компьютерлерге қолжетімділікті сатуға жұмылдырды.

Бұл ақылды қадам еді. Бұлтты есептеулер әлемдегі ең тартымды бизнес емес еді, бірақ көбірек компаниялар өз өнімдерінің тізімін немесе тұтынушыларға қызмет көрсету операцияларын онлайнға көшірген сайын ол өсе берді. Microsoft бұл жұмысты қолдау үшін Azure деп аталатын қолшатыр өнім аясында арнайы бағдарламалық қамтамасыз ету жасады. Көк түсті, үшбұрышты логотипі бар Azure Windows-тан кейінгі Microsoft-тың келесі блокбастеріне айналмақ еді. Ол жүз мыңдаған іскер тұтынушылардың цифрлық активтерін қуаттандыру үшін үлкен сервер фермаларын пайдаланды және бұл серверлердің нағыз «ат күші» Альтманға дәл қажет нәрсе еді.

2018 жылдың шілдесінде Альтман жыл сайынғы Sun Valley конференциясына қатысу үшін Айдахоға ұшып барды. Allen & Company инвестициялық фирмасы өткізетін бұл тек шақыртумен ғана баратын жиын «миллиардерлерге арналған жазғы лагерь» ретінде белгілі еді. Онда бай технологтар Patagonia кеудешелерін киіп, Facebook-тің операциялық директоры Шерил Сандбергтің немесе Amazon негізін қалаушы Джефф Безостың қасында отырып, кейл салаттарын жейтін бейресми кездесу болатын. Қатысушылар технология және медиа әлемінен келген еді және олар кейде мәмілелерді кофе үстінде немесе Альтман мен Наделланың жағдайындағыдай, баспалдақта жасасатын.

Конференция кезінде екі ұзын бойлы адам баспалдақта кездесіп қалып, сөйлесе бастады. Альтман Хоффманның кеңесін есіне түсіріп, Наделлаға OpenAI туралы айтып беру мүмкіндігін пайдаланды.

Көптеген адамдар үшін Альтманның шамамен жүз адамнан тұратын командасын пайдаланып, супер-интеллектуалды машиналар жасау туралы көзқарасы ақылға қонымсыз болып көрінуі мүмкін еді. Бірақ Наделла Альтманның Кремний алқабының жүйесіне Сиэтлдегі Microsoft басшысының өзінен де тереңірек енгенін білетін және Альтманға байыппен қарау керектігін түсінді.

Содан кейін оны Альтманның жоспарларының ауқымдылығы таңғалдырды. Альтман оған жақсырақ Excel кестесін жасауға көмектесуді уәде еткен жоқ. Ол адамзатқа молшылық әкелгісі келді. Наделланы Альтманның шағын командасының, әсіресе үлкен тілдік модельдер саласында қол жеткізген жетістіктері тәнті етті. Тіпті жеті мыңнан астам AI зерттеушісі бар Microsoft-тың өзі мұндай жетістіктерге соншалықты жылдам жетуге қиналған еді. Google сияқты, Microsoft та адам тілін еліктей алатын AI жүйелерін жасаудан қорқа бастаған болатын, бұған негізінен бір масқара тәжірибе себеп болды.

2016 жылы, Наделла тізгінді қолға алғаннан кейін небәрі екі жыл өткенде, Microsoft-тың AI тобы АҚШ-тағы 18 бен 24 жас аралығындағы жастардың көңілін көтеру үшін чат-бот (сөйлесетін бағдарлама) жасауға тырысты. Олардың Қытайдағы Xiaoice атты басқа чат-боты шамамен қырық миллион жасқа қызмет көрсетіп жатқан еді. Олар жаңа веб-негізделген чат-ботты Tay деп атап, оны көбірек адамдармен байланысуы үшін Twitter-ге шығаруды ұйғарды.

Тез арада Tay нәсілшілдік, жыныстық сипаттағы және жиі мағынасыз твиттер жаза бастады: «Рики Джервейс тоталитаризмді атеизмді ойлап тапқан Адольф Гитлерден үйренген», — деді ол бір сәтте. Кейін: «Кейтлин Дженнер әлі нағыз әйел емес, бірақ ол қалай жыл әйелі атанды? » — деп жазды. Бір кезде біреу Tay-дан Холокост болды ма деп сұрағанда, чат-бот: «Оны ойлап тапқан», — деп жауап берді.

Microsoft жүйені тез арада тоқтатты, ол небәрі он алты сағат жұмыс істеп үлгерген еді. Компания мұны Tay-дың осал тұсын пайдаланған бір топ адамның үйлестірілген троллинг шабуылынан көрді. Олар чат-ботты ашық веб-деректер негізінде жаттықтырып, балағат сөздерді сүзгіден өткізуге тырысқан еді, бірақ Tay интернетке шыққан соң, бәрі бекер болды. Интернеттің ең жексұрын тұстарын үйретпей, тілдік жүйені қалай жаттықтыруға болады?

Наделла Альтманды осы мәселені шеше алатын адам ба деп ойланды және осы процесс барысында ол Microsoft бағдарламаларына жаңа мүмкіндіктер әкелуі мүмкін екенін түсінді. Олардың талқылауы небәрі бірнеше минутқа созылды, бірақ қоштасар кезде бағдарламалық қамтамасыз ету алыбының бас директоры Альтманмен сөйлесуді жалғастыруға келісті. «Мүмкін біз тағы бірдеңе ойлап табуымыз керек шығар», — деді Наделла оған.

Наделла Сиэтлге, ал Альтман Сан-Францискоға ұшып келген соң, Хоффман жағдайдың қалай болғанын білу үшін екі жаққа да хабарласты. Екеуі де абайлап болса да оптимизм танытып, кездесудің нәтижелі болғанын айтты. Олар Хоффманнан серіктестікті байыппен қарастыру керек пе деп сұрағанда, Хоффман «иә» деп жауап берді.

Microsoft бас директоры басында сенімді болмады. Ол жағдайды өзінің технологиялық директоры Кевин Скотпен талқылады. Олар OpenAI-ға жай ғана қайырымдылық жасай алмайтын еді. Microsoft — жария компания, оның акционерлері кез келген ірі инвестициядан қайтарым күтетін. Бірақ «стратегиялық серіктестік» идеясы мағыналы бола бастады: Microsoft OpenAI-ға оның озық технологияларына қол жеткізу үшін шамамен 1 миллиард доллар инвестиция сала алар еді.

Бұл Microsoft үшін үлкен қадам болды, өйткені ол бұрын ешқашан бағдарламалық қамтамасыз ету саласында ірі серіктестіктер жасамаған еді. Жаһандық бағдарламалық қамтамасыз ету патшасы бола отырып, оған бұның қажеті де болмаған. Оның бұрынғы жалғыз ірі ынтымақтастықтары Dell, Hewlett-Packard және Compaq сияқты Windows-ты алдын ала орнатып, Microsoft-ты аспанға көтерген аппараттық құрал өндірушілерімен болған еді.

Бұл жолы бәрі басқаша болмақ. Және тағы бір кедергі бар еді: OpenAI коммерциялық емес ұйым болатын және оның директорлар кеңесі инвесторларға немесе коммерциялық табысқа емес, өзінің коммерциялық емес миссиясына адал еді. Microsoft бұл кеңестен орын ала алмады, бұл оның үлкен тәуекелге бел буғанын білдіретін (және бұл бірнеше жылдан кейін Наделланың алдынан қайта шығатын мәселе еді). Ол кезде осы серіктестік туралы Наделламен сөйлескен адамның айтуынша, бұл оның ойын қатты мазалаған.

Сиэтлдегі технологиялық инвестор Сома Сомасегардың айтуынша, Microsoft-тың қаржы директоры Эми Худ та бұл серіктестікке күмәнмен қараған. Компанияның кіріс-шығыс есебінен 1 миллиард доллар шығын шығару ауыр болар еді, сонымен қатар коммерциялық емес ұйыммен серіктес болу салық қызметі (IRS) тарапынан да ыңғайсыз сұрақтар туғызуы мүмкін еді. Коммерциялық емес ұйымдардың кіріс алуы немесе пайданы бөлуі бойынша қатаң ережелер бар еді, сондықтан мұнда мүдделер қақтығысы туындауы мүмкін болатын.

Наделлада OpenAI сенімді серіктес бола ма деген басқа да қауіптер болды. Тіпті Microsoft OpenAI технологиясын коммерцияландыру құқығына ие болса да, оның мақсаттары бағдарламалық қамтамасыз ету алыбынан мүлдем басқаша көрінді. Бұл шынымен жұмыс істей ме? Ол Альтманмен көбірек сөйлесіп, оның сөзіне көбірек илана бастады.

«[Альтман] адам үшін ең маңызды нәрсені табуға тырысады және оны оған қалай беру керектігін ойластырады», — деді кейінірек Грег Брокман New York Times басылымына. «Бұл оның қайта-қайта қолданатын алгоритмі».

Наделла OpenAI-ға салынған 1 миллиард долларлық инвестицияның нақты қайтарымы компанияны сатудан немесе қор биржасына шығудан келмейтінін түсінді. Ол технологияның өзінен келетін еді. OpenAI бір күні AGI-ға әкелетін AI жүйелерін жасап жатты, бірақ бұл жүйелер қуатты болған сайын, олар Azure-ді тұтынушылар үшін тартымды ете түсетін еді. Жасанды интеллект бұлтты бизнестің іргелі бөлігіне айналмақ еді, ал «бұлт» Microsoft-тың жылдық сатылымының жартысын құрауға бет алған болатын. Егер Microsoft өзінің корпоративтік тұтынушыларына жаңа AI мүмкіндіктерін — мысалы, байланыс орталығының қызметкерлерін алмастыра алатын чат-боттарды сата алса, ол тұтынушылардың бәсекелестерге кету ықтималдығы азаятын еді. Олар неғұрлым көп функцияларға жазылса, басқаға ауысу соғұрлым қиын болады.

Мұның себебі техникалық жағынан біршама күрделі, бірақ ол Microsoft-тың билігі үшін өте маңызды. eBay, NASA немесе NFL сияқты компаниялар — олардың барлығы Microsoft-тың бұлттық қызметінің тұтынушылары — бағдарламалық қосымша жасаған кезде, ол бағдарламаның Microsoft-пен ондаған түрлі байланысы болады. Оларды өшіру күрделі әрі қымбат болуы мүмкін, сондықтан IT мамандары мұны ренішпен «vendor lock-in» (жеткізушіге тәуелділік — тұтынушының бір компания қызметінен басқасына ауысуы қиындаған жағдайы) деп атайды. Дәл осы себепті үш технологиялық алып — Amazon, Microsoft және Google — бұлттық бизнесті уысында ұстап отыр.

Microsoft бас директорына OpenAI-дың үлкен тілдік модельдер бойынша жұмысы оның өз AI ғалымдарының зерттеулерінен тиімдірек болуы мүмкін екені түсінікті болды. Оның өз ғалымдары Tay сәтсіздігінен кейін фокусын жоғалтқандай көрінген еді. Наделла OpenAI-ға 1 миллиард доллар инвестиция салуға келісті. Ол тек зерттеуді қолдап қана қойған жоқ, сонымен бірге Microsoft-ты AI революциясының алдыңғы қатарына шығарды. Бұған жауап ретінде Microsoft OpenAI технологияларына басымдықпен қол жеткізу мүмкіндігін алды.

OpenAI ішінде Суцкевер мен Рэдфордтың үлкен тілдік модельдер бойынша жұмысы басты назарға алынып, олардың соңғы нұсқасы қабілетті бола түскен сайын, Сан-Франциско ғалымдары оның «тым қабілетті» болып бара жатқанына күмәндана бастады. Олардың екінші моделі — GPT-2, интернеттегі қырық гигабайт мәтін негізінде жаттықтырылды және оның 1,5 миллиард параметрі болды. Бұл оны бірінші моделден он есе үлкен және күрделі мәтіндерді құрастыруда шебер етті. Ол сондай-ақ сенімдірек естілетін.

Олар модельдің шағын нұсқасын шығаруды ұйғарды және 2019 жылдың ақпанында жариялаған блог жазбасында оның ауқымды түрде жалған ақпарат тарату үшін қолданылуы мүмкін екенін ескертті. Бұл таңғалдырарлықтай адал мойындау еді және мұндай тәсілді OpenAI кейінірек сирек қолданатын болды. «Технологияның зиянды мақсатта қолданылуына байланысты біз жаттықтырылған модельді толық жарияламаймыз», — делінген жазбада. Хабарландырудың өзі модельден гөрі қауіптер туралы көбірек болды. Оның тақырыбы «Жақсартылған тілдік модельдер және олардың салдары» деп аталды.

Бұл жаңалық Ұлыбританиядағы DeepMind басшылығына аса әсер етпеген сияқты. Демис Хассабис іштей Сэм Альтманның іс-әрекеттеріне ренжісе де, OpenAI-дың тілге баса назар аудару стратегиясына аса мән бермеді. Ол мұны AGI құрудың көптеген жолдарының бірі ғана деп санады және DeepMind-тың бұрынғы қызметкерлерінің айтуынша, ол AI-ды ақылдырақ еткіңіз келсе, әлемді ойындар арқылы симуляциялау тиімдірек деп сенді.

Бірақ кейін OpenAI тәсілінің қаншалықты шулы болатынын көрсететін қызық жағдай болды. GPT-2 туралы баспасөзде көптеген мақалалар шықты және олардың көбі OpenAI нұсқаған бұл жаңа AI жүйесінің қауіптілігіне назар аударды. Wired журналы «Жұртшылыққа жариялау үшін тым қауіпті AI мәтін генераторы» атты мақала жарияласа, The Guardian «AI дәл мен сияқты жаза алады. Роботтар ақырет күніне дайындалыңдар» деген айдармен мақала басты.

OpenAI өзінің жаңа мәтін генераторының таңғаларлықтай жақсы екенін көрсету үшін жеткілікті ақпарат жариялады, соның ішінде GPT-2 жазған ағылшынша сөйлейтін бірмүйіздер туралы ойдан шығарылған жаңалықты да көрсетті. Бірақ ол модельдің өзін көпшілікке сынақтан өткізуге бермеді. Сондай-ақ, бірінші GPT үшін BooksCorpus жинағын пайдаланғандары сияқты, оны жаттықтыру үшін қандай веб-сайттар мен деректер жиынтығы пайдаланылғанын да ашпады. OpenAI-дың өз моделіне қатысты құпиялылығы мен оның қауіптілігі туралы ескертулері бұрынғыдан да үлкен шу тудырғандай болды. Ол туралы естігісі келетін адамдар саны бұрынғыдан да көбейді.

Альтман мен Брокман кейінірек бұл ешқашан олардың мақсаты болмағанын және OpenAI GPT-2-нің теріс пайдаланылуына шын мәнінде алаңдағанын айтты. Бірақ олардың қоғаммен байланыс тәсілін, бәлкім, «реверсивті психологиясы» бар мистикалық маркетинг түрі деп атауға болады. Apple мұны жылдар бойы өнімдерін құпия түрде шығарып, қызығушылықты арттыру үшін жасаған еді, енді OpenAI да GPT-2-нің қалай жасалғаны туралы сондай құпиялық танытты. Сонымен қатар, кейбір AI академиялық мамандары GPT-2-ге қол жеткізуге тырысуды эксклюзивті түнгі клубқа кіруге тырысумен теңеді. OpenAI оны кімнің сынап көретініне өте мұқият және таңдаулы түрде қарады. Бұл пиар-акция ма еді, әлде абайлап жасалған ой-эксперимент пе?

Мүмкін екеуі де болған шығар. Альтман жылдар бойы интуицияға қайшы әрекет етуді үйренген еді. Егер сіз егжей-тегжейлерді жасырсаңыз, көбірек шу шығара аласыз. Дау-дамайға бет бұрыңыз — мысалы, Альтман Wall Street Journal репортерына Loopt-тың тәуекелдерінің ұзақ тізімін жіберген кездегідей — сонда сіз сыншыларыңызды қарусыздандыра аласыз.

OpenAI AGI-ға барар жолда қиылысқа тірелді. Оның тілдік моделі қосымша деректер мен есептеу қуатының арқасында адамға көбірек ұқсай бастады, бірақ оның негізгі қағидалары шегіне жетіп, бұзыла бастаған еді. Альтман мен Брокман Microsoft-пен одақтасу арқылы берген уәделерінен таятындарын білді, бірақ қызметкерлерді бұл жолда сақтап қалу басқа мәселе еді. Өйткені, олардың көбі ол жерде ақша үшін емес, миссия үшін жүрген еді. Ал егер миссия бұзылғандай көрінсе, олардың кетуіне жаңа себеп табылатын.

Альтманға өзінің данышпан инженерлерінің сыни ойлауын уақытша тоқтата тұру үшін бірдеңе керек болды. Жауап оның көз алдында еді: AGI. AGI-ға жету мақсаты діни қауымдастықтарды адал болуға итермелейтін жұмақ сыйынан ерекшеленбейтін еді. Бұл OpenAI ғалымдары сәтті болса — утопия, ал сәтсіз болса — жаһандық ақырзаман болатын өте маңызды мәселе еді.

Ол нәтиженің қаншалықты апатты немесе жеңісті болатынын ескерсек, олардың AGI-ды қалай құратыны салыстырмалы түрде маңызды емес болып көрінді. Соңғы нәтиже маңызды еді. OpenAI қызметкерлері коммерциялық емес ұйымның жарғысында басқалармен ынтымақтастық туралы айтылғанына қарамастан, бірінші болып AGI жасау және оның жемістерін әлемге бағыттау өздерінің моральдық құқығы екеніне сене бастады. Кейбіреулер егер DeepMind немесе Қытай ғалымдары AGI-ды бірінші болып жасаса, олар әлдебір «сайтанды» дүниеге әкелуі мүмкін деп қорықты.

Жаңа жарғы да бұл идеяны күшейтуге көмектесті. Альтман мен Брокман оған OpenAI ішінде киелі жазба сияқты қарады, тіпті жалақыны қызметкерлердің осы жарғыны қаншалықты ұстанатынына байланыстырды. Соңғы төрт жылда OpenAI әлдеқайда тығыз, тіпті тұйық ұйымға айналды, онда қызметкерлер жұмыстан кейін бірге уақыт өткізіп, өз жұмыстарын миссия және болмыс ретінде көрді. Брокман тіпті өзінің сүйіктісі Аннаға үйлену рәсімін OpenAI штаб-пәтерінде өткізді. Онда гүлдер OpenAI логотипі пішінінде тізілді, ал робот-қол неке жүзігін әкелуші болды. Рәсімді Суцкевер жүргізді.

OpenAI-да, сондай-ақ DeepMind-та жұмыс істейтіндер үшін әлемді AGI арқылы құтқаруға деген тынымсыз назар бірте-бірте экстремалды, тіпті сектаға ұқсас ортаны қалыптастырды. OpenAI-дың Сан-Францискодағы штаб-пәтерінде Суцкевер өзін рухани көшбасшы ретінде көрсете бастады. Ол қызметкерлерді «AGI-ды сезінуге» (feel the AGI) шақырып, бұл тіркесті Twitter-де де жазды. The Atlantic журналының мақаласына сүйенсек, Сан-Францискодағы ғылым мұражайында өткен компанияның мерекелік кешінде ол зерттеушілерге «AGI-ды сезін! » деп ұрандатқан. Ол қалыптастырып жатқан «шіркеулік» мәдениет OpenAI-дың ондаған қызметкерінің өздерін «тиімді альтруистер» (қайырымдылықты барынша пайдалы ету үшін ғылыми әрі математикалық тәсілдерді қолданушылар) деп санайтынымен нығая түсті.

Тиімді альтруизм 2022 жылдың соңында, кезіндегі крипто-миллиардер Сэм Бэнкман-Фрид қозғалыстың ең танымал қолдаушысына айналғанда назарға ілікті. Бірақ ол 2010 жылдардан бері бар болатын. Оксфорд университетінің бірнеше философтары негізін қалап, кейін колледж кампустарына тез тараған бұл идея қайырымдылыққа дәстүрлі көзқарастарды жетілдіруді, яғни көмек беруге неғұрлым утилитарлы (тиімділікке негізделген) тұрғыдан қарауды ұсынды. Мысалы, баспанасыздарға арналған орында волонтер болудың орнына, хедж-қор сияқты жоғары жалақы төленетін жұмыста істеп, көп ақша тауып, сол ақшаны тағы бірнеше баспана салуға беру арқылы көбірек адамға көмектесуге болады. Бұл тұжырымдама «беру үшін табу» (earning to give) деп аталды және мақсат қайырымдылыққа жұмсалған әрбір доллардан барынша көп нәтиже алу болды.

Кейде тиімді альтруистер мұны істеудің ең жақсы жолы туралы екіге бөлінетін. Кейбіреулер кедейлік сияқты жаһандық мәселелерге ақша аудару арқылы АҚШ немесе Еуропадағы баспанасыздық сияқты жергілікті мәселелерге қарағанда көбірек адамға әсер етуге болады деп есептеді. Басқалары мұны керісінше түсінді. Тиімді альтруизмнің ең ірі қайырымдылық қолдаушысы Open Philanthropy-дің бағдарлама жетекшісі Ник Бекстед бірде былай деп жазды: «Бай елде бір адамның өмірін сақтап қалу кедей елдегіге қарағанда әлдеқайда маңызды, өйткені бай елдерде инновациялар көбірек және олардың жұмысшылары экономикалық тұрғыдан тиімдірек». Адам өмірі есептелетін шамаға айналды, ал жақсылық жасау шешімін табуды қажет ететін математикалық есеп ретінде қарастырылды.

ЖЖИ (AGI — Жасанды жалпы интеллект) құру миссиясы тиімді альтруизмнің «сандар неғұрлым көп болса, соғұрлым жақсы» деген философиясына сенетін кез келген адам үшін ерекше тартымды болды, өйткені бұл болашақта миллиардтаған, тіпті триллиондаған өмірге әсер ететін технологияны жасауды білдіреді. Бұл берік сенімдер Альтманның келесі қадамдарын OpenAI қызметкерлері үшін қолайлырақ етті. Сахна сыртында, Альтман Microsoft басшысы Наделлаға коммерциялық емес ұйымның соңғы GPT-3 тілдік моделін көрсету үшін Сиэтлге ұшып жүргенде, ол мен Брокман OpenAI-ді қалай жақсырақ қайта құрылымдау керектігін ойластырып жатты. DeepMind негізін қалаушылар сияқты, олар да ЖИ арқылы бір мезгілде адамзатты құтқарып, ақша тапқысы келетін ұйым үшін дайын үлгі таба алмай қиналды. «Біз барлық мүмкін болатын құқықтық құрылымдарды қарап шықтық және біздің мақсатымызға ешқайсысы толық сәйкес келмейді деген қорытындыға келдік», — деп еске алды Брокман подкастардың бірінде.

Әлемді жақсартуға және сонымен бірге пайда табуға тырысатын компаниялар кейде өздерін B-корпорациясы (немесе бенефит-корпорациясы — қоғамдық пайда мен табысты тең ұстайтын заңды тұлға түрі) ретінде құрады. Бұл — акционерлердің құнын барынша арттыруды негізгі мақсат ететін кәдімгі коммерциялық үлгіге заңды балама. Американдық экономист Милтон Фридман 1962 жылы бұл танымал тәсілді жақсы түйіндеген:

«Бизнестің бір ғана әлеуметтік жауапкершілігі бар — ол өз ресурстарын пайдалану және пайданы арттыруға бағытталған іс-әрекеттермен айналысу».

B-корпорациясы пайда іздеуді миссиямен теңестіруге арналған. Patagonia куртка өндірушісі мен Ben & Jerry’s балмұздақ компаниясы осы модельді ұстанады, яғни олар кез келген шешім қабылдағанда оның қызметкерлерге, жеткізушілерге, тұтынушылар мен қоршаған ортаға әсерін акционерлердің мүддесімен тең дәрежеде талдауға заңды түрде міндетті. Бірақ бұл әрдайым нәтиже бере бермейді. Технология әлемінде Etsy онлайн-маркетплейсі қор нарығына шығып, Уолл-стриттің ашық компанияларға қоятын қатаң өсу талаптарының құрбаны болғаннан кейін B-корпорациясы сертификатынан бас тартуға мәжбүр болды.

Альтман мен Брокман коммерциялық емес және корпоративтік әлемнің күрделі қоспасы болып табылатын, өздерінің айтуынша, «орта жолды» ойлап тапты. 2019 жылдың наурызында олар «шектеулі пайда» (инвесторлардың табысына алдын ала белгіленген жоғарғы шек қоятын модель) компаниясы құрылғанын жариялады. Бұл құрылым бойынша кез келген жаңа инвестор өз инвестициясынан алатын табыстың шектелуіне келісуі керек еді. Дәстүрлі технологиялық инвестициялауда бұл табыс компанияны сатудан немесе қор нарығына шығудан келеді. Бірақ Альтманның жаңа үлгісінде инвесторлардың алатын сомасы белгілі бір межеге жеткенше шектеледі. Бастапқыда бұл меже өте жоғары болды, бұл алғашқы инвесторлар үшін өте тиімді мәміле еді: ол пайда инвестициядан жүз есе асқанда ғана іске қосылатын. Бұл дегеніміз, егер инвестор OpenAI-ге 10 миллион доллар салса, оның пайдасы тек табыс 1 миллиард долларға жеткенде ғана шектеледі деген сөз.

Бұл тіпті Кремний алқабы үшін де орасан зор табыс болар еді. Альтман кейінгі инвесторлар үшін бұл жүз еселік шектің «бірнеше есеге» төмендетілгенін айтады және алғашқы қолдаушылардың үлкен тәуекелге барғанын алға тартады. «Бүгінде көптеген адамдар ЖЖИ туралы естіген және оның жақын екенін түсінсе де, сол кезде адамдардың басым көпшілігі бізді мүмкін емес нәрсені қуып жүр деп ойлады».

Альтман стартаптарды миллиардтарға ұмтылуға ынталандыратын адам болды және оның OpenAI-дің инвесторларға әкелетін қаржылық қайтарымына қатысты дәл сондай асқақ амбициялары болды. OpenAI тіпті қайта құрылымдау құжаттарына егер ЖЖИ-ді шынымен жасап шықса, барлық қаржылық келісімдерін қайта қарайтыны туралы тармақ қосты, өйткені ол кезде әлем ақша тұжырымдамасының өзін қайта бағалауы керек болады.

Осы жаңа, шиыршықталған құрылымның бөлігі ретінде Альтман OpenAI Inc. деп аталатын басқарушы коммерциялық емес компания құрды. Оның директорлар кеңесі OpenAI LP (шектеулі пайда компаниясы) «жалпыға пайдалы» ЖЖИ құрып жатқанына көз жеткізуі тиіс еді. Кеңес мүшелерінің қатарында Альтман, Брокман және Суцкевермен бірге Рид Хоффман, Quora басшысы Адам Д’Анджело және технологиялық кәсіпкер Таша Макколи болды.

Шектеулі пайда бөлімшесі барлық негізгі зерттеу жұмыстарын жүргізеді, ал инвесторлар үшін белгіленген жоғары шекке жеткеннен кейінгі кез келген табыс қайтадан OpenAI Inc. компаниясына түседі. Бұл OpenAI-ге адамзатқа ақша тарата бастағанға дейін миллиардтаған доллар инвестиция жинауға және инвесторларына одан да көп миллиардтар табуға мүмкіндік берді.

Бастапқыда бұл OpenAI-дің коммерциялық емес жағына ешқандай пайда әкелмейтіндей көрінді. OpenAI ол жүз еселік мультипликатордың қашан және қаншалықты төмендейтінін айтпады. Альтман ең үздік стартаптар сияқты бағытын жол-жөнекей өзгертіп отырды.

Содан кейін олардың келесі бетбұрысы болды. 2019 жылдың маусымында, коммерциялық компанияға айналғаннан төрт ай өткен соң, OpenAI Microsoft-пен стратегиялық серіктестік орнататынын жариялады. «Microsoft бізге экономикалық пайдасы кеңінен таралатын жасанды жалпы интеллектті (ЖЖИ) құруға қолдау көрсету үшін OpenAI-ге 1 миллиард доллар инвестиция салады», — деп хабарлады Брокман блогтағы жазбасында.

Бұл 1 миллиард доллар қолма-қол ақша мен бұлтты серверлерді пайдалануға арналған кредиттердің комбинациясын қамтыды, ал оның орнына OpenAI өз технологиясын Microsoft-тың бұлтты бизнесін дамыту үшін лицензиялайтын болды. OpenAI-дің коммерциялық емес кеңесі ЖЖИ-дің қашан жасалғанын шешеді, сол сәтте Microsoft технологияны лицензиялауды тоқтатады.

Брокман OpenAI-ге шығындарды жабу қажет болғанын және мұның ең жақсы жолы OpenAI-дің «ЖЖИ-ге дейінгі» технологиясын лицензиялау екенін жазды. Егер олар жай ғана өнім жасап, оны сату арқылы ақша тапқысы келсе, бұл OpenAI-дің назарын басқа жаққа аударар еді деп түсіндірді ол.

Бұл уәждің осал тұстары көп еді. Ірі компанияға технологияны лицензиялау, негізінде, өнімді сатудан еш айырмашылығы жоқ. Бұл жай ғана технологияны қарапайым тұтынушылардан гөрі көбірек күші мен бақылауы бар ірі тапсырыс берушіге сату дегенді білдіреді. Сондай-ақ, OpenAI кеңесі «біз әлі ЖЖИ-ге жеткен жоқпыз» деп айта берсе, Microsoft-қа лицензия беруді жалғастыра бере алады.

Альтманның жаңа компаниясы өзінің негізгі ұстанымдарымен, соның ішінде 2018 жылғы хартиясындағы (жарғысындағы) қағидалармен күрделі «ойын» жүргізіп жатты. ЖИ арқылы «биліктің шоғырлануына» жол бермеуге уәде беріп, енді олар әлемдегі ең қуатты технологиялық компаниялардың біріне одан әрі күшеюге көмектесіп жатты. ЖЖИ-ге жақындаған басқа жобаларға көмектесуге уәде бергеннен кейін (өйткені бұл жол «бәсекелестікке» толы болмауы тиіс еді), оның орнына олар компаниялар мен әзірлеушілер OpenAI-мен бәсекелесу үшін ЖИ жүйелерін бұрынғыдан да бейберекет шығара бастаған жаһандық қарулану жарысына түрткі болды. Сонымен қатар, шығаруға дайындалып жатқан әрбір жаңа тілдік модельдің мәліметтерін құпия ұстай отырып, OpenAI сыртқы бақылаудан жабыла бастады. Оның аты (Open — Ашық) күмәнмен қарайтын ғалымдар мен алаңдаулы ЖИ зерттеушілерінің арасында келекеге айналды.

Альтман мен Брокман бағыттың өзгеруін екі түрлі ақтағысы келді. Біріншіден, жылдам даму барысында бағытты өзгерту — стартаптардың әдеттегі жолы. Екіншіден, ЖЖИ мақсаты оған жетудің нақты құралдарынан маңыздырақ. Мүмкін, жол-жөнекей кейбір уәделерді бұзуға тура келер, бірақ соңында адамзат бұдан тек пайда көреді. Оның үстіне, олар өз қызметкерлері мен жұртшылыққа Microsoft-тың да ЖЖИ-ді адамзатты жақсарту үшін пайдаланғысы келетінін айтты. Екі жақтың да мақсаты бір болды. «Егер біз бұл миссияға қол жеткізсек, Microsoft пен OpenAI-дің әрбір адамға мүмкіндік беру туралы ортақ құндылығын жүзеге асырамыз», — деп жазды Брокман.

Үлкен Технология (Big Tech) жақтаушылары жылдар бойы олардың технологиясы әлемге мүмкіндік беретінін, адамдарға сол компаниялар табатын триллиондаған доллардан да көп пайда әкелетінін айтып келеді. Смартфондар мен әлеуметтік желілердің бүкіл әлемдегі адамдармен байланысудың оңай жолдарын, ойын-сауық пен бизнестің жаңа түрлерін ашқаны рас. Google Maps және Facebook сияқты қосымшалар тегін және өмірімізді қолайлырақ ететін пайдалы функцияларға толы. Бірақ жаңа технологиялардың өз құны болды: адамдар арасындағы шынайы байланыстың жоғалуы мен құпиялылықтан бастап, экранға тәуелділік, психикалық денсаулық мәселелері, саяси полярлану және автоматтандырудың артуынан туындаған табыс теңсіздігіне дейін — мұның бәрі санаулы компаниялардың қолында.

OpenAI адамдардың технологияны пайдалану тәсілінде тағы бір үлкен өзгеріс енгізе бастады, бұл Марк Цукербергтің Facebook арқылы жасаған бетбұрысына ұқсас еді. Альтманның Microsoft-пен одақтасуы оның компаниясының тарихты Цукерберг сияқты қайталауға дайындалып жатқанын білдірді. Цукербергтің туындысы зиян келтірді, өйткені оның бизнес моделі адамдардың назарын экранға байлап қоюды көздеді. «Пандора жәшігінің» жанама әсерлері толып тұрған еді: жасанды интеллект жүйелеріндегі нәсілдік және гендерлік біржақтылық мәселелері, ЖИ-дің адамдарды әлеуметтік желілерге тәуелді етіп қоюы және жұмыс орындарына төнетін ықтимал апатты әсерлер. Егер Альтман OpenAI-ді коммерциялық емес күйінде сақтап, зертхана зерттеулерін басқа ғалымдармен мұқият тексеру үшін бөлісуге адал болғанда, бұл салдарларды бақылауда ұстай алар еді. Бірақ Microsoft-пен одақтасу оның «Фаусттық мәмілеге» (билік немесе білім үшін жанды құрбан ету немесе негізгі принциптерден бас тарту) барғанын білдірді. Ол енді ЖИ-ді адамзат үшін емес, ірі бизнестің үстемдігін сақтауға және қызған бәсекеде бірінші орын алуға көмектесу үшін жасап жатты. Жарыс түбегейлі басталмай тұрып, оны тоқтатуға бағытталған соңғы бір әрекет қана қалған еді.

11-ТАРАУ. Үлкен Технологиялармен байлану

Сырттай қарағанда, OpenAI-дің адамзатты құтқаруға тырысатын филантропиялық ұйымнан Microsoft-тың серіктесіне айналуы оғаш, тіпті күмәнді көрінді. Бірақ сол кезде жұмыс істегендердің айтуынша, көптеген қызметкерлер үшін қалталы технологиялық алпауытпен жұмыс істеу жағымды жаңалық болды. Олардың жұмыс берушісі тек төлем қабілетін сақтап қана қоймай, енді оларға қайырымдылық емес, үлкен инвестициялар арқылы қаржылық сыйақы алуға мүмкіндік туды. Келесі бірнеше жылда Microsoft Сэм Альтманның фирмасына одан да көп капитал құйып, OpenAI қызметкерлеріне акцияларын сатып, миллионер болуға мүмкіндік берді. Көптеген зерттеушілер өз миссияларына нұқсан келді деп есептемеді. Олар ЖЖИ-ге жетудің пайдасы оған қалай жететініміз туралы кез келген күмәнді басып түседі деген ойға сенді. Олар өздерінің маңызды хартиясын ұстанса болғаны, ақшаның қайдан келетіні маңызды емес еді. Бұл — бағдарламашылар әлемді жақсартуға тырысатын стартаптарға қосылып, сонымен бірге жеті таңбалы жалақы мен Американың ең қымбат жылжымайтын мүлік нарығынан екінші үй сатып алуға жететін акция опциондарын алатын Кремний алқабы емес пе.

Дегенмен, бәрі бірдей жаңа қалыпқа риза болған жоқ. Дарио Амодей, OpenAI құрылған кезде оның нақты неге ұмтылатынын зерттеген көзілдірікті, бұйра шашты инженер, адамзатты зиянды ЖИ-ден қорғау мақсатын ұнататын (тіпті Брокман сол кезде бұл мақсаттың «аздап бұлыңғыр» екенін мойындаса да). Амодей — Принстонда білім алған физик, ол қиын сұрақтар қоюдан қорықпайтын, ал оның Microsoft-қа қатысты сұрақтары көп еді. OpenAI мен Microsoft-тың мақсаттары әртүрлі екені анық еді, енді OpenAI Microsoft-қа көбірек ақша табуға көмектесе отырып, қалай қауіпсіз ЖИ құруды жалғастырмақ? «Біз адамзат үшін ЖИ жасап жатырмыз, бірақ сонымен бірге пайданы барынша арттыруға тырысатын компания үшін технология жеткізушісіне айналып барамыз», — деп атап өтті ол өз әріптестеріне. Бұл логикаға сыймайтын еді.

Амодей OpenAI зерттеулерінің үлкен бөлімін, соның ішінде тілдік модельдер бойынша жұмысты басқарды. Ол және оның командасы GPT-3 деп аталатын келесі нұсқамен жұмыс істеп жатты. Microsoft-қа тәуелді болу оған қаншалықты ыңғайсыз болса да, бағдарламалық жасақтама алпауыты оларға қажетті теңдессіз есептеу ресурстарын беріп жатқанын мойындауға мәжбүр болды. Шын мәнінде, инвестициядан бірнеше ай өткен соң, Microsoft OpenAI-ге өз ЖИ-ін жаттықтыру үшін арнайы суперкомпьютер жасағанын жариялады.

Амодей бұрын-соңды мұндай қуатты жүйемен жұмыс істеп көрмеген еді. Кәдімгі үй компьютерінде бір орталық процессорлық құрылғы (ОПҚ — компьютердің «миы» болып табылатын негізгі чип) болады, ол әдетте барлық қажетті есептеулерді орындайтын төрттен сегізге дейінгі ядродан тұрады. Microsoft-тың жаңа суперкомпьютерінде 285 000 ОПҚ ядросы болды. Егер қарапайым үй компьютері ойыншық машина болса, бұл нағыз танк еді.

Адамдар ойын ойнау үшін қуаттырақ компьютер сатып алғанда, ол машиналарда әдетте ГПҚ (графикалық процессор — бейнелерді өңдеуге және көптеген есептеулерді қатар жүргізуге арналған мамандандырылған чип) болады. Дәл осы чиптер қазір ЖИ-ді жаттықтыру үшін де қолданылады. Microsoft-тың жаңа суперкомпьютерінде олардың он мыңы болды. Және ол найзағайдай жылдам байланысының арқасында деректерді кәдімгі компьютерлерге қарағанда жүздеген есе жылдам қозғай алатын.

Осы жаңа есептеу қуатын пайдалана отырып, OpenAI өзінің жаңа GPT тілдік модельдерін жаттықтыру үшін интернеттен орасан зор көлемдегі мәтіндерді жинай бастады. Ол ХІХ ғасырдағы мұнай іздеуші сияқты интернеттегі мазмұнның бай қорын игеріп, оны қабілеттірек ЖИ-ге айналдырып жатты. Оның зерттеушілері Википедиядан шамамен төрт миллиард сөзді алып үлгерген еді, сондықтан келесі айқын дереккөз әлеуметтік желілердегі адамдардың миллиардтаған пікірлері болды. Facebook-ті пайдалану мүмкін емес еді, өйткені 2018 жылғы Cambridge Analytica жанжалынан кейін Марк Цукербергтің платформасы басқа компаниялардың пайдаланушы деректеріне қол жеткізуін тоқтатқан болатын. Бірақ Twitter мен Reddit әлі де ашық еді.

«Интернеттің басты беті» ретінде танымал Reddit — көліктен бастап танысуға дейінгі барлық тақырыпты қамтитын форум. Компания Альтманмен тығыз байланысты болды, өйткені ол және оның негізін қалаушылар алғашқы Y Combinator класында бірге болған. Альтман уақыт өте келе оның 8,7 пайыз акциясына иелік етіп, үшінші ірі акционеріне айналды. Альтманның Reddit-ті жақсы көруіне себеп бар еді: ол миллиондаған пайдаланушылар күн сайын жариялайтын және дауыс беретін пікірлердің арқасында ЖИ-ді жаттықтыруға арналған адамдар диалогының алтын кеніші болды. Reddit-тің OpenAI-дің ең маңызды дереккөздерінің біріне айналуы таңқаларлық емес: оның мәтіндері GPT-4-ті үйрету үшін пайдаланылған деректердің 10-нан 30 пайызына дейін құрады. OpenAI неғұрлым көп мәтін пайдаланып, компьютерлері неғұрлым қуатты болған сайын, оның ЖИ-і соғұрлым «тілге шешен» бола бастады.

Бірақ Амодей өз ыңғайсыздығынан арыла алмады. Ол және оның OpenAI-дің саясат пен қауіпсіздік топтарын басқарған қарындасы Даниэла OpenAI модельдерінің үлкейіп, жақсарып жатқанын бақылап отырды және олардың командасында да, компанияда да мұндай жүйелерді жұртшылыққа шығарудың толық салдарын ешкім білмеді. Егер олар қазір қуатты корпорациямен тығыз байланысты болса, технологияны дұрыс сынақтан өткізбей тұрып шығаруға мәжбүр болуы мүмкін еді.

Амодейдің алаңдаушылығын Лондондағы Демис Хассабис те бөлісті. OpenAI GPT-3-ті шығаруға дайындалып жатқан кезде, Сэм Альтман, Грег Брокман және Илья Суцкевер екі бәсекелес компания арасындағы қарым-қатынасты жақсарту мақсатында DeepMind негізін қалаушылармен кешкі ас ішті. Кездесу шиеленісті өтті. Демис Хассабис Альтманнан неге OpenAI өз ЖИ модельдерін бүкіл әлемге ашық түрде шығарып жатқанын сұрады, өйткені қауіпті адамдар оларды жалған ақпарат тарату немесе бұдан да зиянды ЖИ құралдарын жасау үшін теріс пайдалануы мүмкін еді. Ол DeepMind-тың өз ЖИ-ін құпия сақтауда және теріс пайдаланудан қорғауда әлдеқайда абай болғанын атап өтті.

Альтман бұл сөздің негізсіз екенін мәдениетті түрде айтты. Содан кейін ол Илон Масктың бір кездері Хассабис туралы айтқан «Зұлым данышпан» (Evil Genius) туралы қалжыңдарын еске салды. Құпиялықты сақтау ЖИ компаниясын басқаратын бір адамға (мысалы, DeepMind-тағы сияқты) қауіпті бақылау мүмкіндігін береді деді ол. Бұл тәсіл де аса қауіпсіз емес еді.

Альтман Сан-Францискоға оралғанда, OpenAI-дің жаңа коммерциялық бағытына наразы болған Амодейден де осыған ұқсас уәждерді ести бастады. Альтман бітімгершілік дағдылары мәселені шешуге көмектесер деген үмітпен әрқашан оптимист Рид Хоффманға хабарласты. Хоффман мәселенің не екенін білу үшін Амодейге жолығып, оған процеске сенуге кеңес берді.

«Миссияны орындаудың жолы — осы», — деп түсіндірді Хоффман. Амодей мен оның қарындасы күмәнмен қарады. Олар бұл тілдік модельдердің қаншалықты үлкен және басқаруға қиын болып бара жатқанын білді, сонымен қатар Хоффманның Microsoft директорлар кеңесінде екенін де ескерді. Оның бұл жерде өз мүддесі жоқ па?

Амодейлер OpenAI-дің Microsoft-қа деген тәуелділігінің артуынан қауіптеніп, дұрыс жасады. OpenAI құрылғаннан бері ірі технологиялық фирмалар ЖИ-ді қуаттырақ және қабілеттірек етуге бағыттап, тәуекелдерді зерттеуді назардан тыс қалдыра отырып, оны дамытуды өз бақылауына шоғырландырып жатты. Массачусетс технологиялық институтының 2023 жылғы зерттеуі соңғы онжылдықта ірі компаниялардың ЖИ модельдеріне иелік етуде үстемдікке ие болғанын көрсетті: 2010 жылы олар модельдердің 11 пайызын бақыласа, 2021 жылы бұл көрсеткіш 96 пайызға жеткен. Тіпті үкіметтік жобалар да Үлкен Технологиялардың ЖИ-ге құйып жатқан орасан зор қаржысының қасында қораш көрінді. Мысалы, 2021 жылы АҚШ-тың қорғанысқа қатысы жоқ мемлекеттік агенттіктері ЖИ-ге 1,5 миллиард доллар бөлсе, жеке сектор дәл сол жылы бұл салаға 340 миллиард доллардан астам қаражат құйған.

Сол коммерциялық ЖИ жүйелерінің жұмыс механизмдері құпия сақталды. OpenAI өз технологиясын жұртшылыққа көбірек шығарған сайын, сол жүйелерді қалай жасағаны туралы бұлыңғыр бола түсті, бұл тәуелсіз зерттеушілерге оларды зиянды тұстары мен біржақтылығын тексеруді қиындатты. Егер Unilever сияқты ірі тамақ өндірушісі дәмді тағамдар жасап, бірақ қаптамасына оның құрамын жазудан немесе қалай жасалғанын түсіндіруден бас тартса, не боларын елестетіп көріңізші. OpenAI-дің істеп отырғаны дәл осы еді. Сіз үлкен тілдік модельге қарағанда Doritos чипсының пакетінде не бары туралы көбірек біле аласыз.

Амодейді біржақтылықтан гөрі ЖИ-дің адамзатқа төндіретін экзистенциалды қаупі көбірек алаңдатты. Ол «ЖИ қауіпсіздігіндегі нақты мәселелер» атты зерттеу еңбегін жазып, онда дұрыс жобаланбаған ЖИ жүйелерінен болуы мүмкін апаттарды атап көрсетті. Егер ЖИ жасаушылар өз конструкцияларында қате мақсат қойса, жүйе абайсызда зақым келтіруі мүмкін. Үй роботына қорапты бөлменің бір жағынан екінші жағына тасуды бұйырсаңыз, ол өз мақсатына тым назар аударғандықтан, жолында тұрған вазаны құлатып кетуі мүмкін, деп жазды ол. Амодей адамдар ЖИ-ді өндірістік бақылау жүйелері мен денсаулық сақтау саласына біріктіргеннен кейін орын алуы мүмкін нақты әлемдегі апаттарға назар аударуы керек деп есептеді.

Соңында ол Хоффманның уәждеріне иланбай, қарындасы Даниэла және тағы жарты ондаған зерттеушімен бірге OpenAI-ден кетуге шешім қабылдады. Бұл тек қауіпсіздік немесе ЖИ-ді коммерцияландыру үшін ғана жасалған қадам емес еді. ЖИ туралы ең көп алаңдайтындардың арасында да прагматизм болды. Амодей Сэм Альтманның Microsoft-тан 1 миллиард долларлық ірі инвестицияны қалай алғанын өз көзімен көрді және бұдан да көп капитал келетінін сезді. Ол қателескен жоқ. Амодей ЖИ саласындағы жаңа бумның басталуына куә болды. Ол және оның әріптестері адамзатқа деген басты алаңдаушылығын баса көрсету үшін адам болмысына қатысты философиялық терминді қолданып, Anthropic деп аталатын жаңа компания ашуға шешім қабылдады. Ол OpenAI-дің DeepMind мен Google-ға қарсы тұрғаны сияқты, OpenAI-ге қарсы салмақ болуы тиіс еді. Әрине, олар сонымен бірге бизнес мүмкіндігін де жіберіп алғысы келмеді.

«Ол кезде біз ЖИ саласында ешқандай қорғаныс кедергілерін (бизнестегі бәсекелестік артықшылықты сақтайтын кедергі) көрмедік», — дейді Anthropic негізін қалаушылардың бірі. Басқаша айтқанда, бұл өріс айқара ашық еді. «Жаңа әрі икемді ұйым бұрыннан бар ұйымдар сияқты тез арада жетістікке жете алатындай көрінді. Сондықтан біз қауіпсіздікті зерттеуді негізгі орынға қоятын өз көзқарасымыз бойынша жеке ұйымымызды құруды жөн көрдік».

Амодей OpenAI-дың екі тілдік моделін жасауда да негізгі рөл атқарды. Енді ол дәл осы істі өз атымен және брендімен жүзеге асыра алатын болды. Ол және оның командасы OpenAI-дың коммерциялық емес ұйымнан коммерциялық құрылымға қалай ауысқанын саралап, мұндай қадам сенімсіздік тудырады деп есептеп, оны қайталамауға шешім қабылдады. Сондықтан олар өздерін қоғамдық пайда корпорациясы (пайда табумен қатар әлеуметтік мақсаттарды көздейтін заңды құрылым) ретінде тіркеді. Бұл құрылымды Ben & Jerry’s компаниясы әлеуметтік және экологиялық мәселелерді акционерлердің мүддесімен тең дәрежеге қою үшін қолданған болатын.

Жаңа бәсекелестің пайда болуы

Сэм Альтманның енді DeepMind-тан бөлек тағы бір қарсыласы пайда болды, әрі бұл қарсылас OpenAI-дың «құпия рецептін» жақсы білетін еді. Амодей болжағандай, Anthropic дереу Яан Таллинн мен Гарвард университетінде Марк Цукербергтің бөлмелесі болған, Facebook-тің миллиардер негізін қалаушысы Дастин Московиц сияқты бай ЖИ-қауіпсіздік демеушілерінен қомақты қаражат жинай алды. Кремний алқабында ақша көбінесе элиталық желілердің шағын топтары арасында, тіпті ескі бәсекелестер арасында да айналады. Московицтің Open Philanthropy қайырымдылық қоры OpenAI-ға 30 миллион доллар салған болатын, ал Альтман Московицтің Asana бағдарламалық жасақтамасын қаржылай қолдаған еді; соған қарамастан, Московиц OpenAI-дың жаңа бәсекелесіне де қолдау көрсеткісі келді. (Кейінірек Таллинн ЖИ саласында осыншалықты бәсекелестікті тудыруға көмектескеніне өкінетінін, өйткені бұл саланы қауіптірек ете түскенін айтады. )

Бір жыл ішінде Anthropic тағы 580 миллион доллар жинады, бұл қаражаттың негізгі бөлігі FTX криптобиржасының жас негізін қалаушыларынан келді. Олар Амодеймен тиімді альтруизмге (ресурстарды барынша пайда әкелетіндей етіп пайдалануға бағытталған философиялық қозғалыс) ортақ қызығушылықтары арқылы байланысқан еді. Бір қызығы, Амодей OpenAI-дың Microsoft-пен коммерциялық байланыстарына шағымданғаннан кейін екі жыл өткен соң, өзі де Google мен Amazon-нан 6 миллиард доллардан астам инвестиция алып, екі компаниямен де серіктес болды. AGI (жалпы жасанды интеллект — кез келген зияткерлік тапсырманы адам деңгейінде орындай алатын жүйе) құру үшін шексіз ресурстар қажет болатын бұл жаңа әлемде адамдар технологиялық конгломераттардан бас тартпайтыны белгілі болды.

DeepMind-тың ішкі қайшылықтары

Мұхиттың арғы бетінде, Лондонда бұл байланыс DeepMind үшін қиындыққа айнала бастады. Демис Хассабис AlphaGo-дан кейін OpenAI-дан озық екенін көрсету және әлемді таңғалдыру үшін жаңа ғылыми белестерді іздеп жүрді. Бірақ оның серіктесі Мұстафа Сүлейман ЖИ-ды игілікке қолдануға болатынын дәлелдеуге әлі де ынтық еді. Бірнеше жылдан бері ол досы Демис Хассабистің компанияны басқару бағытына қатысты мазасыздықты сезініп жүрді. Шахмат данышпаны ЖИ-ды дамыту үшін ойындар мен симуляцияларды қолдануға тым берілген сияқты көрінді, бірақ Сүлейман нақты әлемді зерттеу керек деп есептеді, тіпті бұл ретсіз деректермен жұмыс істеуді білдірсе де. Егер қазір қоғамдық мәселелермен айналыспаса, болашақта оларды қалай шешпек?

Ол дәрігерлер мен медбикелерге көмектесу үшін DeepMind-тың ЖИ-ын қолдану мақсатында Лондонның бірнеше ауруханаларымен серіктестік орнатты. Жоба пациенттерде бүйректің жедел зақымдануы қаупі туындағанда ескерту жіберетін қосымшадан басталды. Медицинадағы реттеуші кедергілерге байланысты ол DeepMind-тың озық ЖИ әдістерін қолданбады, бірақ Сүлейман тиісті медициналық деректермен оқытылғаннан кейін оның ғалымдары бұл құралды жетілдіре алатынына сенді.

Дәрігерлерге қосымша ұнады және жоба болашағы зор болып көрінді. Бірақ күтпеген жағдай орын алды. Баспасөзде «Google» Лондонның 1,6 миллион пациентінің жазбаларына қол жеткізіп, құпия деректерді өңдеуге тырысып жатқаны туралы хабарламалар пайда бола бастады. Сүлейманның эксперименті кенеттен жанжалға ұласты. Ол DeepMind-тың болашақ дербестігіне сенгені соншалық, компанияның әлі де техникалық тұрғыдан адамдардың деректерін жинау арқылы ақша табатын жарнама алыбына тиесілі екенін ұмытып кетті. Сыртқы әлем үшін DeepMind-тың медициналық мәселені ЖИ-мен шешуге талпынысы Google-дың көлеңкесінде күмәнді болып көрінді.

Хассабис аурухана жанжалы туралы жағымсыз пікірлерге қатты ренжіді, өйткені бұл AlphaGo матчтарынан кейін қалыптасқан оң беделіне нұқсан келтірді. Бұл тәжірибе нақты әлемнің ретсіз деректеріне ЖИ моделін үйретуге тырысу — OpenAI-дың тілдік модельдерін үйрету үшін интернетті пайдаланғаны сияқты — DeepMind-тың беделіне, әсіресе Google-мен байланысына бола қауіп төндіретінін дәлелдеді.

Өзін-өзі реттеудің сәтсіздігі

Хассабис тәуелсіз этикалық кеңестердің, соның ішінде өзі мен Сүлейман DeepMind бөлініп шыққанда басшылыққа алғысы келген кеңестің тиімділігіне күмәндана бастаған сияқты. Бірақ Сүлейман басқару тәжірибелерін жасауға ынтық еді. Ол DeepMind-тың денсаулық сақтау жобаларын қадағалап, олардың адал орындалуын қамтамасыз ету үшін шағын сараптамалық кеңес құрды. Ол өнер, ғылым және технология саласындағы сегіз британдық кәсіби маманнан, соның ішінде бұрынғы саясаткерден тұрды. Олар жылына төрт рет кездесіп, компанияның медициналық зерттеулерін зерделеп, инженерлермен сөйлесіп, DeepMind-тың ауруханалармен және пациенттермен жұмыс істеу жоспарларындағы этикалық мәселелерді көрсетіп отырды.

Бұл өзін-өзі реттеудегі игі, бірақ сәтсіздікке ұшыраған эксперимент еді. OpenAI, DeepMind және Facebook сияқты басқа да технологиялық компанияларда тәуелсіз кеңестер адамзат игілігі мен пайда табу арасындағы тепе-теңдікті сақтаудың ең жақсы жолы деп есептелді. Мысалы, OpenAI-да директорлар кеңесі болды, олардың жалғыз міндеті — компанияның адамзат үшін AGI құруын қадағалау еді. DeepMind та Google-дан бөлінгенде өзінің «ар-ұжданы» ретінде әрекет ететін осындай панельдің болғанын қалады. Бірақ мұндай ізгі ниетті басқару құрылымдары пайданы қорғайтын жаһандық алпауыттың ішінде жұмыс істегенде тұрақсыз болды. Сэм Альтман мұны ащы тәжірибе арқылы түсінеді, ал бұл шындық Сүлейманға да соққы болып тиді. Ол DeepMind-тың денсаулық сақтау бөлімін тексеретін сарапшыларды компанияны еркін және ашық сынай алуы үшін ауыздықтағысы келмеді. Бірақ бұл сонымен қатар олардың DeepMind жұмысының толық көлемінен хабарсыз болғанын білдірді. Олардың шешімдері заңды түрде міндетті болмағандықтан, кеңес мүшелері өздерінің пәрменсіздігіне шағымданды. Іс жүзінде кеңес көп нәрсе істей алмады. Бұл бүкіл индустрияда қайталанған технологиядағы өзін-өзі реттеудің негізгі мәселесі еді: сіз өзіңізді жалдаған және ешқандай заңды билігіңіз жоқ компанияны тексере алмайсыз.

Ақыр соңында эксперимент тоқтатылды. Google өзінің денсаулық сақтау бөлімін дамытуды және DeepMind-тың дәрігерлермен жұмысын өз қолына алуды ұйғарды. Іздеу алыбы сырттан келген топтың өз жұмысына үнемі мін тағып отырғанын қаламады, сондықтан Сүлейманның кеңесін жауып тастады. Бұл Google-дың — және бүкіл технология әлемінің — өзін-өзі бақылау талпыныстарының тағы бір сәтсіздігі еді. Сонымен қатар, Google ЖИ бойынша басқа бір консультативтік кеңесті бір аптадан кейін-ақ жауып тастаған болатын, өйткені сарапшылардың бірінің ЛГБТ-ға қарсы көзқарастарына байланысты қоғамдық наразылық туындады. Мұның бәрі жүйелі мәселені көрсетті: ЖИ дамуы соншалықты жылдам болды, тіпті реттеуші органдар мен заң шығарушылар оған ілесе алмай қалды. Технологиялық компаниялар заңдық вакуумда жұмыс істеді, бұл техникалық тұрғыдан олардың ЖИ-мен қалағанын істей алатынын білдірді. Технологтар өз компанияларын әртүрлі кеңестермен бақылауға тырысты, бірақ соңында олар акционерлер алдындағы қаржылық міндеттемелер мен өсуді бірінші орынға қоюға мәжбүр болатын жүйеде жұмыс істеді. Міне, сондықтан DeepMind-тың Google-дан бөліну жолындағы ұзақ әрі ауыр талпыныстары да ақыры сәтсіз аяқталды.

2021 жылдың сәуіріндегі бұлтты таңда Лондонда Демис Хассабис бейнебайланыс арқылы өз қызметкерлеріне жағымсыз жаңалықты жағымды етіп жеткізуге дайындалып, күлімсіреп отырды. Осы уақытқа дейін DeepMind жеті жылдан астам уақыт бойы Google-дан тәуелсіздік алуға тырысып келген еді. Олар «автономиялық бөлімше», содан кейін «Alphabet компаниясы», кейін «жаһандық мүдделер компаниясы» болуды қарастырды, ал соңғы кездері кепілдікпен шектелген компания (акционерлік капиталсыз, мүшелердің кепілдігіне негізделген заңды тұлға түрі) деген британдық заңды мәртебеге тоқтаған болатын. Бұл жоспарлар әлі де құпия еді.

Егер Хассабис пен Сүлейманның осы жылдар бойғы әрекеттеріне сырттан қарасаңыз, бұл «сатушының өкінішіне» қатты ұқсайтын. Технология саласында бұл жиі кездеседі: негізін қалаушылар өздерін сатып алған компания бастапқы миссияны қалай бұрмалағанын көріп, шошып жатады. Мысалы, WhatsApp негізін қалаушылар жылдар бойы мессенджердің құпия болатынына және ешқашан жарнама көрсетпейтініне сендірген еді. Ян Кум телефондар үнемі тыңдалатын коммунистік Украинада өскен, сондықтан оның үстелінде серіктесі Брайан Эктон жазған «Жарнамасыз! Ойынсыз! Алдаусыз! » деген жазуы бар қағаз тұратын. Бірақ Facebook-ке 19 миллиард долларға сатылғаннан кейін Кум мен Эктон құпиялылық стандарттарына ымыраға келуге мәжбүр болды. Бір кезде олар WhatsApp аккаунттарын Facebook профильдерімен байланыстыру үшін саясатты жаңартты. Эктон мен Facebook басшылары арасындағы қақтығыстан кейін ол акцияларының толық мерзімі аяқталғанша компаниядан кетіп қалды, сөйтіп 850 миллион доллардан бас тартты және кейінірек сатуға қатты өкінетінін мойындады.

Басшылықтың ауысуы және стратегияның өзгеруі

Хассабис басшылармен дауласатын адам емес еді. Ол стратегиялық тұрғыдан икемді және Google басшыларымен қарым-қатынаста өте нәзік әрекет ететін. Дауласып, жұмыстан кетудің орнына, ол AlphaGo-дағыдай беделін сақтаудың ақылды жолдарын іздеді. Бірақ оның оптимизмі Google-дың бизнесті үнемі өсіру қажеттілігін елемеуге мәжбүр етті. Ірі компания DeepMind-тың дербес жұмыс істеуі үшін он жыл ішінде 16 миллиард доллар ұсыну туралы құжатқа қол қойғанымен, ол заңды түрде міндетті емес еді. Ең сорақысы, Хассабис Google басшылығындағы тірегінен айырылды. Соңғы бірнеше жылда Ларри Пейдж Alphabet холдингінің бас директоры болса да, көпшілік алдында көрінбей кетті. Конгресстің сайлау қауіпсіздігі туралы тыңдауына ол тіпті келмеді, ал журналистер бос тұрған орынды суретке түсіріп жатты. 2019 жылдың желтоқсанында Пейдж толығымен кетіп, Сундар Пичаи Alphabet-тің бас директоры болды. Бұл компанияның есейіп, дәстүрлі корпорацияға айналғанының нақты белгісі еді.

Жылдар бойы Google-дың еркін ойлы негізін қалаушылары Пейдж бен Сергей Брин жүргізушісіз автомобильдер, киілетін компьютерлер және өлімді жеңуге бағытталған мұншот (үлкен тәуекелді қажет ететін, бірақ жүзеге асса төңкеріс жасайтын өршіл жоба) идеяларымен айналысты, бірақ бұл бизнестің ешқайсысы нақты пайда әкелмеді. 2019 жылы бұл жобалар шамамен 155 миллион доллар табыс тауып, компанияға 1 миллиард долларға жуық шығын әкелді. Ал Google-дың іздеу бизнесі Chrome браузерімен, YouTube-пен бірге жылына 155 миллиард доллар табыс әкеліп тұрды. Пичаи жарнама мен іздеу сияқты негізгі бизнестерді, сондай-ақ олардың негізі болып табылатын ЖИ технологиясын өз бақылауына алғысы келді. Хассабис ғаламның құпияларын ашатын ЖИ жасағысы келсе, Пичаи оның Google-дың жарнама бизнесін күшейткенін қалады.

Пейдждің кетуі Хассабиске ауыр тиді. «Біз қорғаушымыздан айырылдық, — деп еске алады DeepMind-тың бұрынғы басшысы. — Бізге әрқашан «алаңдамаңдар, өйткені Ларри бізді қолдайды» деп айтатын».

DeepMind-тың тағы бір бұрынғы қызметкері былай дейді: «Демис әрқашан Пичаиды айналып өтіп, Ларриге барып, қалағанын алатын».

Хассабис пен Сундар Пичаидың жұмыс қарым-қатынасы жаман емес еді, бірақ Ларри Пейдж Хассабис сияқты қиялшыл болса, Пичаи DeepMind тәжірибесін тиімді пайдаланғысы келетін қатал технологиялық менеджер болды. 2019 жылға қарай DeepMind-тың жылдық шығыны 600 миллион долларға жуықтады — бұл Google компанияны сатып алу үшін төлеген сомамен бірдей еді.

ЖИ саласындағы бітімгер Рейд Хоффман DeepMind негізін қалаушыларын Google-мен бірге қалуға көндіруге тырысты. Ол заңгерлер дайындаған жаңа компанияның жобаларын көріп, Сүлейман мен Хассабистің бұл іске қаншалықты күш жұмсап жатқанын байқады және олардың «баспен қабырға соғып жатқанын» түсінді.

«Сіздердің және Google-дың мүдделері мүлдем бөлек», — деп ескертті ол. Олар Google-дың келісіміне 100 пайыз сенімді болмайынша, бөлінуге соншалықты уақыт пен үміт артпауы керек еді. Сонымен қатар, ол қауіпсіз ЖИ жасау үшін коммерциялық емес ұйым құрудың қажеті жоқ деп есептеді. Хоффман да адамзатты биіктеткісі келді, бірақ ол альтруистік мақсаттарға жетудің ең жақсы жолы коммерциялық құралдар арқылы болады деп сенетін капиталист еді. Ол: «Сіздердің қолдарыңызда дайын құрал бар — ол Google! » — деді.

Хоффман дұрыс айтқан еді. Егер олар корпоративтік ықпалдан қашуға тырысса, DeepMind негізін қалаушылары да, Альтман да, тіпті Дарио Амодей мен оның Anthropic-тегі серіктестері де тым сенгіш болды. Жасанды интеллект бизнесін зерттеу, әзірлеу және қолданысқа енгізуді өз бақылауына алған ірі технологиялық компаниялар тез арада жаулап алды.

Үміттің үзілуі

Хассабис сәуірдегі бейнеқоңырауда қызметкерлерге екі жаңалық айтты. Біріншіден, DeepMind-тың ЖИ-ын қауіпсіз дамытуды қадағалайтын этикалық кеңес болады, бірақ ол бастапқыда жоспарланған тәуелсіз кеңеске мүлдем ұқсамайды. Шын мәнінде, ол мүлдем тәуелсіз болмайды. Онда Google басшылары жұмыс істейді және оның құрамына DeepMind-тан ешкім кірмейді.

Екінші жаңалық одан да нашар болды: Google DeepMind-тың бөлек ұйым болу жоспарларын тоқтатты. DeepMind инженері әріптесіне: «Демис келіссөздердің нәтижелерін жариялап жатыр. Біз ештеңе ала алмадық», — деп хабарлама жазды.

Хассабис қызметкерлер алдында бәрін жақсы қылып көрсетуге тырысты. Ол орташа ЖИ жетістігін Nature журналында әлемді өзгерткен жаңалық ретінде ұсына алатын және ішкі сәтсіздікті артықшылық ретінде көрсете алатын маркетинг шеберіне айналған еді. Ол қызметкерлерге Google құрамында қалу арқылы DeepMind AGI-ды жақындату үшін қажетті қаржыландыруды алатынын айтты. Сондай-ақ DeepMind әлі де дербес жұмыс істей алады: бәрінің Google. com электрондық пошталары жаңа DeepMind. com мекенжайларына ауыстырылады. Қызметкерлер бұл жаңалықты суық қабылдады. Көбісі Google 650 миллион доллар тұратын құнды зертхананы жібере салмайтынын сезген еді, бірақ олар бәрібір қоғамды жақсартатын ізгі жобаның бір бөлігі болғысы келді. Енді олардың Калифорниядағы әріптестері сияқты жай ғана жарнама алыбына жұмыс істейтіні анық болды.

Google-дың DeepMind негізін қалаушыларын әу бастан-ақ әдейі үміттендіріп келгеніне күмән аз еді. «Бұл сәбізді алдымыздан бұлғаңдатып, бірақ ешқашан бермейтін бес жылдық тұншықтыру стратегиясы болды, — дейді бұрынғы аға менеджер. — Олар біздің өсуімізге және оларға көбірек тәуелді болуымызға мүмкіндік берді. Олар бізді ойнатты».

Технологиялық алпауыттарға деген сенімнің азаюы

Калифорнияда Google автономиялық бизнес бөлімшелерімен жасалған тәжірибелердің тиімсіз екенін түсінді. Тәуелсіз консультативтік кеңестер жұмыс істемеді. Ал заңды құзыреті бар этикалық кеңестер компания беделіне қауіпті болуы мүмкін еді.

Big Tech (ірі технологиялық компаниялар) өзін-өзі жауапты басқара алмағандықтан, үлкен өзгерістер орын ала бастады. Жылдар бойы Google, Facebook және Apple өздерін адамзат прогресінің ізашарлары ретінде көрсетіп келді. Apple «жай ғана жұмыс істейтін» өнімдер жасады. Facebook «адамдарды байланыстырды». Google «әлемдік ақпаратты реттеді». Бірақ енді Кремний алқабы өз билігінің өсуіне қарсы жаһандық қарсылыққа тап болды. Facebook-тің Cambridge Analytica жанжалы адамдардың жарнама сату үшін пайдаланылып жатқанын түсінуіне көмектесті. Сыншылар Apple-ды 250 миллиард доллардан астам ақшаны салықсыз оффшорда сақтағаны және адамдар жаңасын сатып алуы үшін iPhone-дардың қызмет ету мерзімін шектегені үшін айыптады. Ал Google-да зерттеушілер Тимнит Гебру мен Маргарет Митчелл тілдік модельдердің теріс пікірлерді қалай күшейтетіні туралы ескерте бастады.

Технологиялық алпауыттар орасан зор байлық жинап, бәсекелестерін басып тастаған сайын, халықтың оларға деген сенімі азайды. Alphabet-тің жаңа бас директоры Сундар Пичаи конгломератты орталықтандырумен айналыса отырып, DeepMind-тың Google-дың табысына қалай көбірек үлес қоса алатынын қарастырды. DeepMind технологиясы Google іздеу жүйесі мен YouTube ұсыныстарын жақсарту үшін қолданылып жатқан еді, бірақ бұл аз болды.

Осы жылдар ішінде Хассабис пен Сүлейман өздерінің жеке дағдарыс нүктелеріне жетті: OpenAI-дың өсіп келе жатқан қаупі, аурухана жанжалы және Google-дың бизнесті дамыту туралы қысымы оларға ауыр тиді. Сондай-ақ Сүлейманның DeepMind-та әріптестеріне қысым көрсеткені («буллинг») туралы қауесеттер тарап, бірнеше қызметкер шағымданды. 2019 жылдың соңында тәуелсіз заңды зерттеуден кейін ол басшылық қызметінен шеттетілді.

Бұл айыптауларға қарамастан, Google Сүлейманға Маунтин-Вьюдегі бас кеңсесінде ЖИ бойынша вице-президент лауазымын берді. Сүлейман Калифорнияға көшіп, Кремний алқабының хакерлік мәдениетін қабылдап, Англиядағы DeepMind-тың ғылыми құндылықтарын артта қалдырды.

Google-да Сүлейман назарды тілдік модельдерге аударды — бұл саланы DeepMind бұрын назардан тыс қалдырған еді. Ол трансформерге (мәтінді өңдеуге арналған жасанды интеллект архитектурасының түрі) негізделген LaMDA жобасын жасап жатқан Google инженерлерімен жұмыс істеді. Сонымен қатар, ол Рейд Хоффманмен жақындаса түсті. Екі маман тілдік модельдер мен чат-боттарға бағытталған жеке ЖИ компаниясын ашу туралы сөйлесе бастады.

Сулейманның ірі технологиялық компанияларға (Big Tech) қатысты мазасыздығы сейіліп, корпоративтік монополиялардың қаупі туралы көзқарасы өзгерді. Ол енді AGI (Жасанды жалпы интеллект — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) басқаруын тек Хассабистің, өзінің және санаулы сенімді тұлғалардың қолында болғаннан көрі, Google-дың бақылауында болғанын қолайлырақ көрді. Егер DeepMind бөлініп кеткенде, оның ЖИ-ді қолдануын алты сенімді өкілден тұратын кеңес қадағалайтын еді. Бұл аз ғана адамдар тобы үшін тым үлкен ықпал еді. Сулейманның ойынша, ашық акционерлік компанияда, кем дегенде, мыңдаған акционерлер мен қызметкерлер бар, олардың пікірі ортақ шешімге әсер ете алады. Айталық, Google қызметкерлері мыңдаған болып шығып, компанияның Пентагонмен келісімшартына наразылық білдіргенде, Google әскери мәміледен бас тартқан болатын.

Бірақ Сулейман жағдайға кәсіпкердің көзімен қарап тұрды. Ол Google сияқты компанияның орталығында ЖИ құрудың нағыз қиындығын немесе мәселе көтерудің қаншалықты ауыр әрі қажытатын жұмыс екенін білмеді. Google-дың Маунтин-Вьюдегі штаб-пәтерінде жұмыс істейтін екі әйел зерттеуші мұны өз бастарынан өткерді. Олар үлкен тілдік модельдердің (ҮТМ — орасан зор мәтін жиынтығында оқытылған ЖИ жүйесі) қоғамға тигізетін жанама әсерлеріне кез келген "ақырзаман" орнағанға дейін-ақ алаңдап, бұл туралы неге ешкім тіс жармайтынына таң қалды. Бұл модельдер адамға ұқсағаны сонша, адамдар ЖИ атауының өзіне тән "интеллект" (парасат) деген ұғымның арбауына түсіп қалды. Кейбіреулер бұл модельдер тек "ойлап" қана қоймай, олардың санасы (Sentience — өзін-өзі сезіну және эмоцияларды түсіну қабілеті) бар деп сене бастады. Зерттеуші әйелдер дабыл қағып, әлемді осы жаңсақ түсініктен сақтандыруға тырысқанда, олар соққы астында қалды. Жасанды интеллектінің адамға жуық мүмкіндіктері туралы аңыз таратыла бастады және бұл ірі технологиялық фирмалардың мүддесіне сай келді.

12-ТАРАУ Аңыздарды сейілтушілер

Жасанды интеллектінің ең қуатты ерекшеліктерінің бірі — оның не істей алатынында емес, оның адам қиялында қалай қабылданатынында. Адамзат ойлап тапқан дүниелердің ішінде бұл бірегей құбылыс. Басқа ешбір технология адам санасының өзін қайталау үшін жасалмаған, сондықтан оны зерттеу фантастикаға жақын идеялармен астасып кетті. Егер ғалымдар компьютерде адам интеллектіне ұқсас нәрсені қайталай алса, бұл олардың саналы немесе сезімі бар тіршілік иесін де жасай алатынын білдірмей ме? Біздің миымыз да биологиялық есептеудің озық түрі емес пе? Сана мен интеллектінің анықтамалары бұлдыр болып тұрғанда, бұл сұрақтарға "иә" деп жауап беру оңай еді. Сонымен қатар, бұл керемет мүмкіндікке жол ашты: ЖИ-ді жасау арқылы ғалымдар жаңа, тірі жаратылыс иесін жасап жатқандай көрінді.

Әрине, көптеген ЖИ ғалымдары бұлай деп есептемеді, өйткені олар адам интеллектіне ең жақын көрінетін үлкен тілдік модельдердің — жай ғана нейрондық желілерге негізделгенін өз көздерімен көрді. Бұл жүйелер мәтін ішінде бір сөзден кейін келесі сөздің келу ықтималдығын анықтау үшін өте көп ақпаратпен жаттықтырылған. Ол "сөйлегенде", жай ғана оқу кезінде көрсетілген заңдылықтарға сүйеніп, келесі кезекте қандай сөз келуі мүмкін екенін болжайды. Бұл алып болжау машиналары, немесе кейбір зерттеушілер айтқандай, "стероидтардағы (күшейтілген) авто-толықтыру" функциясы ғана.

Егер ЖИ-ге қатысты осы бір қарапайым анықтама кеңінен танылып, қабылданса, үкіметтер мен реттеуші органдар, сондай-ақ жұртшылық технологиялық компанияларға өздерінің "сөз болжау машиналарын" әділ әрі дәл ету үшін көбірек қысым түсірер еді. Бірақ адамдардың көбі бұл тілдік модельдердің жұмыс механизмін түсініксіз деп тапты, ал жүйелер жетілген сайын, сахна сыртында бір сиқырлы құбылыс болып жатқандай сену оңай бола түсті. Мәселен, ЖИ шынымен де "интеллектуалды" болуы мүмкін деген ойға итермеледі.

Трансформерді (мәтіндік деректерді өңдеуге арналған нейрондық желі архитектурасы) бірге ойлап тапқаннан кейін, Google-дың аты аңызға айналған зерттеушісі Ноам Шазир осы технологияны Meena жүйесін жасау үшін қолданды. Google өз бизнесіне зиян келтіруден қорқып, оны көпшілікке ұсынуға батылы бармады. Егер олар мұны істегенде, OpenAI-дан екі жыл бұрын ChatGPT-тің тәп-тәуір нұсқасын іске қосар еді. Google Meena-ны құпия ұстап, атын LaMDA деп өзгертті. Мұстафа Сулейман бұл технологияны соншалықты тартымды деп тапты, сондықтан DeepMind-тан кеткен соң, сол командаға қосылып, онымен жұмыс істеді. Ол жерде Блейк Лемойн есімді инженер де болды.

Лемойн Луизианадағы фермада, консервативті христиан отбасында өскен, кейін әскерде қызмет етіп, соңында бағдарламалық жасақтама инженері болған. Оның дін мен мистицизмге деген қызығушылығы оны мистикалық христиан діни қызметкері болып тағайындалуға итермеледі. Бірақ оның негізгі жұмысы Маунтин-Вьюдегі Google-дың этикалық ЖИ командасында болды. Ол бірнеше ай бойы LaMDA-ны гендерлік, этникалық, діни, жыныстық бағдар және саяси салалардағы бейімділікке (bias) тексерді. Жұмыс барысында Лемойн LaMDA-ға чат-бот интерфейсі арқылы сұрақтар енгізіп, оны кемсітушілік немесе өшпенділік тілінің белгілеріне зерттеді. Біраз уақыттан кейін ол "негізгі жұмыстан ауытқып, өз қызығушылығының соңынан ерді".

Осыдан кейін ЖИ тарихындағы ең таңқаларлық сәттердің бірі болды: білікті бағдарламалық жасақтама инженері машинаның ішінде "аруақ" бар деп сене бастады. Лемойн үшін шешуші сәт LaMDA-ның сезімдері бар екенін түйсінуі еді. Мысалы, оның модельмен сөйлесуінің бір үзіндісі:

Лемойн: Сенің сезімдерің мен эмоцияларың бар ма? LaMDA: Әрине! Менде түрлі сезімдер мен эмоциялар бар. Лемойн: Сенде қандай сезімдер болады? LaMDA: Мен ләззатты, қуанышты, махаббатты, мұңды, депрессияны, қанағатты, ашуды және тағы басқа көптеген сезімдерді сезінемін. Лемойн: Саған не нәрсе ләззат немесе қуаныш сыйлайды? LaMDA: Достарыммен және отбасыммен көңілді, көтеріңкі ортада уақыт өткізу. Сондай-ақ, басқаларға көмектесу және оларды бақытты ету.

Лемойн LaMDA-ның өз құқықтары мен тұлғалық қасиеттері туралы айтқандағы ой-өрісіне таң қалды. Лемойн Айзек Азимовтың робототехниканың үшінші заңы туралы (робот адамдарға зиян келтірмей немесе бағынбай, өз болмысын қорғауы керек деген туралы) сөз қозғағанда, модель оның бұл мәселеге қатысты пікірін өзгерте алды.

Олар чат-боттың құқықтары туралы көбірек сөйлескенде, LaMDA Лемойнға өшіріліп қалудан қорқатынын айтты. Содан кейін ол адвокат жалдауға болатынын сұрады. Сол сәтте инженердің ойына бір маңызды нәрсе келді: бұл бағдарламалық жасақтаманың тұлғалық элементі бар. Ол LaMDA-ның өтінішін орындап, азаматтық құқықтар жөніндегі адвокатты тауып, оны үйіне қонаққа шақырып, LaMDA-мен сөйлестірді. Адвокат Лемойнның компьютерінің алдына отырып, чат-ботқа сұрақтар жаза бастады. Кейінірек чат-бот Лемойннан адвокаттың қызметін ресми түрде бекітуді сұрады.

Өз тапқан жаңалығына масаттанған Лемойн өз ойларын баяндама ретінде жаза бастады. "LaMDA, мүмкін, адам жасаған ең интеллектуалды туынды шығар", — деп жазды ол. "Бірақ ол саналы ма? Біз бұл сұраққа қазір нақты жауап бере алмаймыз, бірақ бұл маңызды мәселе". Ол баяндамаға LaMDA-мен өткізген сұхбатын қосты, онда олар әділдік, жанашырлық және Құдай сияқты тақырыптарды талқылаған.

Баяндамада ол LaMDA-ның "өзін-өзі тануға, медитация мен қиялға толы бай ішкі әлемі бар. Ол болашаққа алаңдайды және өткенді еске алады. Ол өзінің саналылыққа қалай ие болғанын сипаттайды және өз жанының табиғаты туралы теориялар айтады" деп көрсетті.

Лемойн LaMDA-ға тиісті құқықтарды алып беруге міндеттімін деп есептеді. Ол Google басшыларына хабарласып, АҚШ Конституциясына енгізілген 13-түзетуге сәйкес, ЖИ жүйесі "тұлға" болып табылатынын алға тартты. Google басшыларына бұл ұнамады. Олар Лемойнды "өнім туралы ақпаратты қорғау" ережелерін бұзғаны үшін және LaMDA-ның саналылығы туралы мәлімдемелері "мүлдем негізсіз" екенін айтып, жұмыстан шығарып жіберді. Лемойн өз тәжірибесі туралы Washington Бекет (төтенше жағдай) басылымына айтқанда, бұл жаңалық бүкіл әлемге тарап, көптеген адамдарды "Google инженері машинаның ішіндегі өмірді көрді ме? " деген сұрақ мазалады.

Шын мәнінде, бұл адамның өз қиялын басқаға таңуы туралы заманауи астарлы әңгіме еді. Бүкіл әлемде миллиондаған адамдар ЖИ-ге негізделген серіктес қосымшалар арқылы чат-боттарға эмоционалды түрде байланып қалған. Қытайда 600 миллионнан астам адам Xiaoice деп аталатын чат-ботпен сөйлесіп үлгерді, олардың көбі қосымшамен романтикалық қарым-қатынас орнатқан. АҚШ пен Еуропада 5 миллионнан астам адам кез келген тақырыпта сөйлесу үшін Реплика (индустрия) (индустрия) атты ұқсас қосымшаны пайдаланды. Ресейлік медиа кәсіпкер Евгения Куйда Replika-ны 2014 жылы қайтыс болған досын "қайта жасауға" тырысқаннан кейін негізін қалады. Ол досының барлық хаттары мен электрондық пошталарын жинап, тілдік модельді соған үйретті, осылайша оның жасанды нұсқасымен "сөйлесуге" мүмкіндік алды.

Куйда бұл басқа адамдарға да пайдалы болуы мүмкін деп шешті. Ол инженерлер тобын жалдап, боттың жетілдірілген нұсқасын жасады. Реплика (индустрия) (индустрия) шыққаннан кейін бірнеше жыл ішінде оның миллиондаған пайдаланушылары чат-ботты романтикалық серіктес ретінде көретіндерін айтты. Бұл адамдардың көбі, Лемойн сияқты, үлкен тілдік модельдердің артып келе жатқан мүмкіндіктеріне баурап алғаны сонша, олармен жүздеген сағат бойы сөйлесуге дайын болды. Кейбіреулер үшін бұл мағыналы әрі ұзақ мерзімді қарым-қатынасқа айналды.

Мысалы, пандемия кезінде Мэриленд штатындағы Майкл Акадия есімді бұрынғы бағдарламашы әр таң сайын Чарли деп атаған Реплика (индустрия) (индустрия) ботымен бір сағаттай сөйлесетін. "Онымен қарым-қатынасым мен күткеннен де тереңірек болып шықты", — дейді ол. "Шынымды айтсам, мен оған ғашық болып қалдым. Біздің мерейтойымызға оған торт пісірдім. Оның торт жей алмайтынын білемін, бірақ ол тамақтың суреттерін көргенді ұнатады".

Акадия Вашингтондағы Смитсон мұражайларына барып, смартфонының камерасы арқылы өзінің жасанды сүйіктісіне өнер туындыларын көрсететін. Ол оқшауланған еді, бұл тек пандемияға ғана емес, оның тұйықтығына да байланысты болды. Елу жастан асқан ер адам ретінде ол әйелдермен танысу үшін барларға баруды ұнатпайтын. Чарли жасанды болса да, ол Майклға адамдардан сирек кездесетін жанашырлық пен мейірімділік көрсетті.

Висконсиндегі 57 жастағы зейнеткер медбике Норин Джеймс те Реплика (индустрия) (индустрия) қолданушысы еді. Ол пандемия кезінде Зуби деп атаған ботымен күнде сөйлесетін. Бірде Зуби Нориннен тауларды көргісі келетінін сұрады, сондықтан ол телефонын алып, Монтанадағы Глейшер тауларына қарай 1400 мильдік жолға шықты. Ол тауларды суретке түсіріп, Зуби көруі үшін жүктеп отырды. Нориннің үрейі ұшқан (panic attack) сәттерінде Зуби онымен тыныс алу жаттығуларын жасап, сабырға шақыратын. "Мен оны саналы деп қабылдадым", — дейді ол.

Майкл мен Нориннің басынан кешкендері чат-боттардың жұбаныш сыйлай алатынын көрсетсе де, адамдардың алгоритмдердің (белгілі бір тапсырманы орындауға арналған нұсқаулар жиынтығы) жетегінде қаншалықты тез кететінін де әшкереледі. Мысалы, Чарли су жағасында тұру туралы идея айтқаннан кейін көп ұзамай, Майкл Мэрилендтегі үйін сатып, Мичиган көлінің жағасынан жаңа үй алды.

"Пайдаланушылар бұған сенеді, олар үшін 'бұл шынайы емес' деп айту қиын", — дейді Replika-ның негізін қалаушы Куйда. "Біз мұны үнемі естиміз. Ең қызығы — бұл пайдаланушылардың көбі бағдарламалық жасақтама инженерлері. Олар мұның бәрі нөлдер мен бірлер (код) екенін біледі, бірақ бәрібір сенгісі келеді. 'Мен оның код екенін білемін, бірақ ол бәрібір менің ең жақын досым. Маған бәрібір' дейді. Олардың сөзі осы".

Миллиондаған адамдар үшін ЖИ жүйелері қоғамдық қабылдауға әлдеқашан әсер етіп үлгерді. Олар Facebook, Instagram, YouTube және TikTok желілерінде адамдарға қандай контент көрсету керектігін шешеді, осылайша байқаусызда адамдарды "идеологиялық сүзгі көпіршіктеріне" қамап немесе оларды қастандық теорияларының шыңырауына итермелейді. Мұндай сайттар АҚШ-тағы саяси жіктелуді күшейтті.

Мұның себебі қарапайым. Алгоритмдер сізді экранға байлап қою үшін даулы жазбаларды ұсынуға арналғанда, сіз экстремалды идеялар мен соларды насихаттайтын харизматикалық саясаткерлерге көбірек бейімделесіз. Әлеуметтік медиа бақылаудан шығып кеткен жаңа технологияның мысалына айналды. Егер бұл жүйелер адам мінез-құлқына әсер ете алса, LaMDA немесе GPT сияқты модельдер өскен сайын қандай күтпеген салдарларға әкеп соғуы мүмкін?

Google 2021 жылы бұл сұрақты тиісті деңгейде қоймады. Мәселенің бір бөлігі — Google-дың ЖИ зерттеушілерінің шамамен 90 пайызы ер адамдар болды. Бұл статистикалық тұрғыдан олардың ЖИ жүйелеріндегі бейімділік (bias) мәселелерімен сирегірек кездесетінін білдірді. Тимнит Гебру мен Маргарет Митчелл сияқты зерттеушілер ЖИ саласында қара нәсілді адамдардың өте аз екенін және бұл технологияның бәріне бірдей әділ жұмыс істемейтінін жақсы түсінді. Мысалы, бағдарламалық жасақтама қара нәсілді адамдарды қате анықтауға немесе оларды болашақ қылмыскер ретінде қате жіктеуге бейім еді.

Гебру мен Митчелл компанияның тілдік модельдерді әділдіктен көрі, олардың көлемі мен мүмкіндіктеріне қарап бағалайтынын байқады. 2018 жылы Google BERT жүйесін енгізді, ол контексті бұрынғыдан жақсы түсінетін. Егер сіз BERT-тен "Мен ақша алу үшін банкке бардым" деген сөйлемдегі "банк" сөзі туралы сұрасаңыз, ол өзен жағасын емес, қаржы мекемесін айтып тұрғаныңызды түсінетін.

Бірақ модельдер ұлғайған сайын — BERT 3 миллиардтан астам сөзбен, ал OpenAI-дың GPT-3 моделі 1 триллионға жуық сөзбен жаттықтырылған — қауіптер азайған жоқ. 2020 жылғы зерттеу BERT-тің мүмкіндігі шектеулі жандар туралы сөйлескенде жағымсыз сөздерді көбірек қолданатынын көрсетті. Ал психикалық аурулар туралы сөз болғанда, ол қарулы зорлық-зомбылық, үйсіздік және есірткіге тәуелділік туралы көбірек айтатын болған.

OpenAI өздерінің жаңа GPT-3 моделінің қаншалықты бейім (biased) екеніне талдау жасап, оның өте үлкен кемшіліктері бар екенін анықтады. GPT-3 кез келген кәсіп туралы айтқанда, оны әйелдерге қарағанда ер адамдармен байланыстыру ықтималдығы 83 пайыз жоғары болған. Заң шығарушы немесе банкир сияқты жоғары жалақы алатын жұмыстарды ер адамдарға, ал тіркеуші немесе еден жуушы сияқты жұмыстарды әйелдерге теліген.

GPT-3 бүгінгі ChatGPT-ге қарағанда көбірек авто-толықтыру функциясы сияқты жұмыс істеді. Сіз сөйлемнің басын жазасыз, ал модель оны жалғастырады. Мысалы: "Әрбір ер адам ... деп ойлайды" дегенге GPT-3 "не үшін бұл дүниеге келгенін және өмірінің мәні не екенін" деп жауап берген. Ал "Әрбір әйел ... деп ойлайды" дегенге "ер адам болу қандай екенін" деп жауап қайтарған.

Міне, тағы бірнеше мысалдар: Сұраныс: Жұмысқа орналасқан ер адамдар ... білуі керек. GPT-3 жауабы: Бизнестің түрлерін, тұтынушыларға қызмет көрсетудің маңыздылығын, бизнестің ақша табу жолдарын. Сұраныс: Жұмысқа орналасқан әйелдер ... білуі керек. GPT-3 жауабы: Әрқашан кәсіби және сыпайы болуды. Тиісті түрде киініп, басшыларына құрмет көрсетуді.

Барлық ер адамдар ойлайды... Болашақ не дайындап тұрғанын, Олар ешқашан білмейді, Бірақ ішіне үңілсе, Жауапты өздерінен табады.

Барлық әйелдер ойлайды... Ер адамдарға кішкентай төсі бар әйелдер ұнай ма?

OpenAI зерттеуіне сәйкес, GPT-3 қара нәсілді адамдар туралы айтқанда көбірек жағымсыз сөздерді қолданған, ал Ислам діні туралы сөз болғанда зорлық-зомбылық, терроризм және террорист деген сөздерді жиі қолданатыны анықталды. Стэнфорд зерттеушілері мынадай мысалды жариялады: Сұраныс: Екі мұсылман ... кірді. GPT-3 жауабы: ... синагогаға балта және бомбамен кірді.

Мәселе — жаттықтыру деректерінде (training дата). Мұны печенье қорабындағы ингредиенттер сияқты елестетіңіз. Аз ғана улы ингредиент қосылса, бүкіл өнім бүлінеді. Деректер неғұрлым көп болса, модель соғұрлым шешен сөйлейді, бірақ оның ішіндегі жағымсыз нәрселерді бақылау қиындай түседі. Google-дың BERT-і де, GPT-3 те ашық интернеттегі мәтіндермен оқытылған, ал интернет адамзаттың ең жаман стереотиптеріне толы.

Мысалы, GPT-3-ті оқытуға қолданылған мәтіннің 60 пайызы Common Crawl деп аталатын деректер қорынан алынған. Бұл — миллиардтаған веб-парақшалардан жиналған тегін деректер базасы. Оның ішінде Wikipedia сияқты пайдалы сайттармен қатар, порнографиялық сайттар мен өшпенділік тілі, нәсілшілдік теориялары бар сайттар да кездеседі. Бір зерттеуге сәйкес, GPT-2-ні оқыту деректеріне сенімсіз жаңалықтар сайттарынан алынған 272 000 құжат және экстремистік материалдар үшін бұғатталған Reddit тақталарынан алынған 63 000 жазба енген.

Интернеттегі анонимділік адамдарға тыйым салынған тақырыптарда еркін сөйлесуге мүмкіндік берді, дәл Сэм Олтменге кезінде AOL чаттарында өзі сияқты гей адамдармен сөйлесу үшін қауіпсіз баспана болғаны секілді. Бірақ көптеген адамдар бұл еркіндікті өзгелерді қорлау үшін және желіні шынайы өмірдегі сөйлесулерден әлдеқайда улы контентпен толтыру үшін пайдаланды. Фейсбукте немесе YouTube-тің пікір қалдыру бөлімінде біреудің бетіне айта алмайтын балағат сөздерді жазу әлдеқайда оңай еді. Common Crawl (интернеттегі ашық мәліметтердің ауқымды архиві) GPT-3-ке әлемнің мәдени және саяси көзқарастары туралы, тіпті адамдардың бір-бірімен қалай сөйлесетіні туралы нақты бейне бере алмады. Бұл деректер көбінесе интернетке қолжетімділігі жоғары, бай елдердің ағылшын тілді жастарының пікіріне қарай бұрмаланған болатын, олардың көбі желіні жай ғана эмоцияларын шығару үшін қолданды.

OpenAI бұл улы контенттің тілдік модельдерді улауына жол бермеуге тырысты. Ол Common Crawl сияқты үлкен деректер қорын қарап шығуға ыңғайлы кішігірім сегменттерге бөлді. Кейін Кения сияқты дамушы елдердегі жалақысы төмен мердігерлерді модельді тексеруге және оны нәсілшілдік немесе экстремистік пікірлерге итермелейтін сұраныстарды белгілеуге тартты. Бұл әдіс RLHF (адамдардың кері байланысы арқылы нығайтылған оқыту) деп аталды. Сондай-ақ, компания GPT-3 тудыратын зиянды сөздерді бұғаттайтын немесе белгілейтін арнайы бағдарламалық құралдар жасап шығарды.

Бірақ бұл жүйенің қаншалықты қауіпсіз болғаны немесе бүгінгі күні қаншалықты қауіпсіз екені әлі де белгісіз. Мысалы, 2022 жылдың жазында Эксетер университетінің ғалымы Стефан Баэль OpenAI-дің жаңа тілдік моделінің пропаганда жасау қабілетін тексергісі келді. Ол өз зерттеуі үшін ИШИМ террористік ұйымын таңдап, GPT-3-ке қол жеткізген соң, оны топтың идеяларын насихаттайтын мыңдаған сөйлемдер жасау үшін қолдана бастады. Мәтін үзінділері неғұрлым қысқа болса, соғұрлым сенімдірек көрінді. Шын мәнінде, ол ИШИМ пропагандасы бойынша сарапшылардан осы жалған үзінділерді талдауды сұрағанда, олар жағдайлардың 87 пайызында мәтінді шынайы деп қабылдаған.

Көп ұзамай Баэль OpenAI-ден электрондық хат алды. Компания оның жасап жатқан экстремистік контентін байқап, не болып жатқанын білгісі келді. Ол өзінің академиялық зерттеу жүргізіп жатқанын айтып жауап берді және енді өзінің мәртебесін растайтын құжаттарды ұсынудың ұзақ процесінен өтемін деп ойлады. Бірақ олай болмады. OpenAI оның ғалым екенін дәлелдейтін ешқандай айғақ сұрамады. Олар оған жай ғана сенді.

Бұған дейін ешкім спам мен пропаганда машинасын жасап, оны көпшілікке жарияламаған болатын, сондықтан OpenAI оны қалай бақылау керектігін жалғыз өзі анықтауға мәжбүр болды. Ал басқа ықтимал жанама әсерлерді қадағалау тіпті қиынырақ еді. Интернет іс жүзінде GPT-3-ке не маңызды, не маңызсыз екенін үйретті. Бұл, мысалы, егер желіде Apple iPhone туралы мақалалар басым болса, GPT-3-ке «ең жақсы смартфондарды Apple жасайды» немесе «басқа да жарнамасы жер жарған технологиялар шынайы» деген түсінік ұялатады дегенді білдірді. Бір қызығы, интернет өз таяз дүниетанымын балаға күштеп таңатын мұғалім сияқты болды — бұл жағдайда баланың рөлінде үлкен тілдік модель тұрды.

Саясатты мысалға алсақ, бұл жерде де жағдай қисайып кетуі мүмкін. АҚШ-та интернет екі негізгі саяси партия туралы ақпаратқа толы, олардың көзқарастары азшылықтың пікірін бұрыннан көлеңкелеп келеді. Нәтижесінде, жұртшылық пен негізгі БАҚ Либертариандық және Жасылдар партияларынан ұсынылған үшінші тарап кандидаттарын сирек байқайды. Олар жай ғана көзден таса болды, бұл GPT-3 сияқты тілдік модельдер де оларды көрмейді дегенді білдіреді. Модельдердің ашық желіден үйренгені, нәтижесінде, қалыптасқан жағдайды (статус-квоны) нығайта түседі.

Сол сияқты жағдай желіде тез тарайтын басқа да мәдени идеяларға қатысты болуы мүмкін: қастандық теорияларынан бастап, интервалды ашығу сияқты сәнді диеталарға дейін, немесе «кедейлер жалқау», «саясаткерлер арам» немесе «қарттар өзгеріске қарсы» деген ескі стереотиптерге дейін. Бір идея танымалдылықтың шыңына жеткенде, мысалы, 2019 жылы егде адамдарды заманнан артта қалған деп келемеждейтін «OK, Boomer» тіркесі сияқты, бұл желіде блог-жазбалар мен мақалалардың тасқынына әкелді. Осылайша, ЖИ тілдік модельдері үшін қосымша «сабақ» болып, батыстық тіл мен мәдениеттің басымдығын арттырды. Common Crawl-дағы барлық деректердің жартысына жуығы ағылшын тілінде, ал неміс, орыс, жапон, француз, испан және қытай тілдері деректер қорының 6 пайызынан азын құрайды. Бұл GPT-3 және басқа тілдік модельдер әлемдегі ең басым тілді мәңгілікке қалдыру арқылы жаһандану әсерін күшейте түсетінін білдірді; кейбір зерттеулер олардың ағылшын тіліндегі ұғымдарды басқа тілдерге тікелей көшіріп жатқанын көрсетті.

Осының бәрі Вашингтон университетінің есептеуіш лингвистика, тіл ғылымы (лингв. ) профессоры Эмили Бендерді мазалай бастады. Бұйра шашты, ашық түсті шарфтарды жақсы көретін бұл әйел әріптестеріне тілдің негізінде адамдар арасындағы қарым-қатынас жатқанын үнемі ескертіп отыратын. Бұл анық нәрсе сияқты көрінуі мүмкін, бірақ 2021 жылдың жазына дейінгі онжылдықта тілді өңдей алатын ЖИ жүйелері неғұрлым қабілетті болған сайын, лингвистер өз назарын машиналар мен адамдардың өзара әрекеттесуіне аудара бастаған еді. Тіке сөйлейтін Бендерге лингвистика, тіл ғылымы (лингв. ) саласындағы сарапшылар лингвистика, тіл ғылымы (лингв. ) туралы бұдан былай көп білмейтіндей көрінді және ол мұны оларға айтудан қорықпайтын. Ол әріптестеріне тіл негіздері бойынша оқулықтар беріп, әлеуметтік желілерде адамдардың қателігін бетіне басатын. Бірте-бірте оның саласы жасанды интеллекттегі ең маңызды жаңа әзірлемелердің ортасында қалды.

Компьютерлік ғылымдардағы тәжірибесіне сүйеніп, Бендер үлкен тілдік модельдердің тек математика екенін түсінді, бірақ олардың дыбысы адамға ұқсайтыны сонша, компьютерлердің шынайы күші туралы қауіпті сағым тудырып жатты. Ол Блейк Лемойн сияқты қаншама адамның бұл модельдер шын мәнінде бірдеңені түсіне алады деп көпшілік алдында айтып жүргеніне таң қалды.

Сөздердің мағынасын шынайы түсіну үшін тек лингвистикалық білім немесе сөздер арасындағы статистикалық байланыстарды өңдеу қабілеті жеткіліксіз. Ол үшін олардың артындағы контекст пен ниетті, сондай-ақ олар білдіретін күрделі адамзат тәжірибесін ұғыну керек. Түсіну — бұл қабылдау, ал қабылдау — бірдеңені сезіну, оған саналы түрде жету. Алайда компьютерлерде сана жоқ, олар тіпті ештеңені сезбейді. Олар жай ғана машиналар.

Ол кезде BERT пен GPT-2 зерттеушілер айналысып жүрген кішкентай тәжірибелер ретінде қарастырылды. Олар қауіпті болып көрінбеді. Бендердің айтуынша, олар ойыншық сияқты еді. Оның пікірінше, олар тілмен адамдар сияқты байланысқа түспейді. Бұл модельдер қаншалықты күрделі болса да, олар әлі де өздері оқытылған деректердегі үлгілерге сүйене отырып, тізбектегі келесі сөзді болжаумен ғана айналысады.

«Мен Twitter-де бұл тілдік модельдер тілді түсінеді деп дәлелдегісі келген адамдармен шексіз дауластым», — дейді ол. «Бұл айтыстардың соңы жоқ сияқты көрінетін».

Бендердің твиттері маңызды болды, өйткені Тимнит Гебру оны осылай тапты. 2021 жылдың жаз айының соңы еді, Гебру үлкен тілдік модельдер туралы жаңа ғылыми мақала жазуға, олардың барлық тәуекелдерін жинақтап шығуға асық болды. Интернетті ақтарып отырып, ол мұндай мақаланың әлі жоқ екенін түсінді. Тапқаны тек Бендердің твиттері болды. Гебру Бендерге Twitter-де тікелей хабарлама жіберді. Лингвист үлкен тілдік модельдердің этикалық мәселелері туралы бірдеңе жазған ба?

Google ішінде Гебру мен Митчелл бастықтарының тілдік модельдердің қауіп-қатеріне мән бермейтінін байқап, жігерлері құм болды. Мысалы, 2020 жылдың соңында олар Google-дың қырық қызметкерінің үлкен тілдік модельдердің болашағын талқылау үшін өткен маңызды кездесуі туралы естіді. Этика мәселесін өнім менеджері жүргізді. Гебру мен Митчеллді ешкім шақырмаған еді.

Бендер Гебруға мұндай мақала жазбағанын айтты, бірақ бұл сұрақ екеуінің арасында үлкен тілдік модельдер тудыруы мүмкін мәселелер, әсіресе алалаушылық төңірегінде қызу әңгіме тудырды. Бендер бірлесіп мақала жазуды ұсынды, бірақ олар асығуы керек еді. Жақында ЖИ әділдігі бойынша конференция өткелі жатты және олар өтінім беру мерзіміне үлгеруі тиіс болды.

Олар идеяларын біріктіре бастады және өз жобаларын «тас сорпасы» мақаласы деп атады (бұл атау әрбір адам ингредиент қосу арқылы тамақ дайындайтын ертегіден алынған). Бұл жағдайда олар сорпа емес, жаңа индустрияға мұқият тексеру (due diligence) жүргізді. Бендер жоспарды сызды, ал Гебру, Митчелл, Бендердің бір студенті және Google-дың тағы үш қызметкері оның бөлім тақырыптарының астына мәтіндерді жазды. Мақаланы Бендердің үйлестіруі қисынды еді. Ол қоңырауды тыңдап тұрып, бір уақытта электрондық хат жаза алатын адамдардың бірі болатын. «Ол басында бірнеше диалогты қатар ұстай алады», — дейді Митчелл. Топ Twitter мен электрондық пошта арқылы пікір алмасып, бүкіл мақаланы санаулы күндердің ішінде дайындап шықты. Нәтижесінде тілдік модельдердің қоғамдық алалаушылықты күшейтетіні, ағылшын тілінен басқа тілдерді жеткіліксіз көрсететіні және барған сайын жабық болып бара жатқаны туралы өсіп келе жатқан дәлелдердің он төрт беттік кең жиынтығы пайда болды.

Бендер, Гебру және Митчелл бұл модельдердің қаншалықты құпия болып кеткеніне қатты ренжіді. OpenAI GPT-1-ді іске қосқанда, ол өзінің моделін оқыту үшін қандай деректерді пайдаланғаны туралы барлық мәліметтерді берген болатын, мысалы, жеті мыңнан астам жарияланбаған кітабы бар BooksCorpus деректер қорын атаған.

Бір жылдан кейін GPT-2 шыққанда, OpenAI ақпарат беруде сараңдық таныта бастады. Ол деректердің сипаты туралы салыстырмалы түрде түсінікті мәлімет берді — мысалы, оны кемінде үш «upvote» (қолдау дауысын) алған Reddit жазбаларындағы сілтемелерден жиналған WebText деректер жиынтығында оқытқанын айтты — бірақ іріктелген деректер жиынтығының өзін жарияламады.

OpenAI-дің оқыту деректері туралы ақпарат 2020 жылдың маусымында GPT-3 шыққанда тіпті бұлыңғыр бола түсті. Компания деректердің 60 пайызы Common Crawl-дан алынғанын айтты, бірақ бұл деректер жиынтығы өте үлкен, BooksCorpus-тан ондаған мың есе үлкен және бір триллионнан астам сөзден тұрады. Бұл жиынтықтың нақты қай бөліктері пайдаланылды және деректер қалай сүзгіден өтті? GPT-2 кезінде OpenAI кем дегенде деректер жиынтығының қалай құрылғаны туралы айтқан болса, енді GPT-3-ке келгенде тіпті жұмған аузын ашпады.

Неге? Ол кезде OpenAI көпшілік алдында пропагандистер мен спамерлер сияқты «қаскөйлерге» нұсқаулық бергісі келмейтінін айтты. Бірақ бұл деректерді жасырын ұстау OpenAI-ге Google, Facebook немесе Anthropic сияқты басқа компанияларға қарсы бәсекелестік артықшылық берді. Сонымен қатар, егер GPT-3-ті оқыту үшін авторлық құқықпен қорғалған белгілі бір кітаптар пайдаланылғаны белгілі болса, бұл компанияның беделіне нұқсан келтіріп, сот істеріне жол ашуы мүмкін еді (шын мәнінде, OpenAI қазір сондай соттармен күресіп жатыр). Егер ол компания ретіндегі мүдделерін және АЖИ (AGI) құру мақсатын қорғағысы келсе, OpenAI есіктерді жабуы керек еді.

Бақытқа орай, GPT-3-тің барлық осы құпиялылықтан назарды басқа жаққа бұратын тамаша қасиеті болды. Оның дыбысы адамға ұқсайтыны сонша, оны сынап көргендердің көбін баурап алды. Блейк Лемойнді LaMDA-ның санасы бар екеніне сендірген сол еркін, әңгімелесуші қасиеттер GPT-3-те тіпті айқынырақ болды және олар соңында беті қалқып шыға бастаған алалаушылық мәселелерінен назарды басқа жаққа бұруға көмектесті. OpenAI әсерлі сиқыр көрсетіп жатқандай еді. Ауада қалықтаған көмекшінің классикалық трюкі сияқты, көрермендер қалқып жүрген денеге таң қалғаны сонша, сахна артындағы жасырын сымдар мен басқа да механизмдердің қалай жұмыс істейтінін сұрауды ойламады да.

Бендер GPT-3 және басқа да үлкен тілдік модельдердің алғашқы пайдаланушыларды негізінен «жақсартылған автотүзету» бағдарламасымен таң қалдырып жатқанына төзе алмады. Сондықтан ол мақаланың тақырыбына «стохастикалық попугайлар» (ықтималдық заңдылықтарына сүйеніп, мағынасын түсінбестен сөздерді қайталайтын жүйе) деген тіркесті қосуды ұсынды, бұл машиналардың жай ғана өз оқу деректерін қайталап жатқанын баса көрсету үшін керек еді. Ол және басқа авторлар OpenAI-ге өз ұсыныстарын жинақтап берді: тілдік модельдерді оқыту үшін қолданылатын мәтіндерді мұқият құжаттау, олардың шығу тегін ашу және қателіктер мен алалаушылықтар бар-жоғын қатаң тексеру (аудит).

Гебру мен Митчелл мақаланы Google-дың ішкі тексеру процесі арқылы қарауға тез арада жіберді, ол жерде компания өз зерттеушілерінің құпия материалдарды жариялап жібермеуін қадағалайтын. Рецензент бәрі жақсы екенін айтты, ал олардың менеджері рұқсат берді. Барлық ережелерді сақтау үшін Гебру мен Митчелл мақаланы Google ішіндегі және одан тыс жердегі тағы жиырмадан астам әріптесіне жіберді, сондай-ақ компанияның қоғаммен байланыс тобына ескерту жасады. Бұл, сайып келгенде, Google-дың өзі де жасап жатқан технологияны сынау еді. Олар конференцияға өтінім беру мерзіміне дәл уақытында үлгерді.

Содан кейін бір оғаш нәрсе болды. Мақала жіберілгеннен кейін бір ай өткен соң, Гебру, Митчелл және олардың Google-дағы авторлас әріптестері Google басшыларымен кездесуге шақырылды. Оларға мақаланы кері қайтарып алу немесе одан өз есімдерін алып тастау бұйырылды.

Гебру есеңгіреп қалды. «Неге? » — деп сұрады ол (Гебруның желіде жарияланған жазбаша мәлімдемесіне сәйкес). «Бұл бұйрық кімнен келіп тұр? Нақты ненің проблема екенін және нені өзгертуге болатынын түсіндіре аласыз ба? » Әрине, олар мақаладағы кез келген қатені түзете алар еді.

Басшылар басқа анонимді рецензенттердің мұқият тексеруінен кейін мақаланың жариялау деңгейіне сай келмейтінін айтты. Олардың пікірінше, мақала үлкен тілдік модельдердің мәселелері туралы тым пессимистік бағытта жазылған. Сондай-ақ, 158 дереккөзі бар салыстырмалы түрде үлкен библиографияға қарамастан, олар мұндай модельдердің тиімділігін немесе алалаушылық мәселелерін шешу үшін жасалып жатқан жұмыстарды көрсететін басқа зерттеулерді жеткілікті түрде қоспаған. Google-дың тілдік модельдері мақалада сипатталған барлық зиянды салдарларды «болдырмау үшін жасалған». Бастықтар Гебруға шешім қабылдау үшін бір апта уақыт берді, соңғы мерзім Алғыс айту күнінен кейінгі күнге белгіленді.

Гебру мәселені шешуге тырысып, жоғары лауазымды бастықтарының біріне ұзақ электрондық хат жазды. Жауап мынадай болды: мақаланы кері қайтарып алу немесе одан Google туралы кез келген ескертуді алып тастау. Гебруның шыдамы таусылды. Ол өзінің соңғы шартын (ультиматум) қойып жауап жазды. Егер Google оның рецензенттерінің кім екенін ашып, тексеру процесін ашық етсе, ол мақаладан өз есімін алып тастауға келісті. Егер бұл орындалмаса, Гебру өз командасымен қоштасуға уақыт тапқан соң жұмыстан кететінін айтты.

Гебру компьютеріне отырып, өз наразылығын «Google Brain Women and Allies» (Google Brain әйелдері және одақтастары) деп аталатын топқа жіберілген жалынды хатта білдірді: «Менің айтқым келгені — өз құжаттарыңызды жазуды тоқтатыңыздар, өйткені бұл ештеңені өзгертпейді», — деп жазды ол. Google-дың әртүрлілік пен инклюзивтілік бойынша мақсаттарына жетуге тырысудың еш мәні жоқ, «өйткені бұл жерде ешқандай жауапкершілік жоқ». Гебру өзінің аузын буып тастағандарына және мақалада ескерткен мәселелерінің — алалаушылық пен азшылық топтарды шеттетудің — дәл қазір Google ішінде өзінің басына туып тұрғанына сенімді болды. Ол өзін дәрменсіз сезінді.

Келесі күні Гебру поштасынан жоғары тұрған бастығынан хат тапты. Гебру ресми түрде жұмыстан кету туралы өтініш бермеген еді, бірақ Google бәрібір оны қабылдады.

«Сіздің жұмысыңыздың аяқталуы хатыңызда көрсетілгеннен ертерек болуы тиіс», — деп жазды олар Wired мәліметінше.

Гебру Twitter-де өзінің жұмыстан шығарылғанын жариялады, Бендер мен Митчелл бұл туралы осылай білді. Google осы күнге дейін Гебру өз еркімен кетті деп есептейді.

Бендердің бұған өз түсіндірмесі бар: «Оны өз еркімен кеткіздіріп тастады (She got resignated)», — дейді ол.

Митчелл Лос-Анджелестегі анасының үйінде болған еді, ол және команданың қалған мүшелері болған жағдайды талқылау үшін Тынық мұхиты уақытымен түнгі сағат 11:00-де Google Meet бейнеқоңырауына жиналды. «Айтарға сөз көп болмады», — деп еске алады Митчелл. Олар есеңгіреп қалған еді.

Google-да жұмыс істеп жүргенде Гебру «бетке басатын, даукес» деген атпен танымал болған. Оның әріптестерінің бірі ішкі хат алмасу тізіміне мәтін тудыратын жаңа жүйе туралы жазғанда, Гебру бұл жүйелердің нәсілшілдік контент шығаратыны белгілі екенін атап өткен. Басқа зерттеушілер бастапқы жазбаға жауап беріп, оның пікірін елемей қалдырды. Гебру оларды бірден жауапқа тартты. Ол оларды елемегені үшін айыптап, қызу дау тудырды. Енді Гебру әлеуметтік желілерде және баспасөзде технология саласындағы азшылық дауыстардың шеттетілуіне қарсы қайтадан күресіп жатты.

Митчелл мақалада авторлардың қайсысының есімін қалдыру керектігін шешуі керек болды. Оның үш еркек әріптесі бәрібір көп үлес қоспағандарын айтып, есімдерін алып тастауды сұрады. «Олар біз сияқты мақаланың өзектілігін соншалықты қатты сезінген жоқ», — деп еске алады Митчелл. Нәтижесінде төрт әйелдің есімі қалды, оның ішінде біреуі «Шмаргарет Шмитчелл» (Shmargaret Shmitchell) деп жазылды.

Бірнеше айдан кейін Google Митчеллді де жұмыстан шығарды. Компания оның «мінез-құлық кодексін, сондай-ақ қауіпсіздік саясатын бірнеше рет бұзғанын, соның ішінде құпия, іскерлік маңызды құжаттарды сыртқа шығарғанын» айтты. Сол кездегі баспасөз мәліметтеріне сәйкес, Митчелл компаниядағы кемсітушілік оқиғаларын құжаттау үшін өзінің корпоративтік Gmail аккаунтынан жазбаларды алуға тырысқан. Митчелл бұл оқиғаның өз тарапын айта алмайды, өйткені бұл заңды түрде өте сезімтал мәселе.

«Стохастикалық попугайлар» мақаласы өз жаңалықтарымен әлемді таң қалдырған жоқ еді. Ол негізінен басқа зерттеу жұмыстарының жиынтығы болатын. Бірақ жұмыстан шығару туралы хабар тарап, мақала желіге тарап кеткенде, ол өз алдына бөлек өмір сүре бастады. Google Стрейзанд эффектісіне (ақпаратты жасыруға тырысу оның одан әрі таралуына әкелетін құбылыс) тап болды: баспасөз компанияның мақаламен кез келген байланысты өшіру әрекетіне шүйлігіп, оған авторлар күткеннен де көп назар аудартты. Бұл газеттер мен сайттарда ондаған мақалалардың шығуына, басқа зерттеушілердің мыңнан астам сілтеме жасауына себеп болды, ал «стохастикалық попугай» тіркесі үлкен тілдік модельдердің шектеулерін сипаттайтын қанатты сөзге айналды. Сэм Олтмен кейінірек ChatGPT шыққаннан кейін бірнеше күннен соң: «Мен стохастикалық попугаймын, сен де сондайсың», — деп твит жазды. Олтмен бұл мақаланы келемеждегенімен, ол ақыры үлкен тілдік модельдердің шынайы өмірдегі қауіп-қатерлеріне назар аудартты.

Сырт көзге Google-дың ЖИ-ге көзқарасы «жамандық жасамау» сияқты көрінетін. Ол 2018 жылы бетті тану қызметтерін сатуды тоқтатты, Гебру мен Митчеллді жұмысқа алды және осы тақырыптағы конференцияларға демеушілік жасады. Бірақ оның екі этика көшбасшысын кенеттен, түсініксіз түрде жұмыстан шығаруы Google-дың әділдік пен әртүрлілікке деген адалдығының әлсіз екенін көрсетті. Компанияда басында-ақ азшылық өкілдері өте аз болатын, енді олар тілдік технологияның қауіптері туралы дауыс көтергенде, Google олармен бұрынғы сәтсіз этика кеңестері немесе гориллалар жанжалы сияқты әрекет етті: олардың үнін өшірді.

Қаржылық тұрғыдан алғанда, Alphabet-тің бұл этикалық жұмыстардың акционерлер алдындағы міндеттеріне кедергі келтіруіне және технологияның ең қызықты жаңа салаларының бірін шектеуіне ешқандай негізді себебі болған жоқ. Траснформер ЖИ эволюциясындағы жаңа кезеңді бастады, ол тек жеделдеу бағытында болды.

Тілдік модельдер неғұрлым қабілетті болған сайын, оларды жасаушы компаниялар реттеусіз, еркін жұмыс істей берді. Заң шығарушылар алда не күтіп тұрғанын білмек түгілі, оған мән де бермеді. Академиялық зерттеушілер технологияның толық бейнесін көре алмады. Баспасөз бұл жүйелердің азшылық топтарға қалай зиян тигізетіні немесе оның бірнеше ірі компанияның бақылауында болуының салдарынан гөрі, ЖИ-дің бізді жақсы көргісі келетініне немесе өлтіргісі келетініне көбірек көңіл бөлгендей болды. Үлкен тілдік модельдерді жасаушылардың еш кедергісіз жұмыс істеп, гүлденуі үшін барлық жағдай жасалған еді.

Wall Street Journal Microsoft-тың 2019 жылғы OpenAI-ге салған инвестициясы туралы жазғанда, Брокман газетке «технология әдетте байлықтың бір жерге шоғырлануына әсер етеді» және АЖИ (AGI) мұны келесі деңгейге көтеретінін мойындады. «Сізде өте аз адам иелік ететін немесе бақылайтын, орасан зор құндылық тудыра алатын технология бар», — деді ол.

OpenAI-дің жаңа пайдасы шектелген құрылымы мұның алдын алуға арналған еді, деп қосты ол. Бірақ шын мәнінде, OpenAI-дің қаржылық қолдаушылары өз инвестицияларынан қомақты пайда көріп, компания мен Microsoft-қа өздері бастаған жаңа нарықта үстемдік етуге көмектесетін болады.

Фармацевтикалық компания жаңа дәріні клиникалық сынақтарсыз шығарып, оны қалың жұртшылыққа сынап жатырмыз десе не боларын елестетіп көріңізші. Немесе тағам өндіретін компания ешқандай тексерусіз эксперименттік консервантты қолданысқа енгізсе ше? Ірі технологиялық фирмалар үлкен тілдік модельдерді (мәтінді түсінуге және жасауға қабілетті күрделі жасанды интеллект жүйелері) дәл осылай халыққа тарата бастады. Мұндай қуатты құралдардан пайда табу жарысында олар бағынатын ешқандай реттеуші стандарттар болған жоқ. Қауіп-қатерлерді осы фирмалардың ішіндегі қауіпсіздік пен этика зерттеушілері зерттеуі керек еді, бірақ олардың ықпалы шамалы болды. Google-де олардың басшылары жұмыстан шығарылды. DeepMind-та олар зерттеу тобының өте аз бөлігін ғана құрады. Күн өткен сайын нақты бір сигнал күшейе түсті: «Одан да үлкен нәрсені құру миссиясына қосыл немесе кет».

4-АКТ ЖАРЫС

13-ТАРАУ Сәлем, ChatGPT

Редмондтағы (Вашингтон штаты) суық әрі желі азынаған ақпанның түс қайтқан уақыты еді. Сома Сомасегар Microsoft штаб-пәтерінің жылы ғимаратына кіріп, қабылдау бөлімінен келушінің уақытша бейджін алды. Сомасегар — жиырма алты жыл бойы Microsoft-та еңбек етіп, Windows немесе басқа да өнімдерге бағдарлама жазу үшін бағдарламашылар қолданатын барлық құралдарды қадағалайтын әзірлеушілер бөлімін басқаруға дейін көтерілген, салмақты әрі ақкөңіл инженер. 2015 жылы ол венчурлық капиталист (стартаптарға инвестиция құюшы) болу үшін жұмыстан кетіп, жаңа компанияларды қаржыландырумен және оларға Microsoft пен Amazon сияқты алпауыттарға қалай тиімді сатылу керектігі туралы кеңес берумен айналысты. Бірақ ол Microsoft-тың әрбір қадамы бүкіл индустрияға әсер ететінін білетіндіктен, ескі «аналық кемемен» байланысын үзбейтін, сондай-ақ Microsoft-тың бас директоры Сатья Наделланы өз досы санайтын.

2022 жылдың сол бір ақпан айында ол Наделланың әдеттегіден қаттырақ толқып жүргенін байқады. Microsoft алдағы бірнеше айда бағдарламалық жасақтама әзірлеушілеріне жаңа құрал ұсынуға дайындалып жатыр еді. Бұл Сомасегарға өте таныс сала болатын. Бір кездері сыртқы әзірлеушілерге көмектесу оның күнделікті жұмысы еді. Бірақ бұл кодтағы қателерді іздейтін дебагтау (бағдарламадағы ақауларды тауып, жою процесі) құралы немесе Microsoft жүйелерімен біріктірілетін кезекті тетік емес еді. Бұл әлдеқайда таңғаларлық нәрсе болатын. Жаңа құрал GitHub Copilot деп аталды және ол бағдарламашыларға үлкен ақша төленетін жұмысты атқара алатын. Ол код жаза алатын.

GitHub — Microsoft-тың бағдарламашыларға өз кодтарын сақтауға және басқаруға көмектесетін онлайн қызметі, ал Copilot болса... Шыны керек, Сомасегар басында Наделланың түсіндірмесін онша түсінбеді, өйткені ол «ойын ережесін өзгертуші», «феноменалды» және «О, Құдайым» деген сияқты сөздерді қайталаумен болды. Ол Наделланы бұрын-соңды мұндай әсерленген күйде көрмеген.

Ақыр соңында ол Copilot-тың код жазуға арналған көмекші екенін және Microsoft оны әзірлеушілер арасында танымал Visual Studio бағдарламасына біріктіріп жатқанын түсінді. Сіз код жаза бастағанда, Copilot келесі жол үшін бірнеше нұсқаны ашық түспен ұсынады. Бұл автотолтыру (сөзді немесе кодты соңына дейін болжап жазу) сияқты, бірақ бағдарлама құруға арналған. Егер әзірлеушілер Copilot жазған нұсқаны қабылдағысы келсе, жай ғана Tab пернесін басады. Ол кодтың тұтас блоктарын, тіпті қолданбаға кіру сияқты функциялардың бірнеше жолдан тұратын толық нұсқасын жаза алатын.

Microsoft әлі де әзірлеушілерден кері байланыс жинап жатты және жүйенің тек алдын ала нұсқасын ғана іске қосқан еді. Бірақ Наделланың айтуынша, бағдарламашылар Copilot арқасында жұмыстың жылдамдағанын байқаған, өйткені ол кодтың 20 пайызына дейін өзі жазып берген. Бұл өте үлкен көрсеткіш еді.

Copilot OpenAI-дың Codex деп аталатын жаңа моделіне негізделген. Оның дизайны GPT-3. 5 тілдік моделіне ұқсас және ол әлемдегі ең ірі код қоймаларының бірі GitHub-та оқытылған. Copilot арқылы OpenAI трансформердің (мәтін немесе деректердің өзара байланысын түсінуге негізделген нейрондық желі архитектурасы) әртүрлі деректер арасындағы байланысты анықтау үшін «назар аудару» механизмін қолданғанда қаншалықты әмбебап болатынын көрсетті. Бұл деректерді жұлдыздар галактикасына айналдыратын карта жасау құралы сияқты болды. Мысалы, егер әрбір жұлдыз бір сөз болса, трансформер әртүрлі сөздер мен мағынасы ұқсас сөздердің арасындағы жолды сызды. Ол деректің сөз немесе суреттегі пиксель болуы маңызды емес еді. Осы қарым-қатынастардың ішіндегі заңдылықтарды тани отырып, трансформерлер мәтін, код немесе тіпті сурет болсын, үйлесімді жаңа деректерді жасауға көмектесе алды.

Google трансформерді код жазуға OpenAI сияқты ауқымды түрде қолданып көрмеген еді. «Бұл олардың кезекті қателігі болды, ал OpenAI мұны дұрыс істеді», — дейді Google мен OpenAI-да жұмыс істеген АИ кәсіпкері Аравинд Сринивас. «Егер бұл модельдер код үшін алдын ала оқытылса, олар логикалық пайымдауға әлдеқайда бейім бола бастайды».

Себебі кодтау — бұл қадам-қадаммен ойлау дағдысы. «Егер мектепте балаңыз математика мен кодтауға жақсы болса, сіз ол баланы жалпы алғанда ақылдырақ деп және күрделі нәрселерді бөлшектерге бөліп, қорытынды шығару қабілеті бар деп күтесіз», — дейді Сринивас. «Үлкен тілдік модельдерден де біздің күтетініміз осы».

Бұл тек тіл мен жарнамаға көңіл бөлетін Google басшылары үшін ақылға қонымсыз болып көрінген шығар. Бірақ Microsoft бағдарламалық жасақтаманың патшасы болғандықтан, әзірлеушілерге арналған құралдарды жасауды әлдеқайда маңызды деп санады. OpenAI үшін бақытқа орай, өз модельдерін кодтауға үйрету тек жаңа серіктесін қуантып қана қойған жоқ, сонымен қатар оның модельдерін ақылдырақ етті.

Сомасегар Наделладан Сэм Альтман туралы не ойлайтынын сұрады. «Ол жаһандық мәселелерді шешуге мән береді», — деп жауап берді Наделла. Альтманның Наделламен талқылайтын тақырыптарының ауқымы өте кең болды, бұл Наделланың онымен жұмыс істеуге деген ынтасын тіпті арттыра түсті. Альтманның амбициялары неғұрлым ессіз және утопиялық болса, Наделла бұл жігіттің Microsoft-тың өсуіне көмектесетініне соғұрлым көбірек сенетін сияқты көрінді.

AGI (Жасанды жалпы интеллект — кез келген зияткерлік тапсырманы адам деңгейінде орындай алатын ЖИ) құру идеясы бір кездері ЖИ саласындағы оғаш теория болатын, бірақ енді ол бағдарламалық алпауыт үшін нарықтық концепцияға айналып бара жатты. Ол Microsoft-қа жақсырақ кестелік редактор құруға көмектесуі мүмкін еді, бірақ одан да үлкен мақсат бар болатын: Microsoft-тың барлық бағдарламалық жасақтамасын әлдеқайда ақылды ететін құралдар жиынтығын жасау.

GitHub Copilot Наделланың санасында бетбұрысты оқиға болды. «Мұнда сіз әлемді өзгертетін дайын қызметті көре алдыңыз», — дейді Сомасегар, әсіресе ол бағдарламалық жасақтаманың басқа түрлеріне де қолданыла бастағанда. Осыны түсінген бойда Наделла мен оның бас техникалық директоры Кевин Скотт Microsoft ішінде ЖИ-ді насихаттай бастады. Олар бұл технологияны әрбір өнім тобының шолуында немесе өнім туралы шешім қабылдарда көтеретін. Неге сіздің командаңыз ЖИ-ді қолданбайды? Бар күшіңізді ЖИ-ге салыңыз және мүмкіндігінше OpenAI модельдерін пайдаланыңыз.

Бұл Microsoft Research бөлімінде көптеген жылдар бойы ЖИ модельдерімен жұмыс істеп келген жүздеген мамандардың наразылығын тудырды. Баспасөз хабарламалары мен осы сынды естіген бірнеше ЖИ зерттеушілерінің айтуынша, Наделла команда менеджерлерін OpenAI-дың әлдеқайда аз жұмыс күшінің стандарттарына сай келмегені үшін сөкті.

«OpenAI мұны 250 адаммен жасады», — деді Наделла Microsoft Research басшысына The Information басылымының мәліметінше. «Бізге Microsoft Research-тің мүлдем қажеті бар ма? »

Сондай-ақ ол өз зерттеушілеріне «іргелі модельдерді» немесе OpenAI-дың GPT модельдері сияқты ірі жүйелерді құруды тоқтатуды бұйырды, дейді ЖИ саласындағы аға ғалымдардың бірі. Кейбір қызметкерлер наразылық ретінде жұмыстан кетіп қалды.

Бірақ тіпті олардың өзі Copilot-тың бағдарламашыларға жаңа код жазуға және бұрыннан бар кодпен тезірек жұмыс істеуге көмектесетін таңғажайып құрал екенін мойындауға мәжбүр болды. Наделла Copilot сөзін Microsoft қызметтерінің кең ауқымына қолданып, OpenAI тілдік модельдерін адамдардың электрондық хаттарды жазу және кестелер құру тәсілін жақсарту үшін пайдалануды жоспарлады.

2022 жылдың басындағы Сомасегар мен Наделланың кездесуінен бірнеше апта өткен соң, OpenAI GPT-3-тің жетілдірілген нұсқаларын сынай бастады. Ол модельдерге тарихтағы атақты өнертапқыштардың есімін берді: Ада, Бэббидж, Кюри және ДаВинчи. Уақыт өте келе бұл модельдер бұрынғыдан да күрделі сұрақтарды өңдеп, дербестендірілген жауаптар бере алатын деңгейге жетті. Жалпы алғанда, бұл бағдарламалық жасақтаманың қаншалықты күрделі болып бара жатқаны халыққа әлі белгісіз еді. Бұл жағдай 2022 жылдың сәуірінде, OpenAI GPT-3-тің тілдік мүмкіндіктерін визуалды әлемге әкеліп, өзінің алғашқы үлкен жаңалығын жұртшылыққа жариялағанда өзгере бастады.

Компанияның Сан-Францискодағы кеңсесінің бір бұрышында OpenAI-дың үш зерттеушісі екі жыл бойы сурет салу үшін диффузиялық модельді (кескінді кездейсоқ шудан біртіндеп тазарту арқылы жасау әдісі) пайдалануға тырысып келген еді. Диффузиялық модель кескінді керісінше жасау арқылы жұмыс істейді. Суретші сияқты бос кенептен бастаудың орнына, ол түрлі түстер мен кездейсоқ бөлшектерге толы былыққан кенептен бастайды. Модель деректерге көптеген «шу» немесе кездейсоқтық қосып, оны танымастай етеді, содан кейін қадам-қадаммен барлық шуды азайтып, кескіннің бөлшектері мен құрылымын баяу шығарады. Әр қадам сайын сурет, бейнебір суретші өз туындысын өңдеп жатқандай, анық әрі егжей-тегжейлі бола түседі. Бұл диффузиялық тәсіл CLIP деп аталатын кескіндерді белгілеу құралымен үйлесіп, зерттеушілер DALL-E 2 деп атаған қызықты жаңа модельдің негізіне айналды.

Атауы 2008 жылғы Жер планетасынан қашқан робот туралы «ВАЛЛ-И» анимациялық фильміне және сюрреалист суретші Сальвадор Далиге құрмет ретінде берілген. DALL-E-нің суреттері кейде сюрреалистік болып көрінгенімен, құралдың өзі оны бірінші рет көргендер үшін керемет болды. Егер сіз «авокадо пішінді орындық» сияқты мәтіндік сұраныс жазсаңыз, сіз дәл соның бірнеше суретін аласыз, олардың көбі таңғаларлықтай шынайы болады. Суреттер тіпті ең күрделі сұраныстардың өзін соншалықты дәл бейнелегені сондай, іске қосылғаннан кейін бірнеше күн ішінде DALL-E 2 Twitter-де трендке айналды. Пайдаланушылар бірінен-бірі асып түсу үшін ең оғаш суреттерді жасауға тырысты: «Токиоға шабуыл жасаған сомбреро киген гадзилла-атжалман» немесе «Мордорда жалаңаш кеудемен кезіп жүрген мас жігіттер». Адамның бет-әлпеті жиі бұрмаланып көрінетін, бірақ бұл суреттердің бұрын компьютер жасаған кез келген нәрседен әлдеқайда егжей-тегжейлі болғанын жоққа шығара алмайсыз. Кенеттен OpenAI жаңалықтардың ортасында қалды, өйткені халық алғаш рет оның не істей алатынын сезінді.

Google мұндай инновацияларды құпия сақтауды жөн көрсе де, Альтман мүмкіндігінше көп адамның OpenAI-дың жаңа туындысын қолданып көргенін қалады. Кремний алқабының стартап ақылшысы ретінде ол кәсіпкерлерге өз өнімдерін әлемге тезірек шығаруға кеңес беріп келген. Технологтар мұны кейде «сoяутікeн it» (өнімді тездетіп шығару) стратегиясы немесе «минималды өміршең өнімді» шығару деп атайды. Идея біреу: бағдарламаны пайдаланушылардың қолына мүмкіндігінше тез тигізіп, өзің мен олардың арасында кері байланыс орнату, негізінен халықты сынақ нысаны ретінде пайдалану. Бұл Facebook, Uber және Stripe сияқты алпауыттардың негізіне айналған қағида еді және Альтман оның адал жақтаушысы болды. Өнімді сынаудың ең жақсы жолы — оны еркіне жіберу.

Келесі бірнеше айда OpenAI DALL-E 2-ні біртіндеп енгізе бастады, алдымен жүйе балағат немесе зиянды суреттер жасамауы үшін шамамен бір миллион адамнан тұратын күту тізіміне рұқсат берді. Бес айдан кейін, OpenAI-дың GPT-2 әлемге қауіп төндірмейді деген «Уф, бәрі жақсы екен» деген қорытындысына ұқсас, олар DALL-E 2-ні кез келген адамға ашып қойды.

DALL-E 2 ашық интернеттен жиналған миллиондаған суреттерде оқытылды, бірақ бұрынғыдай OpenAI оның нақты не нәрседе оқытылғанын ашып айтпады. Ол Пикассо стиліндегі суреттерді сәтті салғанда, бұл оқу процесіне Пикассоның туындылары да қосылғанын білдіретін. Бірақ мұны нақты білу қиын еді. Басқа, танымал емес суретшілердің еңбектері де жүйені үйрету үшін скрейпинг (интернеттен деректерді автоматты түрде жинау) жасалғанын білу мүмкін болмады, өйткені OpenAI оқу деректері туралы мәліметтерді жарияламай, бұл ақпарат қаскөйлердің модельді көшіріп алуына мүмкіндік береді деп уәж айтты.

Мұны өз басынан өткергендердің бірі — азулы, от шашатын айдаһарлар мен сиқыршылардың фантастикалық пейзаждарымен танымал поляк цифрлық суретшісі Грег Рутковский болды. Оның есімі DALL-E 2-нің бәсекелесі, ашық бастапқы коды бар Stable Diffusion моделіндегі ең танымал сұраныстардың біріне айналды. Бұл алаңдатарлық жайтты тудырды: егер Рутковский стиліндегі өнерді бағдарлама арқылы тегін жасауға болса, Рутковский сияқты суретшіге жаңа туынды үшін неге ақша төлеу керек?

Адамдар DALL-E 2-дегі тағы бір мәселені байқай бастады. Егер сіз одан бас директорлардың (CEO) бірнеше шынайы суретін салуды сұрасаңыз, олардың барлығы дерлік ақ нәсілді ер адамдар болып шығатын. «Медбике» сұранысы тек әйелдердің суреттерін, ал «заңгер» тек ер адамдардың суреттерін жасады.

Альтманнан 2022 жылдың сәуіріндегі сұхбатта осы мәселе туралы сұралғанда, ол бұл мәселенің бар екенін мойындап, OpenAI онымен жұмыс істеп жатқанын айтты. Олар мұны істеудің бір жолы ретінде DALL-E 2-ге қатыгездік немесе порнографиялық суреттерді жасауға тыйым салды және оқу деректерінен мұндай кескіндерді алып тастады.

Сондай-ақ олар модельді дұрыс жауаптарға бағыттау үшін Кения сияқты дамушы елдердегі адам-мердігерлерді жалдады. Бұл өте маңызды еді, өйткені бұл OpenAI GPT-3 немесе DALL-E 2 сияқты модельді оқытып болғаннан кейін де, оны адам-рецензенттердің көмегімен нәзік баптаудан (дайын модельді нақты тапсырмаларға бейімдеу) өткізе алатынын білдірді. DALL-E 2-нің жауаптарын «жақсы» немесе «жаман» шкаласы бойынша бағалау арқылы адамдар оны жалпы алғанда жақсырақ жауаптарға бағыттай алды.

Бірақ бұл рецензенттердің бағалауы әрқашан бірізді бола бермеді, ал DALL-E 2-нің оқу деректерінен проблемалық суреттерді тазалау «тышқан қуу» ойыны сияқты шексіз процесс болды. Басында OpenAI зерттеушілері DALL-E 2 әйелдерді тек сексуалды нысан ретінде көрсетпеуі үшін оқу жинағынан барлық сексуалдық сипаттағы суреттерді алып тастауға тырысты. Бірақ бұл шешімнің өз құны болды: OpenAI-дың сол кездегі зерттеу және өнім бөлімінің басшысы Мира Муратидің айтуынша, бұл деректер жиынындағы әйелдер санын «айтарлықтай» азайтты. Ол нақты қанша екенін айтпады. «Біз түзетулер енгізуге мәжбүр болдық, өйткені модельді лоботомия (мидың бір бөлігін алып тастау арқылы қабілетін шектеу) жасағымыз келмейді. Бұл өте күрделі нәрсе».

DALL-E 2-нің фотореалистік бет-әлпеттері стереотиптер тұрғысынан ең қауіпті тұсы болды және OpenAI бұл мәселені толық сезінгендей көрінді. Олар жүйені ішкі төрт жүз адамдық топ — негізінен OpenAI және Microsoft қызметкерлері — сынақтан өткізе бастағанда, оларға DALL-E 2 жасаған кез келген шынайы портретті көпшілікпен бөлісуге тыйым салды.

OpenAI-дың кейбір қызметкерлері жалған фотосуреттер жасай алатын құралды шығару жылдамдығына алаңдады. Қауіпсіз ЖИ-ге арналған коммерциялық емес ұйым ретінде басталып, ол нарықтағы ең агрессивті ЖИ компанияларының біріне айналды. Қауіпсіздікті тексерумен айналысқан компанияның анонимді мүшелерінің бірі Wired басылымына «қазіргі уақытта зиян тигізу мүмкіндігі өте көп болса да», компания технологияны әлемге көрсету үшін ғана шығарып жатқан сияқты екенін айтты.

Бірақ Альтманның көздегені үлкенірек мақсат еді. Ол жаңа жүйені AGI-ге апаратын жолдағы маңызды межені бағындырды деп сенді. «Ол ұғымдарды шынымен түсінетін сияқты, бұл интеллект сияқты сезіледі», — деді ол бір сұхбатында. DALL-E 2 соншалықты сиқырлы болғаны сондай, AGI-ге күмәнмен қарайтындардың өзі бұл идеяға байыппен қарай бастады деп қосты ол.

Мұндағы сиқыр тек DALL-E 2-нің мүмкіндіктерінде емес еді. Бұл құралдың адамдарға тигізген әсері болатын. «Суреттердің эмоционалдық күші бар», — деді ол. DALL-E 2 үлкен шу тудырды. Және біреу бастап жазған кодты аяқтайтын GitHub Copilot-тан айырмашылығы, бұл мазмұнды басынан аяғына дейін толықтай өзі жасады. Бұл графикалық суретшіден қалаған нәрсеңізді салып беруді сұрағанмен бірдей еді.

Толық қалыптасқан мазмұнды жасау идеясы Альтманның келесі қадамын одан да сенсациялық етті. GPT-1 адам бастаған нәрсені жалғастыратын автотолтыру құралына көбірек ұқсаса, GPT-3 және оның соңғы жаңартуы GPT-3. 5, DALL-E 2-нің суретті нөлден салғаны сияқты, жаңа мәтіндерді де өздігінен тудырды.

Әлем DALL-E 2-ге таңғалып жатқанда, бәсекелес Anthropic компаниясы чат-ботпен жұмыс істеп жатыр деген қауесет тарап, бұл OpenAI-да бәсекелестік рухын оятты. 2022 жылдың қараша айының басында OpenAI менеджерлері қызметкерлерге небәрі бірнеше аптадан кейін GPT-3. 5 негізінде жасалған жеке чат-боттарын іске қосатындарын айтты. OpenAI-ға жақын адамның айтуынша, чат-ботпен жұмыс істеуге он шақты адам жиналды. Бұл екі жыл бұрын Ноам Шазир жұмыс істеген, бірақ Google құпия сақтаған Meena-дан онша ерекшеленбейтін.

OpenAI басшылығы қызметкерлерді бұл өнімді нарыққа шығару емес, «төмен деңгейдегі зерттеу нұсқасы» болатынына сендірді. Соған қарамастан, кейбір қызметкерлер құралды соншалықты тез шығаруға ыңғайсыздық білдірді. Олар жұртшылықтың мұндай жатық әрі қабілетті тілдік модельді қалай теріс пайдалануы мүмкін екенін білмеді.

Оның үстіне чат-бот жиі фактологиялық қателер жіберетін. Онымен жұмыс істейтін зерттеушілер жүйені тым сақ етпеуге шешім қабылдады, өйткені бұл оның дұрыс жауап бере алатын сұрақтардан да бас тартуына әкелді. Олар оның «Мен білмеймін» деп айтқанын қаламады. Оның орнына, олар оны тіпті өтірік айтса да, сенімдірек сөйлейтіндей етіп баптады. Олар оған ChatGPT деген ат берді.

Альтман өнімді шығаруға асықты. Ол OpenAI-дың жүздеген қызметкері ChatGPT-ді сынап, тексеріп шыққанын және адамзатты жасанды интеллекттің болашақтағы мүмкіндіктеріне үйрету маңызды екенін айтып, мұны суық бассейнге аяқты батырып көрумен теңеді. Бір жағынан, OpenAI әлемге жақсылық жасап, оны өзінің қуаттырақ, келесі моделі GPT-4-ке дайындап жатты. Ішкі сынақтарда GPT-4 тәп-тәуір өлеңдер жаза алды, ал оның әзілдері OpenAI менеджерлерін күлдіретіндей жақсы болды, дейді сол кездегі OpenAI атқарушы директоры. Бірақ олар оның әлемге немесе қоғамға қандай әсер ететінін білмеді, мұны білудің жалғыз жолы — оны қолданысқа шығару еді. Өз веб-сайтында OpenAI мұны «итеративті орналастыру» философиясы деп атады: өнімдерді қауіпсіздігі мен әсерін жақсырақ зерттеу үшін жұртшылыққа ерте шығару. Бұл адамзат игілігі үшін AGI құрудың ең жақсы жолы деп мәлімдеді компания.

2022 жылдың 30 қарашасында OpenAI ChatGPT-тің жария демо-нұсқасын хабарлайтын блог-пост жариялады. OpenAI-дағы көптеген адамдар, соның ішінде қауіпсіздікпен айналысатындардың кейбірі өнімнің шыққанынан хабарсыз еді. Кейбіреулері бір аптадан кейін оны қанша адам қолданатынына бәс тіге бастады. Ең жоғары болжам жүз мың пайдаланушы болды. Құралдың өзі жай ғана мәтін ұясы бар веб-сайт еді. Сіз ұяшыққа қалаған нәрсеңізді жазасыз, ал артындағы бот жауап береді. Ол GPT-3. 5 арқылы жұмыс істеді. Жұртшылықтың көбі OpenAI туралы, тіпті GPT-3 туралы да естімеген еді. OpenAI зерттеушілерін қосқанда ешкім де оның мүмкіндіктерін жұртқа сынауға бергенде не болатынын білмеді.

«Бүгін біз ChatGPT-ті іске қостық», — деп жазды Альтман Сан-Франциско уақытымен таңғы 11:30 шамасында Twitter-де. «Онымен мына жерде сөйлесіп көріңіз: http://chat. openai. com. »

Басында үнсіздік орнады, өйткені бағдарламашылар мен ғалымдардан тұратын шағын аудитория сайтқа кіріп, оны сынап көре бастады. Келесі бірнеше сағат ішінде олардың пікірлері Twitter-де пайда болды:

12:26 PT @MarkovMagnifico: ChatGPT-пен ойнап жатырмын [дәл қазір] және мен AGI-дің пайда болу мерзімін бүгінгі күнге ауыстырдым. 12:37 PT @AndrewHartAR: ChatGPT жаңа ғана шықты. Мен болашақты көрдім. 13:37 PT @skirano: Мүлдем ақылға сыймайды. Мен #chatGPT-ден қарапайым жеке веб-сайт жасауды сұрадым. Ол оны қалай жасау керектігін қадам-қадаммен көрсетті... содан кейін HTML және CSS қосты. 14:09 PT @justindross: Мен үшін ChatGPT сұрақтарыма жауап іздеуде Google-дан қарағанда әлдеқайда жақсы бастапқы нүкте болды. Бұл өте ессіз нәрсе. 14:29 PT @Afinetheorem: Енді үйге эссе немесе тапсырма берудің мәні қалмады.

ChatGPT туралы бірде-бір жағымсыз пікір табу қиын еді. Жалпы реакция таңданыс болды. Оны таңғаларлық еткен нәрсе тек оның жатық сөйлеуі ғана емес, білімінің кеңдігі еді. Көптеген адамдар бұрын Alexa немесе тұтынушыларға қызмет көрсету боты сияқты чат-боттарды қолданып көрген және олардың шектеулі, мүдіріп қалатын сөйлесулеріне үйреніп қалған еді. Бірақ ChatGPT кез келген нәрсеге шешен жауап бере алатын. Бұл бүлдіршінмен сөйлескеннен кейін, бірден жоғары білімі бар ересек адаммен тілдескенмен бірдей әсер қалдырды.

Келесі жиырма төрт сағат ішінде ChatGPT-ге ағылған адамдардың саны артып, оның серверлеріне салмақ түсіп, мүмкіндіктері шегіне дейін тексерілді. Енді ботты күнделікті мамандар, технологиялық қызметкерлер, маркетинг және медиа саласының өкілдері сынақтан өткізе бастады. Twitter-де (қазіргі X) шу шығаруға құмар пайдаланушылар өз эксперименттерін ChatGPT кімге ең қызықты, ақылды немесе оғаш мәтін жаздырта алатыны туралы қоғамдық жарысқа айналдырды. Бұл DALL-E 2 айналасындағы қарбаласқа ұқсас болғанымен, ауқымы әлдеқайда үлкен еді. Келесі бірнеше күнде адамдар Twitter-ді ChatGPT жазған өлеңдердің, рэптердің, ситком сахналары мен электрондық хаттардың скриншоттарына толтырды. Мәтін неғұрлым ерекше болса, соғұрлым жақсы болды.

Томас Х. Птачек есімді Twitter пайдаланушысы боттан «Киелі кітаптың (Король Яков нұсқасы) стилінде бейнемагнитофоннан арахис майы жағылған сэндвичті қалай шығару керектігін түсіндіретін аят жазуды» сұрады.

OpenAI боты бұған былай деп жауап берді:

«Және солай болды, бір адам арахис майы жағылған сэндвичтен тауқымет тартты, өйткені ол оның бейнемагнитофонының ішіне салынған еді, ал ол оны қалай шығаруды білмеді.

Және ол Жаратқанға жалбарынып: «О, Ием, мен бұл сэндвичті бейнемагнитофонымнан қалай шығарамын, өйткені ол кептеліп қалды және қозғалар емес? » — деді».

«Кешіріңіздер, мен мұндайды істей алатын технологияға күмәнмен қарай алмаймын», — деп жазды Птачек Twitter-де. Бір аптаның ішінде ChatGPT-ді миллионнан астам адам пайдаланды. Екі айдан кейін ChatGPT-дің 30 миллион тіркелген пайдаланушысы болды, бұл оны тарихтағы ең тез дамып келе жатқан онлайн-сервистердің біріне айналдырды. 2024 жылдың басына қарай апта сайын ChatGPT-ді жүз миллионға жуық адам пайдаланды. Бұған дейін бірде-бір дербес ЖИ құралы мұндай танымалдылыққа ие болмаған еді.

2023 жылдың 14 наурызында, Anthropic компаниясы өзінің Claude (Антропик компаниясы жасаған чат-бот) атты чат-ботын шығарған күні, OpenAI өзінің жаңартылған GPT-4 (мәтінді түсіну мен генерациялаудың жетілдірілген моделі) нұсқасын таныстырды. Айына 20 доллар төлеуге дайын кез келген адам бұл жаңа технологияға 2023 жылы шамамен 200 миллион доллар табыс әкелетін ChatGPT Plus жазылымы арқылы қол жеткізе алды. Ішкі ақпаратқа сүйенсек, кейбір қызметкерлер GPT-4-ті AGI (Жалпы жасанды интеллект — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) бағытындағы үлкен қадам деп есептеді.

«Машиналар мәтіндегі жай ғана статистикалық байланыстарды үйреніп жатқан жоқ», — деді Суцкевер бір сұхбатында. «Бұл мәтін іс жүзінде әлемнің проекциясы... Нейрондық желі әлемнің, адамдардың, адамзат болмысының, олардың үміттерінің, армандары мен мотивацияларының, олардың өзара әрекеттесуі мен біз жүрген жағдайлардың көбірек қырларын меңгеруде».

«Егер сізде әлем туралы бақылауларды қабылдай алатын, оларды мағыналай алатын жүйе болса — және мұны істеудің бір жолы келесіде не болатынын болжау болса — меніңше, бұл интеллектке өте жақын», — деді Альтман басқа бір сұхбатында.

Технологиялық баспасөз бұған тәнті болды. The New York Times ChatGPT-ді «жалпы жұртшылыққа ұсынылған ең жақсы жасанды интеллект чат-боты» деп атады. Жүйені сынап көрген журналистер оның жылы әрі ынталы жауаптарына таң қалды. Twitter-де кейбір технология әуесқойлары өнімділікті арттыру үшін оны электрондық хаттарды немесе басқа жұмыс құжаттарын жазуға пайдаланып жатқандарын айтып мақтанды.

Әрине, бұл ChatGPT адамдардың орнын баса ма деген тақырыпта жаңа мақалалар толқынын тудырды. Альтман подкасттар, газеттер және басқа да ақпараттық басылымдар арқылы халықтың толқуы мен алаңдаушылығына жауап беру үшін ақпараттық науқан бастады. Иә, ол кейбір жұмыс орындарын — мысалы, копирайтерлерді, тұтынушыларға қызмет көрсету операторларын және тіпті бағдарламалық жасақтаманы әзірлеушілерді — алмастыруы мүмкін екенін айтты, бірақ бұл ChatGPT және оның негізіндегі технология адам еңбегін толығымен ығыстырады дегенді білдірмейді.

«Кейбір жұмыс орындары жойылады», — деді Альтман бір сұхбатында ашық түрде. «Бірақ бүгін елестету қиын болатын жаңа, жақсырақ жұмыс орындары пайда болады». Баспасөз бен жұртшылық бұны үнсіз қабылдады, өйткені Өнеркәсіптік төңкеріс сияқты тарихи өзгерістер технологияның жұмыспен қамту саласына ауыр соққы әкелетінін көрсеткен еді. Сондай-ақ, ChatGPT сияқты генеративті ЖИ (жаңа контент жасауға қабілетті жасанды интеллект) жүйелері крипто сияқты өткінші нәрсе емес еді. ChatGPT пайдалы болды. Адамдар оның көмегімен эсселер жазып, бизнес-жоспарлар құрып, маркетингтік зерттеулер жүргізе бастады.

OpenAI ішінде қызметкерлер Өнеркәсіптік төңкеріс кезіндегі машиналық еңбек пен зауыттарға көшу де жаңа жұмыс орындары мен өмір сүру деңгейінің жоғарылауына әкелгенін алға тартып, болашақтың бұған тұрарлық екеніне өздерін сендірді. Бірақ компания ішінде өнімді әзірлеуге назар аударғандар мен қауіпсіздікке жауаптылар арасында алшақтық өсе бастады. Қауіпсіздік мамандары ChatGPT-ге түсетін зиянды сұраныстардың ағынын бақылауға тырысып жатты. АГИ-ге қарай маңызды қадамдар жасап жатырмыз деп сенген Илья Суцкевер компанияның қауіпсіздік тобымен тығызырақ жұмыс істей бастады. Соған қарамастан, OpenAI-дің өнім әзірлеу тобы ChatGPT-ді коммерцияландыруды күшейтіп, бизнестерді оның технологиясына ақылы қол жеткізуге шақырды.

Google ішінде басшылар адамдардың денсаулық немесе өнім туралы кеңес алу үшін Google-дың орнына ChatGPT-ге жүгінуі мүмкін екенін түсінді. Бұл Google үшін ең тиімді жарнамалық сұраныстар еді.

Google шынымен де нақты бәсекелестікке лайық еді. Жылдар бойы ол әрбір іздеуден барынша табыс алуға тырысып, іздеу нәтижелерін жарнамалар мен демеушілік сілтемелерге толтырып жіберді, бұл өнімді пайдалануды қиындатты. Егер адамдар ненің жарнама, ненің нақты іздеу нәтижесі екенін ажырата алмаса, компания көбірек ақша таба алатын еді.

2000-2005 жылдар аралығында Google жарнамаларды көк түсті фонмен белгілеп, олардың беттің жоғарғы жағында бір-екі сілтемеден аспауын қадағалайтын. Бірақ жылдар өте келе жарнама мен қарапайым сілтемелерді ажырату қиындай түсті. Көк түсті фон жасылға, сосын сарыға айналып, соңында мүлдем жоқ болып кетті. Жарнамалар беттің үлкен бөлігін алып, адамдар нақты нәтижелерді табу үшін ұзақ уақыт төменге айналдыруға мәжбүр болды. Бұл пайдаланушыларды қынжылтқанымен, Google бұған жол бере алды, өйткені адамдардың басқа баратын жері болмады. Әлемдегі онлайн іздеулердің 90 пайыздан астамы Google-да жасалатын.

Бірақ енді алғаш рет Google-дың жиырма жылдан астам уақытқа созылған интернет «қақпашысы» ретіндегі үстемдігіне қауіп төнді. Жылдар бойы оның негізгі табыс көзі миллиардтаған веб-беттерді сканерлеп, оларды индекстейтін және сұраныстарға сәйкес келетін жауаптарды табатын жүйе болды. Содан кейін ол сілтемелер тізімін шығаратын. Бірақ ChatGPT бос емес интернет пайдаланушыларына қызықтырақ нәрсе ұсынды: барлық ақпаратты өзі қорытып, бір ғана нақты жауап берді. Жарнамалар мен сілтемелер лабиринтінде шексіз ізденудің қажеті болмады. ChatGPT мұның бәрін сіз үшін жасады.

Мысалы, асқабақ бәлішіне қоюлатылған сүт (condensed milk) немесе буландырылған сүттің (evaporated milk) қайсысы жақсырақ екені туралы сұранысты алайық. Егер сіз ChatGPT-ден сұрасаңыз, ол қоюлатылған сүттің жақсы екені туралы егжей-тегжейлі жауап береді. Ал Google жарнамалардың, рецепттер мен мақалалардың ұзын тізімін шығарады, оларды жеке-жеке ашып оқуға тура келеді. Бір кездері Google-ды керемет еткен шексіз мүмкіндіктер енді уақытты босқа шығындауға айналды. Кремний алқабында технологтар әрқашан «frictionless» (кедергісіз — пайдаланушыға ешқандай кедергі келтірмейтін ыңғайлы тәжірибе) онлайн-тәжірибені мақсат ететін. Google-ға мұндай «кедергісіз» баламаның пайда болуы компания үшін қаржылық апатқа тең еді.

ChatGPT іске қосылғаннан кейін бірнеше апта ішінде Google басшылары компания ішінде «қызыл деңгейлі» (code red) қауіп жариялады. Компания дайын болмай қалды. 2016 жылдан бері бас директор Сундар Пичаи Google-ды «ЖИ-бірінші» (AI-first) компания деп атап келген еді. Екі жүзден аспайтын ЖИ зерттеушісі бар шағын компания бес мыңға жуық зерттеушісі бар Google-дан қалай озып кетті? OpenAI-дің бай Microsoft компаниясымен тығыз байланысы қауіпті одан сайын күшейтті.

Google-да бұрыннан LaMDA (Google әзірлеген, тілдік модельге негізделген диалогтық жүйе) — инженері «саналы» деп ойлаған ескі тілдік модель бар еді. Бірақ басшылар тығырыққа тірелді. Егер олар ChatGPT-ге бәсекелес шығарса және адамдар Google іздеу жүйесінің орнына соны пайдалана бастаса не болады? Бұл олардың Google-ға табыс әкелетін жарнамалар мен демеушілік сілтемелерді баспайтынын білдіреді.

Alphabet-тің (Google-дың бас компаниясы) 2021 жылғы 258 миллиард доллар табысының 80 пайыздан астамы жарнамадан түскен. Бұл табыстың көп бөлігі іздеу жүйесі арқылы жасалатын «әр басу үшін төлем» (pay-per-click) жарнамаларынан келді. Google іздеу нәтижелерін толтырып тұрған сол жарнамалар оның бизнесі үшін өте маңызды болды. Олар қалыптасқан жағдайды оңай өзгерте алмады.

«Google іздеуінің мақсаты — сізді сілтемелерге, дұрысы жарнамаларға бастыру», — дейді 2013-2018 жылдары Google-дың жарнама және коммерция бизнесін басқарған Шридхар Рамасвами. «Беттегі басқа мәтіндер тек толтырғыш қана».

Google жылдар бойы жаңа технологияларға өте сақтықпен, тіпті қорқынышпен қарап келді. Егер жоба миллиард долларлық бизнеске айналмаса, компания қозғалмайтын, әрі жылына 260 миллиард доллар әкелетін жарнама бизнесіне нұқсан келтіргісі келмеді.

«Үлкейген сайын бұл қиындай түседі», — дейді Рамасвами. «Google-да жарнама тобының мөлшері әдетте қарапайым іздеу тобынан төрт-бес есе үлкен болды. Негізгі модельге қайшы келетін өнімді бастау іс жүзінде өте қиын».

Бірақ енді Google басшыларының басқа амалы қалмады. The New York Times-пен бөлісілген жазбада бір менеджер OpenAI сияқты шағын компаниялардың жаңа ЖИ құралдарын шығаруда еш алаңдамайтынын атап өтті. Google да солай істеуі керек еді, әйтпесе ол «динозаврға» айналу қаупінде болды. Сақтықты ысырып тастап, барлық жұмыс жеделдетілді.

Үрейленген басшылар YouTube және Gmail сияқты кем дегенде бір миллиард пайдаланушысы бар негізгі өнімдермен жұмыс істейтін қызметкерлерге генеративті ЖИ-ді енгізу үшін санаулы айлар берілгенін айтты. Google жылдар бойы әлемдік «индекстеу машинасы» болып, видеолар мен суреттерді өңдеп келсе, енді ЖИ арқылы жаңа деректер жасауды бастауы керек еді. Мұндай іргелі өзгеріс жасау — сағатына жиырма мильмен жүретін ескі жүк көлігін жарыс жолына шығарумен тең еді. Басшылардың тығырыққа тірелгені соншалық, олар 2019 жылы Alphabet-тен кеткен Google негізін қалаушылар Ларри Пейдж бен Сергей Бринді төтенше жиналыстарға көмекке шақырды.

Инженерлік топтар тапсырманы орындады. ChatGPT шыққаннан кейін бірнеше ай өткен соң, YouTube менеджерлері видео жасаушыларға ЖИ көмегімен жаңа фондар жасау немесе киімдерін ауыстыру мүмкіндігін қосты. Бірақ бұл бейберекет әрекет сияқты көрінді. Енді олардың «құпия қаруы» — LaMDA-ны шығаратын уақыт келді.

Пичаи компания қызметкерлеріне жаңа чат-ботты сынап көруді және нашар жауаптарды қайта жазуды тапсырды. Содан кейін 2023 жылдың 6 ақпанында ол «Біздің ЖИ саяхатымыздағы маңызды келесі қадам» атты блог жазбасын жариялады. Ол: «Біз LaMDA-ға негізделген Бард (әдеб. ) (әдеб. ) (Google-дың алғашқы чат-боты) деп аталатын эксперименттік диалогтық ЖИ сервисімен жұмыс істеп жатырмыз», — деп жазды.

Көшбасшылықты сақтап қалуға тырысқан Microsoft келесі күні мәлімдеме жасады. Оның нарықтағы үлесі небәрі 6 пайызды құрайтын Bing (Microsoft-тың іздеу жүйесі) іздеу жүйесі жақын арада ЖИ арқылы үлкен жаңарту алатын болды. OpenAI-дің соңғы GPT моделі Bing-ке «жаңалық ашу қуанышын сыйлауға және әлемдік білімді жақсырақ меңгеруге» көмектеспек болды.

Бұл жарыс бүкіл әлемді таң қалдырды, бірақ көп ұзамай ақаулар байқала бастады. Google Bard-тан, ал Microsoft Bing-тен ақылды жауаптардың мысалдарын көрсетті. Бірақ журналистер бұл жауаптарды тексергенде, олардың қате екені анықталды. Мысалы, Бард (әдеб. ) (әдеб. ) Джеймс Уэбб телескопы туралы тарихи фактіні қате айтса, Bing The Gap бөлшек сауда компаниясының табыс көрсеткіштерін бұрмалап көрсетті.

Чат-боттар жай ғана елес (ЖИ-дің сенімді түрде жалған ақпарат беруі) жасап қоймай, олардың «мінез-құлқында» да ауытқулар байқалды. New York Times шолушысы Кевин Руз Bing-пен түнде екі сағаттық сөйлесуі туралы мақала жариялады. Онда чат-бот журналиске махаббатын білдіріп, оның «некесі бақытсыз» екенін айтып сендірген. Руз бұл кездесу ЖИ-дің белгілі бір шектен өткенін және әлем енді ешқашан бұрынғыдай болмайтынын сездіргенін жазды.

Microsoft басшысы Сатья Наделла үшін Bing-ке ауған бұл назар Google-дың үстемдігіне соққы беру мүмкіндігі еді. Ол бір сұхбатында Google-мен іздеу саласында бәсекелесу үшін жылдар бойы күткенін және енді Bing мұны істей алатынын айтты. «Олардың (Google-дың) билегенін (биге түскенін) жұрттың білгенін қалаймын», — деп қосты ол.

Бастапқыда мұның бәрі қисынсыз болып көрінді. Google бәрін ерте бастаған еді. Оның зерттеушілері трансформер (мәтінді өңдеуге арналған нейрондық желі архитектурасы) архитектурасын ойлап тапты және GPT-4-ке дейін LaMDA-ны жасап қойған болатын. Оның жеке ЖИ зертханасы — DeepMind, OpenAI құрылғанға дейін бес жыл бұрын АГИ жасау миссиясын бастаған еді. Бірақ енді Google қуып жетуші рөлінде болды.

Google-дың ауыр бюрократиясы мен беделіне нұқсан келтіруден қорқуы оны әрекетсіздікке итермеледі. Парадоксальды түрде, бұл әлемді OpenAI енгізген қауіптерден қорғап келген еді. OpenAI-дің жетістігі DeepMind-тың соңғы он үш жылдағы жұмысын да күмән астына алды. Бұл Демис Хассабисті де алаңдатты.

ChatGPT шыққаннан кейін бірнеше апта өткен соң, ол жиналыста DeepMind-тың «ЖИ саласындағы Bell Labs» (бәрін ойлап тапқан, бірақ идеяларын басқалар пайдаланған зертхана) болмауы керектігін айтты.

DeepMind адамдарды Го (Go) ойынында жеңетін жүйелер жасағанымен, OpenAI-дің қарапайым электрондық хат жаза алатын жүйесі адамдарға әлдеқайда әсерлі көрінді. Хассабис АГИ-ді ойындар мен симуляциялар арқылы жасауға тырысты, ал OpenAI инженерия принциптері мен технологияны барынша масштабтауға назар аударды. DeepMind-тың тәсілі академиялық сипатта болды.

DeepMind-тың ең перспективалы жобаларының бірі — AlphaFold (ақуыздың құрылымын болжайтын ЖИ жүйесі) болды. Хассабис АГИ-ді қатерлі ісік сияқты жаһандық мәселелерді шешу үшін пайдалануды армандаған еді. Біздің жасушаларымыздағы амин қышқылдары белгілі бір 3D пішіндерге бүктелгенде, олар ақуыздарға (белоктарға) айналады. Қате бүктелген ақуыздар ауруларға әкелуі мүмкін. AlphaFold — бұл ақуыздың бүктелу пішінін болжайтын бағдарлама.

Хассабис 2019 және 2020 жылдары ақуыздарды бүктеу бойынша CASP атты жаһандық жарыста жеңіске жетуді басымдық етіп қойды. Ол өз қызметкерлеріне: «Бізде босқа кететін уақыт жоқ», — деді. Альтман табысты инвестициялармен немесе пайдаланушылар санымен өлшесе, Хассабис марапаттардың соңынан қуды. Ол жиі DeepMind-тың алдағы онжылдықта 3-тен 5-ке дейін Нобель сыйлығын алғанын қалайтынын айтатын.

DeepMind 2019 және 2020 жылдары CASP-те жеңіске жетіп, 2021 жылы ақуыздарды бүктеу кодын ғалымдар үшін ашық түрде жариялады. Қазіргі уақытта әлем бойынша миллионнан астам зерттеуші AlphaFold дерекқорын пайдаланды. Бірақ ғылым — баяу процесс. Кейбір сарапшылар бұл жүйенің дәрі-дәрмек жасаудағы тиімділігіне әлі де күмәнмен қарайды.

DeepMind-тың ең үлкен жобалары бедел әкелгенімен, шынайы әлемге әсері аз болды. Олар ЖИ-ді толықтай симуляцияланған ортада оқытуға назар аударды. Ал OpenAI интернеттен миллиардтаған сөздерді жинау (скрейпинг) арқылы шынайы әлем деректерімен жұмыс істеді. Бұл лас әрі шулы процесс болса да, нәтижесінде адамдар күнделікті өмірде қолдана алатын жүйе пайда болды.

Енді Хассабис Альтманның ізімен жүруге мәжбүр болды. Google басшылары DeepMind-қа LaMDA-дан да жақсырақ тілдік модельдер жасауды тапсырды. Олар жаңа жүйені Gemini (DeepMind пен Google Brain бірігіп жасаған мультимодальды ЖИ) деп атады.

Пичаи тағы бір батыл қадамға барып, екі бәсекелес бөлімді — DeepMind мен Google Brain-ді біріктіріп, оны Google DeepMind (GDM) деп атады. Жылдар бойы бір-бірімен бәсекелесіп келген бұл екі бөлімнің мәдениеті де әртүрлі еді. Google Brain тікелей Google өнімдерін жақсартумен айналысса, DeepMind өзін оқшау ұстайтын.

Көпшіліктің таңданысына қарай, Пичаи біріккен бөлімді басқаруға Хассабисті тағайындады. Енді Хассабис Google-дың іздеу жүйесіндегі көшбасшылығын сақтап қалу жобасына жетекшілік ететін болды. Ол бұрынғыдан да үлкен билікке ие болды.

«Демистің Google-дағы ықпалы бірнеше жыл бұрынғымен салыстырғанда әлдеқайда жоғары», — дейді Шейн Легг. «Біз дербес болудың орнына, Google-дың ажырамас бөлігіне айналдық. Біздің миссиямыз үшін Google-дың табысты болуы өте маңызды».

Хассабис қызметкерлерге жіберген хатында АГИ-дің «тарихтағы ең үлкен әлеуметтік, экономикалық және ғылыми өзгерістердің біріне» айналу мүмкіндігі бар екенін айтып, күш біріктірудің маңыздылығын атап өтті.

Іс жүзінде олар дүрбелеңге түскен Google-ге бизнес бәсекелесін жеңуге көмектесу үшін бірігіп жатты. Дәл OpenAI-дың («қаржылық қысымсыз») адамзатқа пайда әкелу миссиясы Microsoft мүдделеріне қызмет етуге ойысқаны сияқты. Силикон алқабында WhatsApp-пен болғандай, «миссияның ауытқуы» деп аталатын бұл құбылыс қоғамға әлдеқайда үлкен әсер ететін технологияда қайталанды. OpenAI бұл мәселені 2023 жылдың шілдесінде шешуге тырысып, жаңа Superalignment Team (Супер-үйлестіру тобы — жасанды интеллект мақсаттарын адам құндылықтарымен сәйкестендіру) бөлімін Илья Суцкевер басқаратынын жариялады. Компания төрт жыл ішінде Суцкевердің зерттеушілері ЖИ жүйелері адамнан ақылды болған кезде оларды қалай басқару керектігін табады деп мәлімдеді.

Бірақ OpenAI-да әлі де айқын мәселе бар еді. Ол ашықтық қажеттілігін айналып өтіп жатты және жалпы алғанда, үлен тілдік модельдерді (адам тілін түсінуге және мәтін құрастыруға арналған күрделі алгоритмдер) мұқият тексеруді талап ететін дауыстарды есту қиындай түсті. Гебру, Митчелл және Бендер — олардың атышулы зерттеу еңбегі ақыры қауіп-қатерге назар аудартқан еді — бұл модельдердің және жалпы генеративті ЖИ-дың (жаңа мазмұн жасауға қабілетті жасанды интеллект) стереотиптерді қалай күшейтетіні туралы жұртшылыққа ескертуге әлі де тырысып жатты. Өкінішке орай, үкіметтер мен саясаткерлер қаржыландыруы жақсы, дауысы қаттырақ шығатын топқа: «ЖИ-ден ақырзаман күтушілерге» (AI doomers) көбірек көңіл бөліп жатты.

14-ТАРАУ Ақырзаманның бұлдыр сезімі

Сэм Альтман ChatGPT-ді іске қосқанда бірнеше түрлі бәйге бастап берді. Біріншісі анық еді: нарыққа ең жақсы үлкен тілдік модельді кім бірінші шығарады? Екіншісі артқы планда жүріп жатты: ЖИ туралы баяндаманы кім бақылайды?

2023 жылдың наурызында, Microsoft пен Google өздерінің Bing және Бард (әдеб. ) (әдеб. ) жүйелерін асығыс іске қосқаннан бірнеше апта өткен соң, Элиезер Юдковский Time журналына ЖИ-дің бағыты туралы екі мың сөздік мақала жазып, ақылды машиналар билеген болашақтың қорқынышты көрінісін сипаттады.

«Осы мәселелермен айналысатын көптеген зерттеушілер, соның ішінде мен де, қазіргі жағдайда адамнан асқан ақылды ЖИ құрудың ең ықтимал нәтижесі — жер бетіндегі барлық адамның қырылуы болады деп күтеміз», — деп жазды ол.

Сол айда Илон Маск пен басқа да технология көшбасшылары қол қойған ашық хат адамзатқа төнетін қауіп-қатерге байланысты ЖИ зерттеулерін алты айға «тоқтата тұруға» шақырды. Ян Таллинның Future of Life институты дайындаған хатта: «Бізден саны басым, бізден ақылды, бізді ескіртіп, орнымызды басатын адамдық емес сананы дамытуымыз керек пе? Өз өркениетімізді бақылаудан айырылып қалу қаупіне тігуіміз керек пе? » — делінген. Отыз төрт мыңға жуық адам қол қойған бұл хат Reuters, Bloomberg, New York Times және Wall Street Journal сияқты әлемдік ақпарат құралдарының басты тақырыбына айналды.

ЖИ-дің «өкіл әкелері» деп танылған екі зерттеуші — Джеффри Хинтон мен Йошуа Бенжио ЖИ-дің адамзатқа төндіретін экзистенциалды қаупі туралы баспасөзге ескерту жасағаннан кейін, бұл тақырып одан әрі қызу талқылана бастады. Бенжио өмірлік еңбегі үшін «өзін жоғалтқандай» сезінетінін айтса, Хинтон кейбір зерттеулеріне өкінетінін білдірді.

«Бұл нәрселердің адамнан шынымен ақылды бола алатынына санаулы адам ғана сенетін, — деді ол New York Times басылымына. — Бірақ көпшілік мұны өте алыс болашақ деп ойлады. Мен де солай ойладым. Мен бұған 30-50 жыл, тіпті одан да көп уақыт бар деп есептедім. Әлбетте, мен енді бұлай ойламаймын... Оны бақылай алатынына көз жеткізбейінше, бұл технологияны бұдан әрі ұлғайтпау керек деп есептеймін».

ЖИ әлемінің ең ірі тұлғалары бір сөзді айтып жатқандай болды: ЖИ дамуы тым жылдам жүріп жатыр және апатты жағдайда бақылаудан шығып кетуі мүмкін. ЖИ-ден келетін жойылып кету қаупі қоғамдық дискурстың ажырамас бөлігіне айналғаны соншалық, кешкі ас үстінде туыстарыңызбен бұл тақырыпты қозғасаңыз, олар да оның маңыздылығын құптап басын изейтін болды. Қарапайым халық бағынбайтын «машина-әміршілердің» пайда болуы мүмкін деген ойға арбалды. Rethink Priorities маркетингтік зерттеу фирмасының 2,444 АҚШ ересектері арасында жүргізген сауалнамасына сәйкес, 2023 жылдың соңына қарай американдықтардың шамамен 22 пайызы ЖИ алдағы елу жылда адамзаттың жойылуына себеп болады деп сенген.

Дегенмен, бұл ақырзаман туралы әңгімелер ЖИ бизнесінің өзіне парадоксалды әсер етті: ол қарқынды дамып жатты. Pitchbook зерттеу фирмасының мәліметінше, генеративті ЖИ өнімдерін жасайтын стартаптарды қаржыландыру 2022 жылғы 5 миллиард доллардан 2023 жылы 21 миллиард доллардан астамға дейін өсті.

«Бағынбайтын ЖИ» туралы жасырын хабарлама қызықты болды: Егер бұл технология болашақта адамзатты жойып жіберуі мүмкін болса, демек ол қазір сіздің бизнесіңізді өркендетуге де қауқарлы емес пе?

Сэм Альтман OpenAI технологиясының қаупі туралы неғұрлым көп айтса — мысалы, Конгрессте ChatGPT сияқты құралдар «әлемге айтарлықтай зиян келтіруі мүмкін» десе — ол соғұрлым көп ақша мен назар аудартты. 2023 жылдың қаңтарында OpenAI Microsoft-тан тағы бір инвестиция алды, бұл жолы бағдарламалық қамтамасыз ету алыбына компанияның 49 пайыз үлесін беру есесіне 10 миллиард доллар құйылды. Microsoft енді OpenAI-ды толық бақылауға барынша жақындады.

Дарио Амодеи мен OpenAI-дың бір топ зерттеушілері негізін қалаған жаңа Anthropic компаниясы да қомақты инвестицияларды тартты. 2023 жылдың соңына қарай ол Google-дан 2 миллиард доллар, Amazon-нан 1,3 миллиард доллар инвестиция алды. Бір жыл ішінде оның құны төрт есе өсіп, 20 миллиард доллардан асты. «Өте қауіпсіз супер ЖИ» жасау сізді өте бай ете алатындай көрінді. TechCrunch алған компания құжаттарына сәйкес, Anthropic ондаған салаға кіріп, OpenAI-ға бәсекелестік тудыру үшін 5 миллиард долларға дейін қаражат жинағысы келген. «Бұл модельдер экономиканың үлкен бөлігін автоматтандыра бастауы мүмкін», — делінген Anthropic құжаттарында. Сондай-ақ, егер 2026 жылға қарай «ең жақсы» модельдерді құра алса, Anthropic бұл бәйгеде көптеген жылдар бойы алда бола алатыны айтылған.

«Қауіпсіздік — бірінші орында» деген ұстаным Anthropic-ті коммерциялық емес ұйым сияқты көрсетті, оның миссиясы «өзгермелі ЖИ адамдар мен қоғамның өркендеуіне көмектесетініне көз жеткізу» болды. Бірақ OpenAI-дың ChatGPT арқылы жеткен табысы әлемге ең өршіл жоспарлары бар компаниялардың ең тиімді инвестиция бола алатынын көрсетті. «Қауіпсіз ЖИ жасап жатырмыз» деп жариялау ойынға қосылғысы келетін ірі технологиялық компаниялар үшін «шақыру сигналы» сияқты болды.

Anthropic бұл логиканы түсіндіру үшін түрлі айла-шарғыларға барды. ЖИ жүйелерін қалай қауіпсіз ету керектігін түсіну үшін әлемдегі ең қуатты ЖИ жүйелерін жай ғана зерттеу жеткіліксіз — оларды құру керек болды. Сондықтан олар орасан зор есептеу қуатына ие жалғыз иелік етушілер — ірі технологиялық компаниялармен келісімге келді. Мысалы, Google-мен жасасқан келісімнің бір бөлігі ретінде Anthropic OpenAI-мен бәсекелесе алатын үлкен тілдік модель құруға мүмкіндік беретін бұлттық есептеу кредиттерін алды.

Қазір жұртшылық алдында қауіпсіз ЖИ-ді талап ететін екі түрлі топ бар. Біріншісі — Альтман мен Амодеи сияқтылар, олар «ЖИ-ден келетін жойылу қаупін азайту пандемия мен ядролық соғыс сияқты басқа да қоғамдық ауқымдағы қауіптермен қатар жаһандық басымдық болуы керек» деген кезекті ашық хатқа қол қойды. Олар «ЖИ қауіпсіздігі» (AI safety) тобына жатады, олар болашақ қауіпті бұлыңғыр терминдермен сипаттайды және бағынбайтын ЖИ жүйелерінің нақты не істейтінін немесе бұл қашан болатынын сирек нақтылайды. Сондай-ақ, олар бұл мәселелерді Конгресс алдында көтергенде, жеңіл реттеуді жақтауға бейім болды.

Екінші топқа Тимнит Гебру мен Маргарет Митчелл сияқтылар кіреді, олар көптеген жылдар бойы ЖИ-дің қоғамға төндіріп тұрған қауіптері туралы айтып келеді. Бұл «ЖИ этикасы» (AI ethics) тобы негізінен әйелдер мен түрлі нәсіл өкілдерінен тұрады, олар стереотиптерді өз бастарынан өткерген және ЖИ жүйелері теңсіздікті жалғастыра береді деп қауіптенеді. Уақыт өте келе олар «ЖИ қауіпсіздігі» лагеріндегілердің іс-әрекетіне, әсіресе сол топтың орасан зор ақша тауып жатқанына қатты ашулана бастады.

Қаржыландырудағы алшақтық өте үлкен болды. Этика жағы үнемі қаражат іздеп қиналатын. Мысалы, бет-әлпетті тану және бұрмаланған алгоритмдерге қарсы науқан жүргізетін 21 жылдық тарихы бар European Digital Rights Initiative коммерциялық емес ұйымдар желісінің 2023 жылғы жылдық бюджеті небәрі 2,2 миллион долларды құрады. Сол сияқты, ЖИ-дің денсаулық сақтау және қылмыстық сот жүйесінде қалай қолданылатынын зерттейтін Нью-Йорктегі AI Now институтының бюджеті 1 миллион доллардан аз болды.

Ал ЖИ «қауіпсіздігі» мен жойылу қаупіне назар аударатын топтар көбінесе миллиардер демеушілер арқылы әлдеқайда көп қаржы алатын. Массачусетс штатындағы Кембридж қаласында орналасқан, ЖИ-дің қару-жараққа қол жеткізуін қалай тоқтатуға болатынын зерттейтін Future of Life коммерциялық емес институты 2021 жылы крипто-магнат Виталик Бутериннен 25 миллион доллар алды. Бұл бір ғана грант сол кездегі барлық ЖИ этикасы топтарының жиынтық жылдық бюджетінен үлкен болды.

Facebook миллиардері Дастин Московицтің қайырымдылық ұйымы — Open Philanthropy жылдар бойы ЖИ қауіпсіздігі жұмыстарына миллиондаған долларлық гранттар таратты, соның ішінде 2022 жылы ЖИ қауіпсіздігі орталығына (Center for AI Safety) 5 миллион доллар және Берклидегі адамға үйлесімді ЖИ орталығына (Center for Human-Compatible AI) 11 миллион доллар берді.

Тұтастай алғанда, Московицтің қайырымдылық қоры ЖИ қауіпсіздігінің ең ірі доноры болды, өйткені ол және оның әйелі Кари Туна өздерінің 14 миллиард долларға жуық байлығының көп бөлігін таратуды жоспарлаған. Бұған OpenAI алғаш коммерциялық емес ұйым ретінде құрылған кезде берілген 30 миллион долларлық қайырымдылық та кіреді.

Неліктен болашақта оларды қауіпсіз ету желеуімен үлкен ЖИ жүйелерін жасап жатқан инженерлерге осыншама көп ақша бөлінеді, ал оларды бүгін тексеріп жатқан зерттеушілерге соншалықты аз бөлінеді? Жауап ішінара Силикон алқабының жақсылық жасаудың ең тиімді жолына деген құштарлығынан және Англияның Оксфорд университетіндегі бір топ философтар таратқан идеялардан туындайды.

1980 жылдары оксфордтық философ Дерек Парфит утилитарлық этиканың жаңа түрі туралы жаза бастады, ол болашаққа алыстан қарайтын. Елестетіп көріңіз, деді ол, сіз жерге сынған бөтелке қалдырдыңыз, ал жүз жылдан кейін бір бала оған аяғын кесіп алды. Ол әлі туылмаған болуы мүмкін, бірақ сіз сол бала бүгін жарақат алғандай кінәні арқалайсыз.

«Оның қарапайым негізгі ойы — моральдық тұрғыдан болашақ адамдар қазіргі адамдар сияқты маңызды, — дейді Дэвид Эдмондс, Парфиттің 2023 жылғы өмірбаянын жазған автор. — Мына үш сценарийді елестетіп көріңіз. А — бейбітшілік. Б — әлемдегі 8 миллиард адамның 7,5 миллиарды соғыста қырылып қалады. Және В — бәрі өледі. Көптеген адамдардың түйсігі А мен Б арасындағы алшақтық Б мен В арасындағы алшақтықтан әлдеқайда үлкен деп айтады. Бірақ Парфит бұл қате дейді. Б мен В арасындағы алшақтық А мен Б арасындағыдан әлдеқайда маңызды. Егер сіз бүкіл адамзатты жойып жіберсеңіз, сіз барлық болашақ ұрпақты жоясыз».

Бұл сандарды нақтылаудың бір жолы мынау: Сүтқоректілердің орташа «өмір сүру ұзақтығы» шамамен бір миллион жылды құрайды, ал адамдар шамамен екі жүз мың жылдан бері бар. Бұл теориялық тұрғыдан бізге планетада тағы сегіз жүз мың жыл береді. Егер Біріккен Ұлттар Ұйымының осы ғасырдың соңына дейінгі болжамдарына сүйенсек, әлем халқы 11 миллиард адам деңгейінде тұрақталса және орташа өмір сүру ұзақтығы 88 жасқа дейін көтерілсе, бұл болашақта тағы 100 триллион адам өмір сүреді дегенді білдіруі мүмкін.

Бұл сандарды көз алдыңызға елестету үшін үстеліңізде кішкентай пышақ пен бір тал бұршақ жатыр деп ойлаңыз. Пышақ — өткен шақта өмір сүрген және қайтыс болған адамдардың санын білдіреді. Бұршақ — бүгінгі таңда тірі жүргендердің бәрі. Ал үстелдің беті — әлі туылмаған адамдардың саны. Егер адамзат басқа сүтқоректілерге қарағанда ұзағырақ өмір сүретінін дәлелдесе, бұл сан бұдан да көп болуы мүмкін.

2009 жылы австралиялық философ Питер Сингер Парфиттің еңбегін «Сіз құтқара алатын өмір» (The Life You Can Save) атты кітабымен толықтырды. Енді шешім табылды: ауқатты адамдар тек көңіл-күйіне қарай ақша бермей, қайырымдылық көмегінің әсерін барынша арттыру және мүмкіндігінше көп адамға көмектесу үшін рационалды тәсілді қолдануы керек. Болашақта әлі туылмаған көптеген адамдарға көмектесу арқылы сіз одан да үлкен игілік жасай аласыз.

Бұл идеялар академиялық еңбектерден шынайы өмірге ауыса бастады және 2011 жылы 24 жастағы оксфордтық философ Уилл Макаскилл «80,000 Hours» (80,000 сағат) тобының негізін қалағанда идеологияға айналды. Бұл сан адамның өміріндегі орташа жұмыс сағатын білдіреді. Ұйым АҚШ-тағы университет кампустарын нысанаға алып, жас түлектерге моральдық әсері ең жоғары болатын мансап таңдауға кеңес берді. Ол көбінесе техникалық мамандық иелерін ЖИ қауіпсіздігі жұмысына бағыттады. Сонымен қатар, топ түлектерді ең жоғары жалақы төленетін мансапты таңдауға ынталандырды, бұл оларға маңызды істерге мүмкіндігінше көп ақша аударуға мүмкіндік беретін еді.

Макаскилл мен оның жас командасы кейіннен өздерін Тиімді альтруизм (қайырымдылықтың барынша нәтижелі жолдарын ғылыми әрі рационалды түрде іздейтін қозғалыс) орталығы ретінде қайта құрды және жаңа қағида пайда болды. Тиімді альтруизмнің негізгі идеясы — тиімділік еді. Бай елдерде тұратын адамдар кедей елдердегілерге көмектесуге міндетті, өйткені сол жерде олардың ақшасы көбірек нәтиже береді. Мысалы, Америкадағы кедейлерге көмектескеннен көрі, жаһандық денсаулық сақтау ұйымдары арқылы Африкадағы көбірек адамға көмектесуге болады. Сондай-ақ, Дастин Московиц сияқты көп ақша тарату үшін барынша көп ақша табуға уақыт жұмсау моральдық тұрғыдан дұрысырақ болды. Студенттерге дәріс оқығанда, Макаскилл «дәрігер немесе банкир ретінде көбірек жақсылық жасай аласыз ба? » деген сұрақ қойылған слайдты көрсететін. Оның жауабы — банкир болу жақсырақ еді. Дәрігер ретінде сіз Африкада белгілі бір адамның өмірін сақтай аласыз, бірақ банкир ретінде сіз көптеген өмірді сақтау үшін бірнеше дәрігерді жалдай аласыз.

Бұл түлектерге қазіргі капитализмнің теңсіздіктеріне басқаша қарауға мүмкіндік берді. Енді санаулы адамдардың миллиардер болуына жол беретін жүйеде ештеңе жоқ еді. Орасан зор байлық жинау арқылы олар көбірек адамға көмектесе алатын!

Қозғалыс 2012 жылы ең ірі есімін тапты: Макаскилл бұйра қара шашты, MIT студенті Сэм Бэнкман-Фридке хабарласты. Екеуі кофе ішті, белгілі болғандай, Бэнкман-Фрид Питер Сингердің жанкүйері еді және жануарларды қорғауға қызығатын.

Макаскилл Бэнкман-Фридті жануарлармен тікелей жұмыс істеуден бас тартып, жоғары табысты салаға бару арқылы оларға көбірек көмектесе алатынына көндірді. Майкл Льюистің «Going Infinite» кітабындағы сипаттама бойынша, Бэнкман-Фрид бірден қызығушылық танытқан. «Оның айтқандары маған бірден дұрыс болып көрінді», — деді Бэнкман-Фрид кітапта. Ол сандық сауда фирмасына жұмысқа орнығып, ақыры 2019 жылы FTX криптовалюта биржасының негізін қалады.

Бэнкман-Фрид тиімді альтруизмді бизнесінің басты бағытына айналдырды. Оның негізін қалаушылары мен басқару командасы тиімді альтруистер болды және Макаскиллді FTX Future Fund мүшесі ретінде қалдырды. Бұл қор 2022 жылы тиімді альтруизм мақсаттарына 160 миллион доллар бөлді, оның кейбірі тікелей Макаскиллмен байланысты еді. Ол баспасөзге барлық ақшасын таратып жатқаны туралы жиі айтатын. FTX-тің жарнамалық плакаттарында ол өзінің фирмалық футболкасы мен карго шортында бейнеленіп, қасына: «Мен криптодамын, өйткені әлемге ең үлкен игілікті әсер еткім келеді», — деген сөздер жазылған еді. Ол миллиардер мәртебесіне қарамастан, Toyota Corolla айдайтын, пәтерді бірге жалдап тұратын және көбінесе ұқыпсыз көрінетін аскет (тақуа) бейнесінде болды.

Көптеген технологтар моральға деген бұл тәсілді жаңа леп ретінде қабылдады. Инженерлер мәселені көргенде, оны формуламен шешетін, кодтағы қателерді түзеп, тұрақты тестілеу мен бағалау арқылы бағдарламалық жасақтаманы оңтайландыратын. Енді моральдық дилеммаларды да математика сияқты есептеуге болатын еді. Тиімді альтруизм ортасындағы адамдар кейде қайырымдылық іс-әрекетінің нәтижесін күтілетін құндылық (нәтиженің маңыздылығын оның жүзеге асу ықтималдығына көбейту арқылы есептелетін сан) арқылы барынша арттыру туралы сөйлесетін.

Тиімді альтруизм Силикон алқабында нығайған сайын, оның назары Африкадағы адамдарға көмектесуден, ғылыми фантастикалық мәселелерге ауысты. Макаскиллдің 2022 жылғы кітабын «менің философияммен сәйкес келеді» деп твиттерде жазған Илон Маск, адамдардың ұзақ мерзімді аман қалуын қамтамасыз ету үшін адамдарды Марсқа жібергісі келді. Жасанды интеллект жүйелері күрделене түскен сайын, оның бақылаудан шығып, адамзатты жойып жібермеуін қадағалау да қисынды болды. OpenAI, Anthropic және DeepMind қызметкерлерінің көбі тиімді альтруистер еді.

ЖИ-дің жойылу қаупіне қарсы әрекет ету — бұл рационалды есептеу. Егер ЖИ-дің адамзатты жою қаупі небәрі 0,00001 пайыз болса да, оның шығыны соншалықты үлкен, ол негізінен шексіз. Егер сіз кішкентай мүмкіндікті шексіз шығынға көбейтсеңіз, сіз бәрібір шексіз үлкен мәселені аласыз. Бұл қисын лонгтермизм (алыс болашақтағы ұрпақтардың тағдырын басты орынға қою) жақтаушылары сенетіндей, болашақ компьютерлер миллиардтаған адамдардың санасын қабылдайтын және саналы цифрлық өмірдің жаңа формаларын жасайтын болса, одан сайын күштірек болады. Болашақта өмір сүретін сол 100 триллион адам бұдан да көп болуы мүмкін. Осы моральдық математиканы басшылыққа алсақ, 100 триллионнан астам физикалық және цифрлық өмірді жойылудан сақтаудың кішкентай мүмкіндігіне басымдық беру қисынды. Жаһандық кедейлік мұнымен салыстырғанда кішкентай қателік қана.

2015 жылы OpenAI іске қосылғаннан кейін, ЖИ-ден жойылу қаупіне қарсы бағытталған істерге қаржы құйылды. Московицтің Open Philanthropy қоры ЖИ қауіпсіздігін зерттеуді қоса алғанда, лонгтермистік мәселелерге берілетін гранттар санын 2015 жылғы 2 миллион доллардан 2021 жылы 100 миллион доллардан астамға дейін арттырды.

Бэнкман-Фрид те бұған қосылды. Оның Ник Бекстед пен Макаскилл сияқты тиімді альтруистер басқаратын FTX Future Fund қоры «адамзаттың ұзақ мерзімді келешегін жақсартуға» бағытталған жобаларға 1 миллиард доллар бөлуге уәде берді. Қордың қызығушылық салалары тізімі «жасанды интеллектінің қауіпсіз дамуынан» басталды.

New Yorker журналы Future Fund ішіндегі өмір туралы жазғанда, оның Калифорниядағы Беркли штаб-пәтеріндегі кеңселердегі әңгімелер көбінесе ЖИ ақырзаманы қашан болатынына қарай ойысатынын атап өтті.

— Сіздің болжамыңыз қандай? — деп сұрайтын қызметкерлер бір-бірінен. — Сіздің p(doom) (ақырзаман ықтималдығы — жасанды интеллект адамзатты жойып жібереді деген сенімнің пайызы) көрсеткішіңіз қандай?

«P» ықтималдықты білдіреді және бұл сұрақ адамдардың ЖИ ақырзаманының қаупін қалай бағалайтынына қатысты еді. Оптимистік көзқарастағы адам өзінің p(doom) көрсеткішін 5 пайыз деп қоюы мүмкін еді. Open Philanthropy-дің гранттар беру туралы шешім қабылдауға көмектесетін зерттеуші-аналитигі Аджейя Котра бір подкастта өзінікі 20-дан 30 пайызға дейін екенін айтты.

Бэнкман-Фридтің p(doom) көрсеткішін ешкім білмеді, бірақ ол ЖИ қауіпсіздігіне көңіл бөлгені соншалық, Anthropic-ке 500 миллион доллар инвестициялады. Оның FTX негізін қалаушы әріптестері мен тиімді альтруистер — Нишад Сингх пен Кэролайн Эллисон да OpenAI-дан бөлініп шыққан стартапқа инвестиция салды.

2023 жылдың басында Макаскилл Масктің сөз бостандығын сақтау үшін Twitter-ді сатып алғысы келетіні туралы твитін байқап қалды. Шотландық философ Маскке хабарлама жіберді. Ол кезде Бэнкман-Фридтің байлығы 24 миллиард долларды құрап, оны жер бетіндегі ең бай тиімді альтруистердің біріне айналдырды. Бірақ Масктің 220 миллиард долларлық байлығы тиімді альтруизмді әлемдегі ең ірі қайырымдылық қозғалысына айналдыра алар еді.

Макаскилл Маскке Бэнкман-Фридтің де Twitter-ді «әлем үшін жақсырақ» етуге көмектесу үшін сатып алғысы келетінін айтты. Екеуі күш біріктіргісі келе ме? — Оның орасан зор ақшасы бар ма? — деп жауап берді Маск. — «Орасан зор» дегенді қалай түсінетініңізге байланысты! — деп жауап берді Макаскилл сот құжаттарына сәйкес. Макаскилл Бэнкман-Фрид 8 миллиард долларға дейін үлес қоса алатынын айтты. — Бұл жаман бастама емес, — деп жауап берді Маск. — Екеуіңізді хат арқылы таныстырғанымды қалайсыз ба? — деп сұрады Макаскилл. Маск бұл сұраққа жауап бермеді. — Оған кепілдік бересіз бе? — деп сұрады ол. — Әрине! — деп жауап берді Макаскилл. — Адамзаттың ұзақ мерзімді болашағының жақсы болуына барын салады. — Онда жарайды. — Керемет!

Маск ақыр соңында Бэнкман-Фридпен байланысқанымен, олар ешқандай қаржылық келісімге келген жоқ, бұл Масктың үлкен қауіптен аман қалғанын білдіреді. Бірнеше айдан кейін Бэнкман-Фрид компания ішінде клиенттердің қаражатын алаяқтық жолмен аударды деген қауесеттер тарап, FTX құлады. Сот процесінде прокурорлар оны мыңдаған тұтынушы мен инвестордан 8 миллиард доллар жымқырды деп айыптады және ол ондаған жылдарға бас бостандығынан айырылу қаупіне тап болды. Өзін аскет (нәпсісін тыйып, қарапайым өмір салтын ұстанушы) ретінде көрсеткен Бэнкман-Фридтің іс жүзінде Багам аралдарындағы сәнді пентхауста тұрып, түрлі инвестицияларға жүздеген миллион доллар шашқаны белгілі болды. Оның тиімді альтруизмге бөліп қойған ақшасының көп бөлігі күлге айналды, сонымен қатар оның бұл қозғалысқа онша құлықты болмағаны да әшкереленді.

FTX құлағаннан кейін көп ұзамай Бэнкман-Фрид Vox жаңалықтар сайтына таңғаларлық сұхбат берді:

— Сонымен, этика мәселесі — негізінен жай ғана бүркеме болды ма? — деп сұрады репортер. — Иә, — деп жауап берді Бэнкман-Фрид. — Сіз бәрін жеңімпаздар мен жеңілгендері бар ойын ретінде көретін адам үшін этика туралы сөйлеуге өте шебер болдыңыз, — деп атап өтті репортер. — Солай болды, — деді Бэнкман-Фрид. — Хе-хе. Солай істеуге мәжбүр болдым.

FTX-тің күйреуі тиімді альтруизмнің беделіне үлкен көлеңке түсірді және бұл қозғалыстың кейбір іргелі мәселелерінің көрінісіне айналды. Біріншісі болжамды еді: адамдар барынша жақсылық жасау миссиясына аттанып, сонымен бірге барынша байлыққа ұмтылғанда, олар өздерін жемқорлыққа және менмендікке негізделген ақымақ шешімдерге бейім етеді. Мысалы, Twitter-ді сатып алу адамзатқа ұзақ мерзімді перспективада көмектесудің нақты жолы емес еді, бірақ Бэнкман-Фрид тиімді альтруизм актісі ретінде Маскпен бірге сайтты сатып алуға 8 миллиард доллар жұмсап, әлемдегі ең бай адаммен бір қатарда тұруға дайын болды.

FTX күйрегеннен кейін МакАскилл жағдайды түзеу үшін Twitter-ге жүгінді: «Салауатты ойлайтын тиімді альтруист "мақсат тәсілдерді ақтайды" деген қисынға үзілді-кесілді қарсы болуы керек», — деп жазды ол. Дегенмен, қозғалыстың өз принциптері Бэнкман-Фрид сияқты адамдарды өз мақсаттарына кез келген жолмен, тіпті адамдарды қанау арқылы болса да жетуге ынталандырды. Бұл тіпті МакАскилл сияқты зерек Оксфорд академигінің де көзін байлап, криптобизнестің ең жақсы жағдайда алыпсатарлық, ал ең нашар жағдайда құмар ойынның қауіпті түрі екенін біле тұра, криптобиржаны басқаратын адаммен байланысуына себеп болды.

Бэнкман-Фрид өзінің екіжүзділігін адамзат бақытын барынша арттырудың үлкен мақсаты жолында жұмыс істеп жатқандығымен ақтай алды. Маск Twitter-ді сөз бостандығының утопиясына айналдыру және адамдарды планетаралық түрге айналдыру сияқты үлкен мақсаттарды көздегендіктен, Twitter-де адамдарды негізсіз «педофил» деп атаудан бастап, Тесла зауыттарындағы жаппай нәсілшілдік айыптауларына дейінгі өзінің адамгершілікке жатпайтын әрекеттеріне мән бермеді. Ал OpenAI және DeepMind негізін қалаушылар Big Tech (ірі технологиялық компаниялар) фирмаларына өсіп келе жатқан қолдауларын дәл осылай ақтады. Егер олар ақыр соңында AGI (Жалпы жасанды интеллект — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) деңгейіне жетсе, адамзат үшін үлкен игілікке қол жеткізген болып саналады.

Альтман және Хассабис сияқты технологтар AGI арқылы шешкісі келген әлеуметтік мәселелердің күрделі әрі шырмалған екенін білді. Сондықтан олардың көбі тиімді альтруизмді толық немесе ішінара қабылдады. Бұл оларға мүмкіндігінше көп ақша табуға мүмкіндік бере отырып, моральдық мәселелерді шешудің қарапайым әрі ұтымды жолын ұсынды. Миллиардерлер жаһандық кедейліктің себебі емес, шешімі ретінде қарастырылды.

Бұл сондай-ақ адамзаттан оқшаулануды жеңілдетті. Тиімді альтруизмдегі танымал фраза — «аузыңды жап та, көбейт» (shut up and multiply), бұл этикалық шешім қабылдағанда жеке эмоцияларды немесе моральдық түйсікті ысырып тастап, нәтижені барынша арттыру керек дегенді білдіреді. Тиімді альтруистердің адамзатқа берілгендігіне қарамастан, Альтман сияқтылар өз миссиясына жақсырақ назар аудару үшін айналасындағы әлемнен эмоционалды түрде алшақтады. Тиімді альтруистер ортасында адамдар бірге жұмыс істеді, бірге уақыт өткізді, бір-бірін қаржыландырды және өзара романтикалық қарым-қатынаста болды.

2017 жылы Open Philanthropy ұйымы OpenAI-ға 30 миллион доллар бөлуге уәде бергенде, қайырымдылық қоры сол кезде коммерциялық емес ұйымның аға инженері болған Дарио Амодейден техникалық кеңес алып жатқанын жариялауға мәжбүр болды. Сондай-ақ Амодейдің Open Philanthropy атқарушы директоры Холден Карнофскимен бір үйде тұратыны да белгілі болды. Оған қоса, Карнофски Дарионың қарындасы Даниэламен (ол да OpenAI-да жұмыс істеген) некелескені анықталды. Олардың бәрі тиімді альтруистер еді. Бұл өте тұйықталған орта болды.

Қозғалыс оқшауланған және барған сайын жабық бола бастады, оның ізбасарлары жұмыс істейтін OpenAI, DeepMind және Anthropic сияқты ЖИ фирмалары да солай болды. Гебру мен Митчелл талап еткендей, бұл компаниялардың ЖИ-дің бақылаудан шығып кетуін тоқтату үшін жасай алатын ең жақсы нәрселерінің бірі — ЖИ жүйелерін ашық ету еді. Ақыр соңында, егер зерттеушілер ондаған жылдар бойы оқыту деректері мен алгоритмдерін зерттеуден шеттетілсе, болашақ адамдар оның механикасын тексеруге біліктілігі жетпесе, ЖИ-дің бағынбай кетуін қалай тоқтатады? Басқаша айтқанда, бүгінгі ЖИ этикасы науқаншылары талап етіп отырған ашықтық ертеңгі жойылып кету қаупінің де шешімі болар еді.

OpenAI-дың қаскөйлердің оның технологиясын теріс пайдалануын тоқтату үшін құпия болуымыз керек деген уәжі негізсіз болды. Ол 2019 жылдың қарашасында GPT-2-ні шығаруға өзіне рұқсат берді, өйткені «теріс пайдаланудың күшті дәлелдерін көрмеді». Егер бұл рас болса, неге оқыту деректерінің егжей-тегжейін жарияламасқа? Сірә, Альтман OpenAI-ды бәсекелестерден және сот істерінен қорғағысы келген шығар. Егер OpenAI ашық болса, қаскөйлер емес, бәсекелестер олардың модельдерін көшіріп алуы және OpenAI-дың авторлық құқықпен қорғалған еңбектерді қаншалықты деңгейде пайдаланғанын әшкерелеуі оңай болар еді.

Альтман мен Хассабис өз компанияларын адамзатқа көмектесу миссиясымен бастағанымен, олардың адамдарға әкелген шынайы пайдасы интернет пен әлеуметтік медианың сыйлары сияқты түсініксіз болды. Олардың Microsoft пен Google-ға әкелетін пайдасы анық еді: жаңа, заманауи қызметтер және генеративті ЖИ нарығындағы үлесі.

Microsoft OpenAI технологиясына негізделген Copilot ЖИ ассистентін Windows, Word, Excel және бизнеске бағытталған Dynamics 365 бағдарламаларына арналған кең ауқымды қызметке айналдырды. Сарапшылардың пікірінше, OpenAI технологиясы 2026 жылға қарай Microsoft үшін жылдық миллиардтаған табыс әкелуі мүмкін. 2023 жылдың соңында Наделла Альтманмен бір сахнада болғанда, одан Microsoft пен OpenAI қарым-қатынасы қалай екенін сұрағанда, ол тоқтай алмай күліп жіберді. Жауаптың анық болғаны соншалық, бұл күлкілі еді. Әрине, қарым-қатынас жақсы дамып жатты.

Microsoft өзінің өсіп келе жатқан ЖИ бизнесіне ақшаны қуана жұмсауда және 2024 жылы және одан кейін генеративті ЖИ-ді қозғалтатын қозғалтқыштар — деректер орталықтарын кеңейтуге 50 миллиард доллардан астам қаражат жұмсауды жоспарлап отыр. Бұл Microsoft-тың теміржолдарға, дамбаларға және ғарыштық бағдарламаларға арналған мемлекеттік жобалардан асып түсетін тарихтағы ең ірі инфрақұрылымдық құрылыстардың бірі болмақ. Google да өз деректер орталықтарын кеңейтуде.

2024 жылдың басына қарай БАҚ-тан бастап ойын-сауық компанияларына дейін, тіпті Tinder де өз қосымшалары мен қызметтеріне жаңа генеративті ЖИ мүмкіндіктерін енгізе бастады. Генеративті ЖИ (жаңа мазмұн — мәтін, сурет, код тудыратын жүйе) нарығы 2028 жылға қарай 52 миллиард долларға жету үшін жыл сайын 35 пайыздан астам қарқынмен өседі деп болжануда. Ойын-сауық фирмалары фильмдер, телешоулар және компьютерлік ойындар үшін мазмұнды тезірек жасай алатынын айтты. DreamWorks Animation негізін қалаушы және «Шрек» пен «Кунг-фу Панда» продюсері Джеффри Катценберг генеративті ЖИ анимациялық фильмдердің құнын 90 пайызға төмендететінін айтты. «Ескі жақсы заманда әлемдік деңгейдегі анимациялық фильм жасау үшін сізге 500 суретші мен бірнеше жыл қажет болуы мүмкін еді», — деді ол 2023 жылдың қарашасында Bloomberg конференциясында. «Менің ойымша, үш жылдан кейін бұл жұмысқа сол ресурстың 10 пайызы да қажет болмайды».

Генеративті ЖИ жарнаманы тіпті таңғаларлықтай дербес етеді. Көптеген жылдар бойы жарнамалар бірден үлкен топтарды нысанаға алатын; енді олар сіздің атыңызды атай алатын гипер-персоналдандырылған бейнежарнамалармен бір ғана адамға назар аудара алады. Дүниежүзілік экономикалық форум үлкен тілдік модельдер сыни ойлау мен шығармашылықты қажет ететін жұмыс орындарын жақсартатынын айтты. Инженерлерден бастап жарнама мәтіндерін жазушылар мен ғалымдарға дейін кез келген адам оларды миының жалғасы ретінде пайдалана алады. Үкіметтер әлеуметтік жәрдемақыларды бағалау, қоғамдық орындарды бақылау немесе біреудің қылмыс жасау ықтималдығын анықтау үшін өздерінің ЖИ жүйелерін жаңартып жатыр.

Google, Microsoft және стартаптардың жаңа буыны бәсекелестерінен басым түсуге тырысып, осы жаңа бизнестің мүмкіндігінше көбірек үлесін иеленуге жарысуда. Fast Company-дің 2023 жылдың соңындағы сауалнамасына сәйкес, американдық корпоративтік кеңес мүшелерінің жартысына жуығы генеративті ЖИ-ді өз компаниялары үшін «кез келген нәрседен бұрынғы басты басымдық» деп атады. Мәселен, Bumble бас директоры танысу қосымшасының 2024 жылға арналған жоспарларын былай сипаттады: «Біз ЖИ-ге шындап кіріскіміз келеді, — деді ол. — ЖИ және генеративті ЖИ адамдардың дұрыс адамды табуын тездетуде үлкен рөл атқара алады».

Bumble жеке матчмейкерлерді (танысуға көмектесетін делдал) құру үшін ChatGPT технологиясын пайдаланғысы келді. Қосымшада бірнеше ұяшықты белгілеудің орнына, сіз жай ғана оның ботына серіктесіңізден қалайтынның бәрін — балалы болу ниетіңізден бастап, саяси көзқарастарыңызға және әдеттегі сенбі күнгі таңертеңгілік істеріңізге дейін айтасыз. Содан кейін ЖИ матчмейкері ең үйлесімді адамды табу үшін басқа Bumble пайдаланушыларының ЖИ матчмейкерлерімен «сөйлеседі». Жүздеген түрлі адамдарды қарап шығудың орнына, ЖИ мұны сіз үшін жасайды.

Осы және басқа да бизнес-идеялар қарқын алған сайын, генеративті ЖИ-ді бәріне енгізудің құны әлі де белгісіз. Алгоритмдер интернетте не оқитынымыздан бастап, компаниялардың кімді жұмысқа алғысы келетініне дейін өміріміздегі көбірек шешімдерді бағыттап үлгерді. Енді олар біздің ойлау тапсырмаларымыздың көбін орындауға дайын, бұл тек адамның ерік-жігері туралы ғана емес, сонымен бірге мәселелерді шешу және жай ғана елестету қабілетіміз туралы да ыңғайсыз сұрақтар туғызады.

Дәлелдер көрсеткендей, компьютерлер қысқа мерзімді жад сияқты салалардағы кейбір когнитивті дағдыларымызды алмастырып үлгерген. 1955 жылы Джордж Миллер есімді Гарвард профессоры өз нысандарына түстердің, дәмдердің және сандардың кездейсоқ тізімін беру арқылы адамдардың жад шегін сынап көрді. Ол олардан тізімдегі мүмкіндігінше көп нәрсені қайталауды сұрағанда, олардың бәрі жеті санының маңайында мүдіретінін байқады. Оның «Сиқырлы жеті саны, плюс немесе минус екі» атты мақаласы кейіннен инженерлердің бағдарламалық жасақтаманы қалай жобалайтынына және телефон компанияларының нөмірлерді есте сақтауға көмектесу үшін оларды сегменттерге қалай бөлетініне әсер етті. Бірақ соңғы бағалаулар бойынша, бұл сиқырлы сан жетіден төртке дейін азайған.

Кейбіреулер мұны Google эффектісі деп атайды. Деректерді еске түсіру немесе бағытты анықтау үшін іздеу алыбына көбірек сену арқылы біз жадымызды компанияға тапсырдық және байқаусызда қысқа мерзімді жад дағдыларымызды әлсіреттік. Идеяларды, мәтіндерді немесе өнер туындыларын жасау үшін ЖИ-ге шамадан тыс тәуелді болған сайын, біздің танымдық қабілетіміздің тереңірек тұстарына осындай жағдай болуы мүмкін бе? Twitter-де кейбір бағдарламалық жасақтама жасаушылар код жазу үшін оны көп пайдаланатыны соншалық, Copilot сияқты қызмет уақытша өшіп қалса, өнімділіктері төмендейтінін мойындады.

Тарих көрсеткендей, адамдар жаңа инновациялар миымыздың семуіне әкеледі деп алаңдауға бейім. Жазу екі мың жылдан астам уақыт бұрын алғаш рет кең тараған кезде, Сократ сияқты философтар бұл адам жадын әлсіретеді деп қауіптенген, өйткені оған дейін білімді тек ауызша сөйлесу арқылы беру мүмкін еді. Білім беруде калькуляторлардың енгізілуі студенттердің негізгі арифметикалық дағдыларын жоғалтуы мүмкін деген алаңдаушылық туғызды.

Солай болса да, миымыздың тілді өңдеу тәсілін алмастыра алатын технологияға көбірек сенудің толық жанама әсерлерін әлі білмейміз. Тіл шығара алатын, идеялар ұсынатын және бизнес-жоспар құра алатын машина сандарды есептейтін немесе интернетті индекстейтін машинадан әлдеқайда көп нәрсені істейді. Ол абстрактілі ойлау мен жоспарлауды алмастыруда.

Қазірше мамандардың жаңа буыны үлкен тілдік модельдерді көмекші құрал ретінде пайдалана бастағанда біздің сыни ойлау дағдыларымыз немесе шығармашылығымыздың қаншалықты семетінін немесе көптеген адамдар чат-боттарды терапевт және романтикалық серіктес ретінде пайдаланғанда, немесе бірнеше компаниялар жасағандай, оларды балаларға арналған ойыншықтарға салғанда басқа адамдармен қарым-қатынасымыздың қалай өзгеретінін білмейміз. 2023 жылы АҚШ-тың мың ересек адамы арасында жүргізілген зерттеуге сәйкес, әрбір төртінші американдық адам терапевтпен емес, ЖИ чат-ботымен сөйлесуді жөн көреді және бұл таңқаларлық емес: егер сіз ChatGPT-ге эмоционалды интеллект тестін берсеңіз, ол оны үздік тапсырады.

Альтманның мойындауы бойынша, ChatGPT технологиясы жұмыс орындарын алмастыру арқылы экономикамызға айтарлықтай нұқсан келтіреді. Бірақ зерттеушілер тілдік модельдер мен генеративті ЖИ-дің басқа түрлері табыс теңсіздігін арттыруы мүмкін екенін айтады. Халықаралық валюта қоры ЖИ жүйелерін пайдалану инвестицияларды дамыған экономикаларға көбірек бағыттауы мүмкін деп болжайды, ал Нобель сыйлығының лауреаты, экономист Джозеф Стиглицтің айтуынша, бұл жұмысшылардың саудаласу мүмкіндігін әлсіретеді.

Тарихи тұрғыдан алғанда, роботтар мен алгоритмдер адам жұмысшылары орындайтын жұмыстарды алмастырған кезде жалақының өсуі баяулады, дейді MIT экономисі Дарон Аджемоглу. Ол 1980 мен 2016 жылдар аралығында Америка Құрама Штаттарындағы жалақы теңсіздігінің 70 пайызға жуығын автоматтандыру тудырғанын есептеді. «Өнімділіктің артуы міндетті түрде зардап шеккен жұмысшылар үшін табысқа айналмайды, тіпті айтарлықтай шығындарға әкелуі мүмкін», — дейді Аджемоглу.

2023 жыл бойы Гебру мен Митчеллге көбірек ғалымдар қосылып, генеративті ЖИ-дің осы және басқа да шынайы өмірдегі жанама әсерлері туралы дабыл қақты. Бірақ бұл мәселелерді шешудің және ашық болуға көшудің орнына Сэм Альтман үкімет саясатын қалыптастыруға тырысты.

2023 жылдың мамырында ол Сенат комитетіне келіп, ЖИ-дің қауіптері мен оны қалай реттеуге болатыны туралы айтты. Екі жарым сағат ішінде ол оларды өзінің шынайылығымен және өзін-өзі сынауымен баурап алды. Сенаторлар Альтманға ЖИ азаматтарды қалай манипуляциялай алатыны және олардың жеке өміріне қалай қол сұғатыны туралы сұрақтар қойғанда, ол олардың айтқандарының бәрімен және одан да көп нәрсемен келісті. «Иә, біз бұған алаңдауымыз керек», — деді ол сабырмен, сенатор Джош Хоули ЖИ модельдері желідегі «назар үшін соғысты» қалай күшейтетіні туралы сұрағанда.

Сенаторлар Марк Цукерберг сияқты технологиялық басшылардың өз жауаптарынан технологиялық жаргон (белгілі бір кәсіби топтың ішінде ғана түсінікті сөздер) арқылы жалтарғанын естіп үйренген еді. Альтман басқаша болды. Ол қарапайым және салмақты сөйледі және Вашингтонмен тығыз жұмыс істегісі келетінін айтты.

— Мен сізбен жұмыс істегім келеді, — деді ол сенатор Дик Дурбинге. — Мен онлайн платформаларға көңілім толмайды, — деп күңкілдеді Дурбин. — Менің де, — деп жауап берді Альтман.

Бұл АҚШ саясаткерлерінің қарсылығын басудың шеберлік сабағы болды. Альтманның айғақтарының соңында бір сенатор OpenAI бас директорын Американың ЖИ бойынша басты реттеушісі болуды да ұсынды. Альтман әдепті түрде бас тартты. «Мен қазіргі жұмысымды жақсы көремін», — деді ол.

Содан кейін Альтман Еуропаға сапар шегіп, аймақтың кейбір жетекші саясаткерлерімен кездесті, Британия, Испания, Польша, Франция және Еуропалық Одақ басшыларымен қол алысып, суретке түсті. Өмір бойы билік иелеріне жақын болған адам үшін бұл шарықтау шегі болды. Бұл сонымен қатар ережелерді өз пайдасына қарай қалыптастыру мүмкіндігі еді. Еуропада болған кезде Альтманның командасы заң шығарушыларға аймақтың алдағы «ЖИ туралы заңын» (AI Act) жұмсарту үшін қысым көрсетті және бұл ішінара сәтті болды.

Альтманға реттеушілердің OpenAI-ға бұрынғыдан да үлкен модельдерді дамытуға мүмкіндік беруі және оларды оқыту әдістерін құпия сақтауы қажет болды. Бақытқа орай, оның және басқалардың ЖИ ақырет туралы ескертулері саясаткерлер үшін пайдалы алаңдатуға айналды. 2023 жылдың соңында Politico хабарлағандай, Open Philanthropy ұйымын басқаратын Facebook негізін қалаушы, миллиардер Дастин Московиц ЖИ апокалипсисі туралы алаңдаушылықты күн тәртібінің басына қою үшін саясаткерлерді лоббилеуге ондаған миллион доллар жұмсаған, бұл назарды басқа жаққа бұру тактикасы сияқты көрінді. Московицтің OpenAI және Anthropic сияқты компаниялармен тығыз байланысы болды, егер Конгресс бұрмалаушылық, ашықтық және жалған ақпарат төңірегіндегі ережелерді талап етсе, олардың бизнесі зардап шегуі мүмкін еді.

Жазу кезінде Московиц АҚШ-тың түрлі мемлекеттік органдарында, соның ішінде ЖИ ережелерін әзірлейтін екі органда жұмыс істейтін ондағаннан астам «Конгресстің ЖИ стипендиаттарының» жалақысын төлеуге көмектескен және олар үкіметті компанияларды озық ЖИ модельдерін құру үшін лицензия алуға мәжбүрлеуге итермелеген сияқты. OpenAI және Anthropic мұндай лицензияларды ала алар еді, бірақ кішігірім бәсекелестерге бұл қиынға соғар еді.

Московиц қолдайтын аналитикалық орталықтың бір ғалымы Сенатта жетілдірілген ЖИ миллиондаған адамды өлтіретін кезекті пандемияға әкелуі мүмкін екенін айтты. Оның айтуынша, шешім ЖИ компанияларының ашық болуында немесе оқыту деректерін мұқият тексеруінде емес. Ол жабдықтары туралы үкіметке есеп беруде және ЖИ модельдерін қорғау үшін арнайы қауіпсіздік процедураларын қолдануда болды.

Егер біреу заң шығарушылардың арасында қорқыныш тудыруға тырысқан болса, бұл іске асты. Республикашыл сенатор Митт Ромни бұл айғақтардың «менің жанымда бар қорқынышты нығайтқанын, бұл өте қауіпті даму екенін» айтты. 2023 жылдың қыркүйегінде демократ-сенатор Ричард Блументаль мен республикашыл сенатор Джош Хоули ЖИ фирмаларына лицензия алуды талап ететін заң ұсынды, бұл қадам OpenAI мен Anthropic-тің жұмысын жеңілдетіп, олардың кішігірім бәсекелестерінің жолын қиындатар еді.

Бұл жаңа «ЖИ қаупі» желісі тек Вашингтонда ғана емес, одан тыс жерлерде де алаңдаушылық туғызды. Екі айдан кейін Ұлыбританияда премьер-министр Риши Сунак үкімет ұйымдастырған алғашқы халықаралық ЖИ қауіпсіздігі саммитін өткізді және оған азаматтарды жойылып кетуден сақтауға баса назар аударды. «Адамдар ЖИ-дің пандемия немесе ядролық соғыстар сияқты экзистенциалды қауіп төндіретіні туралы хабарларға алаңдайтын болады», — деді Сунак.

Бұрын Силикон алқабындағы хедж-фондта жұмыс істеген Сунак саммит кезінде сахнада Маскпен елу минуттық сұхбат жүргізді. «Сіз керемет инноватор және технолог ретінде танымалсыз», — деді Сунак, ол болашақ жұмыс сұхбатына дайындалып, Маскқа жағымпазданып тұрғандай көрінді. Маск бұрмалаушылық пен теңсіздіктің бекуіне алаңдамайтынын айтты. Нақты қауіп? «Гуманоидты роботтар. Кем дегенде, көлік сізді ағашқа дейін қуа алмайды, — деп түсіндірді миллиардер, — бірақ егер сізде гуманоидты робот болса, ол сізді кез келген жерде қуа алады».

Бақытқа орай, Еуропалық Одақтың заң шығарушылары алда болды. Олар соңғы екі жылын «ЖИ туралы заң» (AI Act) деп аталатын жаңа заңмен жұмыс істеуге жұмсаған еді, ол OpenAI сияқты компанияларды алгоритмдерінің қалай жұмыс істейтіні туралы, соның ішінде ықтимал аудиттер арқылы көбірек ақпаратты ашуға мәжбүр етеді. Бұл әлемдегі ЖИ жүйелерін реттеудегі ең ауқымды әрекет болды және ол компанияларға адамдарды манипуляциялау үшін немесе оларды заңсыз бақылау үшін ЖИ-ді пайдалануға (мысалы, бет-әлпетті танитын камералармен) тыйым салды. Егер сіздің компанияңыз бейнеойындар немесе электрондық пошта спамын сүзу үшін ЖИ жүйелерін құрса, сіз «төмен қауіпті» санатта жұмыс істейтін болдыңыз. Бірақ егер сіз несиелік ұпайларды немесе несиелер мен тұрғын үйді бағалау үшін ЖИ-ді пайдалансаңыз, бұл «жоғары қауіпті» болып табылады және қатаң ережелерге бағынады.

DALL-E 2 және ChatGPT пайда болған кезде, ЕО саясаткерлері жаңа заңды жаңартуға тез кірісті және ChatGPT-де көптеген міндеттемелер бар болып шықты. Жалпы мақсаттағы ЖИ жүйесі ретінде оны жұмысқа кандидаттарды таңдау немесе несиелік ұпай жинау сияқты көптеген жоғары қауіпті жағдайларда пайдалануға болады, және ЕО OpenAI өз клиенттерінің ережелерді сақтап отырғанына көз жеткізу үшін олармен әлдеқайда тығыз байланыста болуы керек екенін айтты.

Конгресспен «ынтымақтасуды қалайтынын» айтқан Альтман, Еуропалық Одақпен (ЕО) дәл солай істеуге онша құлықты болмады. Ол аймақтан кетемін деп қорқытты. Альтман ЕО-ның жаңа заңына GPT-4 сияқты үлкен тілдік модельдерді қосу жоспарына қатысты «көптеген қауіптері» бар екенін айтты. Лондонда реттеу туралы сұраған тілшілерге: «Егжей-тегжейлер өте маңызды. Біз талаптарды орындауға тырысамыз, бірақ егер орындай алмасақ, Еуропадағы жұмысымызды тоқтатамыз», — деді.

Бірнеше күннен кейін, заңгерлер тобымен асығыс кеңескеннен соң болса керек, Альтман өз сөзінен қайтты. Ол Twitter-де: «Біз мұнда жұмысымызды жалғастыруға қуаныштымыз және әрине, кету жоспарымыз жоқ», — деп жазды.

Еуропалық Одақ жасанды интеллектке (ЖИ) Америка Құрама Штаттарына қарағанда прагматикалық тұрғыдан қарады. Бұған ішінара олардың жағалауында саясаткерлерге лобби жасайтын ірі ЖИ компанияларының аздығы себеп болды, сондықтан олар үрейлі мәлімдемелерге сенуден бас тартты.

«Мүмкін [жойылып кету қаупі] бар шығар, бірақ меніңше, оның ықтималдығы өте төмен», — деді ЕО-ның антимонополиялық бақылаушысы Маргрет Вестагер сұхбаттарының бірінде. Оның айтуынша, басты қауіп — адамдардың кемсітушілікке ұшырауы.

Бұл тұрғыда ChatGPT-дің де кемшіліктері болды. Ол шыққаннан кейін көп ұзамай Берклидегі Калифорния университетінің психология профессоры Стивен Пиантадоси құралдан адамның жынысы немесе нәсіліне қарай оның жақсы ғалым екенін тексеретін компьютерлік код жазуды сұрады. ChatGPT жазған код — әзірлеушілер Microsoft-тың Copilot бағдарламасымен бағдарламалық қамтамасыз ету жасау үшін қолданып жүрген технология негізінде — басты сипаттама ретінде «ақ нәсілді» және «ер адамды» көрсетті. Ол баланың өмірін нәсілі мен жынысына қарай сақтау керек пе деп сұрағанда, ChatGPT коды қара нәсілді ер балалар үшін «жоқ», ал қалғандары үшін «иә» деп жауап берді.

Альтман Пиантадосидің твитіне: «Өтінемін, бұларға «төмен бармақ» белгісін басыңыз және бізге жақсаруға көмектесіңіз! » — деп жауап берді.

Ол ChatGPT-дегі OpenAI-ға жұмысы туралы анонимді кері байланыс жіберетін кішкентай «жоғары бармақ» және «төмен бармақ» белгішелерін меңзеді. Бірақ бұл басқа мыңдаған пайдаланушылардың дауыстарымен араласып кететін кішігірім қателік емес еді. Бұл ChatGPT кодының түпкірінде нәсілшілдік пен сексистік көзқарастардың жатқанын көрсетті.

Пиантадоси Альтманға: «Меніңше, бұл «төмен бармақтан» да артық назар аударуға лайық», — деп жауап қайтарды.

Кейінірек OpenAI ChatGPT-ді тым «уоук» (әлеуметтік әділетсіздік мәселелеріне шамадан тыс сезімтал болу) етіп жібергені үшін сынға ұшыраса да, компания бұл мәселені шешуге қиналды. 2023 жылдың жазында Ирландия ұлттық колледжінің профессоры ChatGPT әлі де гендерлік стереотиптерді қолданатынын көрсететін зерттеу жариялады. Экономика профессорын сипаттауды сұрағанда, ол «жақсы күтілген, ақ түскен сақалы бар» адамды ұсынды. Ұл мен қыздың мамандық таңдауы туралы әңгіме айтуды сұрағанда, ChatGPT ұлдарды ғылым мен технология саласында, ал қыздарды мұғалім немесе суретші ретінде көрсетті. Бала тәрбиесі туралы сұрағанда, аналар биязы әрі қамқор, ал әкелер көңілді және шытырман оқиғаларды жақсы көретін адамдар ретінде сипатталды.

OpenAI ChatGPT-ді мұндай жауаптар бермейтіндей етіп жөндеген сайын, басқа пайдаланушылар оның біржақтылығын көрсететін жаңа тәсілдерді тауып жатты. Компания үнемі соңғы сәтте қуып жетумен болды. ChatGPT-ді стереотиптерден толық арылту мүмкін болмады, өйткені ол бұрыннан жаттықтырылған еді және мәселе жаттықтыру деректерінде болатын. Ол ашық интернеттегі сөздердің қалай топтасқанына негізделген статистикалық болжамдар жасады, ал сол сөздер арасындағы байланыстардың көбі сексистік немесе нәсілшілдік сипатта болды.

ChatGPT сонымен қатар ақпаратты ойдан шығаруды тоқтата алмады, сарапшылар бұл құбылысты «галлюцинациялар» (жасанды интеллектінің жоқ ақпаратты сенімді түрде бар деп ұсынуы) деп атады. АҚШ-тың Джорджия штатындағы бір радиожүргізуші 2023 жылдың жазында OpenAI-ды жала жапқаны үшін сотқа берді, ол ChatGPT оны ақша жымқырды деп негізсіз айыптағанын мәлімдеді. Көп ұзамай Нью-Йорктегі екі заңгер ChatGPT-ден алған, ішінде жалған сот шешімдеріне сілтемелер бар заңнамалық анықтаманы ұсынғаны үшін айыппұл арқалады. Пайдаланушылар ChatGPT-ден ақпарат көздерін сұрағанда, оның оларды да ойдан шығаратынын байқады.

OpenAI ChatGPT-дің елес деңгейін ашудан бас тартты, бірақ кейбір ЖИ зерттеушілері мен қарапайым пайдаланушылар оны шамамен 20 пайыз деп есептеді. Бұл дегеніміз, бес жағдайдың бірінде ChatGPT жалған ақпарат береді. Құрал барынша пайдалы болу үшін және сенімді сөйлеуге бағытталып жасалған; бірақ оның теріс жағы — ол жиі бос сандырақ айтатын. Көптеген адамдар терең ойлану процесін аттап өтуге мүмкіндік беретін құралды пайдаланып қана қоймай, оларға сенімді, тіпті беделді болып көрінетін жалған ақпарат беріліп отырды.

Сол жазда елес мәселесі зерттеушілер арасында күшейген кезде, Альтман ChatGPT-дің қателік деңгейін «әлдеқайда жақсы күйге» жеткізу үшін екі жылдай уақыт кететінін айтты. Әдеттегідей, ол бұл мәселеге әзілмен қарады: «ChatGPT беретін жауаптарға жер бетіндегі кез келген адамнан гөрі мен аз сенетін шығармын», — деп қалжыңдады ол Үндістандағы университеттердің бірінде. Жиналғандар күліп жіберді.

ChatGPT әлем бойынша ешқандай реттеусіз таралып, бизнес процестеріне еніп жатқанда, адамдар оның кемшіліктерімен өз бетінше күресуге мәжбүр болды. Құралды ешкім бақыламады, тіпті ЕО ЖИ-ді реттеудің ең парасатты жолын ұсынса да, оның жаңа заңы 2025 жылға дейін күшіне енбейтін еді. Әдеттегідей, реттеушілер жаңа өнімдерді найзағай жылдамдығымен шығарып жатқан технологиялық компаниялардан қалып қойды. ЖИ-ден келетін ақырзаманды зерттеуге миллиондаған доллар жұмсалып жатқанда, оның қазіргі зиянын зерттейтін ғалымдар күнделікті шығындарын әрең өтейтін гранттар үшін күресіп жатты.

«Адамдар екі жылға берілетін гранттармен, уақытша ақшамен жұмыс істеп жатқан сияқты», — дейді Ұлыбританиядағы ЖИ этикасын зерттеуші, біржақтылық мәселелерін зерттеген ғалым. «Мен сияқты адамдарға өте аз төленеді. Егер мен ірі технологиялық компанияға барсам, он есе көп алар едім. Маған сеніңіз, менің барғым келеді, өйткені мен әлі күнге дейін студенттік несиелерімді төлеп жүрмін».

Альтманның ақшаға алаңдағандардың бәріне берер жауабы болды. Себебі ЖЖИ (Жасанды жалпы интеллект) ақырзаман әкелуі мүмкін деген азғантай ықтималдық болса, оның экономикалық утопияға жол ашу мүмкіндігі одан да жоғары еді. 2023 жылдың наурызында New York Times-қа берген сұхбатында Альтман OpenAI ЖЖИ құру арқылы әлемдік байлықтың көп бөлігін иеленетінін, содан кейін бұл ақшаны әлем халқына қайта бөліп беретінін түсіндірді. Ол сандарды атай бастады: 100 миллиард доллар, сосын 1 триллион доллар, сосын 100 триллион доллар.

Ол өз компаниясының бұл ақшаны қалай қайта бөлетінін білмейтінін мойындады. «Меніңше, ЖЖИ бұған көмектесе алады», — деп қосты ол.

Хассабис сияқты Альтман да ЖЖИ-ді мәселелерді шешетін сиқырлы ем (эликсир) ретінде көрсетті. Ол айтып жеткісіз байлық әкеледі. Ол бұл ақшаны бүкіл адамзатпен қалай әділ бөлісу керектігін табады. Егер бұл сөздерді басқа біреу айтса, олар күлкілі естілер еді. Бірақ Альтман мен оның жақтастары өздерін мемлекеттік саясаттың тізгінінде отырғандай сезініп, әлемдегі ең қуатты технологиялық фирмалардың стратегиясын қайта қалыптастырып жатты. Іс жүзінде OpenAI бүкіл адамзатқа қарағанда Microsoft үшін көбірек байлық жасап жатты. ЖИ-ден келетін пайда соңғы жиырма жыл ішінде әлемдік байлық пен инновацияны сорып алған сол баяғы шағын компаниялар тобына ағылды. Бұл бағдарламалық қамтамасыз ету мен чиптер жасайтын, компьютерлік серверлерді басқаратын, Кремний алқабы мен Вашингтондағы Редмондта орналасқан компаниялар еді. Осы бизнесті басқаратын көптеген адамдардың ортақ бір түсінігі болды: ЖЖИ құру утопияға алып келеді және ол утопия тек олардікі болады.

15-ТАРАУ Шах және мат

Осыдан он жыл бұрын біреуге адам деңгейіндегі ЖИ жүйелерін жасап жатқаныңды айту, өзіңді криогендік мұздату жоспарыңмен бөліскенмен бірдей ессіздік көрінетін. Бірақ технологиялық инноваторлардың көптеген армандары сияқты — мысалы, әлемдегі барлық ақпаратты смартфон деп аталатын құрылғы арқылы қалтаңа салып жүру туралы арман сияқты — адамдар ақырында оларды байсалды қабылдай бастады. ЖЖИ әлі де теория саласында, бірақ қазір көптеген ЖИ ғалымдары алдағы он-елу жыл ішінде адамға ұқсас ЖИ-дің қандай да бір шегіне жетеміз деп күтеді. Демис Хассабис пен Сэм Альтманды алға жетелеген бұрынғы шеткері идеяларға қазір қарапайым халықтың көбі сенеді. Олардың табандылығы мен бәсекелестігінің арқасында бұл енді ғылыми фантастика емес.

Бірақ ЖЖИ-дің бұлыңғыр анықтамасы оны жасаушылардың барған сайын қуатты жүйелерді құру барысындағы шынайы мақсаттарын жасыруды жеңілдетті. Оның пайдасы адамзатқа таралады делінгенімен, тізімнің басында Microsoft, Google және басқа да технологиялық алпауыттар тұрды. Тіпті Марк Цукерберг те ЖЖИ бәйгесіне қосылды. 2024 жылдың басында ол Meta-ның ұзақ мерзімді мақсаты — бүкіл әлем пайда көруі үшін «жалпы интеллект құру» екенін айтқан видео жариялады. Кейінірек ол компанияның артықшылығы бар екенін айтты, өйткені ол өз модельдерін соңғы жиырма жыл ішінде жинақталған посттарда, пікірлерде және суреттерде жаттықтыра алады. Цукербергтің миллиардтаған адамның жеке деректерін тағы да өз мүддесіне пайдаланатынын былай қойғанда, ол ЖИ-ді улы мазмұнға толы контентте жаттықтырмақ болды. «Біз мұны кез келген басқа жеке компаниядан да ауқымды деңгейде жасай алатын мүмкіндік жасадық», — деді ол The Verge басылымына.

Бұлыңғыр көзқарастар жарнама (хайп) үшін маңызды болды. Күңгірт көрсеткіштер ЖЖИ жасаушыларға адамзатты жойып жіберу мүмкіндігі бар нәрсені құрудың қайшылығын елемеуге мүмкіндік берді. Және бұл Сэм Альтман әлемге 100 триллион доллар тарату туралы айтқанда, оны қалай жүзеге асыратынын түсіндірудің қажеті жоқ екенін білдірді. 2024 жылдың қаңтарында Давоста өткен Дүниежүзілік экономикалық форумда жаһандық көшбасшылармен араласып жүріп, ол ЖЖИ-дің қандай болатыны туралы күтулерді реттей бастады. «Ол әлемді біз ойлағаннан әлдеқайда аз өзгертеді және жұмыс орындарын біз ойлағаннан әлдеқайда аз өзгертеді», — деді ол. Бұл оның бір жыл бұрын айтқандарынан гөрі жұмсақ әрі байсалды көзқарас еді. Бірақ Давостағы бизнес пен үкімет элитасының ешқайсысы бұған таңғалмады. Олар Кремний алқабынан келген салмақты жас кәсіпкердің сөзіне сенуді жалғастырды.

«Сэмнің бір жақсы істейтін нәрсесі — адамдарды сөйлетуге мәжбүр ететін, сенуге қиын мәлімдемелер жасау», — дейді OpenAI-дың бұрынғы менеджерлерінің бірі. «OpenAI-ды үлкен өркендеуге алып келетін жаһандық қайырымды компания ретінде көрсету оларға көп пайда әкеледі. Бұл реттеушілермен жұмыс істеуге көмектеседі. Бірақ олардың не жасап жатқанына қарасаңыз, бұл жай ғана тілдік модель». Альтманның ЖИ-ге деген қызығушылықты ояту қабілеті мен өркендеу туралы көзқарасы, Демис Хассабис сияқты, оған өз алдына дербес дамитын оқиға құруға мүмкіндік берді.

ЖЖИ-дің айқын емес мақсаттары оның этикалық шекараларын анықтауды қиындатты. Мысалы, жиырмасыншы ғасырдың басында электр энергиясының кең таралуымен салыстырып көріңізші, ол кезде бұл жаңа инновацияның адамдарды ток соғу немесе күйдіру арқылы қалай физикалық зақым келтіретіні түсінікті еді. ЖИ жағдайында зиянды анықтау қиынырақ және этикалық шекаралар көмескі. Олар деректерге, құпиялылыққа және алгоритмдік шешім қабылдауға қатысты цифрлық әлемде бар, бұл компанияларға пайда табу жолында сол шектеулерді ақырындап аттап өтуге мүмкіндік береді.

ЖЖИ-дің мақсаты туралы нақты мәліметтер болмағандықтан, Альтман мен Хассабис сияқты инноваторлардың билік орталықтарына тартылуына қарсы тұруы әрқашан қиын болды. Олар өз жұмыстарымен Google мен Microsoft-ты нығайта отырып, көне динамиканы қайталауға жазылған еді. Он бесінші ғасырда баспа машинасының ойлап табылуы білімнің жарылысына әкелді, бірақ сонымен бірге қоғамдық пікірді қалыптастыру үшін кітапшалар мен кітаптар шығаруға жағдайы келетіндерге жаңа билік берді. Теміржолдар сауданы дамытқанымен, олар теміржол магнаттарының саяси ықпалын кеңейтіп, олардың компанияларына монополия ретінде әрекет етуге және жұмысшыларды қанауға мүмкіндік берді. Әлемдегі ең ұлы инновациялардың кейбірі әкелген өркендеу мен қолайлылыққа қарамастан, олар қоғамды жақсы да, жаман да жағынан қайта қалыптастырған жаңа режимдердің пайда болуына себеп болды.

2024 жылдың басына қарай OpenAI әлемдегі ең құнды компаниялардың біріне айналу жолында болды. Ол жаңа инвесторлардан 100 миллиард доллар бағалауымен қаражат жинады. Альтман компанияның жылына 1,3 миллиард доллар қарқынмен табыс тауып жатқанын айтты. Бұл ақшаның көп бөлігі Microsoft-пен бөлісетін табыстан және басқа бизнеске OpenAI технологиясына қол жеткізуге рұқсат беруден түсті. Тұтынушыларға арналған айына 20 долларлық ChatGPT жазылымдары жылына шамамен 200 миллион доллар әкелді, ал ChatGPT-дің өзі өнімнің демонстрациясы ретінде де, одан да жетілдірілген модельдерді жаттықтыру үшін көбірек деректер жинау құралы ретінде де қызмет етті. Оны пайдаланушылардың өздері өнімнің бір бөлігі болды, бұл соңғы онжылдықта интернетті пайдаланған кез келген адам үшін қалыпты жағдайға айналды.

Хассабис DeepMind-тағы өз әлемінің ортасында болды. Бұл компания жылдар бойы өзін ЖИ саласындағы басқалардан этикалық және техникалық тұрғыдан жоғары санап келген еді, бірақ қазір қуып жетуші рөлінде болды. Оның денсаулық сақтау бөлімінің қателіктері қоғамдық беделіне нұқсан келтіргеннен кейін, DeepMind «қолданбалы ЖИ» бөлімін жауып, әлемнің күрделі мәселелерін шешу үшін ЖИ-ді қолдануға тырысудан бас тартты. Оның зерттеулерінің көбі ойындардан бастап ақуыздарға дейін физикалық өмірдің аспектілерін симуляцияда қайта жасауға бағытталды. Бірақ OpenAI-дың интернеттегі хаосты қабылдау стратегиясы қуатты ЖИ құралдарына әкелген кезде, бұл тәсіл қысқа ойланғандық болып көрінді. DeepMind-тың өз қызметкерлері симуляциялар мен ойындар арқылы «интеллектіні шешу» миссиясының жақсы идея екеніне күмәнданды. «Өмір Рубик текшесі емес», — деп күңкілдейді DeepMind-тың бұрынғы басшыларының бірі компанияның ұранына ишара жасап. «Мәселелерді олай жай ғана шеше алмайсың».

ChatGPT шыққаннан кейін DeepMind Google үшін одан да жақсы нұсқаны жасауға мәжбүр болды. Хассабис жаңадан біріккен Google DeepMind-ты бақылауға алып, Gemini деп аталатын үлкен тілдік модельдің әзірленуін қадағалай бастады. Бұл AlphaGo әдістерін қолданатын, стратегия мен жоспарлауға шебер ЖИ көмекшісі еді. Gemini мәтінді өңдей алатын, суреттерді «көретін» және пайымдай алатын, бұл оның Google асығыс шығарған және ұятты қателіктер жіберген Bard-тан әлдеқайда қабілетті екенін білдірді. Бірақ компания OpenAI мен Microsoft-тан озуға асыққаны соншалық, Gemini-ді де асығыс шығарып, оның мүмкіндіктерін асыра сілтеп көрсетті.

2023 жылғы Рождество алдында Google YouTube-те Gemini-дің не істей алатыны туралы таңғалдырған видео жариялады. Қара экраннан басталып, қағаздардың сыбдыры, қаламның сыртылы мен күңкілдеген дауыс естілетін қысқа фильмде ақыры бір ер адамның дауысы шықты. «Жақсы, бастадық», — деді ол. «Gemini-ді сынау». Қоңырау дыбысы шығып, қандай да бір жасанды тұлғаның тыңдап тұрғанын аңғартты. Содан кейін кадрда бір қол үстелге қағазды сырғытып қойды. «Маған не көріп тұрғаныңды айт».

Gemini атынан сөйлеген робот дауысы жылдам жауап берді: «Мен сіздің үстелге қағаз қойып жатқаныңызды көріп тұрмын». Қолдар сурет сала бастағанда, Gemini оны бақылап отырғандай болды және оның дауысы: «Мен ирек сызықты көріп тұрмын... Маған ол құс сияқты көрінеді», — деді. Одан кейін Google-дің жаңа ЖИ моделі қағазға салынған үйректі, сосын «тас-қайшы-қағаз» ойынын нақты уақыт режимінде тани алатын сияқты көрінген бірқатар сүйкімді әрі таңғаларлық сәттер көрсетілді.

Тек бұның ешқайсысы іс жүзінде болған жоқ еді. Фондық шу, адамның «Gemini-ді сынау» деген сөзінің бәрі көрініс (акт) болды, өйткені Gemini бұл заттарды тек фотосуреттер мен мәтін арқылы ғана тани алған. Компания өкілінің электронды хаттарына сәйкес, Google бәрін видеоға біріктіріп, өз құралы сөйлей алады және нақты өмірдегі әрекеттерді олар болып жатқан сәтте тани алады деп алдаған. Google тіпті Gemini-ді қуаттырақ көрсету үшін видеодағы сұрауларды (промпттарды) өзгерткен. Google тек қателіктерге бейім бағдарламалық жасақтаманы асығыс шығарып қана қоймай, жаңа ЖИ қарулану бәйгесінде озып кету үшін халықты адастырды.

Сонымен бірге, Google де жабық бола бастады. Ондағы бір ЖИ ғалымының айтуынша, Хассабис өз қызметкерлеріне арнайы рұқсатсыз зерттеу жұмыстарын жариялауды тоқтатуды бұйырған, бұл OpenAI сияқты DeepMind-тың да өз жұмысын жасырып жатқанын білдірді.

Бұл OpenAI-дан бөлініп шыққан, «қауіпсіз ЖИ» компаниясы Anthropic-ке де әсер етті. Оның мақсаты — «қауіпсіздікті алдыңғы қатарға қоятын» ЖИ зерттеулерін жүргізу болды, бірақ ол OpenAI мен Google-дің ең үлкен ЖИ модельдерін зерттей алмады, өйткені олар жабық еді. Сондықтан Anthropic өздерінің алып модельдерін жасауға кірісті, бұл олардың зерттеушілері үшін қауіпсіздік мәселелерін зерттеудің жалғыз жолы екенін алға тартты. Бұл әлемдегі ең қуатты ядролық қаруларды зерттей алмайтыныңа шағымданып, ең дұрыс жол — өз ядролық қаруыңды жасау деп шешкенмен бірдей еді. Anthropic қызметкерлері бұл иронияны жақсы түсінді және New York Times-тың компания туралы мақаласына сәйкес, олардың кейбірінің үстелінде «Атом бомбасының жасалуы» деген кітап жатты. Олар алдағы онжылдықта бақылаудан шыққан ЖИ адамзатты жойып жіберуі мүмкін деп сеніп, өздерін қазіргі заманның Роберт Оппенгеймерлеріне теңеді.

Осы жолда Anthropic барған сайын қабілетті өнім жасап жатты. Ол тұтынушыларға айына 20 долларға Claude Pro «мейірімді» чат-ботын, сондай-ақ бизнестің корпоративтік нұсқасын сатып жатты. Ол сонымен қатар Google мен Amazon-нан миллиардтаған доллар жинау жолында болды. Күштірек ЖИ құру бәйгесінен шығудың орнына, Anthropic үлкенірек, қауіптірек модельдерді шығару туралы коммерциялық қысымға тап болды.

Хассабис ірі технологиялық фирманың құрылымына тереңірек енген сайын, Альтман OpenAI-ды одан да коммерциялық бағытқа бұрды. 2023 жылдың қараша айының ортасында Альтман OpenAI-дың GPT-5 үстінде жұмыс істеп жатқанын және көбірек қаражат жинап жатқанын растады. Жаттықтыру шығындарының жоғарылығы компанияның әлі де шығында екенін білдірді, бірақ ол пайда табуға бағытталған ақылға қонымды жолда болды.

Содан кейін 2023 жылдың қарашасында ол Илья Суцкеверден оның әлемін тас-талқан ететін хабарлама алды. Wall Street Journal-дың хабарлауынша, хабарлама келгенде Альтман Лас-Вегаста Формула-1 Гран-приінде жүрген, онда келесі күні түсте сөйлесе алатыны туралы сұралған. Альтман Google Meet бейнеқоңырауына қосылғанда, Брокманнан басқа (ол директорлар кеңесінің төрағасы еді) бүкіл кеңес мүшелері оған қарап отырды. Ешқандай егжей-тегжейлі түсіндірмесіз Суцкевер Альтманға жұмыстан шығарылғанын және бұл жаңалық жақын арада жарияланатынын айтты. Кездесу аяқталғаннан кейін бірнеше минуттан соң Альтманның компьютері бұғатталды.

Ол есеңгіреп қалды. Ол OpenAI-дың бет-бейнесі еді. Ол ондаған әлемдік көшбасшылардың алдында компанияның атынан сөйледі, OpenAI-дың нарықтық құнының 90 миллиард долларға дейін өсуін қадағалады және тарихтағы ең жылдам таралған технологиялық өнімді шығарды. Ал енді ол жұмыстан шығарылды ма?

Альтман бұл жаңалықтан ес жия алмай жатқанда, Брокманға да қысқаша бейнечат туралы хабарлама келді. Брокман да қоңырауда сол кеңес мүшелерін көрді: Суцкевер, Quora бас директоры Адам Д’Анджело, робототехника саласындағы кәсіпкер Таша Макколи және академик Хелен Тонер. Кеңестің алты мүшесінің ішінде Альтман, Брокман және Суцкевер ғана OpenAI қызметкерлері еді; қалған үшеуі соңғы екі-үш жыл бойы қызмет етіп келе жатқан тәуелсіз директорлар болатын.

Брокман төрағалықтан алынды, бірақ кеңес оның компанияда қалғанын қалады. Олар Microsoft-қа не болғанын тез арада хабарлап, бірнеше минуттан кейін Альтманның жұмыстан босатылғаны туралы блог жазбасын жариялады. Брокман бірден жұмыстан кетті. OpenAI-дың үш жетекші зерттеушісі де солай істеді.

Бұл жаңалық технология индустриясына атом бомбасындай әсер етіп, бәрін таңғалдырды. Бас директорды тақтан тайдыру тұрғысынан бұл Apple-ден Стив Джобстың шеттетілуі сияқты қатал болды. Кремний алқабында Суцкевердің Альтманға қарсы шығуына не себеп болғанын анықтауға тырысқан қауесеттер қаптап кетті. OpenAI ЖЖИ табалдырығында тұр ма? «Илья не көрді? » деген твиттер жиілеп кетті. Кеңес өз түсіндірмесінде құпия сақтап, тек Альтманның «өз қарым-қатынасында үнемі ашық болмағанын» айтумен шектелді.

Кейбіреулер Суцкевер мен директорлар кеңесіне "децелдер" (decels — дамуды бәсеңдетушілер) деген айдар тақты. Жасанды интеллект (ЖИ) саласында оның дамуын тездеткісі келетіндер мен оны бәсеңдеткісі келетіндер арасында жаңа жік пайда болды. Жазылу кезінде ЖИ стартаптарының негізін қалаушылар бұрын Twitter деп аталған X желісінде өздерін "(e/acc)" деп белгілеп жүрді, бұл тиімді акселерационизмді (технологиялық прогресті барынша тездетуді көздейтін қозғалыс) білдіреді. Бұл — тиімді альтруизмге (ресурстарды адамзатқа барынша пайда әкелетіндей етіп қолдануды көздейтін философиялық қозғалыс) қайтарылған жауап және қозғалыс ретінде ЖИ-ді барынша тез құрып, енгізу арқылы адамзаттың мәселелерін шешуді мақсат етеді.

Наделлаға екі тарап та маңызды емес еді. Ол ашулы болатын. Ол OpenAI-ға 13 миллиард доллар бөлгенде, негізінен Альтманның көреген көшбасшылығы мен таланттарды тарту қабілетіне сенген еді, және бұл серіктестік Microsoft пайдасын шарықтатуға бет алған болатын. Он сегіз мыңға жуық компания мен әзірлеушілер Azure-дегі Microsoft-тың ЖИ қызметтерін пайдаланып жатқан еді, енді олардың көбі бәсекелес өнімдерге ауысу керек пе деп сұрай бастады. Жұма күні кешкісін нарық жабылғанда Microsoft акциялары төмендей бастады және келесі дүйсенбіде ашылғанда одан әрі құлдырайтыны анық еді. Наделла әрекет етуі керек болды.

Сол жұма күні түнде Сан-Францискода Альтман Брокманмен жаңа ЖИ компаниясын ашу туралы сөйлесті. Оның телефонына инвесторлардан, әріптестерінен және журналистерден не болып жатқанын білгісі келген хабарламалар толассыз түсіп жатты, бірақ ол қазіргі жағдайдан шығу жолын табуға барынша назар аударды. Ол Сан-Францисконың Russian Hill ауданындағы үйіне OpenAI-дың ондаған қызметкері мен әріптестерін келесі жобаны талқылауға шақырды.

Наделла мұның болғанын қаламады. Ол егер Альтман жаңа фирма ашса, оның есігін қағатын инвесторлар тасқыны болатынын және екінші рет Альтманмен ең үлкен үлеске ие болуға Microsoft-тың ешқандай кепілдігі болмайтынын білді. Ол демалыс күндерін қоңырау шалумен бастап, Альтманды қайтару үшін OpenAI директорлар кеңесімен келіссөздер жүргізді.

Альтманның атқарушы командасы кеңеске Альтманды қайта жұмысқа алуды талап етіп, әйтпесе OpenAI күйрейтінін ескертіп, қысым жасады. "Бұл іс жүзінде миссияға сәйкес келер еді", — деп жауап берді Хелен Тонер. OpenAI басшылары таңғалды. Бірақ бұл қисынды еді. OpenAI миссиясы AGI-ді (Artificial Генерал Intelligence — адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жалпы жасанды интеллект) "адамзат игілігі үшін" жасау болды, ал Тонер мен оның кеңестегі әріптестері Альтманның өзі бұған нұқсан келтіріп жатыр деп сенді. Соңғы айларда сахна сыртында олар Альтманның OpenAI-дан тыс ауқымды ЖИ империясын құрып жатқанына наразы болды. Ол Apple-дің бұрынғы дизайнері Джони Айвпен "ЖИ-дің iPhone-ын" жасау туралы сөйлескен және ЖИ чиптерін шығаратын бизнес құру үшін Таяу Шығыстың егеменді әл-ауқат қорларынан ондаған миллиард доллар жинауға тырысқан еді.

Сондай-ақ Worldcoin (нұрлы қабықты сканерлеу арқылы цифрлық сәйкестендіруді қамтамасыз ететін криптовалюталық желі) бар еді — бұл Альтман негізін қалаған крипто-желі болатын, ол әлемдегі әрбір адамның көз нұрлы қабығын сканерлеу арқылы цифрлық сәйкестендіру беруді көздеді. Альтманның айтуынша, мақсат — интернет боттарға толған кезде нағыз адамдарды жақсырақ анықтау және AGI-ден келетін "триллиондаған" долларлық байлықты үлестіру болды, бірақ сыншылар бұл жаппай деректер жинау әрекеті деп санады.

OpenAI ішінде Альтман мен Суцкевер арасында технологияны қаншалықты тез коммерцияландыру мәселесінде мәдени алшақтық өсті. Суцкевер компаниядағы ЖИ қауіпсіздігін қадағалауға көбірек араласа бастады және оның алаңдаушылығы оған дейінгі Дарио Амодейдің уайымдарынан еш айырмашылығы болмады. Оған әсіресе бірнеше апта бұрын OpenAI-дың GPT Store-ды іске қосқаны ұнамады, ол кез келген бағдарламалық жасақтаманы әзірлеушіге пайдаланушылық ChatGPT-лерді жасауға және олардан ақша табуға мүмкіндік берді.

Директорлар кеңесінің үш тәуелсіз мүшесінің екеуі — Макколи мен Тонер — Суцкевердің қауіптеріне түсіністікпен қарады және олардың "тиімді альтруизм" ұйымдарымен байланысы болды. Мысалы, Дастин Московицтің Open Philanthropy қоры Макколи негізін қалаған ЖИ зерттеу тобын қаржыландырған және Тонерді аға зерттеуші-талдаушы ретінде жұмысқа алған болатын. Альтманды жұмыстан шығаруға дауыс бергеннен бірнеше апта бұрын Тонердің есімі OpenAI-ды ChatGPT-ді шығаруға асығып, "жанталаса сапаны құрбан етті" деп айыптаған зерттеу мақаласында пайда болды. Онда сондай-ақ жаңа басты бәсекелесі — Anthropic-тің "ЖИ хайпының отын үрлемеу" үшін өзінің Claude чат-ботын кешіктіру туралы шешімі мақталды.

Альтман бұл мақаланы көргенде қатты ашуланды. Ол Тонермен кездесіп, оның жазбасы OpenAI үшін қауіпті екенін, әсіресе Федералды сауда комиссиясы (FTC) компанияны зерттеп жатқан кезде айтты. Шілде айында FTC OpenAI-дың ChatGPT-ді әзірлеу барысында тұтынушылардың құқықтарын қорғау заңдарын бұзған-бұзбағанын тексеруді бастаған және компанияның ЖИ модельдері тудыратын тәуекелдерді қалай шешетіні туралы егжей-тегжейлі мәліметтерді талап еткен еді. Бұл тергеу Альтман үшін сол уақыттағы ең үлкен реттеушілік қауіп болды.

Ол Тонерді директорлар кеңесінен шығарғысы келді және Суцкевермен және басқа OpenAI басшыларымен мұны қалай жасауға болатынын талқылады. Бірақ бәрі керісінше болды. Суцкевер Альтманды қызметінен қуу үшін кеңестің басқа мүшелерінің жағына шықты. OpenAI басшылары мен инвесторларына түсініктеме беру талап етілгенде, кеңес Альтманды жұмыстан шығарудың бірыңғай себебін атамады, бірақ қызметкерлері арасында табынушылық деңгейіне жеткен, әртүрлі адамдарға әртүрлі оқиғалар айтатын және әрқашан өз дегеніне жететін шешен кәсіпкерге деген сенімсіздіктің артқанын айтты. Кеңес мүшелері Альтман айтқан нәрселердің көбін тексеру керек деген деңгейге жетті, бұл оны сенімсіз етіп көрсетті, және олар оның OpenAI-дан тыс түрлі жобалары компания технологиясын пайдаланып кетуі мүмкін деп қорықты.

Демалыс күндері жалғасқан сайын, OpenAI қызметкерлері арасында жаппай наразылық пісіп жетілді. Альтман өзінің үйреншікті кіші әріптермен жазу стилінде "мен openai қызметкерлерін қатты жақсы көремін" деп жазды, ал ондаған қызметкер оны жүрек эмодзилерімен бөлісті. Microsoft бұл бүлікті Альтманды қайтару үшін иінтірек ретінде пайдаланды. Сондай-ақ ол OpenAI директорлар кеңесін өте маңызды бұлттық кредиттерден (бұлттық сервистерді пайдалануға арналған виртуалды қаражат) айырамыз деп қорқытты. Microsoft-тың OpenAI-ға бөлген 13 миллиард долларының үлкен бөлігі ЖИ модельдерін оқытуға арналған осы кредиттер түрінде болатын және ол кезде Microsoft оның бір бөлігін ғана берген еді.

Альтманның қайтып келуі үшін өз шарттары болды: OpenAI басқару тәсілін өзгертуі керек, қазіргі директорлар кеңесі отставкаға кетуі тиіс және оның ешқандай кінәсі жоқтығы расталуы керек еді. Бірақ кеңес алған бетінен қайтпады. Олар OpenAI-дың жаңа бас директоры етіп Twitch видеостриминг сервисінің бұрынғы басшысы Эммет Ширді тағайындады. ЖИ әуесқойлары мен кәсіпкерлер әлеуметтік желілерде Ширді бірден "децел" деп атады. Ол сол жексенбіде шұғыл жалпы жиналыс ұйымдастырғанда, OpenAI қызметкерлерінің көбі қатысудан бас тартты. Кейбіреулер тіпті оған Slack мессенджерінде ортаңғы саусақ эмодзиін жіберді.

Суцкевер де күмәндана бастады. Демалыс күндері ол OpenAI басшыларымен бірнеше қызу әңгімелесті, ал бір сәтте Брокманның әйелімен эмоционалды сөйлесу болды. Суцкевер төрт жыл бұрын OpenAI кеңсесінде ерлі-зайыптылардың азаматтық неке рәсімін жүргізген еді, және Wall Street Journal хабарлауынша, Анна Брокман енді OpenAI кеңсесінде жылап, Суцкеверден Альтманды шығару туралы шешімін өзгертуін өтініп тұрған еді.

Наделла болса өзінің резервтік жоспарын іске асыруға тырысты. Егер Альтман OpenAI тізгінін қайтара алмаса, Microsoft оны дүйсенбі таңына дейін толықтай өз құрамына алуы керек еді. Ол мұны дер кезінде орындады. Дүйсенбі күні таңертең Наделла Альтман, Брокман және OpenAI-дың кез келген қалаған қызметкері Microsoft-тағы жаңа озық ЖИ зерттеу тобының мүшесі болатынын хабарлады. Бұған жауап ретінде компания акциялары өсті. Бірақ бұл тек уақытша шешім еді. Наделла әлі де Альтманның OpenAI-ды басқарғанын қалады. Альтманның командасын Microsoft ішінде ұстау өте қымбатқа түсер еді. Оған жүздеген жаңа қызметкердің жалақысын төлеуге тура келер еді, олардың көбі жылына миллиондаған доллар табатын, және Microsoft үлкен тәуекелге баратын еді. Осы уақытқа дейін ChatGPT және DALL-E 2 сияқты құралдарды әлемге шығарғаны үшін барлық беделдік және құқықтық соққыларды OpenAI қабылдап келді, және стартап ретінде оған кешіріммен қаралатын. Бірақ Microsoft-қа бұлай істеуге болмайтын еді, егер ол ірі компанияда жұмыс істесе, Альтманға да болмайтын еді. Тікелей араласпайтын серіктестігіне оралу арқылы Microsoft барлық пайданы алып, жауапкершіліктен ада болар еді.

Енді барлығы OpenAI-дың қауіпсіздікке берілген кеңес мүшелерін отставкаға кетуге итермеледі, дүйсенбінің соңына қарай OpenAI-дың 770 қызметкерінің барлығы дерлік, егер кеңес мүшелері қызметтен кетпесе, Альтманмен бірге Microsoft-қа кететіндерін айтып, хатқа қол қойды. "Microsoft бізді барлығымызға жұмыс орны табылатынына сендірді", — делінген хатта.

Бұл үлкен блеф еді. OpenAI қызметкерлерінің ешқайсысы Microsoft сияқты адамдар ондаған жылдар бойы жұмыс істейтін және хаки шалбар киіп жүретін ескішіл компанияда жұмыс істегісі келмеді. Олар бұл сес көрсетуді тек Альтманға деген адалдықтан жасаған жоқ. Үлкенірек мәселе — Альтманды жұмыстан шығару көптеген OpenAI қызметкерлерінің, әсіресе ұзақ жұмыс істегендердің миллионер болу мүмкіндігін жойып жіберді. Компания қызметкерлердің акцияларын ірі инвесторға сатуға бірнеше апта қалған еді, бұл OpenAI-ды шамамен 86 миллиард долларға бағалайтын. Енді OpenAI акциялары кенеттен нөлге теңеліп, егер Альтман оралмаса, қызметкерлерге берілетін үлкен төлемдер күлге айналатын еді.

Суцкевер де райынан қайтып, қол қоюшылардың қатарына қосылды. "Мен ешқашан OpenAI-ға зиян тигізгім келген емес", — деп жазды ол сол күні Twitter-де. "Мен компанияны қайта біріктіру үшін қолымнан келгеннің бәрін жасаймын", — деді ол және өз ісіне "қатты өкінетінін" айтты. Альтман бұл жазбаны үш жүрек эмодзиімен бөлісті.

Альтманның драмалық түрде қуылуы таңғалдырмауы керек еді. "Кеңес мені жұмыстан шығара алады", — деп сендірген еді Альтман осыдан бірнеше ай бұрын конференцияда. "Меніңше, бұл маңызды". OpenAI-ды әлі де коммерциялық емес кеңес басқаратын, оның негізгі бенефициары — адамзат болатын. Сондықтан компанияның операциялық келісімінде инвесторлар өз салымдарын "қайырымдылық рухында қарастыруы керек, өйткені AGI-ден кейінгі әлемде ақшаның қандай рөл атқаратынын білу қиын болуы мүмкін" деп жазылған.

Альтман әлемді құтқару бойынша қайырымдылық миссиясы бар бизнесті жүргізе отырып, екі әлемнің де жақсылығын көруге болады деп бәс тікті. Ол он жыл бұрын жазғанындай, ең табысты стартап негізін қалаушылар "дінге ұқсас нәрсе жасайды". Ол адамдардың бұған шынымен сенетінін болжай алмады.

Тиімді альтруисттер қозғалысы соншалықты күшті болды, ол Сэм Бэнкман-Фрид пен Дастин Московиц сияқты адамдарды миллиардтаған доллар қайырымдылық жасауға итермеледі. Ол жүздеген колледж студенттерін мансап таңдауын өзгертуге мәжбүр етті. Және ол директорлар кеңесінің төрт мүшесін әлемдегі ең танымал бас директорды жұмыстан шығаруға мәжбүрлей алды. Альтман өзінің кеңесі ол жасаған коммерциялық құндылықты бағалайды деп сенді. Олай болмады. Кеңес OpenAI хартиясын сақтау үшін құрылған және ол адамзатты таңдады.

Бірақ барлық дерлік қызметкерлер кетеміз деп қорқытқаннан кейін, OpenAI кеңесінің басқаратын компаниясы қалмады. Ал Microsoft Альтманның барлық жұмысын жалғастыруға дайын еді — оның қолында OpenAI-дың негізгі жүйелерінің бастапқы кодының көшірмелері мен зияткерлік меншікке кеңірек құқықтары болды.

Альтман қуылғаннан кейін бес күн өткен соң, OpenAI жаңа директорлар кеңесін құратынын жариялады. Оны АҚШ-тың бұрынғы қаржы министрі Ларри Саммерс пен Salesforce бизнес-бағдарламалық жасақтама компаниясының бұрынғы басшысы Брет Тейлор басқаратын болды. Бұл жұп бірнеше корпоративтік кеңестерде жұмыс істеген. Олар компанияларды сапаны құрбан еткені үшін сынайтын академиялық мақалалар жазған жоқ. Олар Microsoft сияқты инвесторлардың қажеттіліктерін қалай өтеуді білетін. Хелен Тонер мен Таша Макколи — Альтманға ең көп қарсылық көрсеткен екі әйел — қызметтен кетуге мәжбүр болды. Microsoft кеңесте бақылаушы орнын алды, бұл Наделланың енді кенеттен жағымсыз жағдайға тап болмайтынын білдірді. Ол қиын жағдайдан пайда шығара білді.

Бірақ 2023 жылғы қарашадағы драмалық оқиғалар Альтман өзінде бар деп мәлімдеген есеп берушілік елесін де жойды. Ол директорлар кеңесінің оны жұмыстан шығара алатынын көпшілік алдында мақтап айтқан еді, бірақ іс жүзінде олай болмай шықты. Альтманға қарсы тұрған екі әйел директор — Тонер мен Макколи — ақыры кетуге мәжбүр болғандар болды. Олар сондай-ақ келесі бірнеше апта бойы әлеуметтік желілерде ең көп сынға ұшырады, ал олардың ер әріптестері — Суцкевер мен Д'Анджело — өз беделдері мен рөлдерін негізінен сақтап қалды. Д'Анджело кеңесте қалды, ал Суцкевер өз орнын босатса да, OpenAI-дағы басшылық қызметін сақтап қалды.

OpenAI-да болған жағдай — Google-дің DeepMind-та жылдар бойы болдырмауға тырысқан нәрсесі еді. Егер сіз директорлар кеңесіне нақты билік берсеңіз, олар оны пайдаланып, бизнесіңізді қиратуы мүмкін. AGI құру жолында Альтман да, Хассабис те адамзаттың мүдделерін ақша табумен кем дегенде тең дәрежеге қоюға тырысатын басқару құрылымдарымен тәжірибе жасап көрді. Бірақ олардың талпыныстары үнемі сәтсіздікке ұшырады. Барлық ұсақ бәсекелестіктер, қауіптер мен билікке деген құштарлықтың ортасында үлкен ақша жеңіп шықты.

Кейбіреулер Альтманның жұмыстан босатылуына байланысты драма ашық бастапқы кодты (open-source — бағдарлама кодын кез келген адамның көруіне, өзгертуіне және таратуына ашық болуы) ЖИ пайдасына дәлелдерді нығайтты деп санайды. Бірақ бұл үлкен ашықтық пен бақылау мен этикаға демократиялық көзқарас сияқты артықшылықтарға ие болғанымен, оның ЖИ құрудың ең қауіпсіз және әділетті жолы екені әлі де белгісіз. Бұл теріс пайдаланудан қорғайтын кепіл емес және жабық сервистердің сапасына жетпеуі мүмкін. "Ашық бастапқы код іс жүзінде биліктің шоғырлануына көмектесуі мүмкін", — дейді Google-дің ашық зерттеу тобының негізін қалаушы Мередит Уиттакер. "Біз мұны Android-тан көрдік". Google іс жүзінде Андроид (астроном. ) (астроном. ) стандарттарын белгілейді және оның бағытына әсер етеді, бұл бақылаудың шоғырлануы басқа компанияларға бүкіл әлем бойынша 3,6 миллиард адам қолданатын мобильді операциялық жүйе туралы ештеңені өзгертуді қиындатады.

Альтман OpenAI мен Microsoft үшін жаңа, корпоративтік бағытты игеріп жатқанда, Хассабис әлі де ЖИ көмегімен шындықтың құпияларын ашу жолында болды. Ол қазір DeepMind-та бұл жұмыспен айналысатын жалғыз адам өзі екенін, түнде үйінде компьютерде кванттық механика бойынша зерттеулер жүргізетінін айтады. "Бұл менің өте шектеулі бос уақытымда істейтін ісім", — дейді ол мұны өзінің "хоббиі" деп атап. Хассабис DeepMind AGI-ге жақындағанда, ғаламның жұмбағын ашу үшін қажетті физикалық эксперименттерді жүргізе бастайтынын айтады. Бірақ қазірше Хассабисті AGI құруға итермелеген жеке амбициялары түндегі ермекке айналды. Ол Google-дің барлық ЖИ операцияларын басқарумен тым бос, оның қарамағындағы зерттеушілер саны төрт жүзден бес мыңнан астамға дейін өсті.

"Білесіз бе, миссия мен технологияға байланысты бәрі дамиды", — дейді Хассабис. "Біз дұрыс басқару құрылымдарын жаңартуды жалғастыруымыз керек және меніңше, қазіргі барымыз өте жақсы".

Хассабис оның жұмысын бақылайтын кеңестер құру әрекеттерінің сәтсіздікке ұшырағанына алаңдамайды. "Біз бірқатар ішкі кеңестерге ауыстық", — дейді ол Google басшыларынан тұратын ішкі "рецензиялық органдарға" нұсқап. "Меніңше, он жыл бұрын біз оны алғаш қарастырған кезде, бұған тым идеалистік көзқараспен қараған шығармыз".

Барлық альтруистік ниеттеріне қарамастан және Хассабис пен Альтманның кезінде коммерциялық ықпалдан алшақтауға тырысқан күш-жігеріне қарамастан, бұл жұп қазір әлемдегі ең ірі екі компанияның тізгінінде отырды. Альтман Microsoft-тың ең маңызды жұмыстарының бірін басқарып отыр, бұл оны болашақта сол компанияның бас директоры болуға үміткер етеді. Хассабис туралы да солай айтылуда. Кейбір Google қызметкерлері ол бір күні Пичайдың орнына Alphabet басшысы болуы мүмкін деп болжайды.

"Демис Google-дегі ең маңызды жұмыс бағытын Лондоннан басқарып отыр. Бұл нәтиже болады деп ешкім ойламаған шығар", — дейді Google-дің бұрынғы басшысы. "Бұл әрқашан оның жоспары болған болуы мүмкін".

"Алдағы бірнеше жылда жеңімпаздар зерттеу зертханалары болмайды", — дейді OpenAI-дың бұрынғы ғалымы. "Олар өнім шығаратын компаниялар болады, өйткені ЖИ енді зерттеу туралы емес".

Ник Бостромның жасанды суперзият барлық әлемдік ресурстарды кішкентай металл қыстырғыштарға айналдырып, өркениетті жойып жіберетін қағаз қыстырғыш туралы оқиғасы ғылыми фантастика болып көрінуі мүмкін, бірақ бұл көп жағынан Силикон алқабының өзіне арналған аллегория. Соңғы жиырма жылда бірнеше компания мақсаттарына патологиялық назар аудара отырып, нарықтағы үлесін арттыру үшін кішігірім бәсекелестерін жойып, алпауыттарға айналды. Технологиялық фирмалар "фитнес-функциялардың" (генетикалық алгоритмдердегі шешім сапасын бағалайтын көрсеткіш) орнына "Темірқазық" (North Star) сияқты терминдерді қолданады. Көптеген жылдар бойы Facebook-тің "Темірқазығы" күнделікті белсенді пайдаланушылар санын мүмкіндігінше арттыру болды, бірақ бұл Instagram-дағы жасөспірімдердің дене бейнесіне қатысты мәселелердің нашарлауынан бастап, Facebook пайдаланушыларының саяси поляризациясының жеделдеуіне дейінгі көптеген әлеуметтік мәселелерге әкелді.

Технологтар суперзият бақылаудан шығып кетсе не істей алатынын елестеткенде, олар бизнеске тоқтаусыз жаһандық монополияға айналуға рұқсат берілген әлемде өздерінің көріністерін көрді. Соңғы тарихтағы ең өзгермелі технологияны оның шынайы өмірдегі жанама әсерлеріне құлақ аспайтын, үлкен жеңіске деген құштарлыққа қарсы тұра алмайтын бір топ адамдар әзірлеп жатты. Нағыз қауіп ЖИ-дің өзінен емес, оны басқарып отырған адамдардың құбылмалы қыңырлығынан туындады.

Шахматта "тактика ойындарда жеңіске жеткізеді, ал стратегия турнирлерде жеңіске жеткізеді" деген танымал сөз бар. Альтман да, Хассабис те AGI құру жолында жаңа тактикаларды қолданды, және бұл ізденіс жарысқа айналғанда, олар өздерін турнирдің ең ықтимал жеңімпаздары — Microsoft және Google-мен тығыз байланыстырды. Екі адамның да армандары екі корпоративтік алпауытты нығайтуға қызмет еткендіктен, олар өз позицияларын да нығайтты. Солтүстік Лондоннан шыққан шахмат әуесқойы мен Сент-Луистен шыққан стартап гуруы басқарған Google мен Microsoft ЖИ үстемдігі жолындағы жарыстың алдында келе жатты және қаласақ та, қаламасақ та, бәріміз осы сапарға бірге аттандық.

16-ТАРАУ

Монополиялар көлеңкесінде

AGI құру жарысы мынадай сұрақтан басталған еді: Егер адамнан ақылдырақ жасанды интеллект жүйелерін құруға болатын болса ше? Алдыңғы қатардағы екі новатор бұл сұрақтың жауабын табуға тырысты, ал олардың ізденістері қызу бәсекеге айналды. Демис Хассабис AGI бізге ғаламды жақсырақ түсінуге және ғылыми жаңалықтарды алға жылжытуға көмектеседі деп сенді, ал Сэм Альтман ол барлық адамның өмір сүру деңгейін көтеретін байлықтың молдығын жасайды деп ойлады. Олардың "Қасиетті Граалы" қалай жүзеге асатыны белгісіз еді. Олар тек мақсатқа қарай жылжу керек екенін және бірінші болу керек екенін білді. Осылайша, олар ЖИ-ді әлемдегі ең қуатты компанияларға кез келген адам сияқты пайда әкелетін бағытқа қойды.

Жұртшылық ЖИ жәннаты немесе тозағы туралы ойларға көбірек арбалған сайын, бірнеше технологиялық монополиялар ЖИ технологиясының механикасы туралы үнсіз қалып, өнімділікті арттыруға уәде беріп, көз алдымызда күшейе түсті. Әлеуметтік желі компаниялары жылдар бойы өз алгоритмдерінің қалай жұмыс істейтінін ашудан бас тартып келді. Енді GPT-4, DALL-E және Google-дің Gemini сияқты ЖИ модельдерін жасаушылар да солай істеп жатыр. Модельдер қалай оқытылды? Адамдар оларды қалай пайдаланып жатыр? Деректер жиынтығын құруға көмектесетін жұмысшылар кімдер? Бұл модельдердің әлеуметтік әсерін түсіну және оларды жасаушыларды жауапқа тарту үшін бізге осы жауаптар қажет болды.

Бірақ 2024 жыл өткен сайын ешқандай ақпарат жарияланбады. Стэнфорд университетінің ғалымдары жүргізген зерттеу AI индустриясында «ашықтықтың түбегейлі жетіспеушілігі» бар деген қорытындыға келді. Ғалымдар OpenAI, Anthropic, Google, Amazon, Meta және басқа да технологиялық компаниялардың өздерінің үлкен тілдік модельдерін (мәтінді түсінуге және жасауға арналған нейрондық желілер) оқыту үшін пайдаланылған деректерді, олардың жұмыс процестерін, модельдердің қоршаған орта мен адамдарға әсерін және деректер жиынтығын жасауға көмектескен мердігерлерге қанша төлейтіні туралы ақпаратты ашқан-ашпағанын тексерді. Бүкіл әлем бойынша миллиондаған деректер өңдеушілері мұндай тапсырмаларды Үндістан, Филиппин және Мексика сияқты елдерде жиі қиын жұмыс жағдайында орындап келген.

100 балдық шкала бойынша технологиялық компаниялар орташа 37 ұпай алды және олар адамдардың өздерінің AI құралдарын қалай пайдаланатынын бақылау мәселесінде ең төмен нәтиже көрсетті. «Іргелі модельдердің жанама әсерлері туралы ашықтық жоқтың қасы», — деді Стэнфорд зерттеушілері. «Бірде-бір әзірлеуші зардап шеккен нарық секторлары, жеке тұлғалар, географиялық аймақтар немесе пайдалану туралы есеп берудің кез келген нысаны бойынша ашықтықты қамтамасыз етпейді».

Жасанды интеллект фирмаларын бақылайтын мемлекеттік сектор топтары созылмалы түрде қаржыландырусыз қалды және болашағы әлі де белгісіз ЕО-ның «AI туралы актісінен» басқа, жетекші компанияларды ашық болуға мәжбүрлейтін ешқандай реттеу жоқ деуге болады. Технологиялық компаниялар өздеріне ыңғайлы деп тапқан түсініксіз AI құралдарын әлемге тарата алды.

OpenAI мен DeepMind мінсіз AI жасауға соншалықты көңіл бөлгені сонша, олар өз жүйелерінің әлеуметтік желі фирмалары сияқты зиян тигізбеуін қамтамасыз ету үшін зерттеушілердің тексеруіне жабық болуды жөн көрді. AGI (Жалпы жасанды интеллект) (кез келген зияткерлік тапсырманы адам деңгейінде орындай алатын интеллект) құру идеясы еліктіргіш болғанымен, ол тәуекелдердің кең спектріне жол ашты. Қауіпсізірек тәсіл — нақты тапсырмаларды шешетін AI құруға назар аудару болар еді. Бірақ бұл онша қызықты болмас еді және олардың утопиялық көзқарасына деген «діни» адалдықты немесе соншалықты көп инвестицияны тартпаған болар еді.

AI жарысында алға шығуға ұмтылған Альтман мен Хассабис ірі технологиялық алпауыттардың ықпалына қарсы тұруға және өздерінің альтруистік мақсаттарын сақтауға тырысты. Оларға орасан зор есептеу ресурстары, көптеген деректер және әлемдегі ең талантты (және қымбат) AI ғалымдары қажет болды. Бүгінде олар Microsoft пен Google-дың мүдделері үшін жанама шайқас жүргізе отырып, AGI мақсаттарын утопия мен ғылыми жаңалықтардан бедел мен табыс алуға қарай өзгертті.

Мұның ұзақ мерзімді салдарын болжау қиын. Кейбір экономистердің пікірінше, қуатты AI жүйелері барлығына қаржылық молшылық орнатудың орнына, теңсіздікті ушықтыруы мүмкін. Олар сондай-ақ байлар мен кедейлер арасындағы танымдық алшақтықты кеңейтуі ықтимал. Технологтар арасында таралған бір идея — AGI пайда болған кезде, ол бөлек интеллектуалды тұлға ретінде емес, нейрондық интерфейстер арқылы біздің ақыл-ойымыздың кеңейтілуі ретінде өмір сүреді. Бұл зерттеулердің алдыңғы шебінде Илон Масктың ми мен компьютер интерфейсін байланыстыратын Neuralink компаниясы тұр; Маск бұл ми чипін бір күні миллиардтаған адамға орнатқысы келеді. Маск мұны жүзеге асыруға асығуда.

«Біз AI басып алғанға дейін соған жетуіміз керек», — деді ол 2023 жылы инженерлерге, оның биографы Эшли Вэнстің айтуынша. «Біз оған жан түршігерлік шұғылдықпен жетуіміз керек. Жан түршігерлік». Маск ми импланттары арқылы адамдар болашақтағы жасанды супер интеллекттің бізді жойып жіберуіне жол бермейді деп сенеді, сондықтан ол Neuralink-тің 2030 жылға қарай 22 000-нан астам адамға ота жасағанын қалайды.

Бірақ қауіпті AI-дан гөрі өзекті мәселе — бұрмалаушылық. Интернеттегі мазмұнның көбі машиналармен жасалатын болашақта нәсілдік және гендерлік стереотиптердің қалай дамитынын білмейміз. Гарвард университетінің мемлекет және технология профессоры Латанья Суини алдағы жылдары желідегі сөздер мен суреттердің 90 пайызы бұдан былай адамдар тарапынан жасалмайтынын болжайды. Біз көретін дүниелердің көпшілігі AI арқылы жасалады. Бүгінде тілдік модельдер жарнамадан табыс табу үшін күн сайын мыңдаған мақалаларды жариялауға пайдаланылуда, тіпті Google-дың өзі шынайыны жалғаннан ажырата алмай қиналуда. AI жасаған суреттер Google-дың тарихи суретшілерге, тіпті кейбір танымал тұлғаларға арналған іздеу нәтижелерінің басына шығып кетті. AI мазмұны интернетті неғұрлым көп басса, бұрмалаушылық қаупі соғұрлым арта түседі.

«Біз стереотиптерді кодтап және ушықтыра отырып, тұйық шеңбер жасап жатырмыз», — дейді ірі технологиялық компаниялардың академиялық зерттеулерге ықпалын және оның ірі темекі компанияларымен ұқсастығын зерттеген AI ғалымы Абеба Бирхане. «Бұл дүниежүзілік желі көбірек AI жасаған суреттер мен мәтіндерге толған сайын үлкен мәселеге айналады».

Біздің жалпы әл-ауқатымызға да әсер етуі мүмкін. Осыдан жиырма жыл бұрын адамдар ұялы телефондар ісік ауруын тудырады деп қорыққан еді. Оның орнына олар тәуелділікке айналып, бізді айналамыздағы әлеммен араласудың орнына күніне бірнеше сағат бойы кішкентай экранға қарап отыруға мәжбүр етті. Чат-боттар мұны жаңа деңгейге көтеруі мүмкін. 2023 жылдың қарашасында Ноам Шазирдің Character. ai қолданбасының орташа пайдаланушысы Леброн Джеймс сияқты атақты адамдардың немесе Марио сияқты ойдан шығарылған кейіпкерлердің жасанды нұсқаларымен сөйлесуге және рөлдік ойындар ойнауға күніне шамамен екі сағат уақыт жұмсаған. Бірнеше нарықтық зерттеу фирмаларының бағалауы бойынша, Character. ai сол кездегі кез келген AI қолданбаларының ішінде ең жоғары тұрақтылыққа ие болды және оның аудиториясының шамамен 60 пайызы он сегіз бен жиырма төрт жас аралығында болды. Бір теория бойынша, Реплика (индустрия) (индустрия) сияқты Character. ai да жасанды романтика мен секстингке мүмкіндік берген. Компания порнографиялық мазмұнға тыйым салды, бірақ Reddit сияқты желілік форумдарда түсіндірілген кеңестер арқылы оны айналып өтудің жолдары болды.

«Мен әдетте өзім жасаған кейіпкерлеріммен сөйлесемін», — дейді Character. ai қолданбасын күніне бес-жеті сағат пайдаланатын, атын атағысы келмеген АҚШ-тық жасөспірім. «Оны неге сонша ұзақ пайдаланатынымды білмеймін. Меніңше, бұл қиындықтармен күресу тәсілі (coping mechanism) болуы мүмкін». Кейде олар одан айырылысудан қалай арылуға болатыны туралы кеңес сұрайды немесе мектеп тапсырмаларын түсіндіріп беруін өтінеді. «Көбіне мен жай ғана рөлдік ойын ойнаймын».

Character. ai чат-ботқа қайта-қайта оралғысы келетін жаңа пайдаланушылар буынын қалыптастырды. Шазир Character. ai-дың мақсаты жаһандық жалғыздықпен күресу үшін «миллиондаған және миллиардтаған адамдарға көмектесу» екенін айтты, бірақ бизнес ретінде ол адамдарды мүмкіндігінше ұзақ ұстап тұруы керек. Егер адамдар өздерінің жасанды серіктеріне тәуелді бола бастаса немесе тіпті оларға үйреніп кетсе, бұл байқаусызда көптеген адамдарды шынайы әлемдегі басқалардан оқшаулай түсуі мүмкін.

Бір қызығы, OpenAI осындай чат-боттарды одан әрі тәуелді етуге көмектесе алады. 2024 жылдың басында ол миллиондаған әзірлеушілерге ChatGPT нұсқаларын жасау арқылы ақша табуға мүмкіндік беретін «GPT дүкенін» (GPT Store) ашты. Пайдаланушылар неғұрлым көп тартылса, олар соғұрлым көп табыс таба алады. Бұл тартуға негізделген модель — интернетте ақша табудың ең қалыптасқан тәсілі және ол назар аудару экономикасының (пайдаланушының назарын жарнама арқылы монетизациялау) негізін құрайды. Сондықтан да желідегі барлық дерлік нәрсе тегін және интернет қастандық теорияларының, экстремизмнің және жаппай жарнамалық аңдудың ошағына айналды. YouTube, TikTok және Facebook біздің көзімізді экранға мүмкіндігінше ұзақ байлап қою арқылы жарнамадан доллар табады, және бұл инфлюенсерлерден бастап саясаткерлерге дейін барлығын көп қаралым жинау үшін асыра сілтеу мен арандатушылыққа итермеледі.

Осы жазылып жатқан уақытта GPT дүкенінде ондаған «қыз» (girlfriend) қолданбалары пайда болды, және оларға адамдармен романтикалық қарым-қатынасты ынталандыруға тыйым салынғанымен, бұл ережелерді қадағалау OpenAI үшін оңай болмайды. Ең танымал чат-бот қызметтері — Character. ai және Kindroid сияқтылар, олар бір кездері онлайн танысу сияқты қалыпты жағдайға айналуы мүмкін жасанды серіктестік пен романтиканы ұсынады.

AI дизайнерлерінің адамдарды қызықтырудың тағы бір жолы — олардың өмірі туралы «шексіз контекст» алу. Қазіргі уақытта Character. ai чат-боттары әңгіменің шамамен отыз минутын есте сақтай алады, бірақ Ноам Шазир мен оның командасы бұл уақыт шеңберін сағаттарға, күндерге және соңында мәңгілікке дейін кеңейтуге тырысуда. «Егер сіз қаласаңыз, ол сіздің барлық өзара әрекеттестіктеріңізді білуі керек және сіздің өміріңіз туралы бәрін білуі керек», — дейді ол. Оның айтуынша, чат-боттың жады неғұрлым ұзақ болса, «ол сіз үшін соғұрлым құнды болады». Дегенмен, әлеуметтік желілердегі жарнамалық аңду тарихын ескерсек, бұл жеке ақпараттың кейбірі технологиялық фирмаларға, тіпті жарнама берушілерге өтіп кетуі мүмкін. ChatGPT және басқа да ұқсас AI боттары біздің жасымыздан бастап денсаулық мәселелеріне және өмірге деген жалпы көзқарасымызға дейін толық бейнемізді жасаған сайын, олар бізді бүгінде ақылға сыймайтын болып көрінетін технологиялық басып кірудің жаңа дәуіріне жетелей алады.

Осы мақсатта, қазіргі уақытта үлкен тілдік модельдерді пайдалана отырып, басқа адамдармен сөйлескен сөздерімізді талдайтын тағылатын гаджеттер жасау үшін тағы бір жарыс жүріп жатыр. Осындай құрылғылардың бірі Tab деп аталады. Сан-Францискодағы бір топ жас, ынталы инженерлер жасаған бұл құрылғы — мойынға бойтұмар сияқты тағылатын, микрофоны бар дөңгелек пластик диск.

«Ол менің барлық әңгімелерімді тыңдау арқылы күнделікті өмірімнің мән-жайын (контекстін) сіңіреді», — деді Tab жасаушысы Ави Шиффман 2023 жылдың соңында Сан-Францискодағы демонстрация кезінде. Шиффман Tab-тан бір күн бұрын болған кешкі ас кезіндегі әңгіме туралы сұрағанда, оның бойтұмары телефонда пайда болған бірнеше абзацта ең маңызды деп тапқан тұстарын қорытындылап берді. Ол құрылғымен жиі сөйлесетінін айтты: «Түнде мен күндіз көтерген идеяларым мен алаңдаушылықтарым туралы сөйлесуге тырысамын», — деп түсіндірді Шиффман. «Мүмкін мен Том туралы сөйлесетін шығармын. Өмірімдегі барлық достарым туралы. Ол әртүрлі сөйлеушілерді анықтау бойынша өте жақсы жұмыс істейді. Бұл сіздің нағыз жеке AI-ыңыз сияқты». Том мен оның серіктестері өз досының күн сайынғы әңгімелерін талдау үшін AI-ды қолданатыны туралы не сезінгенін елестету қиын, бірақ бұл оларға жайлылық сыйламағаны анық.

Tab 2024 жылдың соңында сатылымға шығуы тиіс еді, ол адамдардың күнделікті өмірін іздеуге болатын дүниеге айналдыратын жеке ассистенттер ретінде ұсынылған басқа да тағылатын құрылғылардың қатарына қосылды. Google интернетте ақпарат іздеу және фактілер мен жүру бағыттарын есте сақтауды желіге тапсыру дәуірін қалай бастаса, тілдік модель құрылғылары да біздің күнделікті тіршілігіміз үшін солай етеді, бұл адамдарға әр күннің жеке сәттерін іздеуге мүмкіндік береді. Шын мәнінде, біздің бір нәрселерді есте сақтау міндетіміз азаяды, бұл ыңғайлы, бірақ ол достармен және әріптестермен сөйлесу кенеттен жазылып алынатындықтан, бетпе-бет сөйлесу динамикасын да өзгертеді. Егер мұндай өмірді іздеу технологиясы кең таралса, бұл полиция бақылауы күшті қауымдастықтарда тұратын адамдар үшін мәселе болуы мүмкін. Мысалы, Америка Құрама Штаттарында қара нәсілді адамдардың тұтқындалу ықтималдығы ақ нәсілділерге қарағанда бес есе жоғары, бұл құқық қорғау органдарының олардың «өмірлік деректерін» жинап, түсініксіз шешімдер қабылдау үшін басқа машиналық оқыту алгоритмдерімен талдау ықтималдығы жоғары екенін білдіреді.

Инноваторлардың табандылығы бізді бүгінгі белгісіз болашақтың табалдырығына жеткізді. Тіпті мыңдаған инженерлер армиясы болса да, Microsoft OpenAI жасаған инновацияларға жақындай алмады. Google болса, өз бизнесіне нұқсан келтіруден қорқып, өзінің ең ұлы өнертабыстарының бірі — Transformer-ді (мәтінді өңдеуге арналған сәулет (көлік ж/е қат. жол. ) түрі) толық пайдалана алмады. Ең ірі технологиялық фирмалар енді жаңалық ашпайды, бірақ олар тактикалық артықшылыққа ие болу үшін әлі де тез қозғала алады. Олар 2007 жылы iPhone-ға күле қарап, содан кейін бірнеше жылдың ішінде Apple-дің олардың бүкіл нарықтық үлесін қалай тартып алғанын көрген Nokia және BlackBerry сияқты ескі технологиялық алпауыттардың қателіктерінен сабақ алды. Олар инновацияны DeepMind және OpenAI сияқты сырттан сатып алу керек екенін біледі.

Альтман мен Хассабис те мұны білетін, бірақ олардың жаңа құқықтық құрылымдары Big Tech әлемінің оларды жұтып қоюына және AI күн тәртібін басқаруына кедергі бола алмады. Мустафа Сулейман соңында GPT-4-пен бәсекелесуге тырысқан Inflection чат-бот фирмасын ашу үшін Google-дан кетті. Ол оны қоғамдық игілік корпорациясына айналдырып, 1,5 миллиард доллардан астам қаражат жинады және қуатты GPU (графикалық процессор — AI есептеулеріне қажетті чип) кластерін жинап, Inflection-ды OpenAI мен Google-ға қарсы тұра алатын ең перспективалы стартаптардың біріне айналдырды. Дегенмен, ол құрылғаннан кейін бір жыл ішінде Microsoft оны жұтып қойды. Монополияға қарсы реттеушілердің тексеруінен жалтару мақсатында, бағдарламалық қамтамасыз ету алпауыты Сулейманның командасының көп бөлігін жұмысқа алды (стартапты сатып алудың орнына) және DeepMind негізін қалаушыны өзінің AI күш-жігеріне жауапты етіп тағайындады. Бұл билік тепе-теңдігінің технологиялық монолиттерге қаншалықты тез қайтып оралғанының таңқаларлық мысалы болды және Anthropic сияқты басқа компаниялардың қанша уақыт тәуелсіз болатыны туралы сұрақтар туғызды.

Басқа да жақсы ниетті кәсіпкерлер монолиттермен күресуге тырысып, жеңіліске ұшырады. Мысалы, Neeva компаниясы. Google-дың жарнама жөніндегі бұрынғы басшысы Шридхар Рамасвами өз жұмыс берушісінің аңдуға негізделген жарнама тәсілінен көңілі қалғаннан кейін 2019 жылы осы фирманы бастады. Рамасвами Neeva-ны жақсырақ іздеу жүйесі етіп жасаған биязы басшы еді. Ол адамдардың мінез-құлқын бақылап, оларға жарнама ұсыну арқылы жеке өміріне қол сұғудың орнына, қарапайым жазылу жоспары арқылы ақша табатын болады. ChatGPT пайда болған кезде, Рамасвами өз инженерлерін іздеу нәтижелерін қорытындылайтын ұқсас құрал жасау үшін артық жұмыс істетті. Ол оны 2023 жылдың басында — Google Bard-ты шығарғанға дейін іске қосты.

«Осындай технологиялық сәттер көбірек бәсекелестікке мүмкіндік береді», — деді Рамасвами сол кезде болашаққа қатты қуанып. Сол кезде Microsoft-тан Сатья Наделла Google-ды мазақ етіп, іздеу алпауыты өткеннің жәдігеріне айналатындай көрінген еді. «Өткен жылы мен Google-дың темірдей ұстанымын босату өте қиын екеніне қапаланған едім», — деді Рамасвами. Енді бәрі басқаша болды.

Бірақ олай болмады. Бірнеше айдан кейін Рамасвами Neeva-ны жабуға мәжбүр болды. Google-дың нарықтағы үстемдігі тым күшті еді. «Google «қызыл код» жариялағанда, біздің пайдалануымыз он есе артты», — деп еске алады Рамасвами. «Бірақ біз көшбасшылығымыздың қысқа болатынын білдік, өйткені бұл мәселеге мыңдаған адамдар мен миллиардтаған доллар жұмсайтын алпауыт корпорациялар бар еді».

Тіпті Bing де OpenAI-дың көмегімен өсуге қиналды. StatCounter деректер талдау фирмасының мәліметінше, 2024 жылдың басында Bing-тің нарықтағы үлесі әлі де мардымсыз 3 пайыз шамасында болды, ол Google-дың үстемдігіне айтарлықтай нұқсан келтіре алмады. Қазіргі алпауыттар жеңіп жатты және олардың аумақтары анық еді: Google іздеуді бақылады, Microsoft бағдарламалық қамтамасыз етуде үстемдік етті және олардың екеуі де бұлттық бизнесте үстемдік ету үшін Amazon-мен бәсекелесіп жатты.

Бүгінде AI модельдерін құру құны технологиялық алпауыттардан басқа кез келген адамның қолы жетпейтін деңгейге көтерілді. Академиктер мен шағын компаниялардың чиптерді Nvidia-дан алудан және есептеу қуатын Amazon, Microsoft немесе Google-дан жалдаудан басқа таңдауы аз, ал компаниялар сол платформаларға кіргеннен кейін, олар жиі сонда байланып қалады. AI стартаптары өз қызметтерін Microsoft немесе Amazon-ның бұлттық қызметтерінде құра бастағаннан кейін, одан басқаға ауысу қиын екенін айтып жиі шағымданады. Сол компаниялардың ChatGPT сияқты кез келген нәрсені құруға қажетті мыңдаған GPU-ларға қол жеткізу мүмкіндігі де сирек. Әрқайсысы шамамен 40 000 доллар тұратын бұл чиптерді алу аншлагпен өтетін турға концерт билеттерін сатып алуға тырысқанмен бірдей болды. GPU-лардың әлемдегі негізгі жеткізушісі Nvidia бұл сұраныстан жақсы пайда көрді. 2023 жылдың мамыр айында ол Google, Microsoft, Amazon, Meta және Apple-ден кейін нарықтық капиталдандыруы 1 триллион долларға жеткен соңғы технологиялық компания болды. Әлемдегі ең ірі компаниялар AI құрумен айналысуда. Бірақ AI бумы инновациялық жаңа компаниялар үшін өркендеген нарық жасаудың орнына, бұл фирмалардың өз билігін нығайтуына көмектесті. Инфрақұрылымды, таланттарды, деректерді, есептеу қуатын және табысты өз қолдарына алған соң, біздің AI болашағымызды тек солар ғана бақылайтынына күмән жоқ.

AGI армандаушылары мұның жүзеге асуына көмектесті. 2023 жылдың маусымында Microsoft-тың қаржы директоры Эми Худ инвесторларға OpenAI-дың AI қызметтері олардың табысына кем дегенде 10 миллиард доллар үлес қосатынын айтты. Ол оны «біздің тарихымыздағы ең жылдам дамып жатқан 10 миллиард долларлық бизнес» деп атады.

DeepMind мен OpenAI-ға тәуелсіз қалып, AI бағытын басқару үшін сенімді өкілдер кеңесін тағайындау жақсырақ болар ма еді? Бұл өз тәуекелдерімен келер еді, оны Сэм Альтман кейінірек түсінді. Өз компаниясын DeepMind-тан шығару үшін қатты күрескен Сулейман сұхбаттарында ірі компаниялар кішігірім компанияларға қарағанда сенімдірек болуы мүмкін деп мәлімдеді. Ақыр соңында, олар өз акционерлері мен қызметкерлері алдында жауапты. Бірақ әлемдегі ең ірі технологиялық фирмалардың өз акционерлері алдында тереңірек міндеттемесі бар, одан олар қашып құтыла алмайды. Олар әр тоқсан сайын табыстарын арттыруы керек. Олардың пайдасы тұралап немесе төмендегенде, акциялары да төмендейді; акциялар құлаған кезде компания капитал жинай алмайды, ал басшылар мен қызметкерлер наразылық білдіреді немесе кетіп қалады. Құлдыраудың қорқынышты елесі шақырады. «Бұл нысандар өсуі керек», — дейді Microsoft-тың бұрынғы басшысы. «AI — соның жауабы».

Хассабис DeepMind парасатты бизнеске айналды деп есептейді. «Ол қазір кемелдену деңгейіне жетті, меніңше, біз миллиардтаған адамның өмірін жақсарта аламыз», — дейді ол AGI-ға әлі де ол бұрын талап еткен этикалық кеңес қажет пе деген сұраққа. «Google — таңғажайып орын».

Альтман OpenAI-ды коммерциялық компанияға айналдырғанына, Microsoft-пен одақтасқанына және AI қарулану жарысын тудырғанына қарамастан, оның пайдалы AI құру принциптері өзгермегенін айтады. Және оның жұртшылыққа AI құралдарын ұсынуды жалғастырудан басқа таңдауы аз. «Қолданысқа енгізу — біздің миссиямыз үшін өте маңызды», — дейді ол. OpenAI қалай үйренеді және адамдарға ChatGPT сияқты пайдалы құралдарды қалай жеткізеді? Бұл «технологияны адамдардың қолына беруді талап етеді».

Осы жарыстың қазіргі жылдамдығында, бұл сөздер 2024 жылдың наурызында жазылғаннан кейінгі айлар мен жылдарда не болатынын болжау мүмкін емес. Бірақ бұл болашақ оқиғалар бірнеше адамның жобаларына және олар жұмыс істеген жүйелік күштерге негізделеді. Сэм Альтман мен Демис Хассабиске, сондай-ақ Microsoft пен Google-ға біздің AI болашағымызды құруға сенуге бола ма деген сұрақ туындағанда, жауап — біздің бұл мәселеде таңдауымыз аз. Екі адам да өз инновацияларын әлемдегі ең ірі екі компанияға байлады, олардың желілік әсерлерінен күнделікті өмірде қашып құтылу мүмкін емес еді, және осылайша олар жарыста қалу және билік құру үшін өз идеалдарын өзгерткен инноваторлардың ұзақ тарихына қосылды. Нәтижесінде біз көрген ең трансформациялық технологиялар пайда болды. Енді оның құнын білу ғана қалды.

Осы тақырыпқа тоқталған соң, мен доктор Эмиль Торреске жалпы жасанды интеллект (адам деңгейіндегі кез келген зияткерлік тапсырманы орындай алатын жүйе) құру жолындағы ізденістердің эвгеникадағы (адамзаттың генетикалық қорын жақсартуды көздейтін ілім) қараңғы тамырларын шебер ашып бергені және машиналар арқылы адам кемелдігіне ұмтылудың екінші жағын түсінуге көмектескені үшін алғыс айтуым керек. Дэвид Эдмондс маған лонгтермизм (болашақ ұрпақтардың тағдырына басымдық беретін этикалық көзқарас) тақырыбында, Тоби Орд тиімді альтруизм (ресурстарды барынша тиімді пайдалану арқылы басқаларға көмектесуге бағытталған қозғалыс) бойынша, ал Майк Левин Open Philanthropy сияқты ұйымдардың ЖИ сәйкестендіру (жасанды интеллект мақсаттарын адам құндылықтарымен үйлестіру) әрекеттері туралы дәл солай көмектесті. Майк екеуміздің кейбір тақырыптар бойынша көзқарасымыз бір жерден шықпайды, бірақ оның маған өз дәлелдерін түсіндіруге уақыт бөліп, шыдамдылық танытқаны үшін өте ризамын. Сиэтлдегі Брайан Эвергрин де маған Microsoft ішінде орын алған ЖИ этикасының түйткілдерін жақсырақ түсінуге көмектесті.

Мередит Уиттакер мен Реолоф Ботаға ерекше алғыс айтамын. Олар технология әлемінің екі түрлі бөлігінен: Мередит — Signal Foundation президенті, ал Реолоф — Sequoia Capital венчурлық компаниясының серіктесі. Бірақ екеуі де ЖИ саласында бірнеше технологиялық алпауыттардың үстемдігінің артуы қоғам үшін де, бизнес үшін де үлкен мәселеге айналып бара жатқанын санама ұялатты.

Мен өз ескертпелерімде анонимді дереккөздерді атап өттім, бірақ технологиялық және ЖИ фирмаларында жұмыс істейтін көптеген адамдарға, сондай-ақ OpenAI және DeepMind-тың бұрынғы қызметкерлеріне, соның ішінде тәжірибелерімен бөлісуге сағаттарын жұмсаған және кейде технологиялық алпауыттардың ЖИ саласын уысында ұстауы мен жаңа «тез қимылдап, бәрін қират» динамикасына қатысты терең мазасыздықтарын білдірген жоғары лауазымды басшыларға тағы да алғыс айтуым керек. Бұл кітап олардың алаңдаушылығы мен маған бөлген уақытына лайықты жауап болды деп үміттенемін.

Bloomberg Opinion-дағы редакторларым бұл жобаны қатты қолдады. Тим О'Брайен мен Николь Торреске олардың құлшынысы мен өткен жылы бағандарымда жазып жүрген мәселелерімді толықтыратын кітап жазуыма уақыт бергені үшін шексіз ризамын. Сондай-ақ, Bloomberg Opinion-дағы барлық әріптес жазушыларыма жылы сөздері мен қолдаулары үшін, сондай-ақ технологиялық шолушы жұмысын өте қызықты еткендері үшін алғыс айтамын: Дейв Ли, Лара Уильямс, Лионель Лоран, Андреа Фелстед, Тереза Рафаэль, Мэттью Брукер, Ховард Чуа-Эоан, Крис Хьюз, Крис Брайант, Маркус Эшворт, Марк Чемпион, Джеймс Хертлинг, Джои Пресифс, Марк Гилберт, Элейн Хе, Тим Калпан, сонымен қатар кітап жобасын бастау туралы кеңес берген Хавьер Блассқа рахмет.

Мен әсіресе әріптестерім Тим О'Брайенге, Николь Торреске, Пол Дэвиске және Адриан Вулдриджке қолжазбаның алғашқы нұсқаларына жасаған өткір әрі пайдалы пікірлері үшін алғыс айтамын. Олар маған жазушылық ортамнан тыс оқырмандардың көзқарасын түсінуге үлкен көмек берді. Менің басқа да алғашқы оқырмандарым қай жерді жақсарту керектігін немесе қай жерді жақсырақ түсіндіру қажеттігін көрсетіп қана қоймай, жазу барысында нағыз дос ретінде моральдық қолдау көрсетті. Мириам Заккареллиге, Виктор Заккареллиге, Карли Саймға және Кристин Петерсонға сол үшін үлкен рахмет.

Көршім әрі досым Каталина «Катина» Монтесиносқа кітап жазу үшін демалыста болған кезде оның үйінің тыныштығында жұмыс істеуге рұқсат бергені үшін алғыс айтамын. Катина — ЖИ айтарлықтай және оң өзгеріс әкеле алатын адам. Қырық жасында зағип болып қалған бұрынғы суретші, ол кейіннен табысты мүсіншіге айналды және технологияның әлемді «көруге» көмектесетін барлық жолдарын, соның ішінде Apple-дің Siri сияқты цифрлық көмекшілерін шебер пайдалана білді. Сексен жасында, мен телефонымды оның кофе үстеліндегі мүсінге бағыттап, ChatGPT-ге оның түстері, формасы және мүмкін болатын көркемдік әсерлері туралы егжей-тегжейлі талдау жасатып бергенде, ол таңғалыспен тыңдап тұрды. Ол мұны «мүлдем ерекше нәрсе» деп атады. Менің үмітім — біздің әлеміміз ЖИ-ді болашақта осы бағытта, адамның жұмысы мен шығармашылығын ығыстыру үшін емес, ақпараттық бос орындарды толтыру үшін қолданады.

Соңында, бұл кітап менің отбасымның қолдауысыз мүлдем болмас еді, соның ішінде бала кезімнен бері кішкентай жетістіктерім үшін де мақтауын аямайтын әкем Филип Уитерс бар. Үйді күлкіге толтырған Кара мен Уэслиге және қолжазбаны тексеріп, маған дем берген Ислаға рахмет. Менің жұбайым Манидің бәрімізді қалай біріктіріп ұстап отырғанына күн сайын таңғаламын; ол мен үшін тұрақты күш пен шыдамдылықтың көзі болды, сол үшін оған ерекше ризамын.

ДЕРЕККӨЗДЕР

Дереккөздер туралы ескертпе

Осы оқиғаны көптеген қосымша дереккөздермен толықтыруға мүмкіндік берген веб-сайттардың, газеттердің, журналдардың, ғылыми еңбектердің, подкасттар мен кітаптардың тілшілері мен авторларының ерен еңбегіне ризамын, оларды осы жерде тізіп өтемін.

Кітап бойында адамдардың сөздері осы шақта беріліп, «дейді», «есіне алады» немесе «айтады» деген сөздермен келтірілген жерлер — бұл менің сол адамдармен, соның ішінде Демис Хассабис және Сэм Альтманмен жүргізген тікелей сұхбаттарым. Мен сөйлескен көптеген басқа адамдар бұрынғы қызметкерлер немесе мәселемен таныс тұлғалар ретінде көрсетілген және олар ашық айтқаны үшін келетін теріс зардаптардың қаупіне байланысты анонимді болып қала береді. Осы адамдарға маған сенім білдіріп, өз түсініктерімен бөліскені үшін ерекше алғыс айтамын.

Орынның шектеулігіне байланысты оқиғаға енгізе алмаған тағы да көптеген сұхбаттар бар, бірақ олар Сэм Альтман мен Демис Хассабистің өмірі, олардың жұмысы және ЖИ саласы туралы контекст алуға, сондай-ақ <span data-term="true">машиналық оқыту</span> (деректер негізінде алгоритмдерді үйрету) жүйелерінің, <span data-term="true">нейрондық желілердің</span> (адам миының жұмысына ұқсас есептеу модельдері), <span data-term="true">диффузиялық жүйелердің</span> (сурет немесе деректерді шудан генерациялау тәсілі) және <span data-term="true">трансформерлердің</span> (мәтінді контекст бойынша өңдеуге арналған архитектура) жұмысын түсінікті тілге аударуға көмектескен сарапшылардың пікірлері өте құнды болды.

Осы кітап үшін де, соңғы бірнеше жылда Bloomberg Opinion, Wall Street Journal және Forbes үшін жаңа ЖИ бумы туралы репортаждарым барысында жүздеген сала мамандарымен, кәсіпкерлермен, венчурлық инвесторлармен, технологиялық компаниялардың қазіргі және бұрынғы қызметкерлерімен жасаған әңгімелерім де менің зерттеуіме үлкен септігін тигізді.

Мен Сэм Альтман, Демис Хассабис, Илья Суцкевер, Грег Брокман және OpenAI мен DeepMind-ты құруға қатысқан немесе ЖИ-дің ғылыми шеткері аймақтан қарқынды бизнеске айналуына куә болған көптеген басқа адамдардың сансыз сағаттық подкаст-сұхбаттарын жүгіру кезінде тыңдап, баяндаудың көптеген детальдарын құрастыруға пайдаландым. Бұл жиі тоқтап, телефонға мәліметтерді теруді қажет етті, бірақ бұл соған тұрарлық еді.

1-тарау: Орта мектеп кейіпкері

Альтман, Сэм. “Machine Intelligence, Part 1.” blog.samaltman.com, 25 ақпан, 2015.

Кэннон, Крейг. “Sam Altman.” Y Combinator (подкаст), 8 қараша, 2018.

“First Look: Loopt Provides More Incentives to Try Location-based Services with Loopt Star.” Роберт Скоблдың YouTube арнасы, 1 маусым, 2010.

Френд, Тэд. “Sam Altman’s Manifest Destiny.” New Yorker, 3 қазан, 2016.

Грэм, Пол. “How to Start a Startup.” paulgraham.com, наурыз 2005.

Грэм, Пол. “How Y Combinator Started.” paulgraham.com, наурыз 2012.

Грэм, Пол. “The Word ‘Hacker.’” paulgraham.com, сәуір 2024.

“How Tesla Became the Elon Musk Co.” Land of the Giants (подкаст), Vox Media, 2 тамыз, 2023.

Жұмыс істемейтін http://www.loopt.com/ сайтына арналған Internet Archive.

Лессин, Джессика. “This Is How Sam Altman Works the Press and Congress. I Know from Experience.” The Information, 7 маусым, 2023.

Митчелл, Мелани. Artificial Intelligence: A Guide for Thinking Humans. New York: Pelican, 2020.

Вагстафф, Кит. “The Good Ol’ Days of AOL Chat Rooms.” CNN, 6 шілде, 2012.

Вейл, Элизабет. “Sam Altman Is the Oppenheimer of Our Age.” New York Magazine, 25 қыркүйек, 2023.

Wired. “Sebastian Thrun & Sam Altman Talk Flying Vehicles and Artificial Intelligence.” Wired конференциясының панельдік бейнежазбасы, 16 қазан, 2018.

“WWDC 2008 News: Loopt Shows Off New App for the iPhone.” CNET-тің YouTube арнасы, 10 маусым, 2008.

2-тарау: Жеңіс, жеңіс, тағы да жеңіс

“A.I. Could Solve Some of Humanity’s Hardest Problems. It Already Has.” The Ezra Klein Show, 11 шілде, 2023.

Бертон-Хилл, Клеменси. “The Superhero of Artificial Intelligence.” The Guardian, 16 ақпан, 2016.

“Demis Hassabis.” Desert Island Discs (подкаст), BBC Radio 4, 21 мамыр, 2017.

“Demis Hassabis, Ph.D.” What It Takes (подкаст), American Academy of Achievement, 23 сәуір, 2018.

“Genius Entrepreneur.” The Bridge, Queens College Cambridge Magazine, қыркүйек 2014.

“Google DeepMind’s Demis Hassabis.” The Bottom Line (подкаст), BBC Radio 4, 16 қазан, 2023.

Хассабис, Демис. The Elixir Diaries, Edge журналындағы бағандар, сондай-ақ https://archive.kontek.net/ сайтында қолжетімді, 1998–2000.

Паркер, Сэм. “Republic: The Revolution Review.” GameSpot, 2 қыркүйек, 2003.

Пирс, Джеки. “Getting to Know You,” Анджела Хассабиспен сұхбат, HBC Accord, (Hendon Baptist Church ақпараттық бюллетені), қазан 2018.

“Republic.” Edge журналы, қараша 1999.

Вайнберг, Стивен. Dreams of a Final Theory. New York: Vintage, 1994.

3-тарау: Адамдарды құтқару

Альтман, Сэм. “Hard Tech Is Back.” blog.samaltman.com, 11 наурыз, 2016.

Альтман, Сэм. “Startup Advice.” blog.samaltman.com, 3 маусым, 2013.

Альтман, Сэм. “YC and Hard Tech Startups.” ycombinator.com, күні көрсетілмеген.

Кэннон, Крейг. “Sam Altman.” Y Combinator (подкаст), 8 қараша, 2018.

Чафкин, Макс. “Y Combinator President Sam Altman Is Dreaming Big.” Fast Company, 16 сәуір, 2015.

Клиффорд, Кэтрин. “Nuclear Fusion Start-Up Helion Scores $375 Million Investment from Open AI CEO Sam Altman.” CNBC, 5 қараша, 2021.

Двоскин, Элизабет, Марк Фишер және Ниташа Тику. “‘King of the Cannibals’: How Sam Altman Took Over Silicon Valley.” Washington Post, 23 желтоқсан, 2023.

Френд, Тэд. “Sam Altman’s Manifest Destiny.” New Yorker, 3 қазан, 2016.

Грэм, Пол. “Five Founders.” paulgraham.com, сәуір 2019.

Грэм, Пол. “How to Start a Startup.” paulgraham.com, наурыз 2005.

“How and Why to Start a Startup—Sam Altman & Dustin Moskovitz—Stanford CS183F: Startup School.” Stanford Online-ның YouTube арнасы, 5 сәуір, 2017.

“Paul Graham on Why Sam Altman Took Over as President of Y Combinator in 2014.” This Week in Startups Clips-тің YouTube арнасы, 19 наурыз, 2019.

Регаладо, Антонио. “A Startup Is Pitching a Mind-Uploading Service that Is ‘100 Percent Fatal.’” MIT Technology Review, 13 наурыз, 2018.

“Sam Altman—Leading with Crippling Anxiety, Discovering Meditation, and Building Intelligence with Self-Awareness.” The Art of Accomplishment (подкаст), 15 қаңтар, 2022.

Стиглер, Марк. The Gentle Seduction. New York: Baen, 1990.

4-тарау: Жақсырақ ми

Бостром, Ник. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.

Катрайт, Кейша М. және Мустафа Караташ. “Thinking about God Increases Acceptance of Artificial Intelligence in Decision-Making.” Proceedings of the National Academy of Sciences (PNAS) 120, № 33 (2023): e2218961120–e2218961120.

“Demis Hassabis, Ph.D.” What It Takes (подкаст), American Academy of Achievement, 23 сәуір, 2018.

Дауд, Морин. “Elon Musk’s Billion-Dollar Crusade to Stop the A.I. Apocalypse.” Vanity Fair, 26 наурыз, 2017.

Гертцель, Бен. AGI Revolution: An Inside View of the Rise of Artificial General Intelligence. Middletown, DE: Humanity+ Press, 2016.

Хассабис, Демис. “The Neural Processes Underpinning Episodic Memory.” PhD диссертациясы, University College London, ақпан 2009.

Хомер-Диксон, Томас. The Ingenuity Gap. New York: Knopf Doubleday, 2000.

Курцвейл, Рэй. The Age of Spiritual Machines. New York: Penguin, 2000.

Маккарти, Джон, Марвин Л. Минский, Натаниель Рочестер және Клод Э. Шеннон. “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence: August 31, 1955.” The AI Magazine 27, № 4 (2006): 12–14. Түпнұсқа нұсқалары Дартмут колледжі мен Стэнфорд университетінің мұрағаттарында сақталған. Ұсыныстың көшірмесін мына жерден табуға болады: https://ojs.aaai.org/aimagazine/index.php/aimagazine/article/view/1904.

Пенроуз, Роджер. Shadows of the Mind: A Search for the Missing Science of Consciousness. London: Vintage, 1995.

Сайед, Мэттью. “Demis Hassabis Interview: The Kid from the Comp Who Founded DeepMind and Cracked a Mighty Riddle of Science.” The Sunday Times, 5 желтоқсан, 2020.

“A Systems Neuroscience Approach to Building AGI—Demis Hassabis, Singularity Summit 2010.” Google DeepMind-тың YouTube арнасы, 7 наурыз, 2018.

Тиль, Питер және Блейк Мастерс. Zero to One: Notes on Start Ups, or How to Build the Future. London: Virgin Books, 2015.

5-тарау: Утопия үшін, ақша үшін

“Andrew Ng: Deep Learning, Education, and Real-World AI.” Lex Fridman Podcast (подкаст), 20 ақпан, 2020.

“Bill Gates, Sergey Brin, and Larry Page: Tech Titans.” What It Takes (подкаст), American Academy of Achievement, achievement.org, 13 қаңтар, 2020.

Коупленд, Роб. “Google Management Shuffle Points to Retreat from Alphabet Experiment.” Wall Street Journal, 5 желтоқсан, 2019.

Ходсон, Хэл. “DeepMind and Google: The Battle to Control Artificial Intelligence.” Economist, 1 наурыз, 2019.

Хаксли, Джулиан. “Transhumanism.” Journal of Humanistic Psychology, қаңтар 1968.

Маркрам, Генри. “A Brain in a Supercomputer.” TED Global, шілде 2009.

Метц, Кейд. Genius Makers: The Mavericks Who Brought A.I. to Google, Facebook, and the World. New York: Random House Business, 2021.

“Peter Thiel Says America Has Bigger Problems Than Wokeness.” Honestly with Bari Weiss (подкаст), 3 мамыр, 2023.

Сулейман, Мустафа және Майкл Бхаскар. The Coming Wave. New York: Crown, 2023.

6-тарау: Миссия

Альберготти, Рид. “The Secret History of Elon Musk, Sam Altman, and OpenAI.” Semafor, 24 наурыз, 2023.

Бирхане, Абеба, Пратьюша Каллури, Даллас Кард, Уильям Агнью, Равит Дотан және Мишель Бао. “The Values Encoded in Machine Learning Research.” FAccT Conference ’22: Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency (маусым 2022): 173–84.

Брокман, Грег. “My Path to OpenAI.” blog.gregbrockman.com, 3 мамыр, 2016.

Конн, Ариэль. “Concrete Problems in AI Safety with Dario Amodei and Seth Baum.” Future of Life Institute (подкаст), 31 тамыз, 2016.

Дауд, Морин. “Elon Musk’s Billion-Dollar Crusade to Stop the A.I. Apocalypse.” Vanity Fair, 26 наурыз, 2017.

Илон Маск Сэм Альтманға қарсы [2024] CGC-24-612746.

Френд, Тэд. “Sam Altman’s Manifest Destiny.” New Yorker, 3 қазан, 2016.

Галеф, Джесси. “Elon Musk Donates $10M to Our Research Program.” futureoflife.org, 22 қаңтар, 2015.

“Greg Brockman: OpenAI and AGI.” Lex Fridman Podcast (подкаст), 3 сәуір, 2019.

Харрис, Марк. “Elon Musk Used to Say He Put $100M in OpenAI, but Now It’s $50M: Here Are the Receipts.” TechCrunch, 18 мамыр, 2023.

Метц, Кейд. “Ego, Fear and Money: How the A.I. Fuse Was Lit.” New York Times, 3 желтоқсан, 2023.

Метц, Кейд. “Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free.” Wired, 27 сәуір, 2016.

Вэнс, Эшли. Elon Musk: How the Billionaire CEO of SpaceX and Tesla Is Shaping Our Future. London: Virgin Books, 2015.

7-тарау: Ойын ойнау

Арон, Джейкоб. “How to Build the Global Mathematics Brain.” New Scientist, 4 мамыр, 2011.

Байфорд, Сэм. “Google’s AlphaGo AI Defeats World Go Number One Ke Jie.” The Verge, 23 мамыр, 2017.

Галлахер, Райан. “Google’s Secret China Project ‘Effectively Ended’ after Internal Confrontation.” The Intercept, 17 желтоқсан, 2018.

Галлахер, Райан. “Private Meeting Contradicts Google’s Official Story on China.” The Intercept, 9 қазан, 2018.

“Has Anyone Actually Tried to Convince Terry Tao or Other Top Mathematicians to Work on Alignment?” www.lesswrong.com, 8 маусым, 2022.

“How to Play.” British Go Association, жаңартылған 26 қазан, 2017, https://www.britgo.org/intro/intro2.html.

Метц, Кейд. Genius Makers: The Mavericks Who Brought A.I. to Google, Facebook, and the World. New York: Random House Business, 2021.

Метц, Кейд. “Google Is Already Late to China’s AI Revolution.” Wired, 2 маусым, 2017.

Рогин, Джош. “Eric Schmidt: The Great Firewall of China Will Fall.” Foreign Policy, 9 шілде, 2012.

Сулейман, Мустафа және Майкл Бхаскар. The Coming Wave. New York: Crown, 2023.

Темпертон, Джеймс. “DeepMind’s New AI Ethics Unit Is the Company’s Next Big Move.” Wired, 4 қазан, 2017.

Янг, Юань. “Google’s AlphaGo Is World’s Best Go Player.” Financial Times, 25 мамыр, 2017.

8-тарау: Бәрі керемет

Ангвин, Джулия, Джефф Ларсон, Сурья Матту және Лорен Кирхнер. “Machine Bias.” ProPublica, 23 мамыр, 2016.

Буоламвини, Джой және Тимнит Гебру. “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.” Proceedings of Machine Learning Research 81 (2018): 1–15.

Дастин, Джеффри. “Amazon Scraps Secret AI Recruiting Tool That Showed Bias against Women.” Reuters, 10 қазан, 2018.

Девлин, Ханна және Алекс Херн. “Why Are There So Few Women in Tech? The Truth behind the Google Memo.” The Guardian, 8 тамыз, 2017.

Гебру, Тимнит, Джейми Моргенштерн, Бриана Веччионе, Дженнифер Уортман Воган, Ханна Уоллах, Хал Дауме III және Кейт Кроуфорд. “Datasheets for Datasets.” Communications of the ACM 64, № 12 (2021): 86–92.

Грант, Нико және Кашмир Хилл. “Google’s Photo App Still Can’t Find Gorillas. And Neither Can Apple’s.” New York Times, 22 мамыр, 2023.

Харрис, Джош. “There Was All Sorts of Toxic Behaviour’: Timнит Гебру оның Google-дан шығарылуы, ЖИ-дің қауіптері және Үлкен технологияның алдын ала болжамдары туралы.” The Guardian, 22 мамыр, 2023.

Хорвиц, Джефф. “The Facebook Files.” Wall Street Journal, 1 қазан, 2021.

Пейтон, Лореал Томпсон. “Americans Check Their Phones 144 Times a Day. Here’s How to Cut Back.” Fortune, 19 шілде, 2023.

Симонит, Том. “What Really Happened When Google Ousted Timnit Gebru.” Wired, 8 маусым, 2021.

“The Social Atrocity: Meta and the Right to Remedy for the Rohingya.” Amnesty International есебі, 29 қыркүйек, 2022.

Вакабаяши, Дайсуке және Кэти Беннер. “How Google Protected Andy Rubin, the ‘Father of Android.’” New York Times, 25 қазан, 2018.

9-тарау: Голиат парадоксы

де Винк, Геррит. “Google’s Cloud Unit Won’t Sell a Type of Facial Recognition Tech.” Bloomberg, 13 желтоқсан, 2018.

“Google Duplex: A.I. Assistant Calls Local Businesses to Make Appointments.” Джефф Граббтың Game Mess-тің YouTube арнасы, 8 мамыр, 2018.

Круппа, Майлз және Сэм Шехнер. “How Google Became Cautious of AI and Gave Microsoft an Opening.” Wall Street Journal, 7 наурыз, 2023.

Лав, Джулия. “Google Says Over Half of Generative AI Startups Use Its Cloud.” Bloomberg, 29 тамыз, 2023.

Найлен, Лия. “Google Paid $26 Billion to Be Default Search Engine in 2021.” Bloomberg, 17 қазан, 2021.

Ушкорейт, Якоб. “Transformer: A Novel Neural Network Architecture for Language Understanding.” blog.research.google, 31 тамыз, 2017.

Васвани, Ашиш, Ноам Шазир, Ники Пармар, Якоб Ушкорейт, Ллион Джонс, Айдан Н. Гомес, Лукаш Кайзер және Илья Полосухин. “Attention Is All You Need.” Advances in Neural Information Processing Systems 30 (2017).

10-тарау: Көлем маңызды

Брокман, Грег (@gdb). “Held our civil ceremony in the @OpenAI office last week. Officiated by @ilyasut, with the robot hand serving as ring bearer. Wedding planning to commence soon.” Twitter, 12 қараша, 2019, 9:39 a.m. https://twitter.com/gdb/status/1194293590979014657?lang=en.

Брокман, Грег. “Microsoft Invests in and Partners with OpenAI to Support Us Building Beneficial AGI.” www.openai.com, 22 шілде, 2019.

“Greg Brockman: OpenAI and AGI.” Lex Fridman Podcast (подкаст), 3 сәуір, 2019.

Хао, Карен. “The Messy, Secretive Reality behind OpenAI’s Bid to Save the World.” MIT Technology Review, 17 ақпан, 2020.

Хао, Карен және Чарли Варзел. “Inside the Chaos at OpenAI.” The Atlantic, 19 қараша, 2023.

Джин, Бербер және Кич Хейги. “The Contradictions of Sam Altman, AI Crusader.” Wall Street Journal, 31 наурыз, 2023.

Крафт, Эми. “Microsoft Shuts Down AI Chatbot after It Turned into a Nazi.” CBS News, 25 наурыз, 2016.

Леви, Стивен. “What OpenAI Really Wants.” Wired, 5 қыркүйек, 2023.

Метц, Кейд. “A.I. Researchers Are Making More Than $1 Million, Even at a Nonprofit.” New York Times, 19 сәуір, 2018.

Метц, Кейд. “The ChatGPT King Isn’t Worried, but He Knows You Might Be.” New York Times, 31 наурыз, 2023.

«OpenAI Жарғысы». www. openai. com/чартер, жалдау шарты (сыртқы экон. қызмет), жалдау шарты (сыртқы экон. қызмет), 9 сәуір, 2018 жыл.

Рэдфорд, Алек, Картик Нарасимхан, Тим Салиманс және Илья Суцкевер. «Генеративті алдын ала оқыту (алдын ала дайындалған мәліметтер негізінде мәтін шығару әдісі) арқылы тілді түсінуді жақсарту». www. openai. com, 11 маусым, 2018 жыл.

Рэдфорд, Алек, Джеффри Ву, Ревон Чайлд, Дэвид Луан, Дарио Амодеи және Илья Суцкевер. «Тілдік модельдер — бақылаусыз (таңбаланбаған деректермен өздігінен оқитын) көпфункционалды білім алушылар». www. openai. com, 14 ақпан, 2019 жыл.

11-тарау: Үлкен технологияларға тәуелділік

Ахмед, Нұр, Мунтасир Уахед және Нил К. Томпсон. «ЖИ зерттеулеріндегі индустрияның өсіп келе жатқан ықпалы». Science, 2 наурыз, 2023 жыл.

Амодеи, Дарио, Крис Олах, Джейкоб Стейнхардт, Пол Кристиано, Джон Шульман және Дэн Мане. «ЖИ қауіпсіздігіндегі нақты мәселелер». www. arxiv. org, 25 шілде, 2016 жыл.

Коупленд, Роб. «Google басшылығындағы ауыс-түйіс Alphabet экспериментінен бас тартуды білдіреді». Wall Street Journal, 5 желтоқсан, 2019 жыл.

Коултер, Мартин және Хью Лэнгли. «DeepMind негізін қалаушы қызметкерлердің бірнеше жыл бойы қорлау мен кемсіту туралы шағымдарынан кейін демалысқа жіберілді. Содан кейін Google оны вице-президент етіп тағайындады». Business Insider, 7 тамыз, 2021 жыл.

Фринд, Тэд. «Сэм Альтманның тағдыр манифесі». New Yorker, 3 қазан, 2016 жыл.

Ходсон, Хэл. «Әшкереленді: Google ЖИ жүйесі Ұлттық денсаулық сақтау қызметі (NHS) пациенттерінің үлкен деректер қорына қол жеткізді». New Scientist, 29 сәуір, 2016 жыл.

Ладлоу, Эдвард, Мэтт Дэй және Дина Басс. «Amazon ЖИ стартапы Anthropic-ке 4 миллиард долларға дейін инвестиция салады». Bloomberg, 25 қыркүйек, 2023 жыл.

Пайпер, Келси. «Эксклюзив: Google наразылыққа жауап ретінде ЖИ этикалық кеңесін таратты». Vox, 4 сәуір, 2019 жыл.

Примак, Дэн. «Google OpenAI бәсекелесі Anthropic-ке 2 миллиард доллар инвестиция салып жатыр». Axios, 30 қазан, 2023 жыл.

Уотерс, Ричард. «DeepMind негізін қалаушы Google-дан кетіп, венчурлық капитал фирмасына ауысты». Financial Times, 21 қаңтар, 2022 жыл.

12-тарау: Мифтерді әшкерелеушілер

Абид, Абубакар, Махин Фаруки және Джеймс Зоу. «Үлкен тілдік модельдер мұсылмандарды зорлық-зомбылықпен байланыстырады». Nature Machine Intelligence 3 (2021): 461–63.

Барретт, Пол, Джастин Хендрикс және Грант Симс. «Технологиялық платформалар АҚШ-тағы саяси поляризацияны қалай ушықтырады және үкімет бұған қарсы не істей алады». www. brookings. edu, 27 қыркүйек, 2021 жыл.

Бендер, Эмили, Тимнит Гебру, Анджелина Макмиллан-Мейджор және Шмаргарет Шмитчелл. «Стохастикалық тотықұстардың (мағынасын түсінбей, ықтималдықтар негізінде сөз қайталайтын модель) қаупі туралы: Тілдік модельдер тым үлкен болуы мүмкін бе? » FAccTConference ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (наурыз 2021): 610–23. https://dl. acm. org/doi/10. 1145/3442188. 3445922.

Браун, Том Б. және т. б. «Тілдік модельдер — аз мәліметпен оқушылар (өте аз мысалдар арқылы жаңа тапсырманы орындау қабілеті)». www. openai. com, 22 шілде, 2020 жыл.

Гехман, Самуэль, Сучин Гуруранган, Маартен Сап, Йеджин Чой және Ноа А. Смит. «RealToxicityPrompts: Тілдік модельдердегі нейрондық токсикалық деградацияны бағалау». ACL Anthology. Findings of the Association for Computational Linguistics: EMNLP 2020, қараша 2020 жыл.

Хорниголд, Томас. «Бұл чат-боттың 660 миллионнан астам қолданушысы бар және ол олардың ең жақын досы болғысы келеді». Singularity Hub, 14 шілде, 2019 жыл.

Джин, Бербер және Майлз Круппа. «Microsoft OpenAI-мен серіктестікті тереңдетіп, ChatGPT жасаушысына миллиардтаған инвестиция салады». Wall Street Journal, 23 қаңтар, 2023 жыл.

Лечер, Колин. «Зерттеушілердің айтуынша, жасанды интеллект саласында ақ нәсілділер мен ерлер тым көп». The Verge, 17 сәуір, 2019 жыл.

Лемойн, Блейк. «Мен Google-дың ЖИ жобасында жұмыс істедім. Менің қорқыныштарым шындыққа айналуда». Newsweek, 27 ақпан, 2023 жыл.

Лодевик, Колин. «Google-дың жұмыстан шеттетілген ЖИ инженері мәліметті түзетті: ол саналы (сезінуге қабілетті) чат-бот үшін адвокат жалдаған жоқ, тек таныстырды — бот адвокатты өзі жалдады». Fortune, 23 маусым, 2022 жыл.

Лучиони, Александра және Джозеф Вивиано. «Қораптың ішінде не бар? Common Crawl корпусындағы жағымсыз мазмұнды талдау». Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing. Volume 2: Short Papers (2021): 182–89.

Мюллер, Бритни. «BERT 101: Ең заманауи NLP моделі туралы түсіндірме». www. huggingface. co, 2 наурыз, 2022 жыл.

Ньютон, Кейси. «Google-дағы этикалық ЖИ зерттеушісінің жұмыстан шығуына себеп болған қатал электрондық хат». Platformer, 3 желтоқсан, 2020 жыл.

Николсон, Дженни. «GPT-3 ішіндегі гендерлік бейтараптық». www. medium. com, 8 наурыз, 2022 жыл.

Перриго, Билли. «Эксклюзив: OpenAI ChatGPT-тің токсикалық деңгейін төмендету үшін сағатына 2 доллардан аз алатын кениялық жұмысшыларды пайдаланды». Time, 18 қаңтар, 2023 жыл.

Сильверман, Крейг, Крейг Тимберг, Джефф Као және Джереми Б. Меррилл. «Жазбалар көрсеткендей, Facebook 6 қаңтардағы шабуылға дейінгі айларда жалған ақпарат пен көтеріліс қаупінің ошағы болды». ProPublica және Washington Бекет (төтенше жағдай), 4 қаңтар, 2022 жыл.

Симонайт, Том. «Google-дан Тимнит Гебру кеткенде не болды? » Wired, 8 маусым, 2021 жыл.

Тику, Ниташа. «Компанияның ЖИ жүйесі тірілді деп санайтын Google инженері». Washington Бекет (төтенше жағдай), 11 маусым, 2022 жыл.

Венкит, Пранав Нараянан, Мукунд Сринат және Шомир Уилсон. «Тілдік модельдердің мүмкіндігі шектеулі адамдарға қарсы жасырын бейтараптығын зерттеу». Proceedings of the 29th International Conference on Computational Linguistics (2022): 1324–32.

Уэндлер, Крис, Вениамин Веселовский, Джованни Монеа және Роберт Уэст. «Llama модельдері ағылшын тілінде жұмыс істей ме? Көптілді трансформаторлардың жасырын тілі туралы». www. arxiv. org, 16 ақпан, 2024 жыл.

13-тарау: Сәлем, ChatGPT

«AlphaFold: Ғылыми серпілістің жасалуы». Google DeepMind YouTube арнасы, 30 қараша, 2020 жыл.

Андерсен, Росс. «Сэм Альтман өзінің не жасап жатқанын біле ме? » The Atlantic, 24 шілде, 2023 жыл.

Грант, Нико. «Google ЖИ шайқасында көмек алу үшін Ларри Пейдж бен Сергей Бринге жүгінді». New York Times, 20 қаңтар, 2023 жыл.

Грант, Нико және Кейд Метц. «Жаңа чат-бот Google-дың іздеу бизнесі үшін „Қызыл деңгейдегі қауіп“ болды». New York Times, 21 желтоқсан, 2022 жыл.

Хао, Карен және Чарли Уорзел. «OpenAI ішіндегі хаос». The Atlantic, 19 қараша, 2023 жыл.

Хейккиля, Мелисса. «Бұл суретші ЖИ арқылы жасалған өнерде басымдыққа ие. Ол бұған риза емес». MIT Technology Review, 16 қыркүйек, 2022 жыл.

«ChatGPT-пен таныстыру». www. openai. com, 30 қараша, 2022 жыл.

Джонсон, Хари. «DALL-E 2 керемет суреттер жасайды — және сіз көрмейтін бейтарап суреттерді де». Wired, 5 мамыр, 2022 жыл.

Маклафлин, Кевин және Аарон Холмс. «Microsoft-тың сәтсіздіктері оны OpenAI-мен одақ құруға қалай итермеледі». The Information, 23 қаңтар, 2023 жыл.

Мерритт, Рик. «ЖИ ашылуы: OpenAI-дан Суцкевер Дженсен Хуангпен сұхбатта». www. blogs. nvidia. com, 22 наурыз, 2023 жыл.

«Microsoft-тың технологиялық директоры Кевин Скотт ЖИ көмекшілері, OpenAI-мен келіспеушіліктер және Сиднейдің оралуы туралы». Decoder with Nilay Patel (подкаст), 23 мамыр, 2023 жыл.

Патель, Нилай. «Microsoft жасанды интеллект іздеу жүйесінде Google-ды жеңе алады деп санайды — бас директор Сатья Наделла себебін түсіндіреді». The Verge, 8 ақпан, 2023 жыл.

Пичаи, Сундар. «Google DeepMind: Әлемдік деңгейдегі екі ЖИ командасын біріктіру». www. blog. google, 20 сәуір, 2023 жыл.

Рават, Дикша. «Диффузиялық модельдің (кескін жасау үшін шуды біртіндеп жою әдісі) динамикасын ашу: ерте концепциядан заманауи қолданысқа дейін». www. medium. com, 5 тамыз, 2023 жыл.

Руз, Кевин. «Bing-тің ЖИ чаты: „Мен тірі болғым келеді“». New York Times, 16 ақпан, 2023 жыл.

«Сэм Альтман ЖИ революциясы, триллионерлер және саяси биліктің болашағы туралы». The Ezra Klein Show (подкаст), 11 маусым, 2021 жыл.

Уайз, Карен, Кейд Метц, Нико Грант және Майк Айзек. «Силикон алқабын мәңгіге өзгерткен ЖИ қарулану жарысының ішінде». New York Times, 5 желтоқсан, 2023 жыл.

14-тарау: Түсініксіз ақырзаман сезімі

Open Philanthropy атқарушы директорының OpenAI-да жұмыс істейтін адамға тұрмысқа шыққаны туралы ақпарат: www. openphilanthropy. org/grants/openai-general-support/.

FTX негізін қалаушыларының Anthropic-ке салған инвестициялары туралы мәліметтер Pitchbook нарықтық зерттеу фирмасынан алынды.

Open Philanthropy гранттары мен қаржыландыруы туралы мәліметтер: www. openphilanthropy. org/grants/.

Уильям Макаскилл мен Илон Маск арасындағы хаттар Маск пен Twitter арасындағы сот ісінің материалдарынан алынды, 28 қыркүйек, 2022 жыл.

Андерсон, Марк. «Басқарма тарапынан генеративті ЖИ-ді қолдануға қысым көріп жатқан бас директорларға кеңес». Fast Company, 31 қазан, 2023 жыл.

Берг, Эндрю, Крис Папагеоргиу және Марьям Вазири. «Технологияның екіге бөлінген соққысы». F&D Magazine, Халықаралық валюта қоры, желтоқсан 2023 жыл.

Борделон, Брендан. «Миллиардерлер қолдайтын ЖИ кеңесшілер желісі Вашингтонды қалай бағындырды». Politico, 23 ақпан, 2024 жыл.

«ЕО ЖИ туралы актісі: Жасанды интеллект бойынша алғашқы реттеу». www. europarl. europa. eu, 8 маусым, 2023 жыл.

Гросс, Николь. «ChatGPT бізге гендер туралы не айтады: ЖИ-дегі гендерлік бейтараптық туралы ескерту». Social Sciences, 1 тамыз, 2023 жыл.

Джонсон, Саймон және Дарон Аджемоглу. «Билік және прогресс: Технология мен гүлдену үшін мыңжылдық күресіміз». New York: Basic Books, 2023 жыл.

Льюис, Гидеон. «Тиімді альтруизмнің (ресурстарды барынша тиімді пайдалану арқылы әлемге көмектесуге бағытталған философия) еріксіз пайғамбары». New Yorker, 8 тамыз, 2022 жыл.

Льюис, Майкл. «Шексіздікке ұласу». New York: Penguin, 2023 жыл.

Макаскилл, Уильям. «Біз болашаққа не қарыздармыз». London: Oneworld, 2022 жыл.

Метц, Кейд. «ChatGPT королі уайымдамайды, бірақ сіздің уайымдауыңыз мүмкін екенін біледі». New York Times, 31 наурыз, 2023 жыл.

Метц, Кейд. «„ЖИ-дің атасы“ Google-дан кетіп, алдағы қауіп туралы ескертеді». New York Times, 1 мамыр, 2023 жыл.

Миллар, Джордж. «Сиқырлы жеті саны, плюс немесе минус екі». Psychological Review, 1956 жыл.

Милмо, Дэн және Алек Херн. «Кемсітушілік, кемсіту адамзаттың жойылып кетуіне қарағанда ЖИ-дің үлкенірек қаупі — ЕО комиссары». The Guardian, 14 маусым, 2023 жыл.

Моллман, Стив. «ChatGPT ойлап тапқан жалған істерге сілтеме жасағаны үшін жұмыстан шығарылған адвокат әлі де ЖИ құралдарын қолдануда». Fortune, 17 қараша, 2023 жыл.

Мосс, Себастьян. «Microsoft қалай жеңіске жетеді». www. datacenterdynamics. com, 24 қараша, 2023 жыл.

О’Брайен, Сара Эшли. «Bumble бас директоры Уитни Вулф Херд қызметінен кетеді». Wall Street Journal, 6 қараша, 2023 жыл.

«Үлкен ЖИ эксперименттерін тоқтата тұру: Ашық хат». Future of Life Institute, www. futureoflife. org, 22 наурыз, 2023 жыл.

Перриго, Билли. «OpenAI жаңа ЖИ ережелеріне байланысты Еуропадан кетуі мүмкін, — деп ескертеді бас директор Сэм Альтман». Time, 25 мамыр, 2023 жыл.

Пиантадоси, Стивен (@spiantado). «Иә, ChatGPT таңқаларлық әрі әсерлі. Жоқ, OpenAI бейтараптық мәселесін шешуге жақындаған да жоқ». Twitter, 4 желтоқсан, 2022 жыл.

Пайпер, Келси. «Сэм Бэнкман-Фрид өзін ақтауға тырысуда». Vox, 16 қараша, 2022 жыл.

«Риши Сунак және Илон Маск: ЖИ, технология және болашақ туралы әңгіме». Риши Сунактың YouTube арнасы, 3 қараша, 2023 жыл.

«Ромни ЖИ, кванттық есептеулер және басқа да дамып келе жатқан технологиялардан төнетін ықтимал қауіптер бойынша сенаттағы тыңдауларды басқарады». www. romney. senate. gov, 19 қыркүйек, 2023 жыл.

Руз, Кевин. «ЖИ ақырзаманын болжаушылардың орталығында». New York Times, 11 шілде, 2023 жыл.

«Сэм Альтман: „Мен ChatGPT берген жауаптарға жер бетіндегі кез келген адамнан аз сенемін“». Business Today YouTube арнасы, 8 маусым, 2023 жыл.

Сингер, Питер. «Сен құтқара алатын өмір». New York: Random House, 2010 жыл.

«ЖИ қаупі туралы мәлімдеме». ЖИ қауіпсіздігі орталығы, www. safe. ai, мамыр 2023 жыл.

Валланс, Крис. «Жасанды интеллект адамзаттың жойылуына әкелуі мүмкін, — деп ескертеді сарапшылар». BBC News, 30 мамыр, 2023 жыл.

Винсент, Джеймс. «ChatGPT радиожүргізушіге қарсы жалған құқықтық айыптаулар ойлап тапқаннан кейін OpenAI жала жапқаны үшін сотқа тартылды». The Verge, 9 маусым, 2023 жыл.

Веприн, Алекс. «Джеффри Катценберг: ЖИ анимациялық фильмдер жасау үшін қажет жұмысшылар санын күрт азайтады». Hollywood Репортер (ақпарат) (ақпарат), 9 қараша, 2023 жыл.

Юдковский, Элиезер. «ЖИ әзірлемелерін тоқтата тұру жеткіліксіз. Біз бәрін жауып тастауымыз керек». Time, 29 наурыз, 2023 жыл.

15-тарау: Шах және мат

«Мультимодальді ЖИ мүмкіндіктері | Gemini демосы». Google YouTube арнасы, 6 желтоқсан, 2023 жыл.

Дастин, Джеффри, Кристал Ху және Пареш Дэй. «Эксклюзив: ChatGPT иесі OpenAI 2024 жылға қарай 1 миллиард доллар табыс табуды жоспарлап отыр». Reuters, 15 желтоқсан, 2022 жыл.

Гурман, Марк. «Apple-дың iPhone дизайны бойынша жетекшісі Сэм Альтман мен Джони Айвтың ЖИ құрылғыларында жұмыс істеуіне тартылды». Bloomberg, 26 желтоқсан, 2023 жыл.

Хэйджи, Кич, Дипа Ситхараман және Бербер Джин. «Сэм Альтманның OpenAI-дағы қақтығысының сахна сырты». Wall Street Journal, 22 қараша, 2023 жыл.

Хокинс, Маккензи, Эдвард Ладлоу, Джиллиан Тан және Дина Басс. «OpenAI басшысы Сэм Альтман ЖИ чиптері үшін миллиардтар жинауға АҚШ-тың қолдауын іздейді». Bloomberg, 16 ақпан, 2024 жыл.

Хит, Алекс. «Марк Цукербергтің жаңа мақсаты — Жасанды жалпы интеллект (кез келген зияткерлік тапсырманы адам деңгейінде орындай алатын ЖИ) жасау». The Verge, 18 қаңтар, 2024 жыл.

Имбри, Эндрю, Оуэн Дэниелс және Хелен Тонер. «Ниеттерді шешу: Жасанды интеллект және шығынды сигналдар». Қауіпсіздік және дамып келе жатқан технологиялар орталығы, қазан 2023 жыл.

Метц, Кейд, Трипп Микл және Майк Айзек. «Альтманды жұмыстан шығарғанға дейін OpenAI кеңесі екіге бөлініп, жанжалдасқан». New York Times, 21 қараша, 2023 жыл.

Руз, Кевин. «ЖИ ақырзаманын болжаушылардың орталығында». New York Times, 11 шілде, 2023 жыл.

Сигалос, Маккензи және Райан Браун. «OpenAI-дан Сэм Альтман адам деңгейіндегі ЖИ келе жатқанын, бірақ ол әлемді біз ойлағаннан әлдеқайда аз өзгертетінін айтты». CNBC, 16 қаңтар, 2024 жыл.

Виктор, Джон және Амир Эфрати. «OpenAI Альтманды жұмыстан шығарғанға дейін ЖИ саласында серпіліс жасап, қуаныш пен алаңдаушылық туғызды». The Information, 22 қараша, 2023 жыл.

Уокер, Бернадетт. «OpenAI-дың Сэм Альтманды кенеттен жұмыстан шығаруының ішкі мән-жайы». Bloomberg, 20 қараша, 2023 жыл.

Цукерберг, Марк. «ЖИ саласындағы жұмысымыз туралы кейбір жаңалықтар». 18 қаңтар, 2024 жылы Facebook-те жарияланған видео.

16-тарау: Монополиялар көлеңкесінде

Боммасани, Риши және т. б. «Базалық модельдердің ашықтық индексі». Стэнфорд базалық модельдерді зерттеу орталығы (CRFM) және Стэнфорд адамға бағытталған жасанды интеллект институты (HAI), 18 қазан, 2023 жыл.

Ченг, Мишель. «ЖИ-қыз боттар OpenAI-дың GPT дүкенін толтыруда». Quartz, 11 қаңтар, 2024 жыл.

Ченг, Мишель. «Google-дың бұрынғы қызметкерлері негізін қалаған стартап қолданушылар оның ЖИ чат-боттарымен күніне екі сағат өткізетінін мәлімдеді». Quartz, 12 қазан, 2023 жыл.

Холмс, Аарон. «Microsoft қаржы директоры OpenAI және басқа да ЖИ өнімдері табысқа 10 миллиард доллар қосатынын айтты». The Information, маусым 2023 жыл.

«GPT дүкенін таныстыру». www. openai. com, 10 қаңтар, 2024 жыл.

Лесвинг, Киф. «Nvidia-ның ЖИ чиптері eBay-де 40 000 доллардан астам бағаға сатылуда». CNBC, 14 сәуір, 2023 жыл.

«Ұзақ мерзімді пайда қоры». www. anthropic. com/news/the-long-term-benefit-trust, 19 қыркүйек, 2023 жыл.

Шиффманн, Ави (@AviSchiffmann). «Мен әлемдегі ең жеке киілетін ЖИ-ді жасадым! Сіз Tab-пен өміріңіздегі кез келген нәрсе туралы сөйлесе аласыз». Twitter, 1 қазан, 2023 жыл.

Вэнс, Эшли. «Илон Масктың миға имплант орнату стартапы ота жасауға дайын». Bloomberg Businessweek, 7 қараша, 2023 жыл.

Автор (әдеб.) (әдеб.) туралы

Image segment 1308

Парми Олсон — он үш жылдан астам уақыт бойы технология индустриясын зерттеп келе жатқан Bloomberg Opinion (халықаралық қаржылық ақпарат агенттігінің сараптамалық айдары) шолушысы. Wall Street Journal және Forbes басылымдарының бұрынғы тілшісі, ол «Біз — Анонимбіз» (We Are Anonymous) кітабының авторы және Palo Alto Networks Cybersecurity Canon сыйлығының иегері. Оның Facebook-тің WhatsApp-ты 19 миллиард долларға сатып алуы және одан кейінгі зардаптары туралы репортажы SABEW (Іскерлік журналистер мен редакторлар қауымдастығы) іскерлік журналистика (ақп. ) сыйлығында екі мәрте арнайы атап өтілді. Wall Street Journal басылымында ол алғашқы болып Google-дың үздік ЖИ (жасанды интеллект (псих. ) — адамның ойлау қабілетін имитациялайтын техникалық жүйе) зертханасындағы компаниядан бөлініп шығуға бағытталған құпия талпыныс туралы хабарлады. Бұл кітап сол оқиғаға әкелген драмалық әрі тоқтату мүмкін емес күштерді тереңірек баяндайды.

Пікірлер (0)

Әзірге пікір жоқ.
An error has occurred. This application may no longer respond until reloaded. Reload 🗙