Хенри Кисинджър и Греъм Алисън: Опасността от използването на ИИ за военни цели

Тази година се навършват 78 години от края на най-смъртоносната война в човешката история и началото на най-дългия период без въоръжени конфликти между велики сили. Защото само две десетилетия по-късно Първата световна война е последвана от Втората световна война. При Трета световна война ще бъдат използвани оръжия, които ще бъдат толкова разрушителни, че теоретично могат да застрашат цялото човечество. И тази заплаха надвисна над последвалите десетилетия на Студената война.

Когато Съединените щати унищожиха с атомни оръжия Хирошима и Нагасаки и принудиха Япония да капитулира незабавно и безусловно, никой не предполагаше, че светът ще стане свидетел на фактически мораториум върху използването на ядрени оръжия през следващите седем десетилетия. Още по-невероятно е, че почти осем десетилетия по-късно светът остава само с девет ядрени сили. Водещата роля, която Съединените щати демонстрираха през тези десетилетия в предотвратяването на ядрена война, забавянето на разпространението на ядрените оръжия и създаването на международен ред, който осигури десетилетия на мир между великите сили, ще остане в историята като едно от най-значимите постижения на Америка.

Днес, когато светът е изправен пред уникални предизвикателства, породени от друга безпрецедентна и в някои отношения още по-ужасяваща технология - изкуствения интелект - не е чудно, че мнозина се обръщат към историята за напътствия. Ще застрашат ли машините със свръхчовешки способности статута на човечеството като господар на вселената? Ще подкопае ли изкуственият интелект монопола на отделни държави върху средствата за масово унищожение? Ще позволи ли ИИ на отделни хора или на малки групи от хора да създават вируси, способни да убиват в мащаби, запазени преди за великите сили? Може ли ИИ да унищожи ядрените възпиращи средства, които са в основата на днешния световен ред?

На този етап никой не може да отговори със сигурност на тези въпроси. Но изследвайки ги през последните две години с група технологични лидери, които са в челните редици на революцията в областта на ИИ, стигнахме до заключението, че перспективите неограниченото развитие на ИИ да доведе до катастрофални последици за САЩ и света се проявяват толкова убедително, че световните лидери трябва да действат незабавно. Въпреки че нито те, нито който и да било друг знае какво ни очаква в бъдеще, още днес знаем достатъчно, за да започнем да правим трудни избори и да предприемаме действия, като същевременно признаваме, че те ще подлежат на многократно преразглеждане, когато откриваме все повече и повече.

Когато лидерите правят този избор, уроците, научени в ядрената епоха, могат да повлияят на решенията им. Като две полярни държави и Съединените щати, и Съветският съюз имаха интерес да предотвратят бързото разпространение на такива технологии в други държави, които биха могли да ги застрашат. И Вашингтон, и Москва осъзнават, че ако ядрената технология попадне в ръцете на злонамерени или терористични участници в рамките на собствените им граници, тя може да бъде използвана за заплаха на Съединените щати и СССР, и затова всяка от тях разработва надеждни системи за сигурност за собствените си арсенали. И тъй като и двете държави могат да бъдат изложени на риск, ако злонамерени противници се сдобият с ядрено оръжие, те смятат, че е в техен интерес да обсъдят този риск помежду си и да разработят методи и технологии, които да гарантират, че това няма да се случи. След като арсеналите им от ядрени оръжия достигнаха ниво, при което никоя от тях не можеше да атакува другата, без да предизвика ответен удар, който би унищожил самата нея, те откриха парадоксалната стабилност на "гарантираното взаимно унищожение" (MAD). След като тази ужасна реалност беше осъзната от тях, всяка сила се научи да се ограничава и намери начини да убеди противника си да ограничи военните си инициативи, за да избегне конфронтации, които биха могли да доведат до война. Всъщност американските и съветските лидери осъзнаха, че предотвратяването на ядрена война, чиято първа жертва би била тяхната страна, е най-важната им отговорност.

Предизвикателствата, пред които е изправен изкуственият интелект днес, не са просто втората глава на ядрената ера.

Историята не е готварска книга с рецепти за приготвяне на суфле. Разликите между изкуствения интелект и ядрените оръжия са толкова големи, колкото и приликите. Но правилно разбраните и адаптирани уроци, извлечени от формирането на международния ред, който доведе до почти осем десетилетия без война между великите сили, представляват най-добрите насоки, с които разполагат лидерите на държавите с противостоящи изкуствени интелекти.

В момента има само две суперсили в областта на изкуствения интелект: САЩ и Китай. Това са единствените държави, които разполагат със специалисти, изследователски институти и огромна изчислителна мощ, необходими за създаването на най-сложните модели на изкуствен интелект. Това им дава тясна възможност да разработят препоръка за предотвратяване на най-опасните постижения и приложения на ИИ. Президентът на САЩ Джо Байдън и президентът на Китай Си Дзинпин трябва да се възползват от тази възможност и да проведат среща на високо равнище - може би веднага след срещата на Азиатско-тихоокеанското икономическо сътрудничество в Сан Франциско през ноември - на която да има продължителни, директни дискусии лице в лице за това, което би трябвало да разглеждат като едно от най-важните предизвикателства, пред които са изправени днес.

Уроци от ядрената епоха

След като атомните бомби опустошиха японските градове през 1945 г., учените, които отвориха атомната кутия на Пандора, видяха какво са създали и изпаднаха в ужас от това, което са направили. Робърт Опенхаймер, главен учен на проекта "Манхатън", става толкова ревностен привърженик на радикалните мерки за контрол на атомните оръжия, че му е отнето разрешението за достъп до ядрения проект. Манифестът на Ръсел-Айнщайн, подписан през 1955 г. от 11 водещи учени, сред които не само Бъртранд Ръсел и Алберт Айнщайн, но и Линус Паулинг и Макс Борн, предупреждава за ужасяващата сила на ядрените оръжия и моли световните лидери никога да не ги използват.

Въпреки че президентът на САЩ Хари Труман никога не е изразявал съмнения относно решението си за атомните оръжия, нито той, нито членовете на екипа му по национална сигурност са имали реалистична представа как тази ужасяваща технология може да бъде интегрирана в следвоенния международен ред. Трябваше ли Съединените щати да се опитат да запазят монополното си положение на единствена атомна сила? Било ли е изобщо осъществимо? Можеха ли Съединените щати да споделят технологията си със Съветския съюз, за да постигнат тази цел? Трябваше ли световните лидери да измислят някаква нова власт над националните правителства, за да оцелеят в един свят с такива оръжия? Хенри Стимсън, военен министър по времето на Труман (който току-що беше помогнал за разгрома на Германия и Япония), предложи Съединените щати да споделят монопола си върху атомната бомба със съветския лидер Йосиф Сталин и британския министър-председател Уинстън Чърчил, за да създадат съюз от велики сили, който да предотврати разпространението на ядрени оръжия. Труман създава комисия, председателствана от заместник-държавния секретар на САЩ Дийн Ачесън, която да разработи стратегия за изпълнение на предложението на Стимсън.

По същество Ачесън се съгласява със Стимсън: единственият начин да се предотврати надпревара в ядреното въоръжаване, която може да завърши с катастрофална световна война, е да се създаде някаква международна организация, която да бъде единственият притежател на атомни оръжия. Това би изисквало от Съединените щати да споделят ядрените си тайни със Съветския съюз и другите членове на Съвета за сигурност на ООН, да прехвърлят ядрените си оръжия на нов "орган на ООН за атомно развитие" и да забранят на всички държави да разработват атомни оръжия или да изграждат собствен капацитет за производство на ядрен материал с оръжейно качество. През 1946 г. Труман изпраща финансиста и президентски съветник Бърнард Барух в ООН, за да договори споразумение за изпълнение на плана "Ачесън". Но предложението е категорично отхвърлено от Андрей Громико, представител на СССР в ООН.

Три години по-късно, когато Съветският съюз успява да създаде своя собствена бомба, Съединените щати и Съветският съюз навлизат в това, което хората започват да наричат Студена война: ожесточена конкуренция, но без бомби и куршуми. Основната характеристика на това съревнование е стремежът към ядрено превъзходство. В своя пик ядрените арсенали на двете свръхсили включват повече от 60 000 оръжия, някои от които имат бойни глави с по-голяма взривна сила от всички оръжия, използвани във всички войни в познатата история. Експертите обсъждат дали ядрената война би означавала край на всяка жива душа на земята.

В продължение на десетилетия Вашингтон и Москва харчат трилиони долари за ядрените си арсенали. Сегашният годишен бюджет на САЩ за атомни оръжия надхвърля 50 милиарда долара. В първите десетилетия на ядрената надпревара и САЩ, и Съветският съюз направиха немислими дотогава крачки напред с надеждата да спечелят решаващо предимство. Увеличаването на взривната мощ на атомните оръжия изискваше създаването на нови единици за сила - от килотонове (еквивалент на енергията, отделена от 1000 тона тротил) за първоначалните заряди до мегатонове (еквивалент на енергията, отделена от един милион тона) за водородните термоядрени бомби. И двете страни изобретиха междуконтинентални ракети, способни да доставят бойни глави до цели в другия край на планетата за 30 минути, сателити, обикалящи земното кълбо на височина стотици километри, с камери, които могат да определят координатите на целите с точност до няколко сантиметра, и отбранителни системи, които могат да поразяват куршум с куршум. Някои експерти сериозно обмисляха такива отбранителни системи, които биха направили ядрените оръжия, както се изрази президентът Роналд Рейгън, "безсилни и остарели".

Концептуален арсенал

В опит да систематизират тези усилия стратезите разработиха концептуален арсенал от ядрената триада - подводници, бомбардировачи и ракети с наземно базиране - за да се гарантира, че ако противникът открие слабост в един от компонентите, останалите компоненти на арсенала остават на разположение за унищожителен отговор. Осъзнаването на рисковете от случайно или неразрешено изстрелване на оръжия стимулира изобретяването на ефективни системи за разрешаване - електронни ключалки, вградени в ядрените оръжия, които предотвратяват активирането им без правилните кодове за изстрелване. Бяха разработени дори дублиращи системи за защита от технологични пробиви, които биха могли да застрашат системите за управление и контрол, което е в основата на изобретяването на компютърната мрежа, превърнала се в интернет. Както казва стратегът Херман Кан, "тогава мислехме за немислимото".

Ядрената стратегия се основаваше на концепцията за възпиране: предотвратяване на нападение от страна на противника чрез заплаха за нанасяне на щети, надхвърлящи всякаква възможна полза за противника.

През 1962 г., когато президентът на САЩ Джон Ф. Кенеди се противопоставя на съветския лидер Никита Хрушчов за разположените от Съветския съюз в Куба ракети с ядрен заряд, разузнавателната общност на САЩ изчислява, че дори ако Кенеди нанесе успешен първи удар, съветският ядрен отговор с наличните възможности на СССР може да убие 62 милиона американци. През 1969 г., когато президент става Ричард Никсън, Съединените щати трябва да преосмислят подхода си. Кисинджър, по-късно описва проблема по следния начин: "Нашите отбранителни стратегии, формирани в периода на нашето превъзходство, трябваше да бъдат преразгледани в суровата светлина на новите реалности... Никаква войнствена реторика не можеше да прикрие факта, че съществуващите ядрени арсенали са достатъчни, за да унищожат цялото човечество... И не можеше да има по-висш дълг от това да се предотврати катастрофата на ядрената война."

За да направят тази теза по-ярка, стратезите създават ироничното съкращение MAD. Военната абревиатура "mutual assured destruction" означава "взаимно гарантирано унищожение“, чиято същност бе обобщена в често повтаряната фраза на Рейгън: "Ядрената война не може да бъде спечелена и затова никога не трябва да бъде водена“. В оперативен план MAD означава взаимно гарантирана уязвимост. Без да отричат различията в ценностите или да застрашават жизненоважни национални интереси, смъртните врагове трябваше да разработят стратегии за победа над противника си с всички възможни средства, различни от тоталната война.

Един от стълбовете на тези стратегии беше поредица от мълчаливи и явни ограничения, известни днес като контрол на въоръженията. За да намалят риска от грешки, Съединените щати и Съветският съюз се споразумяха в неофициални дискусии да не се намесват взаимно в наблюдението на съперниковите територии. За да предпазят гражданите си от радиоактивни обгазявания, те забраниха атмосферните ядрени опити. За да избегнат "кризисна нестабилност" - когато едната страна изпитва необходимост да нанесе първа удар, вярвайки, че другата страна е на път да го направи - те се споразумяха в Договора за ПРО от 1972 г. да ограничат противоракетната отбрана. В Договора за ядрените сили със среден и малък обсег на действие от 1987 г. Рейгън и съветският лидер Михаил Горбачов се споразумяха да премахнат ядрените сили със среден обсег на действие. Преговорите за ограничаване на стратегическите оръжия, довели до договорите, подписани през 1972 г. и 1979 г., ограничиха увеличаването на броя на ракетните установки, а по-късно Договорът за съкращаване на стратегическите оръжия (СНВ), подписан през 1991 г., и новият договор СНВ, подписан през 2010 г., намалиха техния брой. Може би най-важното е, че Съединените щати и Съветският съюз стигнаха до заключението, че разпространението на ядрени оръжия сред други държави представлява заплаха за самите тях и в крайна сметка рискува да доведе до "ядрена анархия". Това доведе до създаването на т.нар. режим на неразпространение, чийто централен елемент е Договорът за неразпространение на ядреното оръжие от 1968 г., по силата на който днес 186 държави са поели ангажимент да се въздържат от разработване на собствени ядрени арсенали.

Контрол на ИИ

Много отзвуци от това минало могат да се чуят в настоящите предложения за начини за ограничаване на ИИ. Искането на милиардера Илон Мъск за шестмесечна пауза в развитието на ИИ, предложението на изследователя на изкуствения интелект Елиезер Юдковски за забрана на ИИ и искането на психолога Гари Маркъс той да бъде контролиран от някакъв глобален управляващ орган по същество повтарят неуспешните предложения от ядрената епоха. Причината е, че всяко от тях би изисквало водещите държави да подчинят суверенитета си на наднационални структури. Никога в историята не се е случвало някоя велика сила да откаже да разработи нова технология за себе си, страхувайки се, че конкурент може да използва нова технология, която да застраши нейното оцеляване и сигурност. Дори близки съюзници на САЩ, като Великобритания и Франция, са избрали да развиват свой собствен национален ядрен потенциал, освен да разчитат на ядрения чадър на САЩ.

За да се адаптират уроците на ядрената история към настоящото предизвикателство, свързано с ИИ, е важно да се признаят съществените разлики между ИИ и ядрените оръжия. Първо, докато развитието на ядрените технологии е било ръководено от отделни национални правителства, в разработването на ИИ участват предимно частни компании. Учените, работещи в Microsoft, Google, Amazon, Meta, OpenAI и няколко малки стартъпа, са далеч по-напред от всички подобни усилия на правителството на САЩ. Нещо повече, тези компании в момента водят "гладиаторска" битка помежду си, която несъмнено подхранва иновациите, но на висока цена. Тъй като тези частни играчи търсят преди всичко компромиси между печалбите и рисковете, те често подценяват националните интереси на конкретни държави.

Второ, днес ИИ е цифров. Ядрените оръжия са трудни за производство и изискват сложна инфраструктура за всичко - от обогатяването на уран до разработването на ядрен заряд. Продуктите на ядреното производство бяха физически обекти и следователно можеха да бъдат преброени. Но там, където имаше нужда да се проверят действията на противника, съществуваха непосредствени ограничения. ИИ представлява съвсем различно предизвикателство. Основната му еволюция се извършва в съзнанието на хората. Той се разработва в лаборатории и внедряването му е трудно да се наблюдава. Ядрените оръжия са осезаеми. Същността на изкуствения интелект е концептуална и спекулативна.

Трето, изкуственият интелект се развива и разпространява със скорост, която прави невъзможни дългосрочните преговори. Контролът над въоръженията се развива от десетилетия. Ограниченията за ИИ трябва да бъдат определени още преди ИИ да бъде вграден в структурата на сигурността на всяка държава, т.е. преди машините да започнат да определят свои собствени цели, което според някои експерти е вероятно да се случи през следващите пет години. Това изисква обсъждане и анализ първо на национално ниво, а след това и на международно. ИИ изисква и нова архитектура на отношенията между правителствата и частния сектор.

За щастие, големите компании, които разработиха базовия изкуствен интелект и превърнаха Съединените щати във водеща суперсила в областта на ИИ, осъзнават, че носят отговорност не само пред своите акционери, но и пред Америка и човечеството като цяло. Много от тях вече са разработили свои собствени насоки за оценка на риска преди внедряване, намаляване на систематичните грешки при обучението на ИИ и ограничаване на опасното използване на техните модели. Други проучват начини за ограничаване на обучението на ИИ и налагат на доставчиците на изчислителни облаци изисквания от типа "познавай своя клиент". Значителна стъпка в правилната посока беше инициативата, обявена от администрацията на Байдън през юли тази година, която доведе ръководителите на седем големи компании за ИИ в Белия дом да поемат съвместен ангажимент за разработване на насоки за осигуряване на "безопасност, сигурност и доверие".

Сега, когато обществото в Съединените щати е по-разделено дори от времето на Гражданската война, мащабът на рисковете, породени от неограниченото развитие на ИИ, изисква лидерите както в правителството, така и в бизнеса да започнат да действат незабавно. Всяко дружество, което има възможност да създава нови модели на ИИ, както и всяко дружество или научноизследователска структура, които разработват такива нови модели, трябва да създадат екипи, които да анализират човешките и геополитическите последици от техните бизнес операции с ИИ.

В този дух президентът и Конгресът следва да създадат национална комисия, съставена от изтъкнати политически независими бивши лидери от частния сектор, Конгреса, военните и разузнавателната общност. Комисията следва да предложи конкретни задължителни предпазни мерки. Те следва да включват изисквания новите модели на изкуствен интелект, като например GPT-4, да бъдат непрекъснато оценявани за възможностите за обучение и компаниите да провеждат стрес тестове за екстремни рискове, преди да пуснат нов модел.

Две суперсили в областта на изкуствения интелект

Дори и на този ранен етап, докато САЩ все още изграждат собствена система за управление на ИИ във вътрешен план, вече трябва да се водят сериозни разговори с единствената друга суперсила в света в областта на ИИ. Въпреки че политическата система на Китай създава предизвикателства за развитието на ИИ, китайските национални лидери в технологичния сектор - Baidu (водещата търсачка в страната), ByteDance (създател на TikTok), Tencent (създател на WeChat) и Alibaba (лидер в електронната търговия) - създават свои собствени системи на китайски език - аналози на ChatGPT. И макар че Китай все още изостава в областта на напредналите технологии за производство на полупроводници, той разполага с необходимото, за да напредне в близко бъдеще.

В този смисъл Байдън и Си трябва да се срещнат възможно най-скоро за открит разговор относно контрола върху военното използване на ИИ. Срещата на Азиатско-тихоокеанското икономическо сътрудничество през ноември в Сан Франциско им предоставя такава възможност. Лидерите на САЩ и Китай следва да обсъдят как те лично оценяват рисковете, породени от ИИ, какво прави страната, за да предотврати използването му, което създава катастрофални рискове, и как страната да гарантира, че местните компании не изнасят свързаните с него рискове. За да предоставят информация за следващия кръг от обсъждания, те следва да създадат консултативна група, съставена от американски и китайски учени в областта на ИИ и други, които мислят за последиците от това развитие. Дискусиите и действията на САЩ и Китай по тази програма ще бъдат само част от зараждащия се глобален диалог за ИИ, включително срещата на високо равнище за безопасността на ИИ в Обединеното кралство през ноември и продължаващия диалог по този въпрос в ООН. Тъй като всяка държава ще се стреми да използва ИИ, за да подобри живота на своите граждани, в дългосрочен план ще е необходим глобален ред за неговото развитие. Това трябва да започне с национални усилия за предотвратяване на най-опасните и потенциално катастрофални последици от изкуствения интелект. Тези инициативи следва да бъдат допълнени от диалог между учени от различни държави, разработващи широкомащабни модели на ИИ, и членовете на национални комисии. Официалните правителствени преговори, първоначално между държави с напреднали програми за изкуствен интелект, следва да имат за цел създаването на международна рамка, както и на международна агенция, сравнима с Международната агенция за атомна енергия.

Ако Байдън, Си Дзинпин и други световни лидери започнат да действат сега, за да се изправят срещу предизвикателствата, породени от ИИ толкова решително, колкото техните предшественици са се справяли с ядрените заплахи през предишните десетилетия, дали ще бъдат толкова успешни? Ако погледнем общата картина на историята и нарастващата поляризация на световната общност днес, е трудно да бъдем оптимисти. Въпреки това трогателният факт, че отбелязахме 78 години мир между ядрените сили, трябва да вдъхнови всички да се справят с революционните и неизбежни предизвикателства на нашето бъдеще в областта на изкуствения интелект. /БГНЕС

--------------------------------------------

Хенри Кисинджър - председател на Kissinger Associates. От 1969 г. до 1975 г. е съветник по националната сигурност на президента на САЩ, а от 1973 г. до 1977 г. е държавен секретар на САЩ.

Греъм Алисън - професор по правителствени науки в Харвардския университет. Бивш помощник-министър на отбраната по въпросите на политиката и планирането.

Техният анализ е публикуван във „Foreign Affairs“.