Снимка, илюстративна: AI
Разговор с Миеке Еоянг, зам.-помощник секретар по киберполитика в Министерството на отбраната в администрацията на Джо Байдън
Технологията на изкуствения интелект е на път да преобрази националната сигурност. В Съединените щати експерти и политици вече експериментират с големи езикови модели, които могат да подпомагат стратегическото вземане на решения при конфликти, както и с автономни оръжейни системи (или, както по-често се наричат, роботи убийци), които могат да "преценяват" в реално време какви да бъдат техните цели и дали да използват смъртоносна сила, разказва Politico.
Но тези нови технологии крият и огромни рискове. Пентагонът разполага с част от най-чувствителната информация в страната. Поверяването на тази информация в "ръцете" на изкуствен интелект я прави по-уязвима както за чуждестранни хакери, така и за злонамерени вътрешни лица.
Неправилно настроен агент с изкуствен интелект може също така бързо да доведе до вземане на решения, които да доведат до ескалация на конфликти.
„Това са наистина мощни инструменти. Мисля, че има много въпроси относно сигурността на самите модели“, казва Миеке Еоянг, заместник-помощник секретар по киберполитика в Министерството на отбраната по време на администрацията на Джо Байдън, в интервю за Politico.
Тя акцентира на страховете на експертите относно психозата, предизвикана от изкуствен интелект - идеята, че дълги разговори с лошо калибриран голям езиков модел могат да доведат до необмислена ескалация на конфликти. Еоянг коментира още, че много от предпазните механизми, съществуващи при публични модели като ChatGPT или Claude, които са срещу насилието, всъщност не са подходящи за военна среда, в която трябва да бъдат подготвени за прилагане на смъртоносна сила. Тя смята, че е необходимо Силициевата долина да действа бързо за внедряване на тези инструменти.
Как Пентагонът може да въведе иновациите и едновременно с това да минимизира риска? Първите експерименти дават известни насоки.
Ето какво споделя още Миеке Еоянг в интервюто.
Защо конкретно настоящите инструменти с изкуствен интелект не са подходящи за военна употреба?
В големите езикови модели, които се използват от широката общественост, са вградени много предпазни механизми, полезни за обществени цели, но не и за военни. Например, не бихте искали обикновеният потребител на инструменти с изкуствен интелект да се опитва да планира как да убие много хора, но в мисията на Пентагона изрично е заложено да обмисля и да бъде подготвен за нанасяне на смъртоносна сила. Затова има неща от този тип, които може да не са съвместими между използването на граждански модел и военен модел на ИИ.
Защо промяната не е толкова лесно да се даде на съществуващ публичен агент с изкуствен интелект по-голяма свобода по отношение на използването на смъртоносна сила?
Много от разговорите относно предпазните механизми при изкуствения интелект са свързани с въпроса как да се гарантира, че използването му от Пентагона няма да доведе до прекомерна сила. Съществуват опасения относно „рояци от роботи убийци“ и тези страхове са свързани с начина, по който армията ни защитава. Но има и притеснения относно използването на ИИ в самия Пентагон, свързани със защитата на самата институция. Защото в една огромна организация, каквато е армията, винаги ще има хора, които да извършват забранени действия. А последиците от такива могат да бъдат много сериозни. И тук дори не става дума за неща, свързани с оръжия, а за такива, които могат да включват изтичане на информация.
Още преди въвеждането на изкуствения интелект е имало случаи на хора в армията с достъп до системи за национална сигурност, които са извличали големи количества класифицирана информация. Това е теч на данни. А хора, които имат достъп до изкуствен интелект, биха могли да направят това в много по-голям мащаб.
Как изглежда един катастрофален сценарий за вътрешна злоупотреба с ИИ?
В последната ми работа в Пентагона много от притесненията ни бяха свързани с това как може да се злоупотребява с технологиите. Но трябва също така да осъзнаем, че враговете могат да се представят като вътрешни лица, затова е тревожно, че такива хора могат да имат достъп до подобни инструменти.
Има множество неща, които могат да предизвикат притеснение. Има риск от загуба на информация, от компрометиране, което може да доведе до още по-сериозни последици.
Може да има последици и от използването на ИИ, което да доведе човек до състояние на т.нар. психоза, предизвикана от ИИ. При такова състояние той може да прояви определено поведение в реалния свят, което е несъвместими с реалността. Това би могло да бъде изключително опасно, като се има предвид достъпът на военни лица до оръжейни системи.
Има и притеснения относно „рояците от роботи убийци“ - как са се управлява риска от ескалация. Как да се гарантира, че няма да се стигне до прекомерна сила? Как да се гарантира, че ИИ реагира така, както се очаква? Това са други предизвикателства, с които военните ще трябва да се справят и за които ще трябва да използват ИИ, за да им помага да мислят.

Снимка, илюстративна: iStock
Politico наскоро публикува статия, в която се съобщава, че почти всички публични модели с изкуствен интелект предпочитат агресивна ескалация към ядрена война, когато им се представят реални сценарии. Те сякаш не разбират деескалацията. Това ли е и Вашият опит в работата с тези инструменти?
Мисля, че едно от предизвикателствата, което имате с ИИ моделите, особено тези, които са обучени върху миналото творчество на човечеството, е, че склонността към ескалация вече е вече е човешко когнитивно пристрастие. Това вече се случва и без ИИ. Така че това, което ИИ позволява, е този процес да се прояви по-бързо. Освен ако не се внедри някакъв механизъм, който да казва: „Хей, провери своите когнитивни пристрастия“, моделът ще ви даде точно такъв отговор.
Значи Пентагонът трябва да разработи свои собствени инструменти с ИИ?
Мисля, че в Пентогона трябва да работят върху създаването на инструменти, които са съвместими с начина, по който оперира институцията. Той е различен от начина, по който функционира гражданският свят, и има различни цели. Но всъщност зависи за коя мисия говорим. Голяма част от този разговор е за ИИ, свързан с големи езикови модели и подпомагане на вземането на решения. Съществува съвсем различна област на ИИ, с която военните трябва да се занимават, и тя се отнася до навигирането във физическия свят. Това е напълно различен набор от предизвикателства и технологии.
А безпилотните системи – как те се ориентират в света? Това е технология като автомибилите, които са на автопилот. Те използват данни, които не са същите като обработването на големи количества човешки текст. Става дума за това: как да разбереш и осмислиш света?
Съществува ли обща необходимост от по-добро разбиране на полезността на ИИ в армията? По какви начини високопоставени служители в Пентагона погрешно разбират ИИ?
Това все още не е напълно разработена технология и затова има дейности като преместването на разглеждането на изкуствения интелект в пространството за научноизследователска дейност за Пентагона, което администрацията на Доналд Тръмп направи и което има голям смисъл. Това ви позволява да провеждате тестове и да работите върху някои от тези нови функции и да разработвате тези технологични модели по начини, които ги усъвършенстват. Това означава, че когато те попаднат на бюрата на по-широк кръг служители на Пентагона, те са отработили някои от тези недостатъци.
Какъв е пътят напред с ИИ инструментите, когато е толкова трудно да се предотврати злоупотреба?
Едно от нещата, които трябва да направим занапред, е да бъдем много по-конкретни относно конкретните мисии, за които обмисляме внедряването на AI в Пентагона. Пентагонът е институция на стойност трилион долара и ще има много бизнес функции, подобни на всяка друга организация в Съединените щати.
След това има области, които са по-специфично военни и те може да заслужават по-специализирано изучаване, защото няма цивилна екосистема, която също да участва в тестването и разработката на тези технологии. Може да се наложи Пентагонът да финансира свои собствени изследвания - като разбиране на неопознати обекти, насочващи се към Съединените щати, или роботи, които трябва да се ориентират на бойното поле, или обработката и осмислянето на множество различни източници на разузнавателни доклади.
Редактор: Цветина ПетроваПоследвайте ни