Г лавният изпълнителен директор на OpenAI Сам Алтман обяви късно в петък, че компанията е подписала споразумение с Пентагона нейните AI инструменти да бъдат използвани в класифицираните системи на армията, но при привидно сходни предпазни ограничения с тези, които конкурентът Anthropic също е поискал.
Сделката с OpenAI идва в същия ден, в който президентът Доналд Тръмп обяви, че всички федерални правителствени агенции трябва да прекратят използването на AI инструментите на Anthropic.
Министърът на отбраната Пийт Хегсет заяви, че компанията ще бъде определена като „риск за веригата на доставки“ и всичко това заради отказа ѝ да отстъпи в преговорите си с Пентагона относно поисканите ограничения върху използването на нейната AI система в автономни оръжия и масово наблюдение на американски граждани, пише Си Ен ЕН (CNN).
Но изявлението на Алтман подсказва, че Пентагонът е приел сходни ограничения и по отношение на моделите на OpenAI.
„Два от най-важните ни принципа за безопасност са забраната на вътрешното масово наблюдение и човешката отговорност при използването на сила, включително при автономни оръжейни системи. Министерство на войната ( DoW) е съгласно с тези принципи, отразява ги в закона и политиката си, и ние ги включихме в нашето споразумение“, написа Алтман в X
„Също така ще изградим технически предпазни механизми, за да гарантираме, че моделите ни се държат така, както трябва, което (Министерството на войната) също желаеше“, обяснява той.
Алтман каза още, че ще изпратят инженери на място в Пентагона, за да гарантират безопасността на техните модели. „Настояваме DoW да предложи същите условия на всички AI компании, което според нас всеки би трябвало да е готов да приеме. Изразихме силното си желание да видим деескалация – далеч от съдебни и правителствени действия и към разумни споразумения“, отбеляза Алтман.
Anthropic заяви в петък, че планира да оспори по съдебен път определянето ѝ като „риск за веригата на доставки“ – категория, която обикновено е запазена за компании с преки връзки с чуждестранни противници. Това би изисквало всички изпълнители, които работят с армията, да докажат, че военната им дейност не включва продукти на Anthropic.
Не е ясно какво се различава в сделката на OpenAI с Пентагона спрямо това, което Anthropic е поискала. CNN е поискала разяснения както от Пентагона, така и от OpenAI.
Хегсет сподели отново съобщението на Алтман в X, а заместник-министърът на отбраната Емил Майкъл, който отговаря за технологиите в Пентагона, заяви в отделна публикация в X: „Когато става въпрос за въпроси на живот и смърт за нашите бойци, наличието на надежден и стабилен партньор, който действа добросъвестно, има решаващо значение, докато навлизаме в ерата на изкуствения интелект“.
В исторически план, въвеждането на изкуствен интелект (ИИ) във военни и класифицирани системи винаги е било съпроводено от дебати относно етичните и оперативни граници. През 2018 г. например, Google се изправи пред вътрешно недоволство заради участието си в "Project Maven" на американската армия, което доведе до въвеждането на вътрешни правила, изключващи разработката на ИИ за оръжия или масово наблюдение. Този ход послужи като ранен прецедент за корпоративна саморегулация в отговор на обществени и етични опасения.
Въпреки тези корпоративни декларации, Министерството на отбраната на САЩ продължи да инвестира стратегически в ИИ. До 2023 г. OpenAI вече беше сключила договор на стойност 200 милиона долара с Пентагона за разработване на ИИ системи, предназначени за националната сигурност. Това демонстрира трайния ангажимент на военните институции към интеграцията на технологиите, независимо от изразените по-рано етични съображения.
През октомври 2023 г. администрацията на президента Байдън се опита да въведе по-стриктна регулаторна рамка. Тя издаде изпълнителна заповед, задължаваща разработчиците на ИИ, включително OpenAI и Google, да споделят оценки за безопасността на своите модели с федералното правителство. Целта беше да се установят общи стандарти за безопасност и да се предотвратят потенциални злоупотреби.
Контрастна промяна в корпоративната политика се наблюдава през 2025 г., когато Alphabet, компанията майка на Google, ревизира своите принципи от 2018 г., премахвайки забраната за използване на ИИ за военни цели и наблюдение. Това решение беше аргументирано с променящия се геополитически пейзаж и необходимостта демократичните правителства да водят в развитието на ИИ за националната сигурност.
Настоящата сделка на OpenAI с Пентагона се развива на фона на последните действия на президента Доналд Тръмп. Той отмени изпълнителната заповед на Байдън за надзор на ИИ и нареди на всички федерални агенции да прекратят използването на ИИ инструменти от конкурентната компания Anthropic, определяйки я като "риск за веригата на доставки" заради отказа ѝ да приеме условия за автономни оръжия и масово наблюдение. Този ход създава контекст, в който съгласието на OpenAI с принципите за безопасност, включващи човешка отговорност при използването на сила и забрана на масовото наблюдение, става ключов аспект от новия договор.