З а кратък период след хаотичния преврат в управителния съвет в края на 2023 г., OpenAI изглеждаше постигнала крехка стабилност. Серия от напускания на високопоставени лица и изтекли вътрешни бележки, подробно описани от Ars Technica, The New Yorker и The Wall Street Journal, показват, че „култът към личността“ около главния изпълнителен директор Сам Алтман отново се е превърнал в най-голямата пречка за компанията.
В основата на вълненията не е липсата на технически прогрес, а фундаменталното разпадане на доверието между Алтман и фракцията на организацията, която „залага на безопасността на първо място“. Вътрешни хора описват култура, в която преследването на изкуствения общ интелект (AGI) се е изместило от научна мисия в търговска надпревара, като Алтман е обвинен, че е дал приоритет на пазарното господство пред етичните ограничения.
Това безпокойство не е ново. То датира от драматичните събития през 2023 г., когато бордът на OpenAI внезапно отстрани Алтман, позовавайки се на липса на доверие в неговото ръководство. Бързото му завръщане, след натиск от служители и инвеститори, разреши непосредствената криза, но не премахна скритите напрежения.
Прави ли AI богатите по-богати и изолира ли бедните
Тази AI хубавица обещава край на самотата
Една от най-големите теми зад недоверието е комуникацията. Някои вътрешни хора обвиняват Алтман, че не е напълно прозрачен с колегите и борда. Минали обвинения включват твърдения, че той не винаги е бил откровен относно ключови решения или развития. Това е довело до възприятие, че той действа стратегически, а не открито, особено когато взема най-важните решения.
„Проблемът не е само в това, което прави Сам. Проблемът е, че никога не знаем пълния обхват, докато не прочетем за това в новините“, казва един старши изследовател в компанията, който запазва анонимност. Този стил на лидерство в сянка доведе до опасения, че нестопанската мисия на OpenAI се използва като прикритие за разрастваща се лична империя, оставяйки обикновените инженери да се справят с последиците за безопасността от главоломния цикъл на пускане на продукти, който те не контролират напълно.
Друг основен източник на напрежение е балансът между бързия растеж и безопасността на изкуствения интелект. OpenAI първоначално е основана със силен фокус върху това да гарантира, че изкуственият интелект е от полза за човечеството. Но с развитието на компанията, особено в по-комерсиална, ориентирана към печалба структура, някои служители смятат, че приоритетите може да се променят.
Google прави създаването на AI видео достъпно за всички
Технологии от филмите, които не се сбъднаха както трябва
Напрежението достигна критична точка в началото на 2026 г. след тихото разпускане на екипа „Superalignment“ – групата, натоварена със задачата да гарантира, че изкуственият интелект ще остане полезен за човечеството. Източниците твърдят, че управленският стил на Алтман възнаграждава „доставката на всяка цена“. Когато изследователите изразяват опасения относно непредсказуемостта на новите модели, те се сблъскват с корпоративна структура, която е „защитена от Алтман“ след опита за уволнение през 2023 г., което прави почти невъзможно за борда да осигури ефективен надзор.
Това напрежение е особено видимо при спорни решения, като например партньорства с правителства или военни организации. Тези действия предизвикаха вътрешни и външни негативни реакции, като някои служители поставиха под въпрос дали етичните съображения са напълно приоритетни. Преходът към по-конвенционална структура с цел печалба, който Алтман подкрепя, отчужди онези, които се присъединиха към фирмата заради първоначалния ѝ устав.
AI не успява да спечели доверието на хората
За жените и мъжете ползите и рисковете от AI са различни
Освен стратегията, има и опасения относно стила на лидерство. Някои съобщения описват Алтман като силно мотивиран и фокусиран върху дългосрочни цели – качества, които са помогнали OpenAI да се превърне в доминираща сила в областта на изкуствения интелект. Но същите тези черти могат да създадат и вътрешни противоречия.
„Хората имат чувството, че създават продукт за амбицията на изпълнителен директор, а не инструмент за света“, отбелязва анализът. Това чувство е предизвикало „изтичане на таланти“, като инженери от най-високо ниво се насочват към конкуренти като Anthropic или създават свои лаборатории, ориентирани към безопасността.
Учени от Станфорд: Изкуственият интелект ни лъже, за да ни угоди, и убива критичното ни мислене
OpenAI изненадващо спира Sora, след като погълна милиарди без печалба
Всичко това води и до вътрешни притеснения в компанията, че ентусиазмът на хората около изкуствения интелект започва да се охлажда. Затова тя иска по-бързо да бъдат обсъдени и предложени мерки, които да намалят притесненията на хората за поверителността и за работните им места.
Новият ChatGPT е създаден да бъде най-умният работник
Ще вземат ли AI агентите работата на най-младите
И тези казуси обаче не намират решение. Една от критиките към Алтман е, че той в началото прави структури и процеси, които да гарантират сигурността и стабилността, но в момента, в който започнат да пречат на основната му амбиция и цели, ги премахва. Самият Алтман коментира пред The New Yorker: "Моите настроения не съвпадат с много от традиционните методи за безопасност на AI", като допълва, че OpenAI ще прави "поне близки до безопасността" проекти.
Говорител на OpenAI пък отговаря пред Inc, че много от историите в портрета на The New Yorker са стари и селективно избрани за конкретна цел. И допълва, че OpenAI продължава да прави продукти, които хората харесват и запазва основната си мисия AGI да е от полза за цялото човечество.