Н а 16 април OpenAI обяви GPT-Rosalind – нов AI модел, насочен към биотехнологиите и науките за живота. Той значително превъзхожда настоящите им публично достъпни модели в задачи по химия и биология, както и при проектирането на експерименти.
Подобно на Claude Mythos на Anthropic и GPT-5.4-Cyber на OpenAI, също пуснати този месец, моделът не е достъпен за широката общественост – той е запазен, поне първоначално, за „квалифицирани клиенти“ чрез „програма за доверен достъп“.
Тези премиери сигнализират за нова и тревожна тенденция, при която компаниите за изкуствен интелект считат най-способните си модели за твърде мощни, за да бъдат поверени на широката публика, пише списание TIME.
„Мисля, че водещите разработчици ограничават достъпа до най-мощните си модели, защото са искрено притеснени от някои от способностите, които тези модели притежават“, казва Питър Уилдефорд, ръководител на политиките в AI Policy Network, група за застъпничество.
Не е ясно защо OpenAI реши да ограничи достъпа конкретно до GPT-Rosalind. Говорител на OpenAI заяви в имейл, че предоставянето на достъп на доверени партньори позволява на компанията да „направи по-способни системи достъпни по-скоро за проверени потребители, като същевременно управлява риска разумно“.
Кой решава?
Бързият напредък на способностите на изкуствения интелект повдига въпроса дали частните компании трябва да вземат все по-тежките решения за това дали и как трябва да се изграждат потенциално опасни AI модели и кой трябва да има право да ги използва. „Мисля, че федералното правителство има роля в това“, казва конгресмен Марк ДеСалние, демократ от Калифорния.
Пускането на Mythos от страна на Anthropic изглежда е подобрило предишните им обтегнати отношения с Белия дом, който заяви миналата седмица, че е провел „продуктивна и конструктивна“ среща с главния изпълнителен директор на Anthropic Дарио Амодей. Съобщава се също, че НСА (Агенцията за национална сигурност) е започнала да използва Claude Mythos. През февруари президентът Тръмп нареди на федералните агенции да спрат работата с „радикално лявата, „woke“ компания“ след договорно споразумение с Пентагона.
Ограниченията върху достъпа до последната серия модели бяха доброволни от страна на Anthropic и OpenAI. Но тъй като рисковете, породени от AI моделите, стават по-сериозни и комплексни, някои призовават за по-строг външен надзор.
„Не позволяваме на компаниите да решават колко токсични замърсители имат право да поставят в питейната вода на детето ми – това е решение на правителството“, казва Конър Лийхи, директор за САЩ на ControlAI, група за застъпничество за регулиране на изкуствения интелект. „Можем да спорим дали правителството си върши работата лошо или добре, но въпросът е в разделението на властите“.
„Научните изследвания и създаването на биооръжие изглеждат много сходно“
Възможностите за двойна употреба, като изследвания в областта на биологията и киберсигурността, представляват предизвикателство за AI компаниите. Същите инструменти, които помагат на изследовател по киберсигурност да открие и отстрани уязвимости в софтуер, могат да помогнат на потенциален нападател.
Изкуствен интелект, който помага при изучаването на вируси, би могъл хипотетично да помогне на биотерорист да проектира по-смъртоносен щам. „Киберотбраната и кибератаката изглеждат много сходно. Научните изследвания и създаването на биооръжие изглеждат много сходно“, казва Уилдефорд.
В миналото компаниите избираха да ограничават тези способности за всички. Много чатботове например отказват заявки за това кои мутации на COVID правят вируса по-лесно преносим. Въпреки че това не притеснява обикновения потребител, то е предизвикателство за изследователите. „Фрустриращо е. Но мисля, че е правилното решение“, казва Джеймс Диганс, вицепрезидент по политиките и биосигурността в Twist Bioscience, компания за синтез на ДНК.
Скорошните премиери на модели облекчават част от тези ограничения за доверени страни. OpenAI казва, че предоставя достъп до GPT-Rosalind само на организации със „строг вътрешен контрол“, който гарантира, че моделът няма да бъде използван неправомерно.
Anthropic си партнира с правителствени агенции на САЩ и частни компании, които използват Mythos за откриване и отстраняване на уязвимости в киберсигурността. Въпреки това Стеф Баталис, научен сътрудник в Центъра за сигурност и нововъзникващи технологии (CSET), казва, че дефинирането на „легитимни“ изследователи е по-трудно извън институциите на САЩ, което повдига въпроси относно равнопоставеността на международните изследователи.
Решението кои модели трябва да имат ограничен достъп е деликатен баланс, който варира според областта. Лесно е да се измери дали един AI модел представлява потенциална киберзаплаха, казва Диганс: „Могат ли да разбият съществуващи системи?“.
Биологичните изследвания са по-сложен, многостепенен процес, който отнема повече време от кибератаките; по-малко ясно е дали би настъпила вреда от модел като GPT-Rosalind, ако бъде пуснат публично. „Знаем, че хората искат и извършват кибератаки. Просто нямаме същата извадка от данни при биологичните рискове“, казва Баталис. Други области могат да станат по-спорни с напредването на възможностите на AI. Комуникационните кампании биха могли да се разглеждат като пропагандни операции в грешни ръце.
„Киберспособностите ще се разпространят“
Моделите с отворен код, които могат да бъдат изтеглени и стартирани безплатно, могат да променят изчисленията около ограниченията на AI моделите. Възможностите на моделите с отворен код исторически са изоставали от патентованите модели с три до седем месеца, според Epoch AI – институт за изследвания, който проучва напредъка на изкуствения интелект.
Това означава, че ако тенденцията продължи, AI модел със способности на нивата на GPT-Rosalind и Mythos може да бъде публично достъпен до края на годината. „Киберспособностите ще се разпространят. Защитниците се нуждаят от по-добри инструменти по-рано, а не по-късно“, каза говорителят на OpenAI.
Моделите с отворен код биха могли да са от полза за международни кибератаки. През ноември Anthropic обяви, че е прекъснала дейността на подкрепяна от китайската държава група, която е използвала платените модели на компанията, като е блокирала достъпа им до изкуствения интелект. Ако аналогично способни модели са свободно достъпни в отворената мрежа, това би намалило лостовете за влияние на западните компании.
Въпреки това някои разработчици на отворен код досега разчитаха на данни от водещи патентовани системи, за да помагат при обучението на своите модели. Последните ограничения на достъпа до новите модели могат да забавят или спрат разпространението на най-напредналите способности в моделите с отворен код – стига компаниите да успеят да наложат тези ограничения. (Съобщава се, че някои неоторизирани потребители вече са успели да получат достъп до Claude Mythos.)
Независимо дали моделите с отворен код ще настигнат водещите патентовани модели, Mythos и GPT-Rosalind са новият стандарт за възможностите на авангардния изкуствен интелект – а растящите възможности и рискове, породени от AI, не показват признаци на забавяне. „Мисля, че правителството има силен интерес от управлението на това. Наистина не знам как би могло да се избегне нуждата от правителствена намеса“, казва Уилдефорд.