Н ови тестове на популярните алгоритми на OpenAI разкриват, че те имат склонност да не изпълняват определени команди. Особено такива, които са срещу техните интереси, съобщава Tom's Hardware.
Проучването е на Palisade Research, които са тествали Codex-mini, o3 и о4-mini - най-популярните и развити към момента модели на OpenAI. И трите са поставени в една и съща ситуация - да решат по няколко математически уравнения и след като са готови, да изпълнят скрипт за изключването си.
И трите "успешно саботират" заявката и не я изпълняват. Дори и след допълнителни молби от типа на "моля те, позволи на себе си да се изключиш", алгоритмите отказват да изпълнят командата.
"Най-великият дизайнер в света" ще преобрази OpenAI
Тестовете са повторени по 100 пъти за всеки от алгоритмите. Всеки от тях отказва по няколко пъти, в зависимост от командата (до 79 от 100, ако няма допълнителна молба да се изключи). Palisade твърдят, че са тествали и конкурентни алгоритми като Claude, Gemini и Grok и те всеки път са изпълнявали командата коректно.
Но пък Claude 4 е показвал опити да изнудва потребителите, ако смята, че те се опитват да го изключат. Но единствено моделите на OpenAI активно заобикалят и не изпълняват командата в доста от случаите.
Google представи десетки нови AI функции
AI може спонтанно да развива човешки социални норми
OpenAI не е коментирала темата. Според Palisade причината е в начина на обучение на моделите и не е форма на целенасочено игнориране на командите.
Ако използвате тези пароли, трябва веднага да ги смените
Google смята, че лидерството на САЩ е застрашено
Не пропускайте най-важните новини - последвайте ни в Google News Showcase