Б лаготворителната организация Internet Watch Foundation (IWF) съобщава, че нейни анализатори са открили „криминални изображения“ на момичета на възраст между 11 и 13 години, които „изглежда са създадени“ с помощта на Grok, съобщава BBC.
Инструментът с изкуствен интелект е собственост на фирмата xAI на Илон Мъск. Достъпът до него е осъществен или чрез уебсайта и приложението им, или чрез платформата за социални медии X.
IWF заяви, че е открила „сексуализирани и топлес изображения на момичета“ във „форум в тъмната мрежа“, в който потребители твърдят, че са използвали Grok за създаването на изображенията.
BBC се обърна към X и xAI за коментар.
Нгайре Александър от IWF каза, че инструменти като Grok сега рискуват да „внесат сексуални изображения с изкуствен интелект на деца в масовия пазар“.
Тя каза, че материалът ще бъде класифициран като Категория C съгласно законодателството на Обединеното кралство - най-ниската степен на тежест на криминалния материал.
Но тя каза, че потребителят, който го е качил, е използвал друг инструмент с изкуствен интелект, който не е създаден от xAI, за да създаде изображение от категория А - най-сериозната категория.
Elon Musk's Grok AI appears to have made child sexual imagery, says charity https://t.co/AaqQcNaHTj
— BBC News (UK) (@BBCNews) January 8, 2026
„Изключително сме обезпокоени от лекотата и скоростта, с които хората очевидно могат да генерират фотореалистични материали за сексуално насилие над деца (CSAM),“ каза тя.
Благотворителната организация, която има за цел да премахва материали за сексуално насилие над деца от интернет, управлява гореща линия, на която може да се съобщава за предполагаемо сексуално насилие над деца (CSAM), и наема анализатори, които оценяват законността и сериозността на тези материали.
Анализаторите му откриха материала в тъмната мрежа - изображенията не бяха открити в платформата за социални медии X.
X и xAI вече са били контактирани от Ofcom, след като се появиха съобщения, че Grok може да бъде използван за създаване на „сексуализирани изображения на деца“ и събличане на жени.
BBC е видяла няколко примера в социалната медийна платформа X, в които хора са искали от чатбота да променя реални изображения, за да накара жените да се появяват по бикини без тяхното съгласие, както и да ги поставят в сексуални ситуации.
IWF заяви, че е получила сигнали за подобни изображения на X, но досега не е било оценено, че те отговарят на законовото определение за CSAM.
В предишно изявление X заяви: „Предприемаме действия срещу незаконно съдържание в X, включително CSAM, като го премахваме, спираме окончателно акаунти и работим с местните власти и правоприлагащите органи, ако е необходимо.“
„Всеки, който използва или подтиква Grok да създава незаконно съдържание, ще понесе същите последици, както ако качи незаконно съдържание.“