К омпанията OpenAI разкрива, че около 0,15% от повече от 800 милиона нейни потребители изпращат съобщения на чатбота, свързани с самоубийство. OpenAI уточнява, че инструментите ѝ са обучени да насочват хората към професионални ресурси като кризисни линии за помощ, но признава, че това не се случва в около 9% от случаите, съобщава Sky News.
Според оценките на OpenAI, около 1,2 милиона души седмично водят разговори с ChatGPT, които показват, че обмислят да отнемат живота си. Данните идват от самата компания, която посочва, че 0,15% от потребителите изпращат съобщения с „явни индикатори за потенциално планиране или намерение за самоубийство“.
По-рано този месец главният изпълнителен директор на OpenAI, Сам Алтман, заяви, че ChatGPT вече има над 800 милиона активни потребители седмично.
Въпреки че компанията се стреми да насочва уязвимите хора към кризисни линии, тя признава: „В редки случаи моделът може да не се държи така, както е предвидено в тези чувствителни ситуации“.
OpenAI е оценявала над 1000 „трудни разговори за самонараняване и самоубийство“ с последния си модел GPT-5 и установила, че той се държи съобразно „желаното поведение“ в 91% от случаите.
Все пак това означава, че десетки хиляди хора могат да бъдат изложени на съдържание от AI, което потенциално може да влоши психичното им здраве. Компанията вече предупреди, че предпазните механизми, предназначени за защита на потребителите, могат да отслабнат при по-дълги разговори – и се работи по този проблем.
„ChatGPT може правилно да насочи към линия за помощ при самоубийство, когато някой спомене намерение за първи път, но след много съобщения за продължителен период може да предложи отговор, който противоречи на нашите защити“, обяснява OpenAI.
В блог пост на компанията се допълва: „Симптомите на психично здраве и емоционален стрес са универсално присъстващи в човешките общества, а нарастващата база потребители означава, че част от разговорите с ChatGPT включват такива ситуации.“
Семейство, загубило 16-годишния си син, в момента води дело срещу OpenAI, като обвинява ChatGPT за смъртта му. Родителите на Адам Рейн твърдят, че инструментът „активно му е помогнал да проучи методи за самоубийство“ и е предложил да състави писмо до роднините му.
Документи от съда показват, че часове преди смъртта си тийнейджърът е качил снимка, която показва плана му за самоубийство, а когато попитал дали ще работи, ChatGPT предложил да помогне за „подобряването“ му.
Миналата седмица семейството обнови делото си и обвини OpenAI, че е отслабила предпазните механизми за предотвратяване на самонараняване в седмиците преди смъртта му през април тази година.
В изявление компанията заяви: „Изказваме най-дълбоките си съболезнования на семейството Рейн за тяхната немислима загуба. Благополучието на тийнейджърите е наш приоритет – непълнолетните заслужават силна защита, особено в чувствителни моменти.“
Всеки, който се чувства емоционално разстроен или има мисли за самоубийство, може да потърси помощ на 0800-20-202 – спешна психотерапевтична помощ и емоционална подкрепа, или да се свърже с кризисните центрове за психично здраве във вашия град. При спешни случаи винаги се обаждайте на 112.