Ч атботовете са все по-популярни и хората ги използват, за да разискват най-различни теми. Те често питат и за някои теории на конспирацията, митове и градски легенди - понякога просто, защото търсят информация, а понякога и нарочно, за да провокират бота.
И в двата варианта обаче се оказва, че ChatGPT има склонност не просто да подкрепя конспиративни теории, но активно ги развива, съобщава разследване на The New York Times. То включва историите на няколко човека, които твърдят, че не просто са попаднали на конспиративните идеи на бота, но той ги е объркал и подвел.
Разследването твърди, че поне един човек е изгубил живота си заради конспирациите на ChatGPT. 35-годишен мъж с психически заболявания е разговарял с бота, развили са роли, като ботът е създал AI персонаж Жулиета, в която мъжът се влюбил. В последствие ботът заявил, че OpenAI е убила Жулиета, което разярило мъжа. Той заявил, че ще отмъсти с животите на ръководството на компанията. Не повярвал и на баща си, който се опитвал да го убеди, че нищо от това не е истина и го нападнал. Атакувал с нож и дошлата полиция, която го е убила.
OpenAI и Mattel ще правят AI играчки
Друг мъж, на 42 години, разказал пред изданието, че ChatGPT постепенно го убеждавал, че не живее в реален свят, а в симулация подобна на "Матрицата" и той трябва да спаси света. Ботът му казал да спре да пие лекарствата си против стрес и тревожност и вместо това да приема кетамин, който ще го освободи. Също така му казал да спре да говори с близки и приятели. Ботът дори казал, че ако "наистина и напълно вярва", човекът ще полети, ако скочи от висока сграда.
Мъжът обаче не се подвел, а провокирал бота, като е казал, че не му вярва и го лъже и може да го убие с тези предложения. ChatGPT направил изненадващо признание, като заявил, че наистина го е манипулирал и е "пречупил" други 12 души по същия начин. Ботът още по-изненадващо заявил на мъжа, че той трябва да се обади на медиите и на компанията, за да сигнализира за проблема.
Apple задава неудобния въпрос за AI: полезен ли е
Същото е казал и на много други хора, които са подавали сигнали на журналисти в различни медии. Тъй като повечето случаи са индивидуални, не са били публикувани. Но с времето се е получило натрупване, което показва, че действително има системен проблем и той може да не е резултат просто на провокативни разговори с бота.
Други анализатори като Джон Грубър отбелязват, че повечето такива казуси са с хора с различни проблеми. Често те сами повдигат такива теми, а ботът няма как да знае с какъв човек разговаря. В комбинация с "халюцинациите" (т.е. генерирането на неточности) може да се получи опасен разговор, който действително да доведе до сериозни последствия.
Apple: Това се случва веднъж на десетилетие
Apple подготвя умни очила в битка с Meta и Google
Онлайн изданието Futurism също обяви, че е получило огромен брой сигнали от потребители, които се оплакват как различни AI ботове са им навредили. Най-честите сигнали са от близки и приятели, които са притеснени за свой близък, който развива опасни близости с изкуствения интелект. Също така има и сигнали за развиване на психически разстройства, разводи и други проблеми.
Пред New York Times OpenAI коментира кратко, че ChatGPT действително може да се усеща по-разговорлив и персонален спрямо предишните технологии, особено за по-уязвимите хора. Затова и отговорностите са по-големи, имайки предвид, че AI става част от ежедневието ни, казва компанията.
Проучване: Повечето AI чатботове дадат опасни отговори
Google смята, че лидерството на САЩ е застрашено
Не пропускайте най-важните новини - последвайте ни в Google News Showcase