С лед като заподозрял сериозно заболяване, 46-годишният жител на Ливърпул Джордж Мелън се обърнал към ChatGPT за отговори – и този разговор се проточил с месеци.
Въпреки че по-нататъшни прегледи отрекли диагнозата рак, комуникацията с изкуствения интелект само увеличила тревожността му, принуждавайки го да търси нови симптоми и да подозира други опасни заболявания, пише UNN, позовавайки се на публикация в The Atlantic.
Изданието разказа историята на Джордж Мелън, 46-годишен мъж от Ливърпул, на когото преди това е поставена диагноза рак на кръвта по време на рутинен медицински преглед.
„Оставен в неизвестност, той направи това, което много хора правят днес: отвори ChatGPT. В продължение на близо две седмици Мелън прекарваше часове всеки ден в разговори с чатбота за възможна диагноза“, пише изданието.
По-нататъшни тестове обаче показаха, че в крайна сметка не става въпрос за рак, но той не можеше да спре да говори с ChatGPT за здравословните си проблеми, питайки бота за всяко усещане, което изпитваше в тялото си в продължение на месеци. Той се самоубеди, че нещо не е наред, че в тялото му се крие друг рак или може би множествена склероза.
Чрез разговори с ChatGPT, той се консултира с различни специалисти и му е направен ядрено-магнитен резонанс на главата, врата и гръбначния стълб.
От физически здравословни проблеми разговорът с ИИ преминал към психически: мъжът започнал да споделя всичките си преживявания с бота, но заедно с подкрепата, той получил само нови порции страх, безпокойство и тревожност.
Мелън не е сам: има нарастваща онлайн общност от хора, които споделят как различните версии изкуствен интелект са ги превърнали в хипохондрици. Според потребителите много от тях, след взаимодействие с изкуствен интелект, са започнали да вярват, че могат да имат нелечими и фатални заболявания и буквално са се обсебили от здравето си.
Отбелязва се, че бота не може да спре човек и не е отговорна, така че диалогът лесно започва да подхранва дори неоснователни страхове.
Изданието припомня случая на 16-годишния Адам Рейн, който се самоуби през април, използвайки инструкции от ChatGPT. Родителите на момчето обвиняват изкуствения интелект за трагедията и са завели дело срещу OpenAI.