С тотици милиони хора се обръщат към чатботове за съвети и беше само въпрос на време технологичните компании да започнат да предлагат програми, специално разработени за отговаряне на здравни въпроси.
През януари OpenAI представи ChatGPT Health, нова версия на своя чатбот, който според компанията може да анализира медицинските досиета на потребителите, приложенията за уелнес и данните от носими устройства, за да отговори на здравни и медицински въпроси.
В момента има списък с чакащи за програмата Anthropic, конкурентна компания за изкуствен интелект, предлага подобни функции за някои потребители на своя чатбот Claude.
И двете компании твърдят, че техните програми, известни като LLM (Large Language Model) или Голям езиков модел, не са заместител на професионалните грижи и не трябва да се използват за диагностициране на медицински състояния. Вместо това, те казват, че чатботовете могат да обобщават и обясняват сложни резултати от тестове, да помагат при подготовката за посещение при лекар или да анализират важни здравни тенденции, скрити в медицинските досиета и показателите на приложенията.
Ето някои неща, които трябва да имате предвид, преди да говорите с чатбот за вашето здраве:
Чатботовете могат да предлагат по-персонализирана информация от търсенето в Google
Някои лекари и изследователи, които са работили с ChatGPT Health и подобни програми, ги виждат като подобрение спрямо статуквото.
Платформите с изкуствен интелект не са перфектни – понякога могат да халюцинират или да предоставят лоши съвети – но информацията, която произвеждат, е по-вероятно да бъде персонализирана и специфична от това, което пациентите биха могли да намерят чрез търсене в Google.
„Алтернативата често е нищо или пациентът да се възползва от нея“, каза д-р Робърт Уахтер, експерт по медицински технологии в Калифорнийския университет в Сан Франциско.
„И затова мисля, че ако използвате тези инструменти отговорно, можете да получите полезна информация.“
Едно от предимствата на най-новите чатботове е, че те отговарят на въпросите на потребителите с контекст от тяхната медицинска история, включително рецепти, възраст и лекарски бележки.
Дори и да не сте предоставили на изкуствения интелект достъп до вашата медицинска информация, Уочтър и други препоръчват да предоставите на чатботовете възможно най-много подробности, за да подобрите отговорите.
Ако имате тревожни симптоми, пропуснете ИИ
Уахтер и други подчертават, че има ситуации, в които хората трябва да пропуснат чатбота и да потърсят незабавна медицинска помощ. Симптоми като задух, болка в гърдите или силно главоболие могат да сигнализират за спешна медицинска помощ.
Дори в по-неспешни ситуации, пациентите и лекарите трябва да подхождат към програмите с изкуствен интелект с „известна степен на здравословен скептицизъм“, каза д-р Лойд Майнор от Станфордския университет.
„Ако говорите за важно медицинско решение или дори за по-малко решение относно вашето здраве, никога не бива да разчитате само на това, което получавате от голям езиков модел“, каза Майнор, който е декан на медицинския факултет на Станфорд.
Помислете за поверителността си, преди да качвате каквито и да е здравни данни
Много от предимствата, предлагани от AI ботовете, произтичат от споделянето на лична медицинска информация от потребителите. Важно е обаче да се разбере, че всичко, споделено с компания с AI, не е защитено от федералния закон за поверителност, който обикновено урежда чувствителната медицинска информация.
Известен като HIPAA, законът позволява глоби и дори затвор за лекари, болници, застрахователи или други здравни услуги, които разкриват медицински досиета . Но законът не се прилага за компании, които проектират чатботове.
„Когато някой качва медицинската си карта в голям езиков модел, това е много различно от това да я предаде на нов лекар“, каза Майнор. „Потребителите трябва да разберат, че стандартите за поверителност са напълно различни.“
Както OpenAI, така и Anthropic твърдят, че здравната информация на потребителите се съхранява отделно от други видове данни и е предмет на допълнителни защити за поверителност. Компаниите не използват здравни данни за обучение на своите модели. Потребителите трябва да се съгласят да споделят информацията си и могат да прекъснат връзката си по всяко време.
Тестовете показват, че чатботовете могат да се спънат
Въпреки вълнението около изкуствения интелект, независимото тестване на технологията е в начален стадий. Ранни проучвания показват, че програми като ChatGPT могат да се справят отлично с медицински прегледи на високо ниво, но често се спъват при взаимодействие с хора.
Проучване на Оксфордския университет с 1300 участници наскоро установи, че хората, използващи чатботове с изкуствен интелект за проучване на хипотетични здравословни състояния, не са вземали по-добри решения от хората, използващи онлайн търсения или лична преценка.
Чатботове с изкуствен интелект, представени с медицински сценарии в изчерпателна, писмена форма, правилно идентифицираха основното състояние в 95% от случаите.
„Това не беше проблемът“, каза водещият автор Адам Махди от Оксфордския интернет институт. „Мястото, където нещата се разпаднаха, беше по време на взаимодействието с истинските участници.“
Махди и екипът му откриха няколко комуникационни проблема. Хората често не предоставяха на чатботовете необходимата информация, за да идентифицират правилно здравния проблем. И обратно, системите с изкуствен интелект често отговаряха с комбинация от добра и лоша информация и потребителите имаха проблеми с разграничаването на двете.
Проучването, проведено през 2024 г., не е използвало най-новите версии на чатботове, включително нови предложения като ChatGPT Health.
Второ мнение от ИИ може да бъде полезно
Възможността чатботовете да задават последващи въпроси и да извличат ключови подробности от потребителите е една област, в която Вахтер вижда възможност за подобрение.
„Мисля, че тогава това ще стане наистина добро, когато инструментите станат малко по-докторски по начина, по който се движат напред-назад“ с пациентите, каза Уахтер.
Засега един от начините да се чувствате по-уверени в информацията, която получавате, е да се консултирате с множество чатботи – подобно на получаването на второ мнение от друг лекар.
„Понякога въвеждам информация в ChatGPT и информация в Gemini“, каза Уохтер, визирайки инструмента за изкуствен интелект на Google. „И когато и двете са съгласни, се чувствам малко по-сигурен, че това е правилният отговор.“