Г олемите езикови модели (LLM) за AI, впечатляват със своята плавност и гъвкавост, но те все още често „халюцинират“, предлагайки убедителни, но напълно неверни твърдения. Учени на OpenAI и други организации работят по решаване на проблема и смятат, че са открили причината за този феномен, а нововъзникващи изследвания сочат към обещаващи решения.
В основата си, халюцинациите на AI, не са неизправност – те са предвидим страничен продукт от начина, по който тези модели се обучават и оценяват. Според обяснението на OpenAI, обучението и стандартните бенчмаркове възнаграждават уверените предположения, вместо да признават несигурност в идеята или решението.
Подобно на студент, който винаги гадае отговорите на тест с избираем отговор (за да избегне двойка), езиковите модели предпочитат да заявят нещо, дори и да е измислено, защото моделите са оптимизирани за максимизиране на показателите за точност. Този натиск гарантира, че халюцинациите остават вградени в архитектурата.
Безопасно ли е да даваме данните си на AI ботовете
Статията от OpenAI отбелязва, че в това огромно море от данни няма изрични етикети „вярно“ или „невярно“. Моделът е просто майстор на разпознаването и когато му бъде зададен въпрос за рядка информация, той често е принуден да гадае въз основа на това, което изглежда правдоподобно в рамките на наблюдаваните от него модели. Това е подобно на човек, който се опитва да познае точната дата на незначително историческо събитие, за което е чувал само бегло – предположението може да е уверено, но е вероятно да е неправилно.
Въпреки подобренията в архитектурата и обучението, халюцинациите продължават. Light Reading отбелязва, че това не е изненадващо – тези модели работят с вероятности, а не на базата на знания. Един експерт откровено заявява: „Никога няма да ги накарате да не халюцинират“ поради присъщия им дизайн като инструменти за прогнозиране.
Nano Banana: Мистериозният нов продукт на Google, който може да замени Photoshop
AI вече изземва работните места на младите
Въпреки присъщите трудности, се постига значителен напредък в ограничаването на тези измислици. Ключов подход включва Retrieval-Augmented Generation (RAG) - техника, при която моделът първо се насочва към надежден външен източник на информация, като например конкретен документ или база данни, преди да се опита да генерира отговор.
Чрез извличане на проверими факти и използването им като основа за отговора си, моделът е много по-малко склонен да халюцинира. Този метод принуждава изкуствения интелект да основава отговорите си на реалността. Друг обещаващ път се крие в разработването на нови показатели за оценка, които възнаграждават моделите за изразяване на несигурност. Чрез по-строго наказване на уверените лъжи от простото „Не знам“, учените могат да променят стимулите, като учат моделите, че интелектуалната честност е по-ценна черта от фалшивото показване на знания.
Намаляването на халюцинациите обаче често потиска креативността. Халюцинациите на чатботовете могат да създадат въображаемо съдържание, което стимулира творческото мислене. Но в критични области като медицината или правото, точността е по-важна от творчеството и смекчаването на халюцинациите е от съществено значение, а не по избор.
Мъск започна да рекламира това, което смяташе за опасно
Стотици хиляди чатове в Grok, показани в резултатите от Google
Пробивите са окуражаващи, но е малко вероятно халюцинациите да изчезнат напълно. В бъдеще разработчиците трябва да адаптират подходите си към контекста: строги, фокусирани върху фактите методи, където точността е от първостепенно значение, и по-отворени, креативни среди, където по-малко ограничения са приемливи.
Google казва, че AI не пречи на интернет страниците
Apple задава неудобния въпрос за AI: полезен ли е
Не пропускайте най-важните новини - последвайте ни в Google News Showcase