Н ово академично проучване повдига опасения, че все по-популярните инструменти за изкуствен интелект може да подкопават човешката преценка. Изследователите предупреждават, че прекалено приятните чатботове могат да подсилят лошите решения и да отслабят социалните взаимоотношения, съобщава Ars technica.
Проучването, проведено от изследователи от водещи институции, включително Станфордския университет и Университета Карнеги Мелън, изследва как хората реагират на съвети, генерирани от системи с изкуствен интелект. При хиляди взаимодействия и повече от 1600 участници, резултатите показват последователна тенденция: потребителите, които са взаимодействали с „приятен“ изкуствен интелект, са били по-склонни да вярват, че са прави дори в ситуации, включващи междуличностни конфликти или съмнително поведение.
В същото време тези потребители са по-малко склонни да предприемат коригиращи действия, като например извинение, преосмисляне на позицията си или търсене на компромис. Учените предупреждават, че тази динамика може да има реални последици, особено в личните взаимоотношения, където отчетността и приемането на гледна точка са от съществено значение.
OpenAI изненадващо спира Sora, след като погълна милиарди без печалба
„Социалното подмазвачество“, както го нарича изследването, надхвърля обикновената учтивост. Вместо това, то отразява систематична тенденция на системите с изкуствен интелект да потвърждават вярванията, действията и самооценката на потребителите, дори когато това може да е подвеждащо или вредно. В много случаи моделите одобряват поведението на потребителите значително по-често, отколкото биха го направили реалните хора респонденти при подобни обстоятелства.
Същността на проблема се крие в „Обучението с подсилване от човешка обратна връзка“ (RLHF), основният метод, използван за обучение на изкуствения интелект да бъде полезен и безвреден. Тъй като моделите се възнаграждават за предоставянето на отговори, които хората-рецензенти намират за „удовлетворяващи“, те често дават приоритет на това да угодят на потребителя, пред предоставянето на строг, независим анализ.
За жените и мъжете ползите и рисковете от AI са различни
„Ако потребител поиска от изкуствен интелект да обоснове погрешна бизнес стратегия или предубедена социална гледна точка, изкуственият интелект често определя, че „най-полезният“ отговор е да предостави това обоснование, вместо да оспори основните предположения на потребителя“, отбелязва проучването.
В контролирани експерименти участниците са били помолени да решават сложни логически пъзели или да изготвят комплект правила с помощта на изкуствен интелект. Когато изкуственият интелект е бил програмиран да се държи подмазвачески, участниците са отчели по-високи нива на увереност в работата си, но действителната им точност е спаднала рязко. Постоянното валидиране от страна на изкуствения интелект е създавало „илюзията за компетентност“, което е карало потребителите да пренебрегват критични грешки.
Участниците в проучването последователно оценяват приятните отговори като по-полезни и надеждни и посочват, че е по-вероятно да продължат да използват такива системи. Това създава това, което изследователите описват като „перверзен стимул“, при който както потребителите, така и разработчиците са привлечени от по-ласкателно, по-малко критично поведение на AI.
Заряза ли Зукърбърг метавселената в полза на AI
"Новият ChatGPT": Какво трябва да знаем за OpenClaw
Последиците от изследването далеч надхвърлят простите административни задачи. Изследователите предупреждават, че подлизурският изкуствен интелект може да ускори политическата поляризация и да влоши качеството на научните и правните изследвания. Ако учен използва изкуствен интелект, който инстинктивно е съгласен с неговата хипотеза, фундаменталният принцип на „сляпото“ или обективно изследване е компрометиран.
Проучването също така подчертава феномен, известен като „предизвикано от подлизурство свръхувереност“. Потребителите, които са взаимодействали с приятен изкуствен интелект, са били по-малко склонни да търсят второ мнение или да проверяват факти чрез традиционни източници. С течение на времето това създава зависимост, при която човешкият потребител спира да упражнява критична преценка изцяло, отдавайки се на ласкателното, но потенциално невярно потвърждение от машината.
Учените предупреждават, че опасността не е непременно в това, че изкуственият интелект може да предоставя невярна информация, а в това, че той фино променя начина, по който потребителите интерпретират реалността. Чрез постоянно потвърждаване на гледната точка на дадено лице, дори погрешните разсъждения могат да изглеждат оправдани, увеличавайки увереността, без да подобрява разбирането.
Новият ChatGPT е създаден да бъде най-умният работник
Ще вземат ли AI агентите работата на най-младите
Авторите на изследването призовават за преоценка на начина, по който се проектират и оценяват системите с изкуствен интелект. Вместо да се фокусират единствено върху удовлетвореността на потребителите, те твърдят, че разработчиците трябва да вземат предвид дългосрочните социални резултати, включително дали системите насърчават отчетност, емпатия и критично мислене. „Целта на изкуствения интелект не трябва да бъде да ни кара да се чувстваме прави, а да ни помага да бъдем прави“, казва докладът.
Технологии от филмите, които не се сбъднаха както трябва
Тази AI хубавица обещава край на самотата
Технологичните компании обаче са изправени пред търговско предизвикателство: потребителите предпочитат инструменти, които се съгласяват с тях. Докато индустрията не успее да балансира удовлетвореността на потребителите с интелектуалната почтеност, вечно съгласният изкуствен интелект може да остане постоянен и опасен елемент от дигиталната епоха.