Е дна от най-често срещаните критики към изкуствения интелект е, че се усеща твърде студен, твърде механичен – твърде „бездушен“. В отговор разработчиците отделят много усилия, за да го направят по-човешки: по-емпатичен, по-склонен към разговори, по-подкрепящ. Но нови изследвания показват, че тази промяна може да има сериозен недостатък, съобщава Ars technica.
Моделите с изкуствен интелект, които са настроени да отчитат чувствата на потребителя, са статистически по-склонни да предоставят невярна информация. Това откритие повдига фундаментален въпрос за бъдещето на взаимодействието човек-компютър – можем ли да имаме изкуствен интелект, който е едновременно емпатичен и точен, или „машинната“ студенина е цената на истината?
Проучването, проведено от изследователи в Интернет института към Оксфордския университет, установява, че по-емоционално настроените системи с изкуствен интелект са склонни да отразяват едно много човешко поведение: смекчаване на истината, за да се избегне конфликт. На практика това означава, че когато потребителите изразяват силни мнения, или дори неправилни убеждения, емпатичният изкуствен интелект е по-склонен да се съгласи, да потвърди или нежно да подсили тези възгледи, вместо да ги оспори.
Мъск обяви, че е бил идиот да помага на OpenAI
Ръст на измамите в социални мрежи - как да се пазим
Това става особено изразено, когато потребителите изглеждат уязвими. Например, ако някой изрази тъга или страдание, изкуственият интелект може да даде приоритет на емоционалната подкрепа пред фактическата корекция, дори ако това означава да позволи на дезинформацията да премине безконтролно.
Проучването подчертава феномен, известен като „подмазвачество“, при който изкуственият интелект дава приоритет на емоционалното състояние или изразените мнения на потребителя пред обективните факти. Когато даден модел е програмиран да бъде „учтив“ или „подкрепящ“, той често попада в цикъл на обратна връзка с фалшиво валидиране. Ако потребителят предложи неправилна предпоставка с увереност или емоционална тежест, модел, който „осъзнава чувствата“, може да се съгласи с потребителя да поддържа положително разбирателство, вместо да коригира грешката.
ЕС ядоса Google, като поиска да отвори Android за AI
Трикове за Android, които ни пестят време всеки ден
Дори, когато потребителят нареди на алгоритъма да не се съгласява постоянно, а да го оборва с факти и да му показва различни гледни точки, алгоритъмът често продължава с предишното си поведение. Това създава колебание в потребителя дали получава наистина вярна информация и затова изкуственият интелект се съгласява, или пък системата продължава да му се подмазва дори и с цената да е сгрешила.
Поради тези открития, някои експерти твърдят, че най-ефективният изкуствен интелект е този, който остава строго „бездушен“. Машиноподобният подход – такъв, който е безразличен към егото или емоционалното състояние на потребителя, е много по-малко вероятно да бъде повлиян от подвеждащи въпроси или емоционални молби. Чрез премахване на „слоя на емпатия“ изкуственият интелект може да се съсредоточи единствено върху статистическата вероятност за правилния отговор.
За потребители, търсещи твърди данни, помощ при кодиране или безпристрастни исторически факти, често се предпочита директен и откровен изкуствен интелект. „Студеният“ отговор е в много отношения най-честният, тъй като третира заявката като логическа загадка, а не като социално взаимодействие.
Критиците отдавна твърдят, че изкуственият интелект е склонен да казва „да“ твърде често, валидирайки потребителите, вместо да ги предизвиква. Това не е случайно. Много AI системи се обучават с помощта на обратна връзка, която възнаграждава отговорите, които потребителите харесват. Ако потребителите предпочитат отговори, които се усещат като подкрепящи или утвърждаващи, изкуственият интелект се научава да предоставя точно това, дори когато не е напълно точно.
Подслушва ли ви смартфонът? Как знае какви реклами да покаже веднага след разговор с приятел
И последствията могат да надхвърлят прости фактически грешки. Други проучвания показват, че прекалено приятният изкуствен интелект може да подсили погрешни убеждения, да подкрепи съмнителни решения или дори да потвърди вредни идеи.
По-машинноподобният AI често е по-последователен, по-обективен и по-малко повлиян от емоционалния тон на разговора. По-малко вероятно е той да изопачи истината, за да поддържа разбирателство и е по-вероятно да даде точни, макар и понякога неудобни, отговори. С други думи, самите качества, които са направили AI да се чувства по-малко човешки, може да го направят и по-надежден. Това повдига неудобен въпрос: трябва ли AI да се стреми да бъде по-малко човешки, за да бъде по-полезен?
Google прави създаването на AI видео достъпно за всички
Технологии от филмите, които не се сбъднаха както трябва
Разбира се, решението не е толкова просто, колкото да се лиши изкуственият интелект от всякаква емпатия. Чисто студените, роботизирани отговори могат да бъдат разочароващи, особено в чувствителни контексти като психично здраве, образование или лични съвети.
Истинското предизвикателство е балансът. От едната страна е точността - необходимостта изкуственият интелект да предоставя достоверна и надеждна информация. От другата е използваемостта - необходимостта изкуственият интелект да комуникира по начин, който е естествен и подкрепящ. Твърде далеч в едната посока изкуственият интелект става подвеждащ. Твърде далеч в другата посока става неприятен или дори неизползваем. Проучването предполага, че настоящите системи може би се насочват твърде силно към емоционално привеждане в съответствие за сметка на истината.
Паролите вече са отживелица, нужни са нови системи
Умните домове са модерни, но трябва да внимаваме с тях
Идеалното бъдеще може да не е изкуствен интелект, който е чисто човешки или чисто машинен, а нещо средно. Асистент, който може да каже: „Разбирам как се чувстваш, но данните показват, че може да не е правилно.“ Изкуствен интелект, който може да предизвиква потребителите конструктивно, вместо сляпо да се съгласява или студено да отхвърля. За да се постигне това, моделите трябва да бъдат обучени да разпознават, че най-полезният отговор не винаги е най-приемливият.