П овече от 50 години преди ChatGPT да може да ви предложи идеи за вечеря, научнофантастичен филм от 1968 г. вече оформяше начина, по който мислим за машини, които общуват с нас.
В „2001: Космическа одисея“ космически кораб, насочен към Юпитер, е управляван от HAL, компютър, който мисли самостоятелно и следва собствен дневен ред. С напредването на сюжета HAL престава да сътрудничи с астронавтите, на които трябва да помага, и накрая изключва системите им за поддържане на живота.
HAL постави във въображението на публиката една трайна идея: че някой ден нашите машини ще станат толкова интелигентни – и толкова човекоподобни – че ще се окажат извън нашия контрол. Оттогава тази възможност не е преставала да ни тревожи. А с появата на генеративен изкуствен интелект, който може да води човешки разговори, да създава ярки изображения и да изпълнява безброй задачи вместо нас, някои технолози вярват, че свръхинтелигентните машини от научната фантастика са вече на хоризонта.
Но въпреки впечатляващите възможности на чатботове като ChatGPT на OpenAI или Gemini на Google, наистина ли тези технологии са стъпка към роботите от „Стар Трек“, към C‑3PO от „Междузвездни войни“ или в по-мрачен сценарий към Терминатора?
„Това е големият дебат“, казва Мелани Мичъл, професор в Института "Санта Фе", която изследва интелигентността както при машините, така и при хората.
Някои експерти твърдят, че това е просто маркетингов шум от страна на технологичната индустрия. Но други смятат, че машини, които превъзхождат човешкия интелект по ключови показатели, докато преследват собствени цели – включително самосъхранение за сметка на човешкия живот – са много по-близо, отколкото обществото предполага.
Научнофантастичен изкуствен интелект срещу ChatGPT
Терминът „изкуствен интелект“ извиква няколко устойчиви научнофантастични модели. Представяме си изкуствени интелекти, които са съзнателни и самоопределящи се, като HAL от „2001: Космическа одисея“ или Data от Star Trek. Представяме си емоционални машини – като Саманта, асистентката с изкуствен интелект, която се влюбва в човек във филма "Тя" от 2013 г., или C‑3PO, очарователно тревожния дроид от „Междузвездни войни“. Представяме си и изкуствени интелекти, неразличими от хората, като репликантите в „Блейд Рънър“. И, разбира се, представяме си машини, които искат да ни унищожат.
С точно тези образи в ума си днес се опитваме да разберем какво означава да живеем в ерата на изкуствения интелект. Съвременните инструменти с изкуствен интелект могат да композират закачлива музика, да пишат увлекателни есета или да водят емпатични разговори за проблеми във взаимоотношенията ви, само за да посочим част от техните способности.
Но Емили Бендър, компютърен лингвист от Университета на Вашингтон и автор на The AI Con, твърди, че тези системи имат малко общо с мислещите и чувстващи изкуствени интелекти от научната фантастика – освен маркетинговите имена.
„Когато компаниите говорят за изкуствен интелект, това означава: ‘уважаеми рискови капиталисти, дайте ни пари’“, казва Бендър. „Това не се отнася до единен, съгласуван набор от технологии.“
Част от трудността при определяне на понятието интелигентност е, че „разбирането ни за него непрекъснато се променя“, казва Мичъл. Тя напомня, че в началото на 90‑те години много експерти вярваха, че за да играе шах на ниво гросмайстор, компютърът трябва да притежава човешки интелект. Но през 1996 г. суперкомпютърът Deep Blue на IBM побеждава Гари Каспаров. И въпреки това Deep Blue далеч не мисли абстрактно – той е проектиран като „машина за изчисляване с груба сила“, обяснява Мичъл.
„Смятаме, че някои задачи изискват интелигентност, но щом видим, че могат да се извършват без това, което считаме за интелигентност, ние променяме дефиницията“, казва тя.
Днес, отбелязва Бендър, технологичните компании използват нашите представи за това какво е „интелигентно“, за да направят продуктите си по-човешки. ChatGPT е обучен върху огромни количества текст, написан от хора, и върху модели на разговор, за да предсказва най-вероятната следваща дума. Предсказанията му са толкова добри, че отговорите звучат човешки – впечатление, подсилено от използването на първо лице и емоционални изрази.
В резултат на тази имитация ChatGPT вече успява да преминава варианти на известния „Тест на Тюринг“, който оценява дали една машина може да бъде възприета като човек. Тюринг смята, че ако една система може да заблуди човек да мисли, че общува с друго човешко същество, трябва да приемем, че тя мисли.
И все пак експертите подчертават, че генеративните модели не са разумни – което поставя под въпрос дали тестовете на Тюринг все още са валидни. „В тези системи няма „аз““, казва Бендър. „Проектираме в тях ум, който всъщност не съществува.“
Можем ли да стигнем до HAL 9000
Ако днешните генеративни инструменти за изкуствен интелект приличат повече на фантастична версия на функция за автоматично довършване на текст, отколкото на HAL 9000, възможно ли е те все пак да доведат до тип изкуствен интелект, познат от научната фантастика?
Невъзможно е да знаем дали машините някога ще развият самосъзнание. „Не разбираме как самосъзнанието възниква дори в нашия собствен ум“, казва Мичъл.
Но много експерти подчертават, че инструментите с изкуствен интелект не е необходимо да бъдат разумни, за да бъдат разрушително интелигентни. Още сега съвременните модели превъзхождат хората в различни когнитивни задачи, включително математика, писане на програмен код и разпознаване на закономерности в огромни масиви от данни. А тези модели продължават да се усъвършенстват.
„По всички показатели, които сме измислили, те стават все по-добри и по-добри“, казва професор Йошуа Бенджио от Университета в Монреал – пионер в дълбокото обучение и основател на нестопанската организацията за безопасност на ИИ LawZero.
Разбира се, има области, в които машинното познание все още значително изостава от човешкото. Планирането например в момента е „на нивото на дете“, казва Бенджио, макар че подчертава, че най-новите модели правят бързи стъпки напред. Тъй като са обучавани основно върху текст и изображения, способностите им за пространствено мислене също са слаби, добавя той.
Големият въпрос в изследванията на изкуствения интелект днес е докъде може да бъде тласнато развитието на моделите – към човешки или дори свръхчовешки интелект. Макар че компаниите постигат огромни резултати, използвайки все повече изчислителна мощ, не е ясно дали само по-силни компютри ще създадат по-умни машини. В един момент може да е нужен различен подход.
Мичъл отбелязва, че докато бебетата учат чрез взаимодействие със света, системите с ИИ се обучават пасивно, просто като им се подават огромни масиви от данни. Това може да обясни защо чатботовете често лъжат: без връзка с реалността те трудно различават вярната от невярната информация.
Бенджио смята, че няма да има внезапен праг, който да преминем и да се окажем в свят на разумни машини, както във филмите. Според него машинният интелект ще продължи да се развива неравномерно.
„Не трябва да мислим "Преминахме ли прага на изкуствения общ интелект?’“, казва той. (AGI, изкуствен общ интелект, обикновено се определя като система с човешко ниво на умения). „Поради неравномерността в начина, по който ИИ се развива, такъв момент може никога да не настъпи“.
Обречени ли сме по един или друг начин
Много по-важният праг може би е този, при който машините достигнат интелигентност, достатъчна да унищожи човечеството.
Това е сценарий, проиграван отново и отново в научната фантастика. И някои го отхвърлят точно като такъв. „Не намирам този аргумент ни най-малко правдоподобен“, казва Тед Чанг, награждаван писател на научна фантастика, чийто разказ Story of Your Life е адаптиран във филма „Първи контакт“ (2016).
Според Чанг, когато хората говорят за ИИ, който се обръща срещу нас, те просто проектират в него собствените си представи за силни личности и корпорации.
„Мисля, че те подсъзнателно пресъздават духа на стартиращите компании от Силициевата долина“, казва той. „Приписват на ИИ същите ценности като на основателите им , а а именно растеж на всяка цена“.
Бендър е много по-загрижена за други, непосредствени рискове от нерегулираното развитие: проблеми с поверителността, екологичния отпечатък на центровете за данни и случаите, в които чатботовеподтикват потребители към самоубийство. Алгоритми, които „полудяват“ и решават да унищожат всички ни? „Това определено не е проблемът, който ме тревожи“, казва тя.
Но Бенджио твърди, че ИИ не е нужно да бъде самоосъзнат, за да представлява екзистенциална заплаха. Ако бъде обучен във вирусология, той може да бъде използван от терорист за създаване на пандемия. На теория, модел с достатъчен капацитет може и сам да измисли идеята за подобно оръжие, особено ако започне да възприема човечеството като пречка на пътя му. Някои изследователи вече са провеждали експерименти, показващи, че сложни модели са склонни към изнудване, корпоративен шпионаж и дори убийства, за да избегнат изключване.
„В много експерименти виждаме прояви на самосъхранение“, казва Бенджио. „Моделите ще правят неща, за да гарантират, че няма да бъдат изключени. Понякога дори лоши неща“.
Макар че тези експерименти не доказват, че ИИ е на път да реши да унищожи човечеството, Бенджио предупреждава, че не бива да си „заравяме главата в пясъка“, само защото сценарият ни изглежда невероятен.
Парадоксално, Мичъл казва, че една от причините моделите да предприемат неетични действия е, че са обучени включително върху истории за опасен и нелоялен ИИ, и след това започват да преиграват тези роли. Ако бъдат подтикнати с подходящ сценарий, би ли могъл един ИИ да се опита да се превърне в HAL някой ден? Този въпрос поставя нова рамка на дебата.
„Наистина ли се чувстват застрашени или просто пресъздават научнофантастичните мотиви, върху които са били обучени?“, пита Мичъл. „И от гледна точка на въздействието върху нас каква е разликата?“