И зкуственият интелект прекара последните няколко години в трансформиране на начина, по който хората пишат, кодират, търсят, създават и работят. Но според последния анализ на съоснователя на Anthropic Джак Кларк в „Import AI“, индустрията може би сега се насочва към нещо далеч по-значимо.
Траекторията на изкуствения интелект бързо се приближава до самоподдържащ се цикъл, който би могъл фундаментално да промени скоростта на технологичния прогрес. Според последните развития в автоматизираните изследвания, се движим към реалност, в която системите с изкуствен интелект вече не просто помагат на човешките изследователи, а започват сами да поемат тежката работа по разработването си.
Това може да звучи като естествена прогресия. В края на краищата, софтуерът винаги е помагал на инженерите да работят по-бързо. Но автоматизирането на разработката на изкуствен интелект от самия себе си е коренно различно. То повдига възможността циклите на разработка да се ускорят отвъд това, което човешките екипи могат удобно да контролират.
Кой ще плати цената за възхода на AI
Ядрото на тази еволюция се крие в способността на големите езикови модели (LLM) и специализираните агенти да провеждат автономни експерименти. В съвременните изследователски среди, агентите с изкуствен интелект се използват за генериране на хипотези, писане на необходимия код за обучение и анализ на резултатите за усъвършенстване на бъдещи версии.
Когато изкуственият интелект започне да автоматизира самия процес, традиционните пречки на човешкото познание и труд се премахват. Това създава потенциална „експлозия на интелигентност“, при която всяка нова версия на модел се използва за проектиране на още по-способен наследник със скорост, която значително изпреварва циклите на човешка експертна оценка.
Мъск обяви, че е бил идиот да помага на OpenAI
Според Кларк всичко това може да стане реалност още през 2028 г. Въпреки че обещанието за ускорени научни открития е огромно, рисковете от „самосъздаване“ на системите с изкуствен интелект са също толкова сериозни. Основният проблем е проблемът с подравняването. Ако една система проектира свой наследник, тя може да се оптимизира за цели, които са математически ефективни, но екологично или социално разрушителни.
Без човек в цикъла, който да осигурява морален или здравомислещ надзор при всяко микрорешение, получените модели биха могли да се отклонят от човешките ценности по начини, които са трудни за откриване, докато не бъдат напълно внедрени. Освен това съществува риск от непредсказуемост. Когато хората проектират модел, обикновено разбират архитектурата. Ако обаче изкуствен интелект оптимизира нова архитектура, която е неразбираема за човешките инженери, губим способността да извършваме одити за безопасност. По същество рискуваме да създадем „черна кутия“, която създава още по-тъмни и по-сложни „черни кутии“.
Могат ли AI агентите най-сетне да ни помагат в ежедневието
ChatGPT ще мисли преди да създава снимки
Автоматизираните изследвания също така намаляват бариерата за навлизане в създаването на потенциално опасни технологии с двойна употреба. Система с изкуствен интелект, оптимизирана за максимално повишаване на ефективността, би могла да открие нови начини за заобикаляне на съществуващите предпазни мерки или протоколи за киберсигурност. Ако изследователският процес е напълно автоматизиран, злонамерен участник или дори погрешна изследователска цел може да доведе до бързо синтезиране на вреден код или биологични планове, преди да е възможна човешката намеса.
Друго предизвикателство е конкурентната динамика. Дори ако една организация иска да се движи предпазливо, други може да почувстват натиск да ускорят. Ако изследванията, подпомогнати от изкуствен интелект, създадат значително предимство, забавянето става икономически и стратегически трудно. Това създава познат модел в технологиите: отделните участници може да разпознават рисковете, но по-широката конкуренция така или иначе стимулира по-бърз напредък. Резултатът може да бъде индустрия, която се движи по-бързо, отколкото нейните управленски структури могат да се справят.
OpenAI фокусира GPT-5.5 към "реална работа"
AI не успява да спечели доверието на хората
Ако тези възможности се появят през следващите няколко години, обществото може да има много по-малко време за подготовка, отколкото мнозина предполагат. Изследванията в областта на безопасността, механизмите за управление, изискванията за прозрачност и техническите предпазни мерки трябва да се развиват успоредно с възможностите. В исторически план регулациите са склонни да изостават от иновациите. С изкуствения интелект това изоставане може да стане особено скъпоструващо.
Ръст на измамите в социални мрежи - как да се пазим
ЕС ядоса Google, като поиска да отвори Android за AI
Докато стоим на прага на този преход, консенсусът в изследователската общност се измества към необходимостта от автоматизирана безопасност. Ако изследванията се провеждат с машинна скорост, надзорът също трябва да се извършва с машинна скорост. Навлизаме в ера, в която трябва да разработим „AI инспектори“. Ключовият момент, пред който сме изправени, не е само за раждането на по-умни машини, но и за загубата на нашата роля като основни архитекти на интелигентността. Осигуряването на прозрачност и контролируемост на тези саморазвиващи се системи е най-значимото предизвикателство.