В разгорещения свят на изкуствения интелект се разгръща нов вид обир – такъв, който не включва проникване в сървърни помещения или кражба на физически твърди дискове. Според скорошен доклад на Групата за разузнаване на заплахи (GTIG) на Google, цитиран от CNET, хакерите вече използват хиляди внимателно разработени подкани, за да „извлекат“ тайните от Gemini, най-модерния изкуствен интелект на Google.
Компанията твърди, че нападателите използват тези последователности от команди с цел клониране или възпроизвеждане на поведението на Gemini. Но могат ли хакерите наистина да откраднат сложен изкуствен интелект като Gemini?
В своя доклад за нововъзникващите заплахи за изкуствения интелект, екипът на Google обяснява, че нападателите експериментират с техники за разкриване на поведението на вътрешния модел. За целта изпращат повтарящи се, автоматизирани подкани и анализират резултатите. Идеята е да се съберат модели, логика на решения и статистически асоциации, които биха могли да помогнат на някого да изгради конкурентен изкуствен интелект или да разкрие чувствително поведение на модела.
Тази дейност не се ограничава само до Google. Подобни изследвания са наблюдавани и около други големи езикови модели и генеративни системи с изкуствен интелект. Мотивацията е ясна: ако може да разберете как един изкуствен интелект „мисли“, може да успеете да го възпроизведете, да заобиколите лицензирането или да получите търговско предимство.
Преекспонирани ли са страховете от AI? Според шефа на AWS няма да има апокалипсис
Това не е традиционна кибератака. Експертите я наричат „Извличане на модел“ или „Атака чрез дестилация“. В една конкретна кампания, нападателите са засипали Gemini с над 100 000 подкани, предназначени да принудят изкуствения интелект да разкрие вътрешната си логика на разсъждение.
При този тип атака, хакерът използва Gemini като „Учител“. Чрез изпращане на хиляди разнообразни заявки и записване на отговорите, те създават огромен набор от данни за поведението и начина на мислене на алгоритъма. След това използват тези данни, за да обучат по-малък модел „Ученик“.
Използващите AI всъщност работят повече и по-усилено
Ако наборът от данни е достатъчно голям, моделът на ученика в крайна сметка се научава да имитира поведението на учителя с голяма точност. Google отбеляза, че нападателите са се опитали специално да принудят Gemini да покаже своя „мисловен процес“, като се опитват да клонират „мозъка“ му.
Големи модели с изкуствен интелект, като Google Gemini, са невронни мрежи, обучени върху огромни набори от данни от екипи от специалисти, използващи милиарди долари в изчислителни ресурси. Те се съхраняват на защитени сървъри и се обслужват чрез API. Потребителите никога не получават основните системи на модела или код на инфраструктурата, само отговори на конкретни подкани.
AI войната започна, гигантите си разменят обвинения и рискуват да допуснат голяма грешка
Хакерите не могат да откраднат самия алгоритъм. Те обаче могат да откраднат поведенческата логика. В края на успешна атака за извличане, хакер може да разполага с частна, „офлайн“ версия на изкуствен интелект, който се представя на 90% като Gemini за специфични задачи като кодиране, превод или разсъждение. За Google това е най-голямата кражба на интелектуална собственост: някой друг печели от милиардите долари, които Google е похарчила за изследвания и изчисления.
Повтарящите се подкани могат да помогнат за разкриването на модели, които отразяват собствени данни или поведения. Въпреки че това не е буквална кражба на модела, то може да разкрие чувствителен IP адрес или да позволи извличане на разпознаваем текст, който наподобява данни за обучение.
Най-горещата социална мрежа, в която не може да участвате независимо колко сте популярни
Започва битка срещу AI "плява", заливаща интернет
Предупреждението на Google подчертава по-широка тема в разработването на изкуствен интелект: моделите са мощни, но също така уязвими по нови начини. За разлика от традиционния софтуер, изкуственият интелект разкрива поведенчески интерфейс, т.е. задавате въпрос и получавате отговор. Интелигентното сондиране може да разкрие повече, отколкото разработчиците биха искали.
Достатъчно зряло ли е човечеството, за да се справи със супер AI
Време е AI да навлезе в нов етап: полезен на практика и за всички в ежедневието
В отговор компаниите инвестират сериозно в слоеве за сигурност, мониторинг и ограничения, за да ограничат начина, по който моделите могат да бъдат сондирани или манипулирани. Това включва ограничения на отговорите, проследяване на употребата и филтри за предотвратяване на извличането на чувствителни модели. В момента Google използва наблюдение в реално време, за да открива тези систематични модели на поведение и защитава своите „следи от разсъждения“, преди да могат да бъдат напълно извлечени.