У слугите с изкуствен интелект са станали част от ежедневието, захранвайки всичко - от асистенти за писане и генератори на изображения до инструменти за разпознаване на лица и приложения за лична продуктивност. И все пак, тяхното удобство повдига фундаментален въпрос: какво се случва с данните, изображенията и командите, които потребителите качват и наистина ли е безопасно да се предоставя лична информация в замяна на възможности, задвижвани от изкуствен интелект?
Водещите услуги за изкуствен интелект, сред които ChatGPT, Google Gemini и Microsoft Copilot, се придържат към един и същ принцип: данните, които потребителят изпраща, се използват както за предоставяне на услугата, така и за подобряване на базовите им модели. Когато потребителят изпрати команда, документ или изображение, тази информация пътува до сървърите на компанията. Оттам тя не се използва само за непосредствената заявка, но често се запазва, за да подпомогне обучението на следващите версии AI, с цел моделите да станат по-способни и точни с течение на времето.
Общото положение
Някои компании анонимизират тези данни, като премахват идентификаторите, преди да ги използват за обучение. Други дават на потребителите възможност да се откажат от предоставянето на данните си за подобряване на модела, което обаче може да им коства от неговата функционалност.
Прозрачността обаче варира. Докато политиките обикновено посочват, че „данните могат да се използват за подобряване на услугите“, спецификите - колко дълго се съхраняват данните, къде се съхраняват и кой има достъп, често са скрити в строги споразумения за поверителност.
Nano Banana: Мистериозният нов продукт на Google, който може да замени Photoshop
Освен това, част от тези предоставени данни подлежат на човешка проверка. За да се гарантира качеството на моделите и да се идентифицира и маркира съдържание, което може да е неподходящо, проверяващите могат да преглеждат и анотират определени потребителски данни.
Посочва се, че се предприемат мерки за защита на поверителността, като например прекъсване на връзката на данните с личния акаунт на потребителя, преди да бъдат прегледани, но самата информация остава достъпна за тази цел. Въпреки че тези компании твърдят, че не продават потребителски данни на трети страни, те могат да ги споделят със свързани лица, доставчици на услуги, които поддържат тяхната инфраструктура, и съдебни органи, както е задължено от закона.
Конкретно за изображенията
С появата на генератори на изображения с изкуствен интелект и инструменти като Google Gemini, MidJourney и ChatGPT с възможности за работа с компютърно зрение, въпросът за обработката на изображения е особено чувствителен. Снимките могат да съдържат не само артистични идеи, но и лични лица, документи или среди.
AI вече изземва работните места на младите
Повечето услуги обещават да не продават или споделят публично изображения. Някои, като OpenAI, автоматично изтриват качените файлове след определено време или позволяват на потребителите да ограничават данните си чрез табла за управление. Други съхраняват файловете по-дълго за „гаранция на качество“. За корпоративните и бизнес потребителите често се прилагат по-строги споразумения, които гарантират, че собствените изображения или документи остават поверителни.
Какви са защитите
За да се противодейства на тези рискове AI компаниите са въвели различни протоколи за сигурност. Основен слой защита е криптирането, което защитава данните както по време на предаването им от устройство към сървъра, така и докато те са на самия сървър. Това е стандартна практика, предназначена да предотврати неоторизиран достъп. По-големите доставчици преминават през редовни одити за сигурност и спазват разпоредбите за поверителност, като например GDPR в Европа или CCPA в Калифорния.
Мъск започна да рекламира това, което смяташе за опасно
Въпреки това, пробиви могат да възникнат. През 2023 г. OpenAI временно деактивира ChatGPT, след като грешка разкри части от историята на чата на някои потребители. Инциденти като този подчертават, че никоя система не е напълно защитена, особено когато сървърите обработват огромни обеми от чувствително съдържание ежедневно.
Потребителите получават и известна степен на контрол върху данните си, въпреки че тези опции се различават в зависимост от услугата. Например, ChatGPT предоставя на потребителите възможността да се откажат от използването на данните си за обучителни цели и да изтрият историята на чата си. Той предлага и функция „Временен чат“, която автоматично изтрива разговорите след кратък период.
Стотици хиляди чатове в Grok, показани в резултатите от Google
По подобен начин Google Gemini предоставя опция за изключване на „Дейност в приложенията на Gemini“, което предотвратява запазването на разговорите в акаунта и използването им за обучение на модели. По-специално на корпоративните и образователните клиенти често се предоставя по-стабилен контрол, като се гарантира, че данните им изобщо не се използват за тази цел.
И все пак струва ли си
Безопасността на поверяването на информация на тези услуги зависи изцяло от естеството на самите данни. Споделянето на чувствителна лична информация, като например финансови данни или поверителни документи, носи значителен и неоспорим риск. Въпреки че компаниите се стремят да предотвратяват нарушения, възможността за подобни събития или човешка грешка е винаги налице. След като данните бъдат подадени, потребителят губи пълния контрол над тях.
Дали тази "търговия" си "струва" е въпрос на лична преценка, изискващ внимателно балансиране на риска и печалбата. За общи, нечувствителни приложения, като например писане на имейл, брейнсторминг на идеи или създаване на прости изображения, ползите от повишената производителност и креативност често надвишават минималните рискове.
Когато обаче данните са от чувствителен или поверителен характер, балансът се променя драстично. В такива случаи потенциалът за изтичане на данни, колкото и минимален да е, може да доведе до сериозни лични или професионални последици, което прави използването на тези услуги неразумно.
"Мозъкът за роботи" на Nvidia ще промени роботиката
Мъдър начин на действие за проницателния потребител е да действа благоразумно. Трябва да се ограничи количеството лична и поверителна информация, споделяна с тези услуги и да се използват пълноценно функциите за поверителност, които те предлагат. Точно както човек не би говорил за личен въпрос на градския площад, така трябва да проявява същата дискретност, когато въвежда информация в публичен модел на изкуствен интелект. Силата на тези инструменти е ясна, но с голямата сила идва и отговорността за защита на собствената поверителност.
Google казва, че AI не пречи на интернет страниците
Apple задава неудобния въпрос за AI: полезен ли е
Не пропускайте най-важните новини - последвайте ни в Google News Showcase