Е вропейският съюз ще се нуждае от поне още една година, за да реши как да прилага мощния си Закон за цифровите услуги (Digital Services Act, DSA) спрямо ChatGPT и рисковете, свързани с него.
Използването на чатбота с изкуствен интелект бързо нарасна в Европа, а този месец OpenAI обяви, че е достигнал важен праг за регулаторен надзор. Новината, че над 120 милиона души използват функцията за търсене на ChatGPT всеки месец, не е изненадала Европейската комисия, коментираха двама служители пред Politico.
Все още обаче регулаторите не са решили как да третират ChatGPT съгласно DSA, който е в сила от началото на 2024 г. Очаква се окончателно решение едва през средата на 2026 г., според високопоставен представител на Комисията.
The EU's planned mass surveillance law, "Chat Control," which would have granted access to the private chats of every user in the EU, has imploded as negotiations between the 27 member states failed due to privacy concerns
— Daily Romania (@daily_romania) November 1, 2025
Ursula von der Leyen was a big supporter of the proposal pic.twitter.com/tkDykeAAsq
Това ще бъде тест за способността на ЕС да се справя с рисковете от големите езикови модели, които бързо се превръщат в част от ежедневието на хората, подобно на традиционните търсачки.
Бавният напредък отразява факта, че законът е приет преди ChatGPT да навлезе масово, а дефинициите му не обхващат ясно AI чатботове. Това поставя Брюксел в риск да изостане от реалността, докато рисковете стават все по-очевидни.
OpenAI наскоро призна, че около 1,2 милиона души седмично водят разговори с ChatGPT, в които намекват за намерение да посегнат на живота си, и че „в редки случаи моделът може да не се държи по предназначение в подобни чувствителни ситуации“.
„За индустрия, свикнала с доброволни рамки за безопасност и самоналожени стандарти, задължителният режим на дължима грижа по DSA може да се окаже сурова реалност,“ коментира Матиас Вермюлен, директор на брюкселската консултантска агенция AWO Agency.
„OpenAI ще трябва значително да повиши нивото си и няма да може просто да копира това, което вече прави,“ добави той.
Компанията не отговори на критиките, като вместо това насочи към своите онлайн страници за помощ, където обяснява как спазва изискванията на DSA. Тя също така уточни, че числото от 120 милиона се отнася само за хора, използващи търсачката на ChatGPT, а не цялата услуга.
Колко широко ще се прилага законът
ChatGPT вече попада под Закона за изкуствения интелект (AI Act). От август насам OpenAI е длъжен да оценява рисковете и да ги ограничава, в противен случай го заплашват глоби до 15 милиона евро.
Но броят на потребителите поставя чатбота сред „големите играчи“, далеч над прага от 45 милиона месечни потребители, който определя платформите и търсачките като много големи онлайн платформи (VLOP) съгласно DSA.
Ако ChatGPT бъде класифициран така, той ще бъде изправен пред глоби до 6% от годишния си глобален оборот.
„ChatGPT не беше предвиден от DSA, но попада в езика на закона“, казва Мартин Хусовец, професор по право в Лондонското училище по икономика.
Според структурата на закона, ЕС определя сайтове като много големи онлайн платформи (VLOPs) или търсачки (VLOSEs), които подлежат на най-строгите изисквания.
„Основният въпрос е обхватът на класификацията на ChatGPT,“ обяснява Йорис ван Хобокен, професор по управление на AI в Свободния университет в Брюксел.
Комисията може да ограничи класификацията само до търсещите функции на ChatGPT (като търсачка), или да я разшири върху цялата услуга - като платформа или услуга.
Изискванията към OpenAI ще зависят именно от това решение.
Компанията ще трябва да оцени рисковете, които ChatGPT може да представлява – включително за изборите и общественото здраве – и да ги намали, като представи подробен доклад за съответствие пред Комисията. Колкото по-широка е класификацията, толкова по-обхватен ще трябва да бъде докладът.
Тези оценки включват „дизайна на препоръчителните системи и други алгоритмични системи“, според DSA. Това може да се окаже трудно, ако Комисията реши да разгледа цялата езикова база на ChatGPT, а не само търсещото съдържание.
По-тясна дефиниция би спестила на OpenAI едно задължение: като търсачка, тя няма да е длъжна да предоставя механизъм, чрез който потребителите да могат да сигнализират за съдържание за премахване.
Ако решението се вземе в средата на 2026 г., изискванията на DSA ще започнат да важат за OpenAI в края на следващата година.
OpenAI може и да оспори това решение, както са правили и други платформи преди, макар и без успех, коментира Жоао Педро Кинтайс, доцент по информационно право в Амстердамския университет. Това би забавило процеса още повече.
Твърде много закони?
Все още има много въпроси относно това как двата големи закона, AI Act и DSA, ще се прилагат едновременно.
Двата акта са създадени така, че да съществуват паралелно в случаи, когато изкуствен интелект е интегриран в цифрови услуги, като например AI Overviews на Google, обяснява Кинтайс. Но те не са предвидили вертикално интегрирани доставчици на ИИ като OpenAI.
Тези закони са изградени върху различни рамки за оценка на риска. Платформите трябва да определят в коя категория попадат и да адаптират услугите си.
AI Act класифицира моделите като неприемлив, висок, ограничен или минимален риск, докато DSA изисква определяне и ограничаване на четири типа системни рискове – свързани с гражданската цялост, изборите, общественото здраве и основните права.
Но според AI Act, ако дадена AI функция е интегрирана в голяма платформа (като Google), тя се счита за съответстваща на закона, ако вече подлежи на оценка по DSA.
Това означава, че някои аспекти на регулирането – например дезинформацията и дълбоките фалшификати (deepfakes) – се поемат от DSA, докато други, като използването на ChatGPT при наемане на работа, остават под AI Act.
Тъй като рамките не са напълно съгласувани, могат да се появят пропуски в оценката на риска от страна на OpenAI, предупреждава Кинтайс.
Компанията може също да се възползва от така наречените закони за „безопасно пристанище“ (safe harbor), които освобождават платформите и търсачките от отговорност за съдържанието, публикувано върху тях, добавя той.