Р азвитието на изкуствения интелект напредва все по-бързо. Много близо сме до системи, които се държат като човеци и стават трудно различими за обикновените хора.
Китай публикува проект на регламенти, насочени към регулиране на системи с изкуствен интелект, които взаимодействат с потребителите по човешки начин, отбелязвайки важна стъпка в начина, по който страната се стреми да балансира технологичните иновации с безопасността, социалния ред и етичните стандарти. Проектът, публикуван за обществено обсъждане, е насочен към услуги с изкуствен интелект, предназначени да симулират човешки личности и да ангажират потребителите чрез текст, изображения, аудио или видео. По същество това са най-модерните разговорни и емоционално отзивчиви системи с изкуствен интелект.
Новите предложения се фокусират специално върху усъвършенствани модели на изкуствен интелект, често наричани „агентен изкуствен интелект“, които могат да имитират човешкото мислене, емоционалната реакция и автономното вземане на решения. За разлика от предишните правила, насочени към прости чатботове или алгоритми за препоръки, тези насоки се отнасят до системи, които са все по-неразличими от човешките аналози в дигиталните взаимодействия.
ИТ индустрията догодина ще зависи от неясните цени
Основната цел е да се предотврати злоупотребата с изкуствен интелект по начини, които биха могли да „нарушат социалния ред“ или да „застрашат националната сигурност“. Правилата обаче засягат и по-нюансирани етични проблеми, като например психологическото въздействие на дългосрочните взаимоотношения между човек и изкуствен интелект и потенциала за дигитална измама.
В основата на предложената рамка е да се гарантира, че услугите с изкуствен интелект са етични, прозрачни и сигурни. Доставчиците ще бъдат задължени ясно да информират потребителите, когато взаимодействат със система с изкуствен интелект, а не с човек. Това трябва да става при влизане в системата, периодично по време на употреба и когато бъдат открити признаци на свръхзависимост. Това ниво на етикетиране има за цел да намали объркването или неоснователното доверие в агенти с изкуствен интелект, които могат да имитират човешка реч, емоции или поведение.
Какво да очакваме от AI през 2026 г.
Проектът също така поставя нови отговорности на разработчиците и операторите. Компаниите, предлагащи човекоподобни услуги с изкуствен интелект, ще трябва да внедрят надеждни процеси за преглед на алгоритми, мерки за сигурност на данните и системи за безопасност през целия жизнен цикъл. Вместо да третират изкуствения интелект просто като софтуерен продукт, правилата го оформят като услуга, която изисква непрекъснато управление, смекчаване на риска и отчетност от замисъла до внедряването и актуализациите.
Всяка система с изкуствен интелект, която проявява човекоподобни черти, трябва да бъде ясно и видимо обозначена като машина. Това има за цел да елиминира „зловещата долина“ на цифровото взаимодействие, като гарантира, че потребителите винаги знаят дали говорят с човек или с алгоритъм.
Какво да очакваме от смартфоните през 2026 г.
За критични сектори, като здравеопазване, правни консултации и финансово планиране, на системите с изкуствен интелект е забранено да вземат окончателни, автономни решения. Човек трябва да прегледа и разреши всички предложения, генерирани от изкуствения интелект.
Правилата предлагат ограничения за това как системите с изкуствен интелект могат да взаимодействат с човешките емоции. По-конкретно, на „спътниците“ с изкуствен интелект е забранено да използват манипулативни емоционални тактики, за да насърчават прекомерна употреба или финансови разходи, което е пряк отговор на нарастващата популярност на романтичните партньори с изкуствен интелект.
Apple и Google улесняват връзката между Android и iOS
Защо цените на RAM скачат и какво значи това за всички
Особено забележителен елемент от предложението е фокусът му върху психологическите и поведенческите рискове. Проектът би изисквал от доставчиците да наблюдават емоционалното състояние на потребителите и да откриват признаци на пристрастяване или прекомерна употреба, като се намесват, когато се появят такива модели.
5 задачи, които вече няма нужда да правим в Windows
Мит ли е, че браузърът ни пази нашите лични данни
Правилата също така определят изрични граници на съдържанието. Човекоподобните AI системи трябва да се въздържат от генериране на материали, които застрашават националната сигурност, разпространяват слухове, насърчават насилие или непристойност, или увреждат социалната стабилност. Забраните са формулирани не само по отношение на общата безопасност, но и в съответствие с по-широки социално-политически приоритети, като например защита на националното единство и обществения морал.