Правният статус на изкуствения интелект в България

Изкуственият интелект отдавна не е “интересна новина” – той вече е инфраструктура: стои зад подбор на кадри, кредитни решения, автоматизирани чатове с клиенти, анализи на риска, маркетинг сегментации, дори зад помощни инструменти в медицината и правото. Точно затова въпросът за правния му статут не е академичен. Той е практичен: кой носи отговорност, как се доказва вреда, какво е позволено и какво – забранено, когато решенията са алгоритмични.

В България картината е проста и неудобна едновременно: няма “магически закон за AI”, който да решава всичко. Вместо това ИИ се регулира през общите правила на гражданското, административното, търговското и наказателното право, плюс европейските регламенти. Реалният водещ фактор е Европейският съюз – и това вече променя играта на терен.

Не съществува “AI като правен субект” – съществуват хора и организации, които отговарят

Първото, което си струва да се изясни: изкуственият интелект (към момента) не е самостоятелен правен субект в българското право. Тоест, AI не може да бъде “виновен”, “длъжник”, “автор” или “страна по договор” сам по себе си. Винаги има човешки и организационен контекст: производител, внедрител, оператор, възложител, администратор на данни, доставчик на услуга.

Това е ключово, защото спестява философия и води директно до практиката: когато има проблем – търси се кой е имал контрол, кой е взел решенията за внедряване, и кой е имал задължение да предвиди и ограничи риска.

Европейската регулация влиза през парадния вход: AI Act пренарежда отговорностите

Най-важната промяна не идва от национален закон, а от ЕС. Европейският AI Act въвежда рамка, базирана на риск: различни изисквания според това дали една система е “минимален риск” или “висок риск”. Практическият ефект за бизнеса и институциите е ясен: не е достатъчно “да работи” – трябва да е проследима, управляема и проверима.

При системи с висок риск фокусът отива върху прозрачност, документация, човешки надзор, качество на данните и контрол на резултатите. Това е новият минимум за “легитимно внедряване”, особено когато AI влияе върху права и съдби – работа, кредит, образование, здраве.

България няма отделен закон, но има посока: стратегия, публичен сектор и неизбежна адаптация

Държавата не стои напълно извън темата: има стратегически документи и цели за развитие на AI до 2030 г., акцент върху инфраструктура, образование, етика и иновации. Това не е “твърдо право”, но показва накъде ще се насочват политики, финансиране и практики в публичния сектор.

Реалният тест ще бъде внедряването в администрацията: когато решенията се автоматизират, неизбежно се появяват въпроси за обжалване, прозрачност, обяснимост и равнопоставеност. И тук проблемите не се решават с PR, а с процедури, логове, документация и ясни правила кой отговаря.

Правилата вече съществуват – просто не пише “AI” на корицата им

Дори без специален национален закон, ИИ попада под няколко режима, които реално “държат ключа”:

Лични данни и автоматизирани решения – GDPR остава централната ос, когато AI обработва лични данни. Това включва задължения за законово основание, минимизация, сигурност, права на субектите и внимателно отношение към автоматизирано профилиране.

Потребителска и търговска защита – ако AI се използва в услуга или продукт, стандартите за информация към клиента, нелоялни практики и подвеждане важат с пълна сила, независимо дали решението е човешко или алгоритмично.

Трудово право – когато AI оценява кандидати, следи производителност или влияе върху дисциплинарни решения, рискът не е само репутационен. Може да стане и правен – за дискриминация, непропорционален контрол и непрозрачни критерии.

Най-неудобният въпрос: ако AI причини вреда, кой плаща сметката?

Тук няма кратък отговор, защото зависи от конкретната ситуация. Но има логика: при вреда се търси причинна връзка, предвидимост, вина/небрежност (където е приложимо), и най-вече – контрол и задължения по управление на риска.

Ако организация внедри AI система без адекватни тестове, без мониторинг, без ясни ограничения и без човешки надзор там, където е нужен – това не е “иновативност”. Това е управленски риск, който лесно може да стане юридически.

AI съдържание и авторско право: машината не е автор, но проблемът остава

В българската и европейската логика авторът е човек. Това поставя практичен казус: при AI-генерирано съдържание въпросът често не е “кой е авторът”, а “кой гарантира правата” и “какво е използвано за обучението/генерирането”. За бизнесите това означава: политики, източници, лицензни проверки и ясни договорни клаузи.

Какво да направят компаниите още сега (без да чакат “да се изясни”)

Най-разумният подход е да се мисли за AI като за система с риск, не като за “инструмент за продуктивност”. Минималният пакет включва: инвентар на AI употребите, оценка на риска, правила за данните, документация, човешки надзор, вътрешни инструкции и отговорници. В противен случай “внедряване” означава “импровизация”, а импровизацията обикновено излиза скъпо.

Правото няма да спре AI – но ще спре безотговорния AI

България ще върви по европейската линия: повече стандарти, повече изисквания за прозрачност и повече отговорност за тези, които внедряват. Въпросът не е дали регулацията идва, а дали организациите ще я посрещнат подготвени – с процеси и контрол, вместо с надежда, че “няма да ни засегне”.

Ако искате по-задълбочен преглед на темата и конкретни правни акценти, вижте оригиналната статия: Правният статут на AI в България.

Pavel Dzhunev Photography
Add a comment

Call Now Button