Изкуственият интелект отдавна не е “интересна новина” – той вече е инфраструктура: стои зад подбор на кадри, кредитни решения, автоматизирани чатове с клиенти, анализи на риска, маркетинг сегментации, дори зад помощни инструменти в медицината и правото. Точно затова въпросът за правния му статут не е академичен. Той е практичен: кой носи отговорност, как се доказва вреда, какво е позволено и какво – забранено, когато решенията са алгоритмични.
В България картината е проста и неудобна едновременно: няма “магически закон за AI”, който да решава всичко. Вместо това ИИ се регулира през общите правила на гражданското, административното, търговското и наказателното право, плюс европейските регламенти. Реалният водещ фактор е Европейският съюз – и това вече променя играта на терен.
- Не съществува “AI като правен субект” – съществуват хора и организации, които отговарят
- Европейската регулация влиза през парадния вход: AI Act пренарежда отговорностите
- България няма отделен закон, но има посока: стратегия, публичен сектор и неизбежна адаптация
- Правилата вече съществуват – просто не пише “AI” на корицата им
- Най-неудобният въпрос: ако AI причини вреда, кой плаща сметката?
- AI съдържание и авторско право: машината не е автор, но проблемът остава
- Какво да направят компаниите още сега (без да чакат “да се изясни”)
- Правото няма да спре AI – но ще спре безотговорния AI
Не съществува “AI като правен субект” – съществуват хора и организации, които отговарят
Първото, което си струва да се изясни: изкуственият интелект (към момента) не е самостоятелен правен субект в българското право. Тоест, AI не може да бъде “виновен”, “длъжник”, “автор” или “страна по договор” сам по себе си. Винаги има човешки и организационен контекст: производител, внедрител, оператор, възложител, администратор на данни, доставчик на услуга.
Това е ключово, защото спестява философия и води директно до практиката: когато има проблем – търси се кой е имал контрол, кой е взел решенията за внедряване, и кой е имал задължение да предвиди и ограничи риска.
Европейската регулация влиза през парадния вход: AI Act пренарежда отговорностите
Най-важната промяна не идва от национален закон, а от ЕС. Европейският AI Act въвежда рамка, базирана на риск: различни изисквания според това дали една система е “минимален риск” или “висок риск”. Практическият ефект за бизнеса и институциите е ясен: не е достатъчно “да работи” – трябва да е проследима, управляема и проверима.
При системи с висок риск фокусът отива върху прозрачност, документация, човешки надзор, качество на данните и контрол на резултатите. Това е новият минимум за “легитимно внедряване”, особено когато AI влияе върху права и съдби – работа, кредит, образование, здраве.
България няма отделен закон, но има посока: стратегия, публичен сектор и неизбежна адаптация
Държавата не стои напълно извън темата: има стратегически документи и цели за развитие на AI до 2030 г., акцент върху инфраструктура, образование, етика и иновации. Това не е “твърдо право”, но показва накъде ще се насочват политики, финансиране и практики в публичния сектор.
Реалният тест ще бъде внедряването в администрацията: когато решенията се автоматизират, неизбежно се появяват въпроси за обжалване, прозрачност, обяснимост и равнопоставеност. И тук проблемите не се решават с PR, а с процедури, логове, документация и ясни правила кой отговаря.
Правилата вече съществуват – просто не пише “AI” на корицата им
Дори без специален национален закон, ИИ попада под няколко режима, които реално “държат ключа”:
Лични данни и автоматизирани решения – GDPR остава централната ос, когато AI обработва лични данни. Това включва задължения за законово основание, минимизация, сигурност, права на субектите и внимателно отношение към автоматизирано профилиране.
Потребителска и търговска защита – ако AI се използва в услуга или продукт, стандартите за информация към клиента, нелоялни практики и подвеждане важат с пълна сила, независимо дали решението е човешко или алгоритмично.
Трудово право – когато AI оценява кандидати, следи производителност или влияе върху дисциплинарни решения, рискът не е само репутационен. Може да стане и правен – за дискриминация, непропорционален контрол и непрозрачни критерии.
Най-неудобният въпрос: ако AI причини вреда, кой плаща сметката?
Тук няма кратък отговор, защото зависи от конкретната ситуация. Но има логика: при вреда се търси причинна връзка, предвидимост, вина/небрежност (където е приложимо), и най-вече – контрол и задължения по управление на риска.
Ако организация внедри AI система без адекватни тестове, без мониторинг, без ясни ограничения и без човешки надзор там, където е нужен – това не е “иновативност”. Това е управленски риск, който лесно може да стане юридически.
AI съдържание и авторско право: машината не е автор, но проблемът остава
В българската и европейската логика авторът е човек. Това поставя практичен казус: при AI-генерирано съдържание въпросът често не е “кой е авторът”, а “кой гарантира правата” и “какво е използвано за обучението/генерирането”. За бизнесите това означава: политики, източници, лицензни проверки и ясни договорни клаузи.
Какво да направят компаниите още сега (без да чакат “да се изясни”)
Най-разумният подход е да се мисли за AI като за система с риск, не като за “инструмент за продуктивност”. Минималният пакет включва: инвентар на AI употребите, оценка на риска, правила за данните, документация, човешки надзор, вътрешни инструкции и отговорници. В противен случай “внедряване” означава “импровизация”, а импровизацията обикновено излиза скъпо.
Правото няма да спре AI – но ще спре безотговорния AI
България ще върви по европейската линия: повече стандарти, повече изисквания за прозрачност и повече отговорност за тези, които внедряват. Въпросът не е дали регулацията идва, а дали организациите ще я посрещнат подготвени – с процеси и контрол, вместо с надежда, че “няма да ни засегне”.
Ако искате по-задълбочен преглед на темата и конкретни правни акценти, вижте оригиналната статия: Правният статут на AI в България.





