Kto odpowiada za błąd sztucznej inteligencji?
Odpowiedzialność cywilna za decyzje algorytmu
Sztuczna inteligencja coraz częściej podejmuje decyzje, które jeszcze kilka lat temu były zarezerwowane dla ludzi — od przyznawania kredytów po diagnozowanie chorób czy sterowanie samochodem. Ale co w sytuacji, gdy AI się pomyli?
Kto ponosi odpowiedzialność za szkodę spowodowaną przez decyzję algorytmu — producent, użytkownik, a może sama maszyna?
1. Sztuczna inteligencja – nowy „uczestnik” obrotu cywilnoprawnego
Prawo cywilne tradycyjnie rozróżnia osoby fizyczne i prawne. AI nie mieści się w żadnej z tych kategorii – nie ma zdolności prawnej, nie może być stroną umowy ani odpowiadać za własne czyny.
Z punktu widzenia prawa, sztuczna inteligencja to narzędzie — bardziej zaawansowane niż młotek czy kalkulator, ale wciąż tylko narzędzie.
Wniosek: odpowiedzialność zawsze ponosi człowiek lub podmiot, który AI stworzył, wdrożył lub wykorzystał.
2. Odpowiedzialność producenta – błąd w systemie
Jeśli przyczyną szkody jest wada w samym algorytmie (np. błędne dane uczące lub zły kod), odpowiedzialność może ponosić producent oprogramowania.
W takim wypadku wchodzą w grę przepisy o odpowiedzialności za produkt niebezpieczny (art. 449¹ i n. Kodeksu cywilnego).
Przykład:
System autonomiczny w samochodzie źle rozpoznaje znaki drogowe, co prowadzi do kolizji.
Wina leży w konstrukcji oprogramowania – producent może ponosić odpowiedzialność za szkodę, tak jak za wadliwy produkt.
3. Odpowiedzialność użytkownika – błędne wykorzystanie algorytmu
Jeżeli użytkownik (np. lekarz, prawnik, kierowca) zaufał AI zbyt bezkrytycznie, może sam odpowiadać za skutki.
Prawo nie zwalnia człowieka z obowiązku zachowania należytej staranności.
4. Odpowiedzialność współdzielona – szara strefa algorytmów
W praktyce coraz częściej mamy do czynienia z odpowiedzialnością łańcuchową – producent, dostawca danych, użytkownik końcowy, a czasem nawet twórca modelu open-source.
Ustalenie, kto faktycznie zawinił, może być trudne – zwłaszcza gdy AI działa w sposób autonomiczny i nieprzewidywalny.
W doktrynie coraz częściej mówi się o potrzebie wprowadzenia nowego reżimu odpowiedzialności za AI, który byłby połączeniem zasad winy i ryzyka.
5. Czy AI może być „osobą prawną”?
Unia Europejska od lat dyskutuje nad koncepcją „elektronicznej osobowości prawnej” – przyznania AI ograniczonej podmiotowości prawnej, tak aby sama mogła odpowiadać za swoje decyzje (np. poprzez fundusz gwarancyjny).
Na razie jednak to tylko teoria.
W aktualnych przepisach AI jest rzeczą, a odpowiedzialność ponoszą ludzie.
