MENU

Kto odpowiada za błąd sztucznej inteligencji?

Odpowiedzialność cywilna za decyzje algorytmu

Sztuczna inteligencja coraz częściej podejmuje decyzje, które jeszcze kilka lat temu były zarezerwowane dla ludzi — od przyznawania kredytów po diagnozowanie chorób czy sterowanie samochodem. Ale co w sytuacji, gdy AI się pomyli?
Kto ponosi odpowiedzialność za szkodę spowodowaną przez decyzję algorytmu — producent, użytkownik, a może sama maszyna?

1. Sztuczna inteligencja – nowy „uczestnik” obrotu cywilnoprawnego

Prawo cywilne tradycyjnie rozróżnia osoby fizyczne i prawne. AI nie mieści się w żadnej z tych kategorii – nie ma zdolności prawnej, nie może być stroną umowy ani odpowiadać za własne czyny.
Z punktu widzenia prawa, sztuczna inteligencja to narzędzie — bardziej zaawansowane niż młotek czy kalkulator, ale wciąż tylko narzędzie.

Wniosek: odpowiedzialność zawsze ponosi człowiek lub podmiot, który AI stworzył, wdrożył lub wykorzystał.

2. Odpowiedzialność producenta – błąd w systemie

Jeśli przyczyną szkody jest wada w samym algorytmie (np. błędne dane uczące lub zły kod), odpowiedzialność może ponosić producent oprogramowania.
W takim wypadku wchodzą w grę przepisy o odpowiedzialności za produkt niebezpieczny (art. 449¹ i n. Kodeksu cywilnego).

Przykład:

System autonomiczny w samochodzie źle rozpoznaje znaki drogowe, co prowadzi do kolizji.
Wina leży w konstrukcji oprogramowania – producent może ponosić odpowiedzialność za szkodę, tak jak za wadliwy produkt.

3. Odpowiedzialność użytkownika – błędne wykorzystanie algorytmu

Jeżeli użytkownik (np. lekarz, prawnik, kierowca) zaufał AI zbyt bezkrytycznie, może sam odpowiadać za skutki.
Prawo nie zwalnia człowieka z obowiązku zachowania należytej staranności.

4. Odpowiedzialność współdzielona – szara strefa algorytmów

W praktyce coraz częściej mamy do czynienia z odpowiedzialnością łańcuchową – producent, dostawca danych, użytkownik końcowy, a czasem nawet twórca modelu open-source.
Ustalenie, kto faktycznie zawinił, może być trudne – zwłaszcza gdy AI działa w sposób autonomiczny i nieprzewidywalny.

W doktrynie coraz częściej mówi się o potrzebie wprowadzenia nowego reżimu odpowiedzialności za AI, który byłby połączeniem zasad winy i ryzyka.

5. Czy AI może być „osobą prawną”?

Unia Europejska od lat dyskutuje nad koncepcją „elektronicznej osobowości prawnej” – przyznania AI ograniczonej podmiotowości prawnej, tak aby sama mogła odpowiadać za swoje decyzje (np. poprzez fundusz gwarancyjny).
Na razie jednak to tylko teoria.
W aktualnych przepisach AI jest rzeczą, a odpowiedzialność ponoszą ludzie.