AI zastąpi prawnika? Studium przypadku pewnego pozwu
Nowości w Prawie budowalnym ciąg dalszy – nowe pojęcia i ułatwienia w zakresie legalizacji
22 stycznia, 2026
Nowe obowiązki dla deweloperów już od 12 lutego 2026 r. – infrastruktura telekomunikacyjna także w budownictwie jednorodzinnym
30 stycznia, 2026

Sztuczna inteligencja jest tematem, który coraz częściej jest poruszany podczas rozmów biznesowych czy tych prowadzonych w kręgu rodziny czy przyjaciół. Nie oszukujmy się – wielu z nas coraz chętniej i częściej korzysta ze stworzonych przez nią narzędzi i związanych z tym możliwości. Chat GPT, Confly, Gemini czy Grok to nazwy, które wchodzą do naszego codziennego słownika. Od jakiegoś czasu pojawiają się głosy, że niektóre zawody, np. prawników, zastąpi AI. Czy jednak „maszyna” może całkowicie zastąpić wiedzę i doświadczenie zebrane przez lata i intuicję?

Wygląda na to, że niekoniecznie. Ostatnio w Polsce zapadł wyrok Sądu Okręgowego we Wrocławiu, który może ostudzić entuzjazm związany z AI. Przedsiębiorca, będący programistą, chciał pozwać swojego kontrahenta w związku z niewykonanym zamówieniem i postanowił użyć do tego Chata GPT. Wydrukował wygenerowany przez niego pozew i złożył do sądu. Okazało się jednak, że nie było to wystarczające, a sąd oddalił wyrok.

Jak przekazał pełnomocnik pozwanego, pozew został złożony w oparciu o niewłaściwą podstawę prawną. Sprawa dotyczyła zasady konkurencyjności i odpowiedzialności określonej w Kodeksie cywilnym. Chat GPT – być może z uwagi na to, że sprawa miała dotyczyć „zamówienia” – powołał się na kompletnie inną regulację, tj. ustawę Prawo zamówień publicznych. Jakby tego mało, podczas procesu tworzenia pozwu zmieniono nieznacznie treść przepisów – prawdopodobnie tak, aby pasowały one bardziej do przywoływanej argumentacji.

Ponadto jako dowody w sprawie stanowiły wydruki Chata GPT. W tym zakresie sąd słusznie podkreślił, że treści generowane przez AI nie są dla sądu dowodem, a jedynie mogą służyć powodowi do tego, aby móc formułować swoje argumenty. To, co wygenerowała sztuczna inteligencja, nie może stanowić dowodu, w tym dowodu z dokumentu, który ma dotyczyć dowolnego faktu, stanu lub zmiany wycinka rzeczywistości. Istotą dokumentu jest bowiem to, że zawiera on jakąś informację, tj. intelektualną zawartość, która stanowi określone oświadczenia, w tym oświadczenia woli, a takich cech nie ma to, co wygeneruje sztuczna inteligencja. Dokumentem w świetle Kodeksu cywilnego, jest każdy nośnik informacji umożliwiający zapoznanie się z jej treścią.

Nie ma więc wątpliwości, że nadal kluczowe w procesie pozostaje nie tylko przedstawienie pewnej argumentacji, lecz także odpowiednie sformułowanie wniosków dowodowych, korelujących z przesłankami określonymi w przepisach prawa i przedstawionymi dowodami, w tym dokumentami. Ważna jest również świadomość linii orzeczniczej, ugruntowanej przez sądy.

Omawiany przypadek pokazuje, że AI – mimo tego, że staje się coraz lepsza – nadal nie jest narzędziem doskonałym. Oczywiście może nam znacznie pomóc zarówno w życiu prywatnym, jak i biznesie, jednak wygenerowane przez nią treści nadal nie można traktować jako coś pewnego, niepodważalnego. Musimy zawsze pamiętać, że narzędzia sztucznej inteligencji filtrują posiadane informacje (nawet te błędne) i generują odpowiedź bez jej dodatkowego sprawdzenia. Nie mają one umiejętności interpretowania norm prawnych i wiązania ich z określonymi skutkami – nie potrafią często sprawdzić czy coś obowiązuje, a raczej zwracają uwagę na to, by dana informacja była przekonująca, nawet jeśli w rzeczywistości jest fałszywa. Ponadto modele językowe mają tendencję do samodzielnego uzupełniania luk, jeśli brakuje im ciągu słów, w oparciu o który pracują. Ponadto napisany przez nas prompt może sugerować odpowiedź, a niejednokrotnie zdarza się, że AI próbuje ją dopasować pod postawioną przez nas tezę.  W „poważniejszych sprawach” nadal jednak warto skonsultować się ze specjalistą. Nieszczęśliwie dla przedsiębiorcy, nawet jeśli jego roszczenia były uzasadnione, jeśli orzeczenie będzie prawomocne, nie będzie mógł raz jeszcze żądać przeprowadzenia tej samej sprawy. Postawa „źle ale pewnie” nie wystarczy – sąd powinien znać prawo a także dotychczasowe orzecznictwo, które powinno być dla niego wskazówką.

Sprawa dotyczy wyroku Sądu Okręgowego we Wrocławiu z dnia 27 listopada 2025 r., sygn. akt: X GC 455/25. Na chwilę opublikowania wpisu, treść wyroku oraz uzasadnienie nie jest publicznie dostępne.

My również zauważamy problem opinii prawnych czy pism procesowych generowanych przez AI. Coraz częściej otrzymujemy od klientów czy od przeciwników procesowych pisma i inne treści, które ewidentnie zostały stworzone przy wykorzystaniu sztucznej inteligencji. Poznajemy to po zmianie treści przepisów prawa lub powoływanie się na nieistniejące regulacje,, czy przywoływaniu wyroków, których w rzeczywistości nie ma lub takich, które co prawda zostały wydane, ale nie ma w nich fragmentów, na które powołuje się dany pomiot. Wydaje się, że sztuczna inteligencja ma bardzo duży problem z ustaniem, czy dana regulacja wciąż obowiązuje lub czy została zmieniona lub uchylona.

Czy wobec tego powinniśmy porzucić AI? My do tego nie namawiamy. Chcielibyśmy tylko uczulić, aby przy używaniu sztucznej inteligencji nie podchodzić do uzyskanych informacji bezrefleksyjnie – konieczne jest zawsze zweryfikowanie tego, co zostało nam przekazane.

Patrycja Cegiełka-Ordon

radca prawny

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

*