Narzędzie zapewniło go, że ma prawo do miesięcznego świadczenia w wysokości 800 euro. Nie konsultując się z profesjonalistami ani samą administracją, obywatel wykonał wszystkie kroki sugerowane przez sztuczną inteligencję i złożył wniosek.
Codzienne korzystanie ze sztucznej inteligencji staje się coraz bardziej powszechne. Wiele osób używa jej na przykład do załatwiania spraw urzędowych i ułatwiania sobie życia. Wśród nich znalazł się mężczyzna, który skonsultował się z ChatGPT, jak może ubiegać się o wcześniejszą emeryturę, a postępując zgodnie z wskazówkami sztucznej inteligencji, poniósł odwrotny skutek: jego miesięczna emerytura została zmniejszona do jednej czwartej oczekiwanej kwoty.
Bohater tej historii, 60-letni mężczyzna mieszkający w Hiszpanii, zwrócił się o poradę do sztucznej inteligencji OpenAI, aby dowiedzieć się, jakie kroki należy podjąć w ZUS i obliczyć przybliżoną wysokość swojej wcześniejszej emerytury. Według informacji podanych przez Business Insider, narzędzie zapewniło go, że na podstawie rzekomego „przepisu czterdziestego siódmego” hiszpańskiego prawa będzie miał prawo do miesięcznego świadczenia w wysokości 800 euro. Nie konsultując się z profesjonalistami ani samą administracją, obywatel wykonał wszystkie kroki sugerowane przez sztuczną inteligencję i złożył wniosek o emeryturę.
Błędna porada spowodowała zmniejszenie emerytury
Zaskoczenie nastąpiło, gdy Social Security (zabezpieczenie społeczne) ogłosiło oficjalną decyzję: przyznana emerytura wynosiła zaledwie 200 euro miesięcznie. Kwota ta stanowiła 25% podstawy regulacyjnej, znacznie poniżej 800 euro obliczonych przez sztuczną inteligencję. Błąd nie wynikał z awarii technicznej administracji, ale z całkowitego zaufania do narzędzia, które nie było w stanie poprawnie zinterpretować obowiązującego prawa pracy.
Błąd wynikał z wykorzystania przez ChatGPT nieistniejącego przepisu. Ignacio de la Calzada, prawnik specjalizujący się w prawie pracy, który zajmował się tą sprawą, wyjaśnił, że sztuczna inteligencja powołała się na artykuły i ustawy, które nigdy nie były częścią hiszpańskiego porządku prawnego, czyli po prostu je wymyśliła.
De la Calzada uznał, że zamiast konsultować się wyłącznie z narzędziem cyfrowym, zainteresowany powinien był zwrócić się do eksperta w dziedzinie prawa pracy przed sformalizowaniem procedury. Według prawnika cofnięcie tego typu decyzji jest praktycznie niemożliwe, ponieważ wniosek został złożony zgodnie z rzeczywistymi przepisami, a obliczenia dokonane przez administrację są prawidłowe.
Sprzeczne odpowiedzi i brak wiarygodności
Przypadek ten wskazuje na ograniczenia techniczne i etyczne związane z wykorzystaniem systemów takich jak ChatGPT do załatwiania spraw urzędowych lub rozwiązywania wątpliwości prawnych. Chociaż sama strona OpenAI ostrzega przed ryzykiem błędów w swoich odpowiedziach i zaleca weryfikację wszelkich ważnych informacji, niektórzy użytkownicy działają wyłącznie w oparciu o wskazówki generowane przez model.
Sztuczna inteligencja może oferować różne wyjaśnienia tej samej kwestii, w zależności od tego, jak sformułowane jest pytanie. Te niespójności dotyczą nie tylko ChatGPT, ale także innych platform, takich jak sztuczna inteligencja Google.
Z drugiej strony, chociaż niektóre firmy wykorzystują tę technologię do tworzenia dokumentów lub tekstów informacyjnych, jej wiarygodność w obszarach prawnych i regulacyjnych jest ograniczona, zwłaszcza jeśli nie ma profesjonalisty, który nadzoruje, racjonalizuje i koryguje generowane treści. Sztuczna inteligencja nie jest jeszcze w stanie poprawnie interpretować złożoności przepisów prawnych ani rozróżniać między obowiązującymi przepisami a fikcyjnymi regulacjami.