REKLAMA

Sędzia odrzucił dokumenty obrony, bo częściowo napisała je sztuczna inteligencja

2025-06-07 06:00
publikacja
2025-06-07 06:00

W sądzie w prowincji Ontario w Kanadzie sędzia odrzucił dokumenty przygotowane przez adwokata w sprawie karnej, bowiem zredagowała je sztuczna inteligencja – podały kanadyjskie media.

Sędzia odrzucił dokumenty obrony, bo częściowo napisała je sztuczna inteligencja
Sędzia odrzucił dokumenty obrony, bo częściowo napisała je sztuczna inteligencja
fot. Zbyszek Kaczmarek / / FORUM

Dokumenty obrony w sprawie o napaść zostały kilka dni temu odrzucone przez sędziego Josepha F. Kenkela. Sędzia nakazał obrońcy powtórne przygotowanie dokumentów, ponieważ wśród zacytowanych odniesień znalazł m.in. sprawę, która nigdy się nie wydarzyła. „Błędy są liczne i istotne” - cytował publiczny nadawca CBC. Sędzia podkreślił, że narzędzia AI nie mogą być używane do przygotowywanie spraw.

„Jeden z cytowanych kazusów wydaje się być fikcyjny. Sąd nie był w stanie znaleźć żadnej sprawy o takiej sygnaturze” - cytował sędziego dziennik „Toronto Sun”.

Sędzia Kenkel, który od lat zajmuje się kwestiami technologii w sądach, został cztery lata temu mianowany doradcą ds. technologii w sprawach prawnych w ontaryjskich sądach. Bierze udział w pracach nad cyfrową transformacją sądów prowincji Ontario i dyskusjach nt. AI w sądownictwie i obrocie prawnym – podaje strona Manitoba Law Library.

W maju br. w sądzie w Toronto sędzia zorientował się podczas sprawy rozwodowej, że w dokumentach pojawiły się tzw. halucynacje AI, z odniesieniami do fikcyjnych spraw – podawał „Toronto Sun”.

CBC informowało, że francuski prawnik Damien Charlotin stworzył międzynarodową bazę danych o sprawach sądowych, w których pojawił się problem halucynacji AI, czyli fikcyjnych spraw i odniesień, tworzonych przez AI. Na liście jest 137 przypadków z różnych krajów.

Pierwszym kanadyjskim przypadkiem nie była jednak sprawa rozwodowa z Toronto, ale sprawa z lutego ub.r., w której sędzia ukarał prawnika grzywną za włączenie do dokumentów informacji o fikcyjnych przypadkach, podkreślając, że narzędzia AI nie mogą zastąpić profesjonalnej wiedzy i kompetencji – cytowało CBC.

z Toronto Anna Lach (PAP)

lach/ zm/

Źródło:PAP
Tematy
Wyjątkowa wyprzedaż Ford Pro. Poznaj najlepsze rozwiązania dla Twojego biznesu.

Komentarze (5)

dodaj komentarz
mirek1979
Wspaniałe AI.. a tu ciągle same spuszczanie się jakie to nie cudowne i jak pomaga w zarządzaniu decyzjach managerów itp. Super zwalnia się 2000 osob bo AI miało halucynacje
samsza
Kolejna dezinformacja, odrzucił bo w dokumentach była nieistniejąca sprawa, a nie kto napisał.
januszbizensu
To się nazywa halucynacją i jest wbudowaną właściwością modeli językowych, że losowo generują absolutne bzdury, które wyglądają na prawdziwe xd
tomitomi
AI doskonały instrument go sterowania gojami , na każdym możliwym poziomie !

Powiązane: Prawo dla każdego

Polecane

Najnowsze

Popularne

Ważne linki