Deloitte przeanalizował swój 237-stronicowy raport i „potwierdził, że niektóre przypisy i odniesienia były nieprawidłowe” – poinformował resort pracy we wtorkowym oświadczeniu. Raport dotyczył audytu przestrzegania prawa przez ministerstwo.
Poproszona o komentarz na temat nieścisłości dokumencie, firma poinformowała w przekazanym AP oświadczeniu, że „sprawa została rozwiązana bezpośrednio z klientem”. Nie odpowiedziała na pytanie, czy błędy zostały wygenerowane przez sztuczną inteligencję.
Systemy AI mają tendencję do generowania tzw. halucynacji, czyli fałszywych informacji. W pierwotnej wersji raportu znajdowało się co najmniej 20 błędów tego typu. Były to m.in. fałszywe cytaty z orzeczeń i artykułów ekspertów oraz odniesienia do nieistniejącej książki profesorki prawa uniwersytetu w Sydney.
Z poprawionej wersji raportu usunięto cytaty przypisywane sędziemu sądu federalnego, a także odniesienia do nieistniejących raportów przypisywanych ekspertom prawa i inżynierii oprogramowania. Dodano za to informację, że do stworzenia raportu wykorzystano generatywny system językowy sztucznej inteligencji Azure OpenAI.
Na trop halucynacji wpadł Chris Rudge, specjalista prawa związanego ze zdrowiem i opieką społeczną; on też powiadomił o sprawie media. - Całkowicie przeinaczyli orzeczenie sądowe, a potem zmyślili cytat z wypowiedzi sędziego (...) przeinaczającego prawo. Dlatego uznałem, że ważne jest, aby stanąć w obronie należytej staranności – powiedział AP Rudge.
Senatorka Barbara Pocock z Australijskiej Partii Zielonych powiedziała w wywiadzie dla stacji ABC, że Deloitte „nadużył sztucznej inteligencji, i to w bardzo niewłaściwy sposób”. Zauważyła, że za podobne przewinienie „student pierwszego roku mógłby mieć poważne kłopoty”.(PAP)
os/ akl/