Niesłuszne aresztowania z powodu błędu sztucznej inteligencji. System źle rozpoznał twarze

stacja7.pl 2 godzin temu

Jak przekazała gazeta, w ośmiu znanych przypadkach niesłusznych zatrzymań, policja bazowała na identyfikacji twarzy wykonanej przez systemy sztucznej inteligencji, nie podejmując kluczowych działań śledczych, jakimi są m.in. weryfikacja alibi podejrzanych, zbadanie DNA lub odcisków palców.

Całkowitą liczbę przypadków niesłusznych zatrzymań wynikających z błędnych analiz AI trudno zatem określić – zauważył „Washington Post”.

W sześciu z wymienionych przypadków policja nie zweryfikowała alibi podejrzanych, natomiast w dwóch zignorowano choćby tak istotne dowody, jak ślady DNA czy odciski palców. Ponadto trzykrotnie zignorowano cechy fizyczne podejrzanych, które nie zgadzały się z weryfikacją dokonaną przez sztuczną inteligencję.

Prawdopodobnie dziennik ujawnił tylko niewielki fragment problemu związanego z wykorzystaniem sztucznej inteligencji przez amerykańską policję.

„Washington Post” zwrócił uwagę, iż oprogramowanie do identyfikacji twarzy osiąga niemal perfekcyjną skuteczność w warunkach laboratoryjnych przy użyciu wyraźnych zdjęć porównawczych.

Jak podkreśla Katie Kinsey, naukowiec z wydziału prawa uniwersytetu w Nowym Jorku, dotychczas nie przeprowadzono niezależnych testów, które zweryfikowałyby skuteczność tej technologii w przypadku niewyraźnych nagrań z monitoringu, przez co trudno oszacować, jak często system popełnia błędy.

Naukowcy podkreślili również, iż osoby korzystające z AI mogą ulegać tendencji bezkrytycznego akceptowania wyników przedstawianych przez system.

PAP, Washington Post, kh/Stacja7

Źródło

atom
Idź do oryginalnego materiału