Nagłówki

Jak bezpieczna i dokładna jest technologia automatycznego rozpoznawania twarzy zainstalowana przy wejściu

Policja i siły bezpieczeństwa na całym świecie testują zautomatyzowane systemy rozpoznawania twarzy w celu wykorzystania ich jako narzędzia do identyfikacji przestępców i terrorystów. Ale jak dokładna jest ta technologia i jak łatwo jest nią, a sztuczna inteligencja (AI), na podstawie której działa, staje się narzędziem prześladowań i ucisku?

Funkcje systemu

Wyobraź sobie, że podejrzany terrorysta zostaje wysłany na misję samobójczą do gęsto zaludnionego centrum miasta. Jeśli zrzuci bombę, setki ludzi mogą zginąć lub odnieść poważne obrażenia. Procedura skanowania twarzy w tłumie za pomocą nadzoru wideo pozwala zidentyfikować napastnika i automatycznie porównuje jego cechy ze zdjęciami w bazie danych sławnych terrorystów lub „osób zainteresowanych” służbami bezpieczeństwa.

W przypadku zbiegów okoliczności system podnosi alarm, a antyterrorystyczne siły szybkiej reakcji są wysyłane do miejsca, w którym „neutralizują” podejrzanego, zanim będzie on mógł aktywować materiały wybuchowe. Setki istnień ludzkich uratowanych dzięki nowoczesnej technologii.

Możliwe problemy w pracy

Ale co jeśli technologia rozpoznawania twarzy (FR) nie działa poprawnie? I okazało się, że nie jest terrorystą, ale zwykłą osobą, która miała po prostu pecha i okazała się być napastnikiem. Niewinne życie zostałoby po prostu zniszczone, ponieważ eksperci również wierzyli w błędny system. Ale co jeśli okaże się taką osobą?

To tylko jeden z etycznych dylematów, które dotyczą systemu rozpoznawania twarzy i sztucznej inteligencji. Naprawdę trudno jest trenować maszyny do „widzenia”, rozpoznawania i rozróżniania obiektów i twarzy. Używając wizji komputerowej, jak to się czasami nazywa, nie tak dawno temu, badacze próbowali określić różnicę między bułeczkami z rodzynkami a chihuahua, co stało się rodzajem testu lakmusowego do określania skuteczności tej technologii.

Trudności z rozpoznawaniem twarzy

Technologowie komputerowi, Joy Buolamvini, reprezentujący laboratorium Massachusetts Institute of Technology (i jednocześnie założyciel Ligii Algorytmicznej Sprawiedliwości), oraz Timnit Gebru, techniczny dyrektor zespołu Google ds. Etycznych związanych ze sztuczną inteligencją, pokazali, że system rozpoznawania twarzy jest trudny rozróżnia mężczyzn i kobiety, jeśli ich skóra jest wystarczająco ciemna. System dość często mylił kobiety o ciemnej skórze z mężczyznami.

„Około 130 milionów dorosłych Amerykanów korzysta już z baz danych rozpoznawania twarzy”, powiedział dr Gebru w maju na konferencji AI for Good Summit w Genewie. „Ale oryginalne zestawy danych zawierają głównie przedstawicieli białej rasy, wśród których jest znacznie więcej mężczyzn”. Dlatego przy rozpoznawaniu osób o ciemniejszym typie skóry nadal występuje ogromny odsetek błędów związanych z typem skóry i płcią.

Wykorzystanie technologii

Kalifornijskie miasto San Francisco niedawno zakazało stosowania rozpoznawania twarzy przez agencje transportowe i organy ścigania w uznaniu jego niedoskonałości i zagrożeń dla swobód obywatelskich. Ale inne miasta w Stanach Zjednoczonych i innych krajach świata nadal korzystają z tej technologii.

Na przykład w Wielkiej Brytanii siły policyjne w Południowej Walii, Londynie, Manchesterze i Leicesterze testują tę technologię, która przeraża organizacje zajmujące się swobodami obywatelskimi, takie jak Liberty i Big Brother Watch, które są zaniepokojone liczbą fałszywych dopasowań, które występują podczas działania systemu.

Błędy i obawy

W praktyce oznacza to, że niewinni ludzie błędnie nazywani są potencjalnymi przestępcami. Według dr Gebru takie problemy z pewnością powinny budzić obawy u wszystkich, stosowanie takich środków zapobiegawczych i predykcyjnych wiąże się z wysokimi wskaźnikami.

Biorąc pod uwagę, że czarni Amerykanie stanowią 37,5% wszystkich więźniów w Stanach Zjednoczonych (zgodnie z Federalnym Biurem Więzień), pomimo faktu, że stanowią tylko 13% populacji USA, źle napisane algorytmy wykorzystujące aktualnie dostępne zbiory danych mogą przewidzieć że czarni są bardziej skłonni do popełnienia przestępstwa. Nie musisz być geniuszem, aby zrozumieć, co to może oznaczać dla policji i polityki społecznej.

Niedawno naukowcy z University of Essex doszli do wniosku, że zbieżności zastosowane w procesach w londyńskiej policji były w 80% błędne, co może potencjalnie prowadzić do poważnych naruszeń sprawiedliwości i naruszenia prawa obywateli do prywatności.

Jeden Brytyjczyk, Ed Bridges, wszczął proces sądowy w sprawie wykorzystania technologii rozpoznawania twarzy przez policję Południowej Walii jego zdjęcie zostało zrobione podczas zakupów, a brytyjska komisarz ds. informacji Elizabeth Denham wyraziła zaniepokojenie brakiem ram prawnych regulujących korzystanie z technologii rozpoznawania.

Ale takie obawy nie powstrzymały giganta technologicznego Amazon przed sprzedażą narzędzia Rekognition FR amerykańskiej policji, pomimo niepewnych zamieszek ze strony akcjonariuszy, które wciąż nic nie prowadziły.

Perspektywy

Amazon twierdzi, że nie ponosi odpowiedzialności za sposób, w jaki klienci korzystają z jego technologii. Porównaj tę relację z Salesforce, technologią do zarządzania relacjami z klientami, która opracowała własne narzędzie do rozpoznawania obrazów o nazwie Einstein Vision.

„Technologia rozpoznawania twarzy może być odpowiednia w więzieniu do śledzenia więźniów lub zapobiegania przemocy ze strony gangu”, powiedział BBC Salesforce, ekspert etycznej sztucznej inteligencji w BBC. Ale kiedy policja chciała używać go razem z kamerami podczas aresztowania ludzi, firma uznała to za nieodpowiednie. W takim przypadku należy zapytać, czy w niektórych sytuacjach konieczne jest użycie sztucznej inteligencji, a jednym z przykładów jest rozpoznawanie twarzy.

Obecnie technologia ta jest również wykorzystywana przez wojsko, ponieważ dostawcy technologii twierdzą, że ich oprogramowanie nie tylko identyfikuje potencjalnych wrogów, ale także rozpoznaje podejrzane zachowanie.


Dodaj komentarz
×
×
Czy na pewno chcesz usunąć komentarz?
Usuń
×
Powód reklamacji

Biznes

Historie sukcesu

Wyposażenie