Nadpisy

Jak bezpečná a přesná je automatická technologie rozpoznávání obličeje nainstalovaná u vchodu

Policie a bezpečnostní složky na celém světě testují automatizované systémy rozpoznávání tváří, aby je mohly použít jako nástroj k identifikaci zločinců a teroristů. Jak přesná je však tato technologie a jak snadno se tato technologie a umělá inteligence (AI), na jejímž základě fungují, stávají nástroji pronásledování a útlaku?

Funkce systému

Představte si, že podezřelý terorista je poslán na sebevražednou misi do hustě obydleného centra města. Pokud hodí bombu, mohou stovky lidí zemřít nebo být vážně zraněny. Postup skenování obličejů v davu pomocí video dohledu vám umožní identifikovat útočníka a automaticky porovnat jeho vlastnosti s fotografiemi v databázi slavných teroristů nebo „osob zájmu“ s bezpečnostními službami.

V případě náhody systém vyvolá poplach a protiteroristické síly rychlé reakce jsou odeslány na místo, kde podezřelého „neutralizují“, než může aktivovat výbušniny. Díky moderní technologii byly zachráněny stovky životů.

Možné problémy v práci

Ale co když technologie rozpoznávání obličeje (FR) nefungovala správně? A ukázalo se, že to není terorista, ale obyčejný člověk, který byl jen nešťastný a ukázal se jako útočník. Nevinný život by byl jednoduše zničen, protože odborníci také věřili v chybný systém. Ale co když se ukážeš, že jsi takový člověk?

Toto je jen jedno z etických dilemat, které čelí systému rozpoznávání obličeje a umělé inteligence. Je opravdu obtížné trénovat stroje tak, aby „viděly“, rozpoznávaly a rozlišovaly objekty a tváře. Pomocí počítačového vidění, jak se někdy říká, není to tak dávno, se vědci pokusili určit rozdíl mezi houskami s rozinkami a čivavou, což se stalo jakýmsi lakmusovým testem pro stanovení účinnosti této technologie.

Problémy s rozpoznáváním obličeje

Počítačoví technologové, Joy Buolamvini, zastupující laboratoř Massachusetts Institute of Technology (a zároveň zakladatel Algorithmic Justice League), a Timnit Gebru, technický společný ředitel týmu Google pro etické otázky související s umělou inteligencí, ukázali, že systém rozpoznávání obličeje je obtížný rozlišuje mezi muži a ženami, pokud je jejich pokožka dostatečně tmavá. Systém často mylně zaměňuje ženy s tmavou kůží pro muže.

"Asi 130 milionů dospělých Američanů je již v databázi rozpoznávání tváří," řekl Dr. Gebru v květnu na AI pro dobrý summit v Ženevě. "Původní soubory údajů však obsahují většinou zástupce bílé rasy, mezi nimiž je mnohem více mužů." Proto při rozpoznávání lidí s tmavším typem pleti stále existuje velké procento chyb způsobených typem pleti a pohlavím.

Využití technologie

Kalifornské město San Francisco nedávno zakázalo používání rozpoznávání tváří dopravními a donucovacími orgány jako uznání jeho nedokonalostí a ohrožení občanských svobod. Ale jiná města ve Spojených státech a dalších zemích světa tuto technologii stále zažívají.

Ve Velké Británii například policejní síly v jižním Walesu, Londýně, Manchesteru a Leicesteru testují tuto technologii, která děsí organizace občanských svobod, jako jsou Liberty a Big Brother Watch, které jsou znepokojeny počtem falešných zápasů, ke kterým dochází během provozu systému.

Chyby a obavy

V praxi to znamená, že nevinní lidé se mylně nazývají potenciálními zločinci. Podle Dr. Gebru by takové problémy měly určitě způsobit obavu pro všechny, použití takových preventivních a prediktivních opatření zahrnuje vysoké míry.

Vzhledem k tomu, že černí Američané tvoří 37,5% všech vězňů ve Spojených státech amerických (podle Federálního úřadu věznic), navzdory skutečnosti, že tvoří pouze 13% americké populace, lze předvídat špatně napsané algoritmy využívající v současnosti dostupné datové sady že černoši pravděpodobně spáchají zločin. Nemusíte být génius, abyste pochopili, co to může znamenat pro policejní a sociální politiku.

V poslední době vědci z univerzity v Essexu dospěli k závěru, že náhody používané při soudních řízeních na londýnské policii byly špatně 80%, což by mohlo vést k vážnému porušování spravedlnosti a porušování práva občanů na soukromí.

Jeden Brit, Ed Bridges, zahájil soudní řízení týkající se používání technologie rozpoznávání tváří policie v jižním Walesu jeho fotografie byla pořízena, zatímco on nakupoval, a britská komisařka pro informace Elizabeth Denhamová vyjádřila znepokojení nad nedostatkem právního rámce upravujícího použití technologie rozpoznávání.

Takové obavy však nezabránily technickému gigantovi Amazonu v prodeji jeho nástroje Rekognition FR americkým policejním silám, navzdory váhavému nepokoje akcionářů, které stále nevedlo k ničemu.

Vyhlídky

Amazon říká, že není zodpovědný za to, jak zákazníci používají tuto technologii. Ale porovnejte tento vztah s Salesforce, technologií pro řízení vztahů se zákazníky, která vyvinula svůj vlastní nástroj pro rozpoznávání obrázků zvaný Einstein Vision.

„Technologie rozpoznávání obličeje může být ve vězení vhodná k sledování vězňů nebo k předcházení násilí gangů,“ řekl BBC Salesforce, odborník na etickou umělou inteligenci v BBC. Když však policie chtěla použít při zatčení osob spolu s kamerami, společnost to považovala za nevhodné. V takovém případě je třeba se zeptat, zda je v některých scénářích nutné obecně používat umělou inteligenci, a jedním z příkladů je rozpoznávání tváří.

V současné době je tato technologie používána také armádou, protože poskytovatelé technologií tvrdí, že jejich software dokáže nejen identifikovat potenciální nepřátele, ale také rozpoznat podezřelé chování.


Přidejte komentář
×
×
Opravdu chcete komentář smazat?
Odstranit
×
Důvod stížnosti

Podnikání

Příběhy o úspěchu

Vybavení