kategorier

Hur säker och exakt är den automatiska ansiktsigenkänningstekniken installerad vid ingången

Polis och säkerhetsstyrkor runt om i världen testar automatiserade ansiktsigenkänningssystem för att använda dem som ett verktyg för att identifiera brottslingar och terrorister. Men hur exakt är den här tekniken och hur lätt är den och den konstgjorda intelligensen (AI), på grundval av vilken den fungerar, verktyg för förföljelse och förtryck?

Systemfunktioner

Föreställ dig att en misstänkt terrorist skickas på ett självmordsuppdrag till ett tätbefolkat centrum. Om han tappar en bomb kan hundratals människor dö eller bli allvarligt skadade. Proceduren för att skanna ansikten i en publik med hjälp av videoövervakning gör att du kan identifiera en angripare och automatiskt jämföra hans egenskaper med fotografier i en databas med kända terrorister eller "personer av intresse" med säkerhetstjänster.

Vid tillfällighet lyfter systemet larmet och antiterroristernas snabba reaktioner skickas till platsen där de "neutraliserar" den misstänkta innan han kan aktivera sprängämnena. Hundratals liv räddade tack vare modern teknik.

Möjliga problem på jobbet

Men vad händer om ansiktsigenkänning (FR) -teknologi inte fungerade korrekt? Och det visade sig inte vara en terrorist, utan en vanlig person som bara var otur och han visade sig vara en attackerare. Ett oskyldigt liv skulle ha förstörts eftersom experterna också trodde på ett felaktigt system. Men vad händer om du visar sig vara en sådan person?

Detta är bara ett av de etiska dilemman som konfronterar ansiktsigenkänningssystemet och konstgjord intelligens. Det är verkligen svårt att träna maskiner för att ”se”, känna igen och skilja objekt och ansikten. Genom att använda datorsyn, som det ibland kallas, för inte så länge sedan försökte forskare bestämma skillnaden mellan bullar med russin och en chihuahua, som blev ett slags lakmustest för att bestämma effektiviteten hos denna teknik.

Ansiktsigenkänningssvårigheter

Datorforskare Joy Buolamvini, som representerar laboratoriet vid Massachusetts Institute of Technology (och samtidigt grundaren av Algorithmic Justice League), och Timnit Gebru, teknisk co-chef för Google-teamet för etiska frågor relaterade till artificiell intelligens, visade att ansiktsigenkänningssystemet är svårt skiljer mellan män och kvinnor om deras hud är tillräckligt mörk. Systemet misstog ofta kvinnor med mörk hud för män.

"Cirka 130 miljoner vuxna amerikaner finns redan på ansiktsigenkänningsdatabaser," sade Dr Gebru i maj vid AI for Good Summit i Genève. "Men de ursprungliga datamängderna innehåller mestadels företrädare för den vita rasen, bland vilka det finns mycket fler män." Därför finns det fortfarande en enorm andel av fel på grund av hudtyp och kön när man känner igen personer med en mörkare hudtyp.

Användning av teknik

San Francisco i Kalifornien förbjöd nyligen användning av ansiktsigenkänning av transport- och brottsbekämpande organ som erkännande av dess brister och hot mot medborgerliga friheter. Men andra städer i USA och andra länder i världen fortsätter att uppleva denna teknik.

I Storbritannien testar till exempel polisstyrkor i södra Wales, London, Manchester och Leicester denna teknik, vilket skrämmer medborgerliga frihetsorganisationer som Liberty och Big Brother Watch, som är oroliga för antalet falska matcher som uppstår när systemet fungerar.

Fel och rädsla

I praktiken innebär detta att oskyldiga människor felaktigt kallas potentiella brottslingar. Enligt Dr. Gebru bör sådana problem säkert orsaka alla, användningen av sådana förebyggande och förutsägbara åtgärder innebär höga priser.

Med tanke på att svarta amerikaner utgör 37,5% av alla fångar i USA (enligt Federal Bureau of Prisons), trots att de endast utgör 13% av den amerikanska befolkningen, kan dåligt skrivna algoritmer med de tillgängliga datasätten förutspå att svarta människor är mer benägna att begå ett brott. Du behöver inte vara ett geni för att förstå vad detta kan betyda för polis och socialpolitik.

På senare tid har forskare från University of Essex kommit till slutsatsen att de slumpmöjligheter som användes i rättegångar vid Londonpolitiken var 80% fel, vilket potentiellt kan leda till allvarliga brott mot rättvisa och intrång i medborgarnas rätt till integritet.

En britton, Ed Bridges, inledde en talan om användningen av ansiktsigenkänningsteknik av South Wales polis efter hans fotografi togs medan han shoppade, och den brittiska informationskommissären Elizabeth Denham uttryckte oro över bristen på en rättslig ram för användning av erkännande teknik.

Men sådan rädsla hindrade inte den tekniska jätten Amazon från att sälja sitt Rekognition FR-verktyg till den amerikanska polisstyrkan, trots ett tveksamt upplopp från aktieägare som fortfarande ledde till ingenting.

utsikter

Amazon säger att det inte är ansvarigt för hur kunder använder sin teknik. Men jämför detta förhållande med Salesforce, en teknik för kundrelationshantering, som har utvecklat ett eget bildigenkänningsverktyg som heter Einstein Vision.

"Ansiktsigenkänningsteknologi kan vara lämplig i ett fängelse för att spåra fångar eller förhindra gängsvåld," sa BBC Salesforce, en etisk expert på artificiell intelligens på BBC. Men när polisen ville använda den tillsammans med kameror när de arresterade människor, fann företaget detta olämpligt. I detta fall bör man fråga sig om det är nödvändigt att använda AI i allmänhet i vissa scenarier, och ett av exemplen är ansiktsigenkänning.

För närvarande används denna teknik också av militären, eftersom teknikleverantörer hävdar att deras programvara inte bara kan identifiera potentiella fiender utan också känner igen misstänkta beteenden.


Lägg till en kommentar
×
×
Är du säker på att du vill ta bort kommentaren?
Radera
×
Anledning till klagomål

Affärs

Framgångshistorier

utrustning