Kategóriák

Mennyire biztonságos és pontos a bejáratnál telepített automatikus arcfelismerő technológia

A világ rendõrsége és biztonsági erõi automatizált arcfelismerõ rendszereket tesztelnek annak érdekében, hogy eszközként használják fel a bûnözõket és a terroristákat. De mennyire pontos ez a technológia és mennyire könnyű, és a mesterséges intelligencia (AI), amely alapján működik, üldözés és elnyomás eszközévé válik?

A rendszer jellemzői

Képzelje el, hogy a gyanúsított terroristát öngyilkos misszióban küldik el egy sűrűn lakott városközpontba. Ha bombát dob ​​le, emberek százai halhatnak meg vagy súlyosan megsérülhetnek. A tömegben lévő arcoknak a videó megfigyelés segítségével történő szkennelése lehetővé teszi a támadó azonosítását, és automatikusan összehasonlítja jellemzőit a híres terroristák vagy „érdeklődésre számot tartó személyek” adatbázisában található fényképekkel a biztonsági szolgálatokkal.

Egybeesés esetén a rendszer felhívja a figyelmeztetést, és a gyors reagálás elleni terrorista erõket elküldik arra a helyre, ahol "semlegesítik" a gyanúsítottat, mielõtt a robbanóanyagokat aktiválhatják. A modern technológiának köszönhetően több száz ember menthető meg.

Lehetséges problémák a munkahelyen

De mi lenne, ha az arcfelismerő (FR) technológia nem működne megfelelően? És kiderült, hogy nem terroristák, hanem egy hétköznapi emberek, akiknek csak szerencséje volt, és olyan támadónak bizonyult. Egy ártatlan életet egyszerűen elpusztítanák, mert a szakértők is hibás rendszerbe hittek. De mi van, ha kiderül, hogy ilyen ember?

Ez csak az egyik etikai dilemmája, amely szembekerül az arcfelismerő rendszerrel és a mesterséges intelligenciával. Valójában nehéz a gépek kiképzése, hogy “láthassák”, felismerjék és megkülönböztessék tárgyaikat és arcát. A számítógépes látásmód segítségével, amint azt gyakran nevezik, nem is olyan régen a kutatók megpróbálták meghatározni a különbséget a mazsolával és a chihuahua-val készített zsemlék között, ez egyfajta lakmusz-teszt lett a technológia hatékonyságának meghatározására.

Arcfelismerési nehézségek

Számítógépes tudósok, Joy Buolamvini, a Massachusetts Technológiai Intézet laboratóriumának képviselője (és ezzel egyidejűleg az Algoritmikus Igazságügyi Liga alapítója), valamint Timnit Gebru, a műszaki intelligenciával kapcsolatos etikai kérdésekkel foglalkozó Google csapat műszaki társigazgatója megmutatta, hogy az arcfelismerési rendszer nehéz. különbséget tesz a férfiak és a nők között, ha a bőrük elég sötét. A rendszer gyakran megtéveszti a sötét bőrű nőket a férfiak esetében.

"Körülbelül 130 millió felnőtt amerikai már létezik az arcfelismerési adatbázisokban" - mondta Dr. Gebru májusban a genfi ​​genfi ​​AI jó csúcstalálkozón. "De az eredeti adatkészletek többnyire a fehér faj képviselőit tartalmazzák, akik között sokkal több ember van." Ezért a sötétebb bőrtípusú emberek felismerésekor továbbra is nagy a hibatípusok aránya a bőrtípus és a nem miatt.

A technológia használata

A kaliforniai San Francisco város nemrégiben betiltotta az arcfelismerés használatát a szállítási és a rendészeti szerveknél annak hiányosságainak és a polgári szabadságjogoknak való elismerése elismeréseként. Az Egyesült Államok más városaiban és a világ más országaiban azonban továbbra is megtapasztalják ezt a technológiát.

Az Egyesült Királyságban például a dél-walesi, londoni, manchesteri és leicesteri rendõri erõk tesztelik ezt a technológiát, amely félelmetes az olyan polgári szabadságjogi szervezeteket, mint a Liberty és a Big Brother Watch, mivel aggódnak a rendszer mûködésekor bekövetkezõ hamis mérkőzések száma miatt.

Hibák és félelmek

A gyakorlatban ez azt jelenti, hogy ártatlan embereket tévesen potenciális bűnözőknek hívnak. Dr. Gebru szerint az ilyen problémák minden bizonnyal aggodalmat keltenek mindenki számára, az ilyen megelőző és prediktív intézkedések használata magas arányt jelent.

Tekintettel arra, hogy a fekete-amerikai amerikaiak az Egyesült Államok összes fogvatartottjának 37,5% -át teszik ki (a Federal Prison Bureau of Prison szerint), annak ellenére, hogy az Egyesült Államok lakosságának csupán 13% -át teszik ki, a jelenleg rendelkezésre álló adatkészleteket használó, rosszul megírt algoritmusok megjósolhatják hogy a fekete emberek inkább bűncselekményt követnek el. Nem kell zseninek lennie ahhoz, hogy megértse, mit jelent ez a rendõrség és a szociális politika szempontjából.

A közelmúltban az Essexi Egyetemen dolgozó tudósok arra a következtetésre jutottak, hogy a londoni rendõrség próbáin alkalmazott véletlen egybeesések 80% -ban tévedtek, ami potenciálisan súlyos jogsértésekhez és a polgárok magánélethez való jogának megsértéséhez vezethet.

Az egyik brit, Ed Bridges peres eljárást indított az arcfelismerési technológia dél-walesi rendőrség általi használatáról fényképeit vásárlás közben készítették, és Elizabeth Denham brit információs biztos aggodalmát fejezte ki az elismerési technológia használatát szabályozó jogi keret hiánya miatt.

Az ilyen félelmek azonban nem akadályozták meg az Amazon technológiai óriást abban, hogy eladja a Rekognition FR eszközét az Egyesült Államok rendőri erõinek, annak ellenére, hogy a részvényesek tétova zavargtak, amelyek még mindig semmihez vezettek.

kilátások

Az Amazon szerint nem felelős azért, hogy az ügyfelek miként használják a technológiáját. Hasonlítsa össze ezt a kapcsolatot a Salesforce-vel, az ügyfélkapcsolat-menedzsment technológiával, amely kifejlesztette saját képfelismerő eszközét, az Einstein Vision néven.

"Az arcfelismerési technológia megfelelő lehet a börtönben a foglyok nyomon követésére vagy a bandák erőszakának megelőzésére" - mondta a BBC Salesforce, a BBC etikai mesterséges intelligencia szakértője. De amikor a rendõrség kamerákkal együtt akarta használni, amikor letartóztattak, a társaság ezt alkalmatlannak találta. Ebben az esetben azt kell megkérdezni, hogy szükséges-e általában az AI használata bizonyos forgatókönyvekben, és az egyik ilyen példa az arcfelismerés.

Jelenleg ezt a technológiát a katonaság is használja, mivel a technológiai szolgáltatók azt állítják, hogy szoftverük nemcsak a lehetséges ellenségeket azonosítja, hanem a gyanús viselkedést is felismeri.


Adj hozzá egy megjegyzést
×
×
Biztosan törli a megjegyzést?
töröl
×
A panasz oka

üzleti

Sikertörténetek

felszerelés