Categorieën

Hoe veilig en nauwkeurig is de automatische gezichtsherkenningstechnologie die bij de ingang is geïnstalleerd

Politie- en veiligheidstroepen over de hele wereld testen geautomatiseerde gezichtsherkenningssystemen om ze te gebruiken als hulpmiddel om criminelen en terroristen te identificeren. Maar hoe nauwkeurig is deze technologie en hoe gemakkelijk is het en de kunstmatige intelligentie (AI), op basis waarvan het functioneert, instrumenten van vervolging en onderdrukking?

Systeem kenmerken

Stel je voor dat een vermoedelijke terrorist op een zelfmoordmissie wordt gestuurd naar een dichtbevolkt stadscentrum. Als hij een bom laat vallen, kunnen honderden mensen sterven of ernstig gewond raken. Met de procedure voor het scannen van gezichten in een menigte met behulp van videobewaking, kunt u een aanvaller identificeren en zijn kenmerken automatisch vergelijken met foto's in een database van beroemde terroristen of 'belangstellenden' met beveiligingsdiensten.

In geval van toeval slaat het systeem alarm en worden de antiterroristische krachten van snelle reactie naar de plaats gestuurd waar ze de verdachte "neutraliseren" voordat hij de explosieven kan activeren. Honderden levens gered dankzij moderne technologie.

Mogelijke problemen op het werk

Maar wat als de technologie voor gezichtsherkenning (FR) niet correct werkte? En het bleek geen terrorist te zijn, maar een gewoon persoon die gewoon pech had en hij bleek een aanvaller te zijn. Een onschuldig leven zou eenvoudigweg zijn vernietigd omdat de experts ook in een foutief systeem geloofden. Maar wat als je zo'n persoon blijkt te zijn?

Dit is slechts een van de ethische dilemma's waarmee het gezichtsherkenningssysteem en kunstmatige intelligentie worden geconfronteerd. Het is echt moeilijk om machines te trainen om objecten en gezichten te "zien", herkennen en onderscheiden. Met behulp van computer vision, zoals het soms wordt genoemd, niet zo lang geleden, probeerden onderzoekers het verschil te bepalen tussen broodjes met rozijnen en een chihuahua, wat een soort lakmoesproef werd voor het bepalen van de effectiviteit van deze technologie.

Problemen met gezichtsherkenning

Computertechnologen, Joy Buolamvini, die het laboratorium vertegenwoordigen bij het Massachusetts Institute of Technology (en tegelijkertijd de oprichter van de Algorithmic Justice League), en Timnit Gebru, technisch co-directeur van het Google-team over ethische kwesties in verband met kunstmatige intelligentie, toonden aan dat het gezichtsherkenningssysteem moeilijk is maakt onderscheid tussen mannen en vrouwen als hun huid donker genoeg is. Het systeem zag vrouwen vaak met een donkere huid voor mannen.

"Ongeveer 130 miljoen volwassen Amerikanen staan ​​al in databases met gezichtsherkenning", zei Dr. Gebru in mei op de AI voor goede top in Genève. "Maar de originele gegevenssets bevatten meestal vertegenwoordigers van het blanke ras, onder wie er veel meer mannen zijn." Daarom is er bij het herkennen van mensen met een donkerder huidtype nog steeds een enorm percentage fouten als gevolg van huidtype en geslacht.

Gebruik van technologie

De stad San Francisco in Californië verbood onlangs het gebruik van gezichtsherkenning door transport- en wetshandhavingsinstanties vanwege de onvolkomenheden en bedreigingen van de burgerlijke vrijheden. Maar andere steden in de Verenigde Staten en andere landen van de wereld blijven deze technologie ervaren.

In het VK bijvoorbeeld, testen politie-eenheden in Zuid-Wales, Londen, Manchester en Leicester deze technologie, die organisaties als burgerlijke vrijheden zoals Liberty en Big Brother Watch beangstigt, die zich zorgen maken over het aantal valse wedstrijden die zich voordoen tijdens de werking van het systeem.

Fouten en angsten

In de praktijk betekent dit dat onschuldige mensen ten onrechte potentiële criminelen worden genoemd. Volgens Dr. Gebru moeten dergelijke problemen zeker voor iedereen zorgen baren, het gebruik van dergelijke preventieve en voorspellende maatregelen brengt hoge percentages met zich mee.

Gezien het feit dat zwarte Amerikanen 37,5% uitmaken van alle gevangenen in de Verenigde Staten (volgens het Federal Bureau of Prisons), kunnen slecht geschreven algoritmen met behulp van de momenteel beschikbare datasets voorspellen, ondanks het feit dat ze slechts 13% van de Amerikaanse bevolking uitmaken. dat zwarte mensen vaker een misdrijf plegen. Je hoeft geen genie te zijn om te begrijpen wat dit kan betekenen voor politie- en sociaal beleid.

Meer recent zijn wetenschappers van de Universiteit van Essex tot de conclusie gekomen dat de toevalligheden die in processen bij de Londense politie werden gebruikt 80% fout waren, wat mogelijk zou kunnen leiden tot ernstige rechtsschendingen en schending van het recht van burgers op privacy.

Een Brit, Ed Bridges, begon daarna een rechtszaak over het gebruik van gezichtsherkenningstechnologie door de politie van Zuid-Wales zijn foto werd genomen terwijl hij aan het winkelen was, en de Britse commissaris voor Informatie Elizabeth Denham toonde zich bezorgd over het ontbreken van een wettelijk kader voor het gebruik van herkenningstechnologie.

Maar dergelijke angsten weerhielden de technologiegigant Amazon niet van het verkopen van zijn Rekognition FR-tool aan de Amerikaanse politie, ondanks een aarzelende rel door aandeelhouders die nog steeds tot niets leidde.

prospects

Amazon zegt dat het niet verantwoordelijk is voor hoe klanten haar technologie gebruiken. Maar vergelijk deze relatie met Salesforce, een technologie voor klantrelatiebeheer, die zijn eigen beeldherkenningstool heeft ontwikkeld met de naam Einstein Vision.

"Gezichtsherkenningstechnologie kan geschikt zijn in een gevangenis om gevangenen op te sporen of bendegeweld te voorkomen," zei BBC Salesforce, een expert op het gebied van ethische kunstmatige intelligentie bij BBC. Maar toen de politie het samen met camera's wilde gebruiken bij het arresteren van mensen, vond het bedrijf dit ongepast. In dit geval moet men vragen of het noodzakelijk is om AI in het algemeen in bepaalde scenario's te gebruiken, en een van de voorbeelden is gezichtsherkenning.

Momenteel wordt deze technologie ook door het leger gebruikt, omdat technologieleveranciers beweren dat hun software niet alleen potentiële vijanden kan identificeren, maar ook verdacht gedrag kan herkennen.


Voeg een reactie toe
×
×
Weet je zeker dat je de reactie wilt verwijderen?
Verwijder
×
Reden voor klacht

bedrijf

Succesverhalen

uitrusting