Überschriften

Wie sicher und genau ist die automatische Gesichtserkennungstechnologie, die am Eingang installiert ist

Polizei und Sicherheitskräfte auf der ganzen Welt testen automatisierte Gesichtserkennungssysteme, um sie als Instrument zur Identifizierung von Kriminellen und Terroristen einzusetzen. Aber wie genau ist diese Technologie und wie einfach ist es, und die künstliche Intelligenz (KI), auf deren Grundlage sie funktioniert, wird zu Werkzeugen der Verfolgung und Unterdrückung?

Systemfunktionen

Stellen Sie sich vor, ein mutmaßlicher Terrorist wird auf Selbstmordmission in ein dicht besiedeltes Stadtzentrum geschickt. Wenn er eine Bombe fallen lässt, können Hunderte von Menschen sterben oder schwer verletzt werden. Das Verfahren zum Scannen von Gesichtern in einer Menschenmenge mithilfe der Videoüberwachung ermöglicht es Ihnen, einen Angreifer zu identifizieren und seine Eigenschaften automatisch mit Fotos in einer Datenbank berühmter Terroristen oder „Personen von Interesse“ der Sicherheitsdienste zu vergleichen.

Im Falle eines Zufalls löst das System einen Alarm aus, und die Antiterroristen werden an den Ort geschickt, an dem sie den Verdächtigen "neutralisieren", bevor er den Sprengstoff aktivieren kann. Hunderte von Menschenleben werden dank moderner Technologie gerettet.

Mögliche Probleme bei der Arbeit

Aber was ist, wenn die Gesichtserkennungstechnologie (FR) nicht richtig funktioniert? Und es stellte sich heraus, dass es kein Terrorist war, sondern ein gewöhnlicher Mensch, der einfach Pech hatte und sich als Angreifer herausstellte. Ein unschuldiges Leben wäre einfach zerstört worden, weil auch die Experten an ein fehlerhaftes System glaubten. Aber was ist, wenn Sie sich als eine solche Person herausstellen?

Dies ist nur eines der ethischen Dilemmata, denen sich das Gesichtserkennungssystem und die künstliche Intelligenz gegenübersehen. Es ist wirklich schwierig, Maschinen so zu trainieren, dass sie Objekte und Gesichter „sehen“, erkennen und unterscheiden können. Mithilfe von Computer Vision, wie es manchmal vor nicht allzu langer Zeit genannt wird, versuchten die Forscher, den Unterschied zwischen Brötchen mit Rosinen und einem Chihuahua zu bestimmen, was zu einer Art Lackmustest für die Bestimmung der Wirksamkeit dieser Technologie wurde.

Gesichtserkennungsschwierigkeiten

Die Computertechnologen Joy Buolamvini, Vertreter des Labors am Massachusetts Institute of Technology (und gleichzeitig Gründer der Algorithmic Justice League), und Timnit Gebru, technischer Co-Direktor des Google-Teams für ethische Fragen im Zusammenhang mit künstlicher Intelligenz, zeigten, dass das Gesichtserkennungssystem schwierig ist unterscheidet zwischen Männern und Frauen, wenn ihre Haut dunkel genug ist. Das System verwechselte Frauen mit dunkler Haut nicht selten mit Männern.

"Rund 130 Millionen erwachsene Amerikaner sind bereits in Gesichtserkennungsdatenbanken", sagte Dr. Gebru im Mai beim AI for Good Summit in Genf. "Aber die ursprünglichen Datensätze enthalten hauptsächlich Vertreter der weißen Rasse, unter denen sich viel mehr Männer befinden." Daher gibt es beim Erkennen von Personen mit einem dunkleren Hauttyp immer noch einen großen Prozentsatz von Fehlern, die auf Hauttyp und Geschlecht zurückzuführen sind.

Einsatz von Technologie

Die kalifornische Stadt San Francisco hat kürzlich die Anwendung der Gesichtserkennung durch Transport- und Strafverfolgungsbehörden verboten, um ihre Unvollkommenheiten und Bedrohungen für die bürgerlichen Freiheiten anzuerkennen. Andere Städte in den USA und anderen Ländern der Welt erleben diese Technologie jedoch weiterhin.

In Großbritannien testen beispielsweise Polizeikräfte in Südwales, London, Manchester und Leicester diese Technologie, die Organisationen für bürgerliche Freiheiten wie Liberty und Big Brother Watch, die sich Sorgen über die Anzahl falscher Übereinstimmungen machen, die während des Betriebs des Systems auftreten.

Fehler und Ängste

In der Praxis bedeutet dies, dass unschuldige Menschen fälschlicherweise als potenzielle Kriminelle bezeichnet werden. Nach Ansicht von Dr. Gebru sollten solche Probleme auf jeden Fall Anlass zur Sorge geben. Der Einsatz solcher vorbeugenden und vorbeugenden Maßnahmen ist mit hohen Raten verbunden.

Angesichts der Tatsache, dass schwarze Amerikaner 37,5% aller Gefängnisinsassen in den Vereinigten Staaten ausmachen (nach Angaben des Federal Bureau of Prisons), können schlecht geschriebene Algorithmen unter Verwendung der derzeit verfügbaren Datensätze vorhersagen, dass sie nur 13% der US-Bevölkerung ausmachen dass Schwarze eher ein Verbrechen begehen. Sie müssen kein Genie sein, um zu verstehen, was dies für die Polizei und die Sozialpolitik bedeuten kann.

In jüngerer Zeit sind Wissenschaftler der University of Essex zu dem Schluss gekommen, dass die in Gerichtsverfahren gegen die Londoner Polizei verwendeten Zufälle zu 80% falsch waren, was möglicherweise zu schweren Verstößen gegen die Justiz und zur Verletzung des Rechts der Bürger auf Privatsphäre führen könnte.

Ein Brite, Ed Bridges, erhob daraufhin eine Klage wegen der Verwendung von Gesichtserkennungstechnologien durch die Polizei in Südwales Sein Foto wurde während des Einkaufs aufgenommen, und die britische Informationskommissarin Elizabeth Denham äußerte sich besorgt über das Fehlen eines rechtlichen Rahmens für die Verwendung von Erkennungstechnologien.

Diese Befürchtungen hinderten den Technologieriesen Amazon jedoch nicht daran, sein Rekognition FR-Tool an die US-amerikanische Polizei zu verkaufen, obwohl die Aktionäre zögerten, diesbezüglich nichts zu unternehmen.

Aussichten

Amazon ist nicht dafür verantwortlich, wie Kunden seine Technologie nutzen. Vergleichen Sie diese Beziehung jedoch mit Salesforce, einer Technologie für das Kundenbeziehungsmanagement, die ein eigenes Bilderkennungstool namens Einstein Vision entwickelt hat.

"Die Gesichtserkennungstechnologie kann in einem Gefängnis geeignet sein, um Gefangene aufzuspüren oder Bandengewalt zu verhindern", sagte BBC Salesforce, ein Experte für ethische künstliche Intelligenz bei BBC. Aber als die Polizei es zusammen mit Kameras bei der Verhaftung von Menschen verwenden wollte, fand das Unternehmen dies unangemessen. In diesem Fall sollte man sich fragen, ob es in bestimmten Szenarien notwendig ist, AI im Allgemeinen zu verwenden, und eines der Beispiele ist die Gesichtserkennung.

Derzeit wird diese Technologie auch vom Militär eingesetzt, da Technologieanbieter behaupten, dass ihre Software potenzielle Feinde nicht nur identifizieren, sondern auch verdächtiges Verhalten erkennen kann.


Kommentar hinzufügen
×
×
Möchten Sie den Kommentar wirklich löschen?
Löschen
×
Grund der Beschwerde

Geschäft

Erfolgsgeschichten

Ausstattung