Jetzt neu!

Die ViOffice Cloud ist jetzt GRATIS für bis zu 3GB Speicherplatz. Jetzt registrieren!
Zum Inhalt springen
Startseite » Blog » Gesichterkennung und ihre Auswirkungen auf die Privatsphäre

Gesichterkennung und ihre Auswirkungen auf die Privatsphäre

„Fast jeder Mensch auf der Welt wird identifizierbar sein“ – Dieses Zitat stammt von einem Investor:innentreffen des US-Unternehmens Clearview AI, das sich auf die Gesichtserkennung mit Hilfe Künstlicher Intelligenz (KI) spezialisiert. Darüber hinaus entwickelt das Unternehmen Werkzeuge zum Scannen von Autokennzeichen oder des Verhaltens von Personen in der Öffentlichkeit. [1]

Offensichtlich sind Fälle wie dieser Eingriffe in die Privatsphäre aller und damit ein ernsthaftes Problem für unsere Gesellschaft. In diesem Blogbeitrag möchten wir über die Funktionsweise und Anwendungsbereiche der Gesichtserkennung informieren und gleichzeitig auf die damit verbundenen Gefahren hinweisen.

Wie funktioniert Gesichtserkennung

Bei der Gesichtserkennung handelt es sich um eine so genannte biometrische Technik, mit der Personen anhand ihrer visuellen Gesichtsmerkmale identifiziert werden können. Es gibt zwei-dimensionale und drei-dimensionale Erkennungstechniken. Der Prozess läuft generell in drei schritten ab:

1. Merkmalserfassung

zwei-dimensionale Gesichtserkennung

Anhand von Frontal- oder Profilbildern von Gesichtern werden die charakteristischen Gesichtsmerkmale ermittelt. Dazu gehören z. B. die Abstände zwischen den Augen, die Abstände zwischen Stirn und Kinn, die Konturen der Ohren und der Lippe und viele andere Merkmale. Der Vorteil der zwei-dimensionalen Erkennung gegenüber der drei-dimensionalen Erkennung besteht darin, dass die Erforschung dieser Methoden inzwischen sehr weit fortgeschritten ist und riesige Datenmengen an Bildern von Personen online verfügbar sind, insbesondere in sozialen Netzwerken.

drei-dimensionale Gesichtserkennung

Die drei-dimensionale Gesichtserkennung basiert auf optischen Messverfahren, die Bildsequenzen zur Erkennung von Oberflächen in drei Dimensionen verwenden. Theoretisch lassen sich so genauere Bilder von Gesichtern erzeugen. In der Praxis (insb. bezüglich der Überwachung) sind diese Methoden der zwei-dimensionalen Gesichtserkennung jedoch nicht unbedingt überlegen, da komplexere Messgeräte erforderlich sind und die konkreten Methoden nicht gleich weit fortgeschritten sind.

2. Umwandlung von Gesichtern in Daten

Nachdem ein Gesicht mit zwei- oder drei-dimensionalen Techniken analysiert wurde, werden die gewonnenen Informationen in Daten umgewandelt und ein einzigartiger digitaler „Gesichtsabdruck“ erstellt. Gespeichert werden dabei also lediglich numerische Messdaten, kein buchstäbliches „digitales Gesicht“.

3. Gesichtserkennung

Diese Gesichtsdaten können dann in großen Datenbanken gespeichert werden und neue Bilder, die z. B. in soziale Netzwerke hochgeladen werden, können durch Gesichtserkennung automatisch den Personen in diesen Datenbanken zugeordnet werden. Der Abgleich erfolgt in der Regel mit maschinellen Lernalgorithmen oder Künstlicher Intelligenz. [2]

Wo wird Gesichtserkennung verwendet

face recognition

Bevor wir auf kritische Großprojekte zum Thema Gesichtserkennung und Datenschutz näher eingehen, möchten wir darauf hinweisen, dass Gesichtserkennung längst Einzug in unseren Alltag gehalten hat. Und nicht immer steht Überwachung hierbei im Vordergrund. Gleichwohl können solche Datenbanken eben dafür ge- oder missbraucht werden.

Apple bietet die Möglichkeit, das iPhone per Gesichtserkennung zu entsperren, sich bei Apps anzumelden und Einkäufe zu tätigen.

Die Filter von Snapchat (und anderen Unternehmen) basieren auf der Gesichtserkennung. Andernfalls wäre die Software nicht in der Lage, Gesichter zu erkennen und die Filter darauf anzuwenden.

Meta (z.B. Facebook & Instagram) verfügt über sehr große Datenbanken zur automatischen Markierung von Personen auf hochgeladenen Bildern.

Google verwendet die Gesichtserkennung in Google Photos, um die Bilder in Ihrer Galerie automatisch zu sortieren.

Dies sind nur ausgewählte Beispiele, um zu zeigen, wie weit verbreitet die Gesichtserkennung bereits ist. Diese scheinbar hilfreichen und manchmal amüsanten Werkzeuge führen gleichzeitig dazu, dass globale Unternehmen oder staatliche Einrichtungen riesige Mengen an Daten von uns allen sammeln.

Warum ist Gesichtserkennung ein Problem für die Privatsphäre

In diesem Abschnitt möchten wir aufzeigen, warum die Gesichtserkennung ein wirklich wichtiges Thema für die Privatsphäre ist.

Der Fall des chinesischen Sozialkreditsystems

Chinas umstrittenes Sozialkreditsystem ist eine nationale Initiative eines Erfassungssystems mit dem Unternehmen, Einzelpersonen und öffentliche Einrichtungen verfolgt und auf ihre „Vertrauenswürdigkeit“ (oder auch „Staatstreue“) hin überprüft werden können. Mittels digitaler Überwachungsmaßnahmen wird das Verhalten der Bevölkerung systematisch kontrolliert und bewertet, um gesellschaftlich „erwünschtes“ Verhalten hervorzurufen. Das System funktioniert nur, wenn der gesamte öffentliche Raum durch Überwachungskameras und Gesichtserkennung digital überwacht wird.

In der Folge wird unerwünschtes Verhalten sanktioniert, z. B. durch die Nichtgewährung von Krediten, das Entziehen der Möglichkeit Bahn- oder Flugtickets zu kaufen und/oder die öffentliche Stigmatisierung der Person. Das System wird derzeit noch in verschiedenen Formen in einzelnen Regionen erprobt und zielt in letztendlicher Folge auf die vollständige Kontrolle von Personen im öffentlichen (und privaten) Raum ab. [3]

Der Fall des Berlin Südkreuz

Von 2017 bis 2019 lief am Berliner Südkreuz (drittgrößter Bahnhof Berlins) ein Pilotprojekt, um den Einsatz von Gesichtserkennung zu testen. In zwei Testphasen wurde der Erfolg des Einsatzes von Gesichtserkennung für polizeiliche Ermittlungen geprüft. Neben der Identifizierung von mutmaßlich gesuchten Straftäter:innen wurde auch unbeaufsichtigtes Gepäck und auffällige Verhaltensmuster analysiert.

Obwohl Datenschützer:innen und Bürgerrechtler:innen zu Recht auf die schlechte und unpraktische Erkennungsrate der Software hinwiesen sowie die offensichtlichen Implikationen der Privatsphäre, werteten die Deutsche Bahn und der damalige Bundesinnenminister den Test als Erfolg. Folglich wurde beschlossen, mehrere hundert Millionen Euro in den Ausbau dieser Methoden an öffentlichen Orten, insbesondere Bahnhöfen, zu investieren. Rechtliche Bedenken, insbesondere der offensichtliche Verstoß gegen die europäische Datenschutzgrundverordnung (DSGVO), wurden dabei nicht ausreichend beachtet. [4]

Die Fälle Clearview AI & PimEyes

Das Unternehmen Clearview AI besitzt wahrscheinlich eine der größten privaten Bilddatenbanken weltweit. Clearview AI funktioniert wie eine Suchmaschine für Fotos. Wie die New York Times enthüllte, hat das Unternehmen mehr als 3 Milliarden Bilder von Facebook, YouTube und Millionen anderer Websites gesammelt. Auf der Grundlage dieses wachsenden Datensatzes versucht Clearview AI nahezu alle Menschen auf der Welt innerhalb von Sekunden identifizierbar zu machen. [1, 5]

Ein solcher Datensatz stellt eine ernsthafte gesellschaftliche Bedrohung dar, da er – im Gegensatz zu potenziell nützlichen Anwendungen – unweigerlich zu staatlicher und/oder kommerzieller Massenüberwachung führt. Neben vielen offensichtlichen Bedrohungen für die Demokratie und die Privatsphäre verändert Massenüberwachung nachweislich die Art und Weise, wie wir denken und uns verhalten, den sogenannten „chilling-Effekt“ (zu deutsch: Abschreckungseffekt). Weitere Informationen dazu befinden sich in unserem Blog. [6]

Die konkreten Gefahren für die eigene Privatsphäre wird im Fall des europäischen Unternehmens PimEyes vielleicht etwas deutlicher. Ähnlich wie Clearview AI besitzt PimEyes nach eigenen Angaben einen Datensatz von über 900 Millionen Gesichtern. Diesen nutzt das Unternehmen um ebenfalls eine „Suchmaschine für Gesichter“ anzubieten, bei der jedes einzelne Bild mit einer Gesichtserkennungs-KI kategorisiert wird. [7]

Im Gegensatz zu Clearview AI, welches seinen Dienst in erster Linie Regierungsbehörden anbietet und damit potenziell „nur“ die staatliche Überwachung verstärkt, ist PimEyes für praktisch jede Person weltweit zugänglich, was noch tiefgreifendere Auswirkungen auf die Privatsphäre sowie das Potenzial für Diskriminierung auf dem Arbeitsmarkt, im sozialen Leben und sogar bei Polizeikontrollen hat. [7]

Wie wir unsere Privatsphäre schützen können

Individuelle Maßnahmen

Es gibt bestimmte grundlegende Maßnahmen, die jede Person eigenverantwortlich anwenden kann, insbesondere bei der Nutzung sozialer Medien. Das Thema ist jedoch natürlich viel größer und kann nicht alleine im Rahmen individueller Entscheidungen und Verhaltensweisen behandelt werden.

Kurz gesagt:

  • Zum einen sollte sich gut überlegen werden, was man online stellt oder privat mit anderen teilt. Das ist natürlich als grundsätzliche Regel eine generell gute Idee, aber ganz besonders im Fall von Bildern, die das eigene Gesicht (und andere Personen) zeigt.
  • Zweitens: Automatische Kategorisierung und Gesichtserkennung von Bildern sollte so weit wie möglich eingeschränkt werden, z. B. über die Einstellungen der privaten Cloud-Speicherlösung oder in den Bildergalerien des Smartphones.
  • Und schließlich lohnt es sich für strengere Gesetze bezühlich Gesichtserkennungsalgorithmen einsetzen. Der Einsatz von künstlicher Intelligenz in diesem Kontext kann ein invasiver Eingriff in die Privatsphäre sein, der von breiten Diskussionen in Wissenschaft, Gesellschaft und natürlich der Politik begleitet werden muss.

Die Implementierung und Nutzung von Gesichtserkennungsalgorithmen ist eine allgegenwärtige Entwicklung und während allgemeine Aussagen wie „Denk nach, bevor du etwas hochlädst“ nach wie vor relevant sind, spielen sie natürlich auch in den zuvor diskutierten „Chilling-Effekt“ (bzw. Abschreckungseffekt) hinein. Die Verwendung von Bildmaterial des eigenen Gesichts in der öffentlichen Online-Welt (z. B. in den sozialen Medien) kann ein Ausdruck von Freiheit und Selbstbestimmung sein, welcher jeder einzelnen Person selbst überlassen werden muss. Es darf nicht das Ziel sein, anderen vorzuschreiben, was sie mit Bildern von sich selbst zu tun oder zu lassen haben.

Wann immer jedoch Bilder geteilt oder veröffentlicht werden auf denen (auch) andere Personen zu sehen sind (dies gilt auch für das Hochladen in einen persönlichen Cloud-Speicher, der wie Google Drive mit Bild-Tags arbeitet), sollte die betroffenen Personen um Erlaubnis gebeten und natürlich dann auch entsprechend gehandelt werden.

Die schlussendliche Wahrheit ist jedoch, dass die Begrenzung von ausbeuterischen Gesichtserkennungsmaßnahmen ein Thema der Politik und der öffentlichen Debatte ist. Solche Fragen werden sicherlich in den kommenden Jahren vermehrt zentraler Bestandteil einer jeden Diskussion rund um die Privatsphäre.

ViOffice „Kaŝi“ & der Fawkes Algorithmus

Ein von Wissenschaftler:innen des SAND-Lab an der Universität Chicago entwickelter Algorithmus namens „Fawkes“ soll einen individuellen Schutz gegen Gesichtserkennungs-KI bieten, indem er kleine Änderungen an Fotos vornimmt. Diese Veränderungen, welche für das menschliche Auge kaum wahrnehmbar sind, sollen hierbei in der Lage sein die Modelle einer entsprechenden Gesichtserkennungs-KI über eine Person zu „vergiften“. [8, 9]

Das bedeutet, dass eine solche KI anhand von mit Fawkes manipulierter Bilder eine falsche Version von der Person auf dem Bild erlernt, wodurch das resultierende Modell viel weniger effektiv ist. Das wiederum führt dazu, dass ein „vergiftetes“ Modell auch nicht-manipulierte Bilder der Person (z. B. über IP-verbundene Überwachungskameras) mit sehr viel geringerer Wahrscheinlichkeit wiedererkennt. Allerdings sollten die Limitationen solcher Maßnahmen bedacht werden, bevor damit manipulierte Fotos veröffentlicht werden. [8, 9]

Während die Chicagoer Wissenschaftler:innen eine relativ einfache Lösung zur Nutzung von Fawkes auf lokalen Computern anbieten, gibt es Fälle, in denen kein geeigneter Computer in der Nähe ist, insbesondere im Zeitalter von Smartphones. Für solche Szenarien haben wir die einfach zu bedienende Webanwendung „Kaŝi“ entwickelt. Unter Verwendung des bereits erwähnten Fawkes-Algorithmus ermöglicht Kaŝi eine einfache „Tarnung“ von Bildern für unterwegs. Wir haben uns entschlossen, Kaŝi als kostenloses und öffentliches Angebot auf unserer eigenen Infrastruktur anzubieten. Da Kaŝi jedoch genau wie Fawkes selbst Freie und Open-Source-Software (FOSS) ist, kann die Webanwendung einfach auf eigenen Server betrieben werden.

Quellen

  1. Harwell, Drew (2022): Facial recognition firm Clearview AI tells investors it’s seeking massive expansion beyong law enforcement, in: The Washington Post. Online at: https://www.washingtonpost.com/technology/2022/02/16/clearview-expansion-facial-recognition/ [16.02.2022]
  2. Kaspersky: Die Gesichtserkennung – Definition und Erläuterung. Online at: https://www.kaspersky.de/resource-center/definitions/what-is-facial-recognition
  3. Campbell, Charlie (2019): How China is Using „Social Credit Scores“ to Reward and Punish its Citizens, in: Time. Online at: https://time.com/collection/davos-2019/5502592/china-social-credit-score/
  4. Krempl, Stefan (2019): Bahn – Mehr Überwachung mit Gesichtserkennung an Bahnhöfen, in: heise online. Online at: https://www.heise.de/newsticker/meldung/Bahn-Mehr-Ueberwachung-mit-Gesichtserkennung-an-Bahnhoefen-4522296.html [12.09.2019].
  5. Hill, Kashmir (2020): The Secretive Company That Might End Privacy as We Know It, in The New York Times. Online at: https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html [18.01.2020].
  6. Richards, N. (2013): THE DANGERS OF SURVEILLANCE. Harvard Law Review, 126(7), 1934-1965.
  7. Laufer, Daniel & Meineck, Sebastian (2020): A Polish company is abolishing our anonymity. Online at: https://netzpolitik.org/2020/pimeyes-face-search-company-is-abolishing-our-anonymity/ [10.07.2020]
  8. Shan, S., Wegner, E., Zhang, J., Li, H., Zheng, H., Zhao, B. (2020): Image „Cloaking“ for Personal Privacy. URL: https://sandlab.cs.uchicago.edu/fawkes/
  9. Shan, S., Wegner, E., Zhang, J., Li, H., Zheng, H., Zhao, B. (2020): Fawkes – Protecting Privacy against Unauthorized Deep Learning Models. In Proceedings of USENIX Security Symposium 2020. URL: http://people.cs.uchicago.edu/%7Eravenben/publications/abstracts/fawkes-usenix20.html
Website | + posts

Pascal gründete gemeinsam mit Jan im Herbst 2020 ViOffice. Dabei kümmert er sich vor allem um das Marketing, die Finanzen und Sales. Nach seinen Abschlüssen in der Politikwissenschaft, der Volkswirtschaftslehre und der angewandten Statistik ist er weiterhin in der wissenschaftlichen Forschung tätig. Mit ViOffice möchte er für alle den Zugang zu sicherer Software aus Europa ermöglichen und insbesondere gemeinnützige Vereine bei der Digitalisierung unterstützen.

Website | + posts

Jan ist Mitgründer von ViOffice. Er kümmert sich insbesondere um die technische Umsetzung und Wartung der Software. Seine Interessen liegen insbesondere in den Themengebieten Sicherheit, Datenschutz und Verschlüsselung.

Neben seinem Studium der Volkswirtschaftslehre, später der angewandten Statistik und seiner daran anknüpfenden Promotion, hat er jahrelange Erfahrung im Bereich Softwareentwicklung, Opensource und Serveradministration.