Bisher war der gläserne Mensch nicht vollkommen nackt. Er hatte immerhin ein Cookie-Banner als Feigenblatt. Wenn er wollte, konnte er sich im Internet hinter einem Trackingschutz verstecken. Und niemand hat ihn gezwungen, die sozialen Medien zu nutzen oder in einem Smart Home zu wohnen.
Aber es gibt eine Technologie, bei der niemand auf „Ablehnen“ klicken kann: Suchmaschinen für Gesichter. Es gibt sie für Regierungen, Polizei und auch für private Nutzer:innen. Sie dringen tiefer in die Privatsphäre ein als alles bisher Dagewesene, entziehen kann sich ihnen keine:r.
Es gibt zwei Gründe, warum Gesichtssuchmaschinen das Ende der Anonymität bedeuten. Der erste liegt in der Natur der Sache: Während sich Passwörter neu vergeben und Instagram-Accounts löschen lassen, bleiben biometrische Merkmale wie die Gesichtszüge ein Leben lang gleich. Wenn sie einmal erfasst sind, kann man sie nicht ändern.
Der zweite Grund ist die Skrupellosigkeit derjenigen, die Gesichtssuchmaschinen entwickeln. An vorderster Front mit dabei ist das US-Unternehmen Clearview AI, das die weltweit größte Gesichtsdatenbank gebaut hat. Die Fotos dafür hat es sich einfach genommen, ohne die Urheber um Erlaubnis zu fragen.
In der Europäischen Union ist dieses Vorgehen eindeutig illegal. Gerichtliche Anordnungen und verhängte Millionenstrafen ignoriert Clearview aber einfach. Ganz ohne Konsequenzen, denn Europas Gesetze können gegen das Unternehmen nichts ausrichten. Oder zumindest fast nichts.
Kapitel 1: Ein Geschäftsmodell, das selbst Google zu gruselig ist⬆ nach oben
„Gesichtserkennung ist selbst für Google zu gruselig“, sagte der damalige Google-CEO Eric Schmidt im Jahr 2011. Er fand besorgniserregend, wie überraschend treffsicher die Erkennung sei. „Es ist die einzige Technologie, die Google gebaut und dann entschieden hat, damit aufzuhören“, so Schmidt. „Aber irgendein Unternehmen wird diese Grenze überschreiten.“
Schmidt sollte recht behalten. 2017 gründete der Programmierer Hoan Ton-That ein Unternehmen, das später Clearview AI heißen sollte. Im selben Jahr begann Donald Trumps erste Amtszeit als US-Präsident und Ton-That war großer Fan: Mit einer biometrischen Gesichtssuchmaschine wollte er der amerikanischen Regierung dabei helfen, die Gesichter von Geflüchteten zu erkennen, die in die Vereinigten Staaten einreisen.
Auch die „Haltung gegenüber den USA“ sollte das Programm automatisch überprüfen können. Ton-Thats Vorschlag war, dass man die sozialen Netzwerke der Migrant:innen nach Aussagen wie „Ich hasse Trump“ oder nach „Affinität zu linksextremen Gruppen“ scannen könnte.
Zunächst kannte kaum jemand dieses kleine Startup, das eher im Verborgenen agierte – vermutlich, um in Ruhe wachsen zu können, ohne sich in der Öffentlichkeit für sein Geschäftsmodell rechtfertigen zu müssen. 2019 zeigte die Website lediglich ein einfaches Logo und den Slogan „Künstliche Intelligenz für eine bessere Welt“. Das änderte sich schlagartig im Januar 2020, als die New York Times Clearviews Suchmaschine mit einer Recherche enthüllte.
Daraufhin hagelte es von Datenschutz- und Bürgerrechtsaktivist:innen Kritik. Außerdem musste sich Clearview mehreren Sammelklagen stellen, die stellenweise zu verschärften Regulierungen führten.
Trotzdem hat das Unternehmen von seiner schlagartigen Bekanntheit vermutlich sogar profitiert: Anfang 2020 hatte es noch 600 Kunden, gut ein Jahr später waren es schon 3.100. Verschiedene Strafverfolgungsbehörden, die Immigrationsbehörde ICE und die US-Armee verwenden die Suchmaschine, etwa um Geflüchtete zu identifizieren oder um bei Kindesmissbrauch zu ermitteln. Auch die schwedische und die belgische Polizei arbeiteten mit dem Tool.
Seinen Investoren sagte Clearview AI im Jahr 2022, dass bald „fast jeder auf der Welt identifizierbar sein wird.“ Für Menschen, denen ihre Privatsphäre am Herzen liegt, klingt diese Ankündigung problematisch genug. Für manche Gruppen könnte sie aber lebensgefährlich werden: Regierungen weltweit setzen Gesichtserkennung jetzt schon ein, um Demonstrant:innen, Angehörige der LGBTQ-Community oder ethnische Minderheiten zu verfolgen.
Kapitel 2: How to sell Gesichtsdaten online (fast)⬆ nach oben
Clearview AI gibt an, dass sein Programm einen Menschen mit 99-prozentiger Genauigkeit identifizieren kann. Dafür nutzt es eine künstliche Intelligenz, die Gesichter mit der hauseigenen Bilddatenbank abgleicht. Die enthaltenen Fotos hat das Unternehmen im Web oder den sozialen Medien gesammelt. Der technische Fachbegriff dafür heißt Scraping: Clearview „schürft“ automatisiert und systematisch nach allen Bildern, die Gesichter enthalten.
Das Unternehmen hat die Urheber:innen nie gefragt, ob sie wollen, dass ihre Fotos in der weltgrößten Gesichtsdatenbank landen. Damit verstößt es gegen die europäische Datenschutz-Grundverordnung (DSGVO): Es darf biometrische Daten von EU-Bürger:innen nicht ohne ihr Wissen und Einverständnis nutzen.
2021 haben sich deshalb einige Nichtregierungsorganisationen zusammengetan und Beschwerden bei europäischen Datenschutzbehörden eingelegt. Mehrere Länder verhängten daraufhin Geldstrafen gegen Clearview: In den Niederlanden waren es mehr als 30 Millionen Euro, in Frankreich, Italien und Griechenland jeweils 20 Millionen.
Selbst für ein Unternehmen, das heute über eine Milliarde US-Dollar wert sein soll, sind das empfindliche Summen. Oder besser gesagt: wären. „Der Vorstand denkt sich wohl: Unser Sitz ist in den USA und wir haben in der EU kein Vermögen, das beschlagnahmt werden könnte“, sagt der Jurist Felix Mikolasch von der österreichischen Datenschutz-NGO NOYB. „Das dürfte der Grund sein, dass Clearview die Bußgelder und Anordnungen einfach ignoriert hat.“
Wir haben Clearview AI mehrfach kontaktiert und um Stellungnahme zu den Vorwürfen in diesem Text gebeten. Reagiert hat das Unternehmen nicht. In Bezug auf die französische Geldstrafe schrieb Clearview-Gründer Hoan Ton-That der Nachrichtenagentur AFP aber: „Von einem öffentlichen Foto im Internet ausgehend gibt es keine Möglichkeit herauszufinden, ob jemand die französische Staatsbürgerschaft hat. Deswegen ist es unmöglich, die Daten von Menschen, die in Frankreich wohnen, zu löschen.“
Immerhin dürfen die schwedische und belgische Polizei Clearview AI heute nicht mehr legal nutzen. Aber die Datenschutzbehörden können das Unternehmen nicht davon abhalten, weiterhin die Gesichtsdaten von EU-Bürger:innen zu scrapen. Und sie können auch Regierungen, Behörden und Firmen außerhalb der EU nicht daran hindern, den Dienst zu nutzen. Entsprechende internationale Abkommen, wie es sie beispielsweise zur Bekämpfung von Cyberkriminalität oder Geldwäsche gibt, existieren nicht.
Gegen Clearview AI kann also nicht einmal die DSGVO, das strengste Datenschutzgesetz der Welt, etwas ausrichten. Dasselbe gilt für den EU AI Act, das weltweit erste KI-Gesetz. Also wächst die Datenbank des Unternehmens ungehindert weiter. 2021 waren darin noch drei Milliarden Bilder gespeichert, inzwischen sind es über 70 Milliarden.
Kapitel 3: Der Geist ist aus der Flasche und die EU machtlos⬆ nach oben
Nachdem Clearviews Suchmaschine bekannt wurde, dauerte es nicht lange, bis andere Unternehmen sie nachahmten. Eines davon heißt „Pim Eyes“ und stammt aus Polen. Im Gegensatz zu Clearview verkauft es seinen Dienst nicht an Regierungen, sondern an die breite Öffentlichkeit.
Ein Abonnement bei Pim Eyes kostet gerade einmal 30 Euro im Monat. Regelmäßig wirbt die Website mit Angeboten, wie zuletzt zum Valentinstag: Mit dem Code „NOCATFISH“ gab es 25 Prozent Rabatt. Catfishing heißt es, wenn sich Betrüger online als jemand anderes ausgeben, um Geld zu erbeuten, meist auf Datingplattformen. Manche nutzen Pim Eyes tatsächlich, um zu prüfen, ob die eigenen Bilder missbraucht werden. Andere könnten aber auch auf die Idee kommen, damit ihre Ex-Partner:innen, Nachbar:innen oder fremde Menschen im Bus zu stalken.
Genau wie Clearviews Datenbank verstößt auch die von Pim Eyes gegen die DSGVO. Und genau wie sein amerikanischer Cousin zieht sich das Unternehmen aus der Affäre: Es hat seinen Sitz einfach von Polen auf die Seychellen und weiter in die Vereinigten Arabischen Emirate verlegt. Daher sind der EU datenschutzrechtlich die Hände gebunden. Das hängt sie zwar nicht an die große Glocke, gibt es aber zumindest in einer sehr kompliziert formulierten 66-seitigen Studie zu.
Lässt sich also gar nichts ausrichten gegen Clearview und Pim Eyes? Nicht viel zumindest. Jede:r Einzelne kann die Unternehmen auffordern, ihre Daten löschen zu lassen. Ironischerweise muss man dafür seinen Namen und ein Foto hochladen. Es ist aber fragwürdig, ob man dann dauerhaft aus der Datenbank gelöscht wird – oder nach dem nächsten Scraping wieder darin landet.
Trotzdem geben Datenschützer:innen den Kampf gegen die Gesichtserkennung nicht auf. Im Oktober 2025 hat die Datenschutzorganisation NOYB gegen Clearview AI Anzeige erstattet. „Wir wollen ins Strafrecht schauen, denn auch dort gibt es Bestimmungen zum Datenschutz“, erklärt Felix Mikolasch von NOYB den Schritt. Der Vorteil davon sei, dass sich das Strafrecht nicht nur gegen das Unternehmen, sondern auch gegen Menschen richten kann. „Vielleicht ergeht so ein Haftbefehl gegen die Geschäftsführer von Clearview. Dann würden sie wahrscheinlich am Flughafen verhaftet werden, wenn sie in Europa landeten.“
Bei der Gesichtserkennung nimmt gerade dieselbe Dynamik ihren Lauf, die wir schon von anderen Technologien kennen, etwa von der Kernspaltung oder der Gentechnik. Sie alle sind wie der Geist in der Flasche im Märchen: Sind sie erst einmal entdeckt und entwickelt, kann sie niemand mehr zurückholen. Unweigerlich beginnt dann ein knallhartes Ringen zwischen gegensätzlichen Interessen. Unternehmen, Gesetzgeber und Öffentlichkeit müssen aushandeln, wie die neuen Möglichkeiten genutzt werden sollen. Im Fall von KI-Programmen wie der Gesichtserkennung ist dieser Prozess noch in vollem Gange.
Aktuell haben Clearview und Pim Eyes die Oberhand. Sie können einfach in ihrem Sinne entscheiden, was mit unseren Gesichtern passiert. Interessen des Datenschutzes hinken hinterher. Aber das Ringen geht weiter.
Redaktion: Isolde Ruhdorfer, Schlussredaktion: Susan Mücke, Bildredaktion: Gabriel Schäfer; Audioversion: Iris Hochberger.