Software zur Gesichtserkennung ist längst kein Geheimnis mehr. Dieser Aspekt der künstlichen Intelligenz (KI) ist sogar schon viel weiter verbreitet, als wir gemeinhin glauben. Doch neue Technologien verheißen nicht nur Fortschritt für die Gesellschaft, sondern bergen immer auch Gefahren. Die Anwendungsmöglichkeiten sind vielfältig – eine gesunde Skepsis ist laut ARAG Experten aber ratsam.
Die praktische Seite der Gesichtserkennung
Viele Smartphones lassen sich mit einer Gesichtserkennungssoftware entsperren. Ist die Funktion aktiviert, muss der Besitzer einfach in sein Handy schauen, das ihn oder sie sofort erkennt und das Gerät entsperrt. Dass die auf dem Smartphone gespeicherten Gesichtsdaten missbraucht werden, ist unwahrscheinlich. Die Daten beschreiben das Gesicht nur rudimentär und reichen zu einer Rekonstruktion nicht aus. Anders sieht es aus, wenn die Daten nicht auf dem eigenen Gerät, sondern im Netz gespeichert werden.
Diskussionen um FaceApp
Mit der zurzeit äußerst angesagten mobilen Anwendung FaceApp können sich Nutzer mit veränderten Haarfarben, als Senior oder mit und ohne Bart betrachten. Was lustig klingt und einen Riesenspaß verspricht, ruft Datenschützer auf den Plan. Um die App zu nutzen, muss man seine Gesichtsdaten erst einmal in der App hochladen. Was mit den Daten geschieht und welche Rechte die Nutzer an die App-Betreiber abgeben, steht in den Allgemeinen Geschäftsbedingungen (AGB). Die erkennt jeder Nutzer mit der Freischaltung an. Gelesen werden diese AGB aber erfahrungsgemäß kaum. Was Datenschützer besonders stört, ist die Tatsachen, dass die Selfies der Nutzer auf Server hochgeladen werden und dort verbleiben, auch wenn der Nutzer seine Fotos auf dem Smartphone wieder löscht. Inzwischen haben die Betreiber der App auf die Kritik reagiert: Laut eigener Angaben werden die meisten Bilder nach 48 Stunden wieder vom Server gelöscht. Besonders kritisch sehen allerdings ARAG Experten, dass sich FaceApp sogar die kommerzielle Nutzung dieser Fotos herausnimmt. Die App ist damit indes keine Ausnahme; Facebook, Google, Instagram und Twitter gehen ähnlich eigenmächtig mit Fotodaten um.
Gesichtserkennung im öffentlichen Raum
Zumindest in unseren Städten sind mittlerweile nahezu flächendeckend Kameras im Einsatz. Berühmtes Beispiel ist der Berliner Bahnhof Südkreuz. Dort können die Überwachungskameras schon in Sekundenbruchteilen die Gesichter der Passanten erkennen. Und mit der Gesichtserkennung ist auch der Name bekannt. Und damit letztlich auch jeder Ort, an dem man sich zuvor aufgehalten hat. In der kürzlich angelaufenen zweiten Test-Phase sollen die Systeme sogar Alarm schlagen, wenn sich Personen auffällig oder verdächtig verhalten. Möglich macht das Künstliche Intelligenz. Sie wird rasant schlauer und verknüpft vielmehr Informationen immer zuverlässiger. Wie viel Überwachung im öffentlichen Raum wünschenswert und zulässig ist, muss aber noch geklärt werden. Die Technik ist hier weiter als der Gesetzgeber.
Hooligans müsser draußen bleiben
Gewaltbereite Fußballfans, die in der Vergangenheit in Stadien randaliert oder verbotenes Feuerwerk hineingeschmuggelt haben, bekommen Stadionverbot, sofern sie identifiziert werden können. Das Verbot dann auch durchzusetzen, ist allerdings schwieriger, als es auszusprechen. Das könnte nun ein Programm des Karlsruher Instituts für Technologie (KIT) ändern. Das Programm kann Bilder und Videoaufnahmen einer frontal angebrachten Kamera in Echtzeit danach auswerten, ob eine bekannte Person den abgebildeten Bereich passiert. Am Stadioneingang angebracht, können mit einem Stadionverbot belegte Besucher sofort erkannt und am Betreten des Stadions gehindert werden. Als das neue System bei einem Heimspiel des Karlsruher SC (KSC) getestet werden sollte, stoppte der Verein den Praxistest, weil es zu erheblichen Protesten der Fußball-Fans gekommen war. Ob eine solche Gesichtserkennung mit Datenabgleich in Echtzeit überhaupt rechtens ist, bezweifeln Datenschützer und Juristen. Die derzeit für Überwachungskameras geltenden Bestimmungen sind aus Sicht der ARAG Experten jedenfalls für den Einsatz künstlicher Intelligenz nicht mehr ausreichend.
(ARAG)