Tichys Einblick
Multiple Use

Apple: Spione im iPhone

Apples Vorstoß ist eher als Test zu sehen, diese Überwachungstechnologie überhaupt einzusetzen, die Funktion in großem Maßstab zu testen und ebenso zu beobachten, wie hoch die Proteste ausfallen.

imago images / imagebroker

Der nächste Tabubruch amerikanischer Hightech-Giganten: Apple plant offenbar, alle Fotos privater Nutzer zu durchstöbern. Bilder, die Nutzer mit ihren iPhones beispielsweise aufnehmen und automatisch in ihre iCloud laden, sollen Programme durchsuchen.

Offiziell heißt es, die Durchforstung soll den Kampf gegen Kinderpornografie unterstützen. Alle Fotos, die private Nutzer in ihre iCloud laden, sollen mit bekanntem kinderpornografischen Bildmaterial abgeglichen werden. »Verdächtige« Bilder kann Apple öffnen, ansehen und prüfen. Werden tatsächlich Bilder gefunden, sollen sie an die amerikanische NGO NCMEC (National Center for Missing & Exploited Children) gemeldet werden. Die kann wiederum Behörden einschalten.

Auf jedes Apple Gerät wird mit dem Betriebssystem eine Datei mit sogenannten Hashwerten geladen, kleine Zeichenfolgen, die ein Bild repräsentieren, digitale Fingerabdrücke gewissermaßen, die mit den Hashwerten der in der iCloud gespeicherten Bilder verglichen wird.

Schlägt dieser Abgleich tatsächlich bei Benutzern von Apple Geräten Alarm, soll einmal das Benutzerkonto gesperrt und zum anderen die NGO benachrichtigt werden. Vorerst sollen nur Fotos von Apple Kunden in Amerika gemeldet werden. Der Hashliste jedoch soll die Datei mit den Hashwerten fest in das Betriebssystem eingebaut werden. Vor einer internationalen Ausweitung der Meldefunktion sollen noch rechtliche Fragen geklärt werden.

Eine KI ist zwar intelligent, aber nicht klug
Künstliche Intelligenzen sind zu dumm für menschliche Moralvorstellungen
Nun wird der Kampf gegen dieses schlimme Übel Kinderpornografie immer wieder angeführt, wenn es um Einschränkung und Aufhebung von Freiheitsrechten geht. Zudem erzeugt die Hashfunktion nicht immer eindeutige Werte. Sie kann auch nicht zwischen kinderpornografischen Inhalten und Familienfotos unterscheiden, auf denen der Nachwuchs nackt im Planschbecken abgelichtet wird.

Apples Vorstoß ist eher als Test zu sehen, diese Überwachungstechnologie überhaupt einzusetzen, die Funktion in großem Maßstab zu testen und ebenso zu beobachten, wie hoch die Proteste ausfallen. Denn es handelt sich um einen Abgleich von Daten, bei dem es gleichgültig ist, um welche Daten es sich handelt. Auch kritische Äußerungen lassen sich mit Hilfe der Hashfunktion markieren und abgleichen.

Wenn die Funktionen erst einmal implementiert und akzeptiert sind, ist es ein Leichtes, sie auf andere Bereiche auszuweiten. Man möchte sich nicht den autoritären Diktator Weissrusslands, Lukaschenko, am Regler dieser Technologie vorstellen. Einigermaßen merkwürdig mutet der vorgebliche Glaube von Apple an, mit dieser Technologie Kinderpornografie tatsächlich eindämmen zu können. Sie wird weiter stattfinden, nur eben nicht mehr in der iCloud und mit Hilfe von iPhones, sondern woanders.

Anzeige