Update: Dies wurde nun offiziell angekündigt: Insbesondere wird Ihr Telefon nur Fotos scannen, die in iCloud hochgeladen wurden, in Übereinstimmung mit den Richtlinien aller großen sozialen Netzwerke und Webdienste.

(Berichten zufolge wird Apple neue Foto-Identifizierungsfunktionen ankündigen, die Hash-Algorithmen verwenden, um den Inhalt von Fotos in den Fotomediatheken der Nutzer mit bekanntem Kindesmissbrauchsmaterial, wie z. B. Kinderpornografie, abzugleichen. Apples System wird im Namen des Datenschutzes auf dem Client - dem Gerät des Nutzers - stattfinden. Das iPhone würde also eine Reihe von Fingerabdrücken herunterladen, die illegale Inhalte repräsentieren, und dann jedes Foto in der Kamerarolle des Nutzers mit dieser Liste abgleichen.

Bericht: Apple kündigt client-seitiges Foto-Hashing-System an, um Bilder von Kindesmissbrauch in den Fotobibliotheken der Nutzer zu erkennen

Vermutlich würden dann alle Übereinstimmungen zur Überprüfung durch einen Menschen gemeldet werden. Apple hat bereits erklärt, dass es beim Hochladen von Um Bilder von Kindesmissbrauch in den Fotobibliotheken der Nutzer zu erkennen in die iCloud Hashing-Verfahren einsetzt.

Dieses neue System würde auf der Client-Seite, also auf dem Gerät des Nutzers, durchgeführt werden. Apple muss diese neue Initiative noch offiziell ankündigen, und es wird auf die Details ankommen.

Im Großen und Ganzen ähnelt diese Art von System den maschinellen Lernfunktionen zur Objekt- und Szenenerkennung, die bereits in Apple Fotos vorhanden sind. Die Analyse erfolgt direkt auf dem Gerät, und die Nutzer können die Vorteile einer besseren Suchfunktion nutzen. Der Kryptographie- und Sicherheitsexperte Matthew Green weist jedoch darauf hin, dass die Auswirkungen einer solchen Einführung kompliziert sind.

Hash-Algorithmen sind nicht narrensicher und können falsch-positive Ergebnisse liefern. Wenn Apple den Regierungen die Kontrolle über die Datenbank mit den Fingerabdrücken überlässt, könnten sie das System vielleicht dazu nutzen, Bilder mit anderen als eindeutig illegalen Inhalten für Kinder zu erkennen, etwa um politischen Aktivismus zu unterdrücken. Es ist jedoch zu beachten, dass alle Fotos, die zur Sicherung und Synchronisierung in iCloud Fotos hochgeladen werden, ohnehin nicht end-to-encrypted gespeichert werden.

Die Fotos werden in verschlüsselter Form auf den Serverfarmen von Apple gespeichert, aber die Schlüssel zum Entschlüsseln befinden sich ebenfalls im Besitz von Apple.

Das bedeutet, dass Strafverfolgungsbehörden Apple vorladen und alle hochgeladenen Fotos eines Nutzers sehen können. (Dies ist nicht ungewöhnlich, alle Fotodienste von Drittanbietern arbeiten auf diese Weise.) Es ist möglich, dass Apple in Zukunft ähnliche Systeme einführt, um Inhalte auf der Client-Seite zu scannen, die später auf einem Server in einer Ende-zu-Ende-verschlüsselten Weise gespeichert würden.

Viele Regierungen haben sich für ein solches System bei privaten E2E-Messaging-Apps wie iMessage und WhatsApp eingesetzt, da sie befürchten, dass die zunehmende Verlagerung auf verschlüsselte Kommunikation es den Strafverfolgungsbehörden erschweren wird, Fälle von Kindesmissbrauch zu finden und zu verfolgen.

Green spekuliert, dass Apple nicht in die Entwicklung dieses Systems investiert hätte, wenn die Anwendung auf Ende-zu-Ende-verschlüsselte Inhalte nicht ein langfristiges Ziel wäre.


29 27 21