Nachdem Apples angekündigtes System zum Aufspüren kinderpornografischer Fotos Überwachungsängste geweckt hat, bessert der iPhone-Konzern nach. So gab Apple bekannt, dass in eine Datenbank zum Abgleich mit bereits bekannten Missbrauchsbildern nur Inhalte kommen sollen, die von mindestens zwei Kinderschutzorganisationen aus verschiedenen Ländern eingebracht wurden.
Kritiker der Apple-Pläne hatten unter anderem davor gewarnt, ein autoritärer Staat könne versuchen, in die Datenbank auch Bilder mit politischen Motiven einzuschleusen, um zu erfahren, wer sie auf den Handys hat.
Zunächst auf US-Nutzer beschränkt
Die Funktion zur Suche nach kinderpornografischem Material ist zunächst nur auf US-Nutzer beschränkt, die Apples Online-Speicherdienst iCloud verwenden. Dabei geht es nicht darum, den Inhalt aller vorhandenen Bilder zu analysieren. Stattdessen soll auf die Geräte eine Datei mit sogenannten "Hashes" von bereits bekannten kinderpornografischen Inhalten geladen werden – eine Art digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit speziellen Verfahren eine Kopie des Fotos erkennen.
Bei einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, dank dem Apple sie nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Das System schlägt erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt.
Schwelle bei 30 Bildern
Apple hatte bei der ersten Ankündigung vergangene Woche keine Angaben dazu gemacht, bei wie vielen Übereinstimmungen das System anschlägt. Am Freitag gab der Konzern bekannt, dass die Schwelle bei rund 30 Bildern liegen soll.
Nach der ersten Kritik hatte Apple zudem versichert, dass man jegliche Versuche von Regierungen zurückweisen werde, das Verfahren für die Suche nach anderen Inhalten zu missbrauchen. Zugleich hatten unter anderem einige Kryptografie-Experten und IT-Sicherheitsforscher kritisiert, allein schon die Schaffung eines solchen Systems öffne autoritären Regierungen die Möglichkeit, von Apple die Aufnahme anderer Inhalte in die Datenbank mit den Hashes zu fordern und damit politische Überwachung zu betreiben.
Quelle: heise
Kritiker der Apple-Pläne hatten unter anderem davor gewarnt, ein autoritärer Staat könne versuchen, in die Datenbank auch Bilder mit politischen Motiven einzuschleusen, um zu erfahren, wer sie auf den Handys hat.
Zunächst auf US-Nutzer beschränkt
Die Funktion zur Suche nach kinderpornografischem Material ist zunächst nur auf US-Nutzer beschränkt, die Apples Online-Speicherdienst iCloud verwenden. Dabei geht es nicht darum, den Inhalt aller vorhandenen Bilder zu analysieren. Stattdessen soll auf die Geräte eine Datei mit sogenannten "Hashes" von bereits bekannten kinderpornografischen Inhalten geladen werden – eine Art digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit speziellen Verfahren eine Kopie des Fotos erkennen.
Bei einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, dank dem Apple sie nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Das System schlägt erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt.
Schwelle bei 30 Bildern
Apple hatte bei der ersten Ankündigung vergangene Woche keine Angaben dazu gemacht, bei wie vielen Übereinstimmungen das System anschlägt. Am Freitag gab der Konzern bekannt, dass die Schwelle bei rund 30 Bildern liegen soll.
Nach der ersten Kritik hatte Apple zudem versichert, dass man jegliche Versuche von Regierungen zurückweisen werde, das Verfahren für die Suche nach anderen Inhalten zu missbrauchen. Zugleich hatten unter anderem einige Kryptografie-Experten und IT-Sicherheitsforscher kritisiert, allein schon die Schaffung eines solchen Systems öffne autoritären Regierungen die Möglichkeit, von Apple die Aufnahme anderer Inhalte in die Datenbank mit den Hashes zu fordern und damit politische Überwachung zu betreiben.
Quelle: heise