Apple verschiebt CSAM-Scanning auf unbestimmte Zeit
Viel Gegenwind für Apple. Die Absicht, Bilder auf iOS-Geräten und Macs nach Hinweisen auf Kinderpornographie zu scannen, ist im Netz erwartungsgemäß nicht auf Gegenliebe gestoßen. Ganz im Gegenteil. Die Empörung, auf diese Weise in die Privatsphäre und in das Eigentum von Nutzern einzudringen, war groß.
Auch wenn es nicht so ist, dass direkt auf Nutzer-Fotos geschaut wird, sondern diese mittels Hashes einer Datenbank abgeglichen werden, die bekannte CSAM-Inhalte enthält, sollte dies immerhin auf den Geräten der Nutzer stattfinden. Erst, wenn entsprechende Treffer vorliegen würden, sollten Apple-Mitarbeiter die Fotos in Augenschein nehmen und ggf. zur Anzeige bringen. Wir haben hier berichtet. Die einzige Möglichkeit, dies zu verhindern, ist das Abschalten von iCloud-Fotos.
Ein Sturm der Empörung im Netz war die Folge. Apple sprach von “Missverständnissen“ und stellte seine Kunden damit indirekt als zu blöd dar, die Funktion richtig zu verstehen. Nun ist Apple zurückgerudert. Wie das Unternehmen mitteilt, wird die „Funktion“ in iOS 15 nicht aktiviert, sondern auf unbestimmte Zeit verschoben, so berichtet CNBC.
Amazon Links (*):
Auto Amazon Links: Keine Produkte gefunden.
Mit (*) gekennzeichneten Verweise sind Afilliate-Links/Werbelinks. Kaufst Du über einen solchen Link etwas, erhalten wir für Deinen Kauf eine Provision. Für Dich ändert sich der Preis des Produkts nicht.
Bitte unterstütze uns mit einer Kaffeespende, um unsere Arbeit weiter zu ermöglichen. Vielen Dank.
Geschrieben von Mick
Admin, apfel-affin, schreibsüchtig. Ich sende auf allen Frequenzen. Jeden Tag veröffentlichen mein Team und ich News, Trends und Infos. Wir freuen uns über Deinen Besuch.YAZIO – App-Tipp: Kalorienzähler & Fasten in edel
Corona-Make-up des Tages, now and then (13.05.2020 vs. 04.09.2021)