Aber die Gesamtsumme beträgt in jedem Fall 1,2 Milliarden Dollar, die, wie das Urteil feststellt, gemäß der ‘Betrugsdoktrin’ verringert werden muss — was den Klägern ermöglicht, eine Entschädigung zu erhalten — egal was.
Apple kann sich jetzt nicht mehr aus dem Schlamassel ziehen: Es wird wegen der Art und Weise, wie es mit kinderpornografischem Material (CSAM) auf seiner iCloud-Plattform umgeht, auf 1,2 Milliarden Dollar verklagt.
Behauptungen Apple hat sein versprochenes Erkennungssystem aufgegeben und die Opfer gezwungen, ihr Trauma erneut zu durchleben, so die Klage, die beim US-Bezirksgericht in Nordkalifornien eingereicht wurde. Diese hochkarätige Klage könnte dazu beitragen, wie Privatsphäre und Verantwortung gewichtet werden, wenn eine Tech-Plattform beteiligt ist.
Die gleiche 27-jährige Frau, die die Klage anführt, trat mit einem Pseudonym auf, um ihre Identität zu schützen. Apples angebliches CSAM-Erkennungssystem, NeuralHash, wurde 2021 angekündigt, aber kurz darauf aufgrund von Datenschutzbedenken von Cybersicherheitsexperten auf Eis gelegt; sie sagt, Apple habe versprochen, es umzusetzen, aber es nicht getan.
Die Anschuldigung: CSAM verbreitete sich dank Apple auf iCloud und setzte die Opfer weiterhin mit anhaltendem Trauma zu.
Geforderte Entschädigung: Sie versuchen, mehr als 2.680 potenzielle Opfer für Schäden zu entschädigen, die voraussichtlich 1,2 Milliarden Dollar übersteigen.
Ein Verwandter teilte auch Bilder, die ihren Missbrauch in ihrer Kindheit zeigen, auf iCloud-Konten, die die Opfer sagten, entdeckt worden seien. Es ist eine ständige Erinnerung an ihr Leid: Benachrichtigungen von der Strafverfolgung über Personen, die wegen des Besitzes der Bilder angeklagt wurden.
Fortsetzung der Debatte: Apples Antwort
Laut Apple hat es seine Position zum Schutz der Privatsphäre der Nutzer verteidigt. Fred Sainz, ein Sprecher von Apple, erklärte:
“Illegale Aktivitäten, die Kinderpornografie betreffen, sind abscheulich und wir arbeiten daran, solche Verbrechen zu verhindern, ohne dabei die Sicherheit und Privatsphäre der Nutzer zu gefährden.”
Dort hob das Unternehmen seine Werkzeuge in der Nachrichten-App hervor, um Kinder vor unangemessenem Inhalt zu warnen und schädliches Material zu melden. Aber Kritiker haben gesagt, dass solche Maßnahmen im Vergleich zu der Arbeit, die Technologiegiganten wie Google und Facebook leisten, schwach sind, da sie Millionen von CSAM-Fällen pro Jahr melden.

Wichtige angesprochene Themen
- Der Konflikt zwischen dem Ausgleich von Privatsphäre und Kindersicherheit
Das Problem ist, dass Apple den Datenschutz über die CSAM-Erkennung gestellt hat. Kritiker argumentieren, dass:
Allerdings hat Apple unbeabsichtigt zugelassen, dass iCloud zu einem Nischenraum für illegale Inhalte wird. Das Potenzial, NeuralHash zu nutzen, um CSAM daran zu hindern, viral zu gehen, war einfach ein Wendepunkt.
- Einschränkungen von Abschnitt 230
Ein Höhepunkt der Klage folgt auf kürzliche Urteile, die den Umfang von Abschnitt 230 des Communications Decency Act eingeengt haben. Solche Urteile deuten darauf hin, dass die Tech-Unternehmen möglicherweise keine Immunität haben, wenn sie Inhalte nicht angemessen behandeln.
- Branchenpraktiken
Kritiker sagen, dass Apple sich nicht an andere Unternehmen gewandt hat, die PhotoDNA verwenden, um CSAM zu erkennen. Google und Facebook haben beide eine Million CSAM-Fälle pro Jahr gemeldet, während Apple im gleichen Zeitraum nur 267 gemeldet hat.
Implikationen für Apple und die Tech-Industrie.
Diese Klage unterstreicht eine wachsende Spannung in der Tech-Industrie:
Verantwortlichkeit vs. Privatsphäre: Technologieunternehmen stehen im Zentrum eines wachsenden Konflikts zwischen Datenschutzbefürwortern und Kinderschutzgruppen.
Finanzielle Auswirkungen: Wenn Apple diese 1,2 Milliarden Dollar zahlt, wird es darüber nachdenken müssen, seine Richtlinien zu ändern und stärkere Schutzmaßnahmen zu ergreifen.
Präzedenzfall: Wenn und wann Apple seinen Fall verliert, könnte dies einen Präzedenzfall dafür schaffen, wie Technologieunternehmen in Zukunft mit Benutzerinhalten und Datenschutzfragen umgehen werden.
Perspektive der Opfer
Laut der Klägerin ist es herzzerreißend, dass Apple nicht gehandelt hat und es mehr um den Gewinn der Aktionäre als um das Wohl der Menschen ging. Es war eine schwierige Entscheidung, der Klage beizutreten, da dies nur die Verbreitung ihrer Bilder verschärfen würde. Aber sie hofft, dass der Fall auch Apple unter Druck setzen wird, starke Maßnahmen gegen CSAM zu ergreifen und zukünftige Opfer zu retten.
Leave a Reply