Ist Apples neue Datenschutz-Funktion sicher?
Apple kündigte heute eine Vielzahl von neuen Funktionen für iOS, einschließlich mehr vorausschauende Software wie QuickType und erweiterten Spotlight-Suche. Um diese Features arbeiten machen, müssen Apples tief lernen Roboter viele Menschen Daten auf einmal zu analysieren also Apple hat, die Integration von ein neues Feature namens differenzierte Privatsphäre angekündigt. Aber ein Kryptographie-Experte ist nicht sicher, dass die experimentelle Technik ist bereit für die Primetime.
"Eines der wichtigsten Instrumente Software intelligenter zu machen, vor Ort Muster auf wie mehrere Benutzer ihre Geräte einsetzen", sagte Apples Craig Fedrighi bei der Keynote WWDC 2016. "Differential Datenschutz ist ein Thema der Forschung im Bereich der Statistik und Analysen, die hashing, Unterabtastung und Lärm Injektion verwendet, um diese Art von Crowdsourcing unter Beibehaltung der Informationen jedes einzelnen Nutzers ganz privat lernen können."
Grundsätzlich wird Apple injizieren gefälschte Daten in das Dataset, die sie von allen ihren Nutzern zu sammeln, um es schwierig machen, einen einzelnen Benutzer zu identifizieren.
Sehen Sie, wie Fedrighi bezieht sich auf differenzierte Privatsphäre als "ein Forschungsgegenstand." Matthew Green, Kryptographie Professor an der John Hopkins, denkt, dass differenzierte Privatsphäre nicht nur relativ ungetestet, aber möglicherweise gefährlich ist. Während der Keynote veröffentlicht Grün eine Reihe von skeptisch Tweets über Apples Verwendung des differenziellen Privatsphäre, diese eingeschlossen:
Natürlich, genau wie sicher Apple-Version von differenziellen Privatsphäre werden hängt davon ab wie Apple tatsächlich umsetzen will. Denn jetzt hat Apple keine Details angeboten. Während Apple zuvor alle Daten auf Ihrem Gerät gehalten, werden die neue iOS-Funktionen jetzt Benutzerdaten in zusammengefasster Form analysieren.
Apple erklärte Gizmodo differenzierte Privatsphäre in einer e-Mail:
Beginnend mit iOS 10, nutzt Apple Differential Privacy-Technologie, um die Nutzungsmuster von eine große Anzahl von Benutzern zu entdecken, ohne Kompromisse bei der Privatsphäre des einzelnen zu helfen. Um die Identität einer Person undeutlich zu machen, fügt Differential Privatsphäre mathematische Rauschen, eine kleine Probe von der individuellen Nutzungsverhalten. Da immer mehr Menschen das gleiche Muster teilen, beginnen allgemeine Muster entstehen, die zu informieren und die Benutzerfreundlichkeit zu verbessern. In iOS 10 hilft diese Technologie QuickType und Emoji Anregungen, Spotlight-deep-Link-Vorschläge und Lookup Hinweise in Noten zu verbessern.
"So ist die Frage welche Art von Daten, und welche Art von Messungen anwenden es, und was sie damit tun," sagte Green Gizmodo. "Es ist eine wirklich nette Idee, aber ich habe noch nie wirklich gesehen, dass es bereitgestellt. Es endet als ein Kompromiss zwischen Genauigkeit der Daten, die Sie sammeln und Privatsphäre."
"Die Genauigkeit steigt herab, wie die Privatsphäre steigt, und die vor-und Nachteile, die ich gesehen habe nie so toll war noch," weiterhin grün. "[Wieder] habe ich nie wirklich von jemand in ein reales Produkt vor Bereitstellung gehört. Also, wenn Apple dies tut sie eine benutzerdefinierte Implementierung haben, und sie alle Entscheidungen selbst getroffen."
Nach der Entwicklung der differenziellen Privatsphäre-Technologie, zeigte Apple es Aaron Roth, Associate Professor für Informatik an der University of Pennsylvania. Roth bietet einer kostenlose aber vagen Aussage, dass Apple angezeigt während der Keynote:
Aber wir wissen nicht wirklich, wie gut diese neue Funktion Ihre Privatsphäre schützt, bis Apple enthält weitere Informationen über wie es gemacht wird. Wir wissen, dass Apple seine Software mehr denn je eröffnet, und wir davon ausgehen können, dass viele Hacker versuchen, neue Wege zu durchbrechen, die historisch hohes Maß an Sicherheit zu finden.