Um immer genauere Profile von Nutzern zu erstellen sammeln Firmen immer mehr Daten über ihre Nutzer. Fallen diese Daten in die falschen Hände, können sie genutzt werden, um einer Person zu schaden. Viele Datenlecks aus der Vergangenheit (zum Beispiel Equifax) haben gezeigt, dass klassische Methoden wie Zugriffsbeschränkung (z. B. ACL) oder Verschlüsselung solche Datenlecks nur erschweren aber nicht verhindern können. Selbst pseudonymisierte und anonymisierte Daten bieten keine Garantien, dass sich die Daten nicht deanonymisieren lassen. Differential Privacy ist ein vielversprechender Ansatz zum Sammeln von Daten, und um Statistiken über eine Gruppe von Personen zu erstellen, bei dem keine (bzw. nur minimale) Rückschlüsse auf eine einzelne Person möglich sind. Die Gefahren für eine Person, die von einem solchen geleakten Datensatz ausgehen, werden somit drastisch reduziert.
Dieser Vortrag gibt einen Überblick über Differential Privacy und zeigt anhand von Beispielen, wie Differential Privacy eingesetzt werden kann, um Statistiken zu erstellen und gleichzeitig die erhobenen Daten einer einzelnen Person zu schützen. Ausgehend von einem Beispiel, wie sensible Daten aus einem Machine-Learning-Modell extrahiert werden können, wird gezeigt, wie Differential Privacy helfen kann, die Sicherheit von Machine Learning zu erhöhen.