IT-Tage 2021
  •  Live-Streaming von über 200 Vorträgen in 18 Subkonferenzen.
  •  365 Tage On-Demand-Zugriff auf 260 Vortragsvideos und ein umfangreiches Archiv an Informationen der Konferenz.
  •  Weitere 6 Remote-Konferenzen in 2022.

Personenbezogene Daten verdienen zu Recht einen hohen Schutz, nicht erst seit der DSGVO. Gemäß der Zweckgebundenheit personenbezogener Daten dürfen nur solche Daten verarbeitet werden, die für den konkreten geschäftlichen Zweck benötigt werden, und auch nur von einem Personenkreis mit berechtigtem Interesse. Für Produktivumgebungen ist dies eine prozessuale/organisatorische Frage und natürlich auch Thema des Berechtigungswesens. Wie sieht es jedoch mit nicht-produktiven Umgebungen aus?

In der Praxis werden unter anderem Testsysteme oft mit klassischen Systemkopien aktualisiert. Ergo: Produktive Daten in nicht-produktiven Umgebungen. Üblicherweise hat somit eine Vielzahl an nicht-berechtigten Personen (Entwickler, Berater, Admins) Zugriff auf Echtdaten. Das stellt Unternehmen vor eine kritische Situation: Auf der einen Seite muss das Testsystem realistische Daten enthalten, um sinnvolle Tests zu ermöglichen, auf der anderen Seite dürfen keine Echtdaten genutzt werden. Doch wie soll ohne Echtdaten in den Testumgebungen realistisch getestet werden?

Abhilfe verschafft die Anonymisierung von Daten, so dass diese keinen konkreten Personenbezug mehr besitzen. Sie ist eine hervorragende Methode, Testdaten gemäß den geltenden Anforderungen bereitzustellen ohne Risiken im Hinblick auf DSGVO und betrieblichen Datenschutz, Sicherheit und Compliance. Das klingt erstmal einfacher, als es ist. Denn hierbei muss unter anderem weiterhin auf Sinnhaftigkeit und logische Konsistenz geachtet werden, innerhalb des Systems wie auch über Systemgrenzen hinweg innerhalb der Landscape.

Im Vortrag beleuchten wir die Anforderungen an Anonymisierungsalgorithmen und wie diese gelöst werden können, um gültige und aussagefähige Tests zu ermöglichen.