Schon zu Beginn des Computerzeitalters hat man festgestellt, dass Rechner nur bei sinnvollen Eingaben auch sinnvolle Ausgaben liefern können. Dies ist als das “Garbage In, Garbage Out”-Prinzip bekannt.

Auch die Qualität eines Machine-Learning-Modells hängt sehr stark von der Qualität der Daten ab, mit der es trainiert wird. Je besser die Daten, desto besser ist das Modell. Doch was passiert, wenn ein böswilliger Akteur manipulierte Daten zu den Trainingsdaten hinzufügt und wenn diese Daten dann zum Trainieren eines Modells verwendet werden?

Solche sogenannten Data-Poisoning-Angriffe auf maschinelles Lernen sind Thema dieses Vortrags. Wir schauen uns an, welche Möglichkeiten ein Angreifer hat, um Daten zu manipulieren, warum es äußerst schwierig ist, manipulierte Daten zu entdecken und welche Auswirkungen solche Angriffe auf ein Modell haben können.