Menschen lernen von klein auf, mit der Flut von Informationen in ihrem Leben umzugehen und ihre Aufmerksamkeit auf das Wesentliche zu lenken. Unwichtige Details werden zu Hintergrundrauschen – zu "Noise". Diese Trennung von Signal und Noise spielt auch im Bereich Machine Learning eine wichtige Rolle. Je besser lernende Systeme die relevanten Informationen identifizieren können, desto bessere Ergebnisse liefern sie. Der Fokus auf das Wesentliche verbessert zeitgleich die Effizienz, da irrelevante Informationen ausgeklammert werden können. Wie bringt man aber einer Maschine bei, ihre Aufmerksamkeit richtig zu fokussieren? Diese Frage ist nicht neu und beschäftig KI-Forscher bereits seit langem. Spätestens seit 2017 haben sich Aufmerksamkeitsmechanismen aber zu einem wichtigen Baustein bei der Gestaltung von künstlichen neuronalen Netzen etabliert. Zahlreiche State-of-the-Art-Implementierungen für Probleme im Bereich Natural Language Processing und der Bildverarbeitung basieren auf aufmerksamkeitsgesteuerten Machine-Learning-Algorithmen.

In diesem Vortrag soll gezeigt werden, wie maschinelle Aufmerksamkeit innerhalb von neuronalen Netzen funktioniert und welche Arten von Aufmerksamkeit unterschieden werden. Letztlich soll an einer Reihe von Beispielen die Bedeutung und das Potential dieses Konzeptes demonstriert werden.