Wie kann man die Entscheidungen von Künstlicher Intelligenz (KI) nachvollziehbar machen? Mit dieser Frage beschäftigten sich in diesem Sommersemester Bachelor- und Masterstudierende der TU Braunschweig im Rahmen der mittlerweile achten Auflage des Deep Learning Labs. In Teams entwickelten die Teilnehmenden innovative Methoden zur Erklärbarkeit von Deep-Learning-Modellen, um die oft als „Black Box“ kritisierten neuronalen Netze transparenter zu machen.