Vortrag: Interpretierbarkeit von ML Modellen

Interpretationstechniken von ML Modellen haben die Zielsetzung, die Ursachen einer Prognose offenzulegen und eine daraus abgeleitete Entscheidung für einen Menschen nachvollziehbar zu erklären. Durch die Nachvollziehbarkeit von Prognosen lässt sich z.B. sicherstellen, dass deren Herleitung konsistent zum Domänenwissen eines Expertens ist. Auch ein unfairer Bias lässt sich durch die Erklärung aussagekräftiger Beispiele identifizieren. Prognosemodelle lassen sich grob in intrinsisch interpretierbare Modelle und nicht-interpretierbare (auch Blackbox) Modelle unterscheiden. Intrinsisch interpretierbare Modelle sind dafür bekannt, dass sie für einen Menschen leicht nachvollziehbar sind. Ein typisches Beispiel für ein intrinsisch interpretierbares Modell ist der Entscheidungsbaum, dessen regelbasierter Entscheidungsprozess intuitiv und leicht zugänglich ist. Im Gegensatz dazu gelten Neuronale Netze als Blackbox-Modelle, deren Prognosen durch die komplexe Netzstruktur schwer nachvollziehbar sind. In diesem Talk möchte ich das Konzept von Interpretierbarkeit im Kontext von Machine Learning erläutern und gängige Verfahren zur Interpretation von Modellen vorstellen. Besonderen Fokus werde ich dabei auf modellunabhängige Verfahren legen, die sich auch auf prognosestarke Blackbox-Modelle anwenden lassen.

 

Marcel Spitzer –  inovex GmbH

Marcel Spitzer (inovex GmbH)Marcel Spitzer ist Big Data Scientist bei inovex. Er beschäftigt sich mit der Entwicklung und Produktivierung von Machine-Learning-Modellen sowie der Umsetzung von Batch- und Streaming-Anwendungen zur Datenversorgung auf Basis von Hadoop und Spark. Er studierte Wirtschaftsmathematik (B.Sc.) und Wirtschaftsinformatik (M.Sc.) mit einem besonderem Schwerpunkt auf Numerischer Mathematik und Operations Research.