Keynote: Towards Transparency and Trustworthiness: Empowering Users with Human-Centered Explainable AI
Seit jeher sind Erklärungen ein integraler Bestandteil menschlicher Lern- und Kognitionsprozesse.
Wir verstehen die Welt um uns herum, indem wir sie uns erklären (lassen). Beim Umgang mit KI hört das nicht auf.
Leistungsstarke KI-Technologie gleicht jedoch eher einer undurchsichtigen Blackbox. Sie liefert zwar präzise Vorhersagen, aber das „Warum?“ hinter ihren Entscheidungsprozessen bleibt ein Mysterium, selbst für ihre Entwickler:innen.
Explainable AI (XAI) rückt genau dieses Problem in den Fokus. Das Ziel ist, die komplexen Entscheidungsprozesse von KI-basierten Systemen für uns Menschen transparent zu machen – ein Schlüsselelement hin zu vertrauenswürdiger KI.
Bisher lag der Fokus dabei auf Algorithmen und der technischen Umsetzbarkeit von XAI-Methoden. KI-Systeme werden jedoch nicht mehr nur von Expert:innen benutzt – sie sind längst in Bereiche vorgedrungen, in denen auch Menschen ohne KI-Kenntnisse mit ihren Entscheidungen interagieren.
Deshalb müssen wir jetzt weiterdenken. Menschenzentriert.
Human-Centered Explainable AI rückt Endanwender:innen und ihre Bedürfnisse ins Zentrum der KI-Entwicklung.
Stellen wir uns vor, wir gehen mit einer KI in den Dialog, und sie erklärt uns, warum sie eine bestimmte Entscheidung getroffen hat. Das würde nicht nur Verstänsnis fördern, sondern auch Vertrauen aufbauen. Damit diese Erklärungen akzeptiert und verstanden werden, müssen wir sie so gestalten, dass sie der sozialen Interaktion der menschlichen Erklärungsstrukturen entsprechen. Hier kommt UI/UX-Design ins Spiel. In interaktiven User Interfaces werden XAI-Methoden visualisiert und es den Nutzer:innen so ermöglicht, auf explorative Weise, mit den KI-Modellen zu interagieren, um Einblicke in ihre Funktionsweise zu gewinnen und Vertrauen aufzubauen.
Wie sieht das in der Praxis aus? In meinem Vortrag veranschauliche ich, wie wir den Human-Centered Explainable AI Prozess bei der Entwicklung von KI-Systemen am Beispiel eines ML-basierten Nachfrageprognosesystems angewendet haben. Dafür führe ich praxisnah durch den Prozess der User Research, die Selektion von XAI Methoden, die Entscheidung für einen beispielbasierten Ansatz und die Datenvisualisierung im User Interface.
Mit meinem Vortrag möchte ich das Potenzial aufzeigen, die Power von KI und nutzerfreundlichen User Interfaces zu kombinieren, um eine neue Art der Mensch-Computer-Interaktion zu gestalten, die für alle Nutzergruppen zugänglich ist und den Weg für eine kollaborative Symbiose zwischen Mensch und KI ebnen kann.
Alina Döring und Dr. Robert Senge, inovex