ChatGPT, DALL-E und Co. lösen gleichermaßen Wellen der Faszination, Begeisterung und Skepsis aus. Generative KI kreiert jedoch weit mehr als digitale Kunst und maßgeschneiderte Texte. Eine Zukunftskompetenz und neue Evolutionsstufe der Human-Computer-Interaction erlebt gerade Momentum: Human-AI-Interaction.
Menschen und KI-Modelle arbeiten in einem Co-Creation-Prozess zusammen. Ein fortlaufender Dialog, der die Grenzen menschlicher Kreativität, Schaffenskraft und Entscheidungsfindung neu definiert. Diese interaktive Partnerschaft bedarf Verständnis und Vertrauen. Leistungsstarke KI-Technologie gleicht jedoch eher einer Blackbox, und das „Warum?“ hinter ihren Entscheidungsprozessen bleibt ein Mysterium, selbst für ihre Entwickler:innen. Ein Dilemma, das ethische und rechtliche Bedenken hinsichtlich der Vertrauenswürdigkeit von KI-Systemen aufwirft.
Das aufstrebende Forschungsfeld Explainable AI (XAI) findet Antworten und entwickelt Methoden, die komplexe Entscheidungsprozesse von KI-basierten Systemen für Menschen verständlich machen sollen. Die Richtung stimmt, beleuchtet das Problem aber nur eindimensional, denn bislang stand primär die algorithmische Umsetzbarkeit im Fokus. Die Effektivität von XAI-Methoden hängt jedoch davon ab, wie gut diese Erklärungen von verschiedenen Nutzergruppen verstanden werden.
Dafür müssen wir weiterdenken. Menschenzentriert, denn Erklärungen sind seit jeher eine inhärent menschliche Eigenschaft und integraler Bestandteil unserer Lern- und Kognitionsprozesse. Human-Centered Explainable AI stellt Endanwender:innen und ihre Bedürfnisse ins Zentrum der KI-Entwicklung und nutzt Visualisierungs- und Designprinzipien als Tools für ein intuitives Verständnis komplexer KI-Prozesse. In interaktiven User Interfaces werden XAI-Methoden visualisiert und es den Nutzer:innen so ermöglicht, auf explorative Weise mit den KI-Modellen zu interagieren, um Einblicke in ihre Funktionsweise zu gewinnen und Vertrauen aufzubauen.
Wie sieht das in der Praxis aus? Am Beispiel eines ML-basierten Nachfrageprognosesystems führt der Vortrag praxisnah durch die Wichtigkeit von User Research, die Selektion und Visualisierung von XAI-Methoden in einem User Interface. Außerdem wird die Anwendung von XAI-Prinzipien in generativen KI-Systemen beleuchtet und gibt Ausblick auf die zunehmende Relevanz für die Schni˻stelle zwischen KI und Mensch. Ziel ist es, das Potenzial aufzuzeigen, KI-Entwicklung interdisziplinär zu denken, um vertrauenswürdige Lösungen zu bauen, die menschliche Kompetenz nicht ersetzen, sondern ergänzen.
Dr. Robin Senge, inovex
Dr. Robin Senge ist Head of Machine Learning bei inovex. Er leitet ein Team von Data Scientists und Data Engineers und konzipiert als Spezialist für Maschinelles Lernen datengetriebene Use-Cases im Bereich Handel und Supply-Chain. Er forscht aktiv im Bereich der Sicherheit von KI-Systemen sowie ihrer Interaktion mit dem Menschen durch Human-centered Explainable AI.
Alina Döring, inovex
Alina Döring ist UI/UX-Designerin bei inovex und studiert im Master „Computer Science and Media“. Der Schwerpunkt ihrer Forschung liegt auf der Schni˻stelle von User-Centered Design und Machine Learning und untersucht die Gestaltung von Human-AI-Interaction. In ihren Design- und
Research-Prozess integriert sie Erkenntnisse aus der Verhaltenspsychologie, um Produkt- und Designentscheidungen von einem holistischen und menschenzentrierten Standpunkt aus zu treffen.