Erklärungen gemeinsam entwickeln: Neuer Sonderforschungsbereich zu künstlicher Intelligenz an den Universitäten Paderborn und Bielefeld

Die Deutsche Forschungsgemeinschaft (DFG) hat heute die Einrichtung eines neuen Sonderforschungsbereichs/Transregio (TRR) zum Thema „Erklärbarkeit von künstlicher Intelligenz (KI)“ an den Universitäten Paderborn und Bielefeld bekanntgegeben. In den kommenden vier Jahren wird sie dafür rund 14 Millionen Euro Fördergelder zur Verfügung stellen. Das stark interdisziplinär ausgerichtete Forschungsprogramm mit dem Titel „Constructing Explainability“ („Erklärbarkeit konstruieren“) geht über die Frage nach Erklärbarkeit von KI als Grundlage algorithmischer Entscheidungsfindungen hinaus. Der Ansatz fördert die aktive Teilnahme der Menschen an soziotechnischen Systemen. Ziel ist es, die Mensch-Maschine-Interaktion zu verbessern, das Verständnis von Algorithmen in den Mittelpunkt zu stellen und dieses als Produkt eines multimodalen Erklärprozesses zu untersuchen. Die vierjährige Förderung beginnt am 1. Juli.

Ein neuer Sonderforschungsbereich der Universitäten Paderborn und Bielefeld hat die Erklärbarkeit künstlicher Intelligenz zum Ziel. (Foto: Universität Paderborn)

Künstliche Intelligenz ist heutzutage fester Bestandteil des modernen Lebens – sie sortiert Bewerbungen aus, begutachtet Röntgenbilder und schlägt neue Songlisten vor. Grundlage für solche Prozesse sind algorithmische Entscheidungsfindungen. „Bürgerinnen und Bürger haben ein Recht darauf, dass algorithmische Entscheidungen transparent gemacht werden. Das Ziel, Algorithmen zugänglich zu machen, ist Kern der sogenannten eXplainable Artificial Intelligence (XAI), bei der Transparenz, Interpretier- und Erklärbarkeit als gewünschte Ergebnisse im Mittelpunkt stehen“, sagt Prof. Dr. Katharina Rohlfing, Sprecherin des neuen Sonderforschungsbereichs. „Das Problem ist, dass in unserer digitalen Gesellschaft algorithmische Ansätze wie das maschinelle Lernen rasant an Komplexität zunehmen. Die Undurchsichtigkeit ist ein ernsthaftes Problem in allen Kontexten, insbesondere aber dann, wenn Menschen auf dieser undurchsichtigen Grundlage Entscheidungen treffen müssen", fügt Prof. Dr. Philipp Cimiano als stellvertretender Sprecher hinzu. Gerade bei Vorhersagen im Bereich der Medizin oder der Rechtsprechung sei es notwendig, die maschinengesteuerte Entscheidungsfindung nachzuvollziehen, so Cimiano weiter. Zwar gebe es bereits Ansätze, die die Erklärbarkeit entsprechender Systeme zum Gegenstand hätten, die Erklärungen, die dabei entstehen, setzen allerdings Wissen über die Funktionsweise von KI voraus. Was laut Cimiano und Rohlfing fehle, seien Konzepte zur Ko-Konstruktion von Erklärungen, bei der die Adressaten – also die Menschen – stärker in den KI-gesteuerten Erklärprozess miteinbezogen werden.

Dazu Rohlfing: „In unserem Ansatz gehen wir davon aus, dass Erklärungen nur dann für die Anwender nachvollziehbar sind, wenn sie nicht nur für sie, sondern auch mit ihnen entstehen. In Erklärungen unter Menschen sorgt dafür der Austausch zwischen den Beteiligten, die Fragen stellen und Unverständnis äußern können.“ In einem interdisziplinären Team arbeiten Linguisten, Psychologen, Medienforscher, Soziologen, Ökonomen und Informatiker eng zusammen und erforschen die Prinzipien und Mechanismen des Erklärens und Verstehens als soziale Praktiken und wie diese in KI-Systemen implementiert werden können. Darüber hinaus erforscht das Team, wie die Ko-Konstruktion von Erklärungen im Zwischenspiel von Mensch und Maschine neue soziale Praktiken etabliert und wie sich diese gesellschaftlich auswirken.

Der Ansatz soll neue Antworten auf gesellschaftliche Herausforderungen im Zusammenhang mit künstlicher Intelligenz liefern. Im Kern geht es dabei um die Teilnahme von Menschen an soziotechnischen Systemen, mit der auch die Informationssouveränität der Nutzer gefördert wird.

„Unser Ziel ist es, neue Formen von Kommunikation mit wirklich erklärbaren und verstehbaren KI-Systemen zu schaffen und somit neue Assistenzformen zu ermöglichen“, fasst Rohlfing zusammen.