Zurück zur vorherigen Seite

Personalized Explainable Artificial Intelligence for decentralized agents with heterogeneous knowledge

full_expectation_logo

Erklärbare KI (Explainable AI, XAI) hat sich in den letzten Jahren als eine Reihe von Techniken und Methoden herausgebildet, die darauf abzielen, Modelle des maschinellen Lernens (ML) zu erklären und Menschen in die Lage zu versetzen, die von künstlichen intelligenten Einheiten erzeugten Ergebnisse zu verstehen, ihnen zu vertrauen und sie wirksam zu beeinflussen. Obwohl diese Initiativen über den Stand der Technik hinausgegangen sind, müssen noch mehrere Herausforderungen bewältigt werden, um XAI in realen Szenarien angemessen anzuwenden. Zwei Schlüsselaspekte, die angegangen werden müssen, sind die Personalisierung von XAI und die Fähigkeit, Erklärungen in dezentralisierten Umgebungen zu liefern, in denen heterogenes Wissen vorherrschend ist. Erstens ist die Personalisierung von XAI aufgrund der unterschiedlichen Hintergründe, Kontexte und Fähigkeiten der Personen, die die von KI-Systemen generierten Erklärungen erhalten (z. B. Patienten und medizinisches Fachpersonal), besonders wichtig. In Zukunft muss der Bedarf an Personalisierung mit der zwingenden Notwendigkeit einhergehen, vertrauenswürdige, transparente, interpretierbare und verständliche Ergebnisse der ML-Verarbeitung bereitzustellen. Zweitens wirft das Aufkommen verschiedener KI-Systeme, die an einem bestimmten Aufgabensatz zusammenarbeiten und sich auf heterogene Datensätze stützen, die Frage auf, wie Erklärungen kombiniert oder integriert werden können, wenn man bedenkt, dass sie aus unterschiedlichen Wissensannahmen und Verarbeitungspipelines hervorgehen.

In diesem Projekt wollen wir diese beiden Herausforderungen angehen, indem wir das Paradigma der Multi-Agenten-Systeme (MAS) nutzen, bei dem dezentralisierte KI-Agenten symbolisches Wissen aus/in ML-Prädiktoren extrahieren und einspeisen, das wiederum dynamisch gemeinsam genutzt wird, um individuelle Erklärungen zu erstellen. Der vorgeschlagene Ansatz kombiniert Inter-Agenten-, Intra-Agenten- und Mensch-Agenten-Interaktionen, um sowohl von der Spezialisierung der ML-Agenten als auch von der Einrichtung von Agenten-Kollaborationsmechanismen zu profitieren, die heterogenes Wissen/Erklärungen integrieren, die von effizienten Black-Box-KI-Agenten extrahiert wurden.  

Das Projekt umfasst die Validierung des Personalisierungs- und heterogenen Wissensintegrationsansatzes durch eine prototypische Anwendung im Bereich der Lebensmittel- und Ernährungsüberwachung und -empfehlung, einschließlich der Bewertung der Erklärbarkeit zwischen Agenten und Menschen sowie der Leistung der eingesetzten Techniken in einer kollaborativen KI-Umgebung.