Argumentative Explanations for Recommendations Based on Reviews

Recommender systems (RS) assist users in making decisions on a wide range of tasks, while preventing them from being overwhelmed by enormous amounts of choices. RS prevalence is such that many users of information-based technologies interact with them on a daily basis. However, many of these systems are still perceived as black boxes by users, who often have no way  of seeing or requesting the reasons why certain items are recommended, potentially leading to negative attitudes towards RS by users. Providing explanations in RS can bring several advantages for users' decision making and overall user experience. Although different explanatory approaches have been proposed so far, the general lack of user evaluation, and validation of concepts and implementations of explainable methods in RS, have left open many questions, related to how such explanations should be structured and presented. Also, while explanations in RS have so far been presented mostly in a static and non-interactive manner, limited work in explainable artificial intelligence have emerged addressing interactive explanations, enabling users to examine in detail system decisions. However, little is known about how interactive interfaces in RS should be conceptualized and designed, so that explanatory aims such as transparency and trust are met.

This dissertation investigates interactive, conversational explanations that enable users to  freely explore explanatory content at will. Our work is grounded on RS explainable methods that exploit user reviews, and inspired by dialog models and formal argument structures. Following a user-centered approach, this dissertation proposes an interface design for explanations as interactive argumentation, which was empirically validated through different user studies. To this end, we implemented a RS able to provide explanations both through a graphical user interface (GUI) navigation and a natural language interface. The latter consists of a conversational agent for explainable RS, which supports conversation flows for different types of questions written by users in their own words. To this end, we formulated a model to facilitate the detection of the intent expressed by a user on a question, and collected and annotated a dataset helpful for intent detection, which can facilitate the development of explanatory dialog systems in RS.

The results reported in this dissertation indicate that providing interactive explanations through a conversation, i.e. an exchange of questions and answers between the user and the system, using both GUI-navigation or natural language conversation, can positively impact users evaluation of explanation quality and of the system, in terms of explanatory aims like transparency, and trust.

Empfehlungssysteme (Recommender Systems, RS) unterstützen die Nutzer bei der Entscheidungsfindung in einer Vielzahl von Aufgaben und verhindern gleichzeitig, dass sie von der enormen Menge an Auswahlmöglichkeiten überwältigt werden. RS sind so weit verbreitet, dass viele Nutzer von Informationstechnologien täglich mit ihnen interagieren. Allerdings werden viele dieser Systeme von den Nutzern immer noch als Blackboxen wahrgenommen, die oft keine Möglichkeit haben, die Gründe für die Empfehlung bestimmter Artikel zu sehen oder abzufragen. Dies kann zu einer negativen Einstellung der Nutzer gegenüber RS führen. Die Bereitstellung von Erklärungen in RS kann mehrere Vorteile für die Entscheidungsfindung der Nutzer und die allgemeine Nutzererfahrung mit sich bringen. Obwohl bisher verschiedene Erklärungsansätze vorgeschlagen wurden, hat der generelle Mangel an Nutzerevaluierung und die Validierung von Konzepten und Implementierungen erklärungsfähiger Methoden in der RS viele Fragen offen gelassen, die damit zusammenhängen, wie solche Erklärungen strukturiert und präsentiert werden sollten. Während Erklärungen in der RS bisher meist statisch und nicht interaktiv präsentiert wurden, gibt es nur wenige Arbeiten im Bereich der erklärbare künstliche Intelligenz, die sich mit interaktiven Erklärungen befassen und es den Benutzern ermöglichen, Systementscheidungen im Detail zu untersuchen. 

Diese Dissertation untersucht interaktive, konversationelle Erklärungen, die es Nutzern ermöglichen, Erklärungsinhalte nach Belieben zu erkunden. Diese Dissertation basiert auf RS-Erklärungsmethoden, die Nutzerbewertungen verwerten, und ist von Dialogmodellen und formalen Argumentationsstrukturen inspiriert. Nach einem nutzerzentrierten Ansatz wird in dieser Dissertation ein Schnittstellendesign für Erklärungen als interaktive Argumentation vorgeschlagen, das durch verschiedene Nutzerstudien empirisch validiert wurde. Zu diesem Zweck haben wir ein RS implementiert, das Erklärungen sowohl über eine GUI-Navigation als auch über eine natürlichsprachliche Benutzungsschnittstelle liefern kann. Letztere besteht aus einem Konversationsagent für erklärbare RS, der Konversationsabläufe für verschiedene Arten von Fragen unterstützt, die von Benutzern in ihren eigenen Worten geschrieben werden. Zu diesem Zweck formulierten wir ein Modell, das die Erkennung der von einem Benutzer auf eine Frage ausgedrückten Absicht erleichtert, und sammelten einen Datensatz mit Textannotationen, der die Entwicklung von erklärenden Dialogsystemen in RS erleichtern kann. 

Die Ergebnisse dieser Dissertation zeigen, dass die Bereitstellung interaktiver Erklärungen durch eine Konversation, d.h. einen Austausch von Fragen und Antworten zwischen dem Benutzer und dem System, sowohl durch GUI-Navigation als auch durch Konversation in natürlicher Sprache, die Bewertung der Erklärungsqualität und des Systems durch die Benutzer positiv beeinflussen kann, und zwar in Bezug auf Erklärungs-ziele wie Transparenz und Vertrauen.

Zitieren

Zitierform:
Zitierform konnte nicht geladen werden.

Rechte

Nutzung und Vervielfältigung:
Alle Rechte vorbehalten