09.12.2025
Sechs Kriterien für die Vertrauenswürdigkeit von KI
Sprachmodelle, die auf Künstlicher Intelligenz (KI) basieren, antworten auf jede Frage - aber nicht immer mit der richtigen Antwort. Hilfreich wäre es daher für Nutzer zu wissen, wie vertrauenswürdig ein KI-System ist.
Ein Team der Ruhr-Universität Bochum und der TU Dortmund schlägt sechs Dimensionen vor, mit denen sich die Vertrauenswürdigkeit eines Systems beschreiben lässt - egal, ob es sich dabei um Personen, Institutionen, klassische Maschinen oder KI-Systeme handelt.
Das Konzept beschreiben Dr. Carina Newen und Prof. Dr. Emmanuel Müller von der TU Dortmund zusammen mit dem Philosophen Prof. Dr. Albert Newen von der Ruhr-Universität Bochum im internationalen philosophischen Fachjournal "Topoi", online veröffentlicht.
Sechs Dimensionen von Vertrauenswürdigkeit
Ob ein bestimmtes KI-System vertrauenswürdig ist, kann nicht mit "Ja" oder "Nein" beantwortet werden. Die Autoren und Autorin schlagen vor, für jedes System zu beurteilen, wie ausgeprägt sechs verschiedene Dimensionen sind, und so ein Profil der Vertrauenswürdigkeit zu erstellen.
Bei den Dimensionen handelt es sich um:
- Objektive Funktionalität: Wie gut erledigt das System seine Kernaufgabe und wird die Qualität überprüft und garantiert?
- Transparenz: Wie transparent sind die Prozesse des Systems?
- Unsicherheit von zugrunde liegenden Daten und Modellen: Wie verlässlich und gesichert gegen Missbrauch sind Daten und Modelle?
- Verkörperung: In welchem Maße handelt es sich um ein verkörpertes oder ein virtuelles System?
- Unmittelbarkeit: In welchem Maße findet Austausch mit dem System statt?
- Verpflichtung: In welchem Maße kann das System eine Verpflichtung gegenüber dem Vertrauenden haben?
Zentrale Dimensionen aus technischer Sicht
Aus technischer Sicht sind die Dimensionen Transparenz und Unsicherheit von zugrunde liegenden Daten und Modellen entscheidend. Sie betreffen prinzipielle Defizite von KI-Systemen. "Das sogenannte deep learning produziert bei großen Datenmengen bemerkenswerte Leistungen. KI-Systeme sind zum Beispiel im Schach jedem Menschen überlegen", erläutert Emmanuel Müller. "Aber die zugrunde liegenden Prozesse sind für uns intransparent, wodurch bislang ein zentrales Defizit der Vertrauenswürdigkeit entsteht."
Ähnlich verhält es sich mit der Unsicherheit von Daten und Modellen. "KI-Systeme werden schon von Firmen eingesetzt, um Bewerbungen vorzusortieren", gibt Carina Newen ein Beispiel. "Dabei stecken in den Daten, mit denen die KI trainiert wird, Vorurteile, die das KI-System dann fortschreibt."
Zentrale Dimensionen aus philosophischer Sicht
Aus philosophischer Sicht führt das Team das Beispiel ChatGPT an, das zwar bei jeder Frage und Aufgabe eine klug klingende Antwort produziert, dabei aber halluzinieren kann: "Das KI-System erfindet Informationen, ohne dies sichtbar zu machen", betont Albert Newen: "KI-Systeme können und werden als Informationssysteme hilfreich sein, aber wir müssen lernen, sie stets mit kritischem Verstand zu betrachten und nicht blind zu vertrauen."
Als fragwürdig stuft Newen hingegen die Entwicklung von Chat-Bots als Ersatz für menschliche Kommunikation ein. "Zwischenmenschliches Vertrauen zu einem Chat-Bot aufzubauen, ist gefährlich, weil ein solcher keinerlei Verpflichtung gegenüber dem vertrauenden Menschen hat", so Newen. "Es ergibt keinen Sinn zu erwarten, dass der Chat-Bot Versprechen einhalten kann."
Die Profilbetrachtung von Vertrauenswürdigkeit in den verschiedenen Dimensionen kann laut der Autorin und den Autoren helfen zu verstehen, in welchem Maße Menschen KI-Systemen als Informationsexperten vertrauen können. Zugleich helfe es zu sehen, warum kritischer Alltagsverstand mehr denn je gefragt sein wird.
Quelle: Universität Bochum
