28. März 2024

Große KI-Sprachmodelle wie ChatGPT, Gemini und DeepL werden für eine Vielzahl von Aufgaben in der natürlichen Sprachverarbeitung eingesetzt: Um Texte automatisch von einer Sprache in eine andere zu übersetzen oder um Texte basierend auf ihrem Inhalt in verschiedene Kategorien zu klassifizieren. Beispielsweise um Spam-E-Mails zu erkennen, Stimmungen in sozialen Medien zu analysieren oder Texte nach Themen zu sortieren. Inzwischen können diese Modelle auch eigenständig Texte generieren. Etwa, um sich lange Texte zusammenfassen zu lassen oder neue Ideen zu entwickeln.

Die Akzeptanz der eingesetzten KI-Technologien hängt stark von der öffentlichen Wahrnehmung ihrer ethischen und moralischen Konsequenzen des Einsatzes ab, weil Bedenken hinsichtlich der ethischen Auswirkungen von KI das Vertrauen in diese Technologie untergraben. Untersuchungen zur sozialen Akzeptanz von Künstlicher Intelligenz helfen dabei, die menschliche Wahrnehmung dieser Technik zu verstehen, partizipativ Richtlinien und Vorschriften zu deren Nutzung zu entwickeln und den Schutz der Privatsphäre zu gewährleisten, um so das Vertrauen der Öffentlichkeit im Umgang mit KI zu stärken.

Der Lehrstuhl für Kommunikationswissenschaft am Human-Computer Interaction Center (HCIC) der RWTH Aachen auf dem RWTH Aachen Campus beleuchtet das Thema Künstliche Intelligenz aus einer sozialwissenschaftlichen Perspektive. Die Forschenden beschäftigen sich mit der empirisch-experimentellen Modellierung der Akzeptanz von Technik und der Interaktion zwischen Mensch und Technik. Seit dem Aufkommen der KI-Sprachmodelle untersuchen die Expertinnen und Experten die soziale Akzeptanz von Künstlicher Intelligenz in der Öffentlichkeit. Hierzu verzahnen sie qualitative Methoden wie Interviews und Fokusgruppen mit quantitativen Methoden wie Umfragen oder Experimenten. Ziel des Lehrstuhls ist es, zu verstehen, in welchen Nutzungskontexten die neue Technik menschengerecht eingesetzt werden kann und wie diese gestaltet werden muss.

Fehlerhafte KI-Systeme?

Um Vorurteile gegenüber Künstlicher Intelligenz in der öffentlichen Wahrnehmung zu untersuchen, haben die Forschenden vom Lehrstuhl für Kommunikationswissenschaft für die wissenschaftliche Veröffentlichung „Exploring Bias in the Public Perception of AI: A Criticality Map“ eine Kritikalitätskarte erstellt. Mithilfe der visuellen Darstellung können kritische Nutzungskontexte identifiziert werden um Risiken zu bewerten, Prioritäten festzulegen und Schwachstellen zu erkennen. Die frühzeitige Integration der öffentlichen Wahrnehmung in die Forschung und Implementierung von KI-basierten Technologien trägt zu einer verantwortungsvollen Forschung und Innovation bei. Die Integration der öffentlichen Wahrnehmung stellt sicher, dass die Systeme nützlich sind und mit unseren Werten und Normen übereinstimmen.

Doch was passiert eigentlich, wenn KI-Systeme Fehler machen? Wenn Google Maps Autofahrer in einen Stau lotst, obwohl man ohne zusätzliche Kilometer schneller ans Ziel kommen könnte? Auch mit dieser Frage setzt sich das HCIC auseinander: Wie können Menschen befähigt werden, trotz Fehlentscheidungen einer Künstlichen Intelligenz die richtige Entscheidung zu treffen? Mit dem Ziel, das menschliche Zusammenspiel mit automatisierten Systemen besser zu verstehen, greifen die Forschenden auf empirische Methoden zurück, um Automatisierungsfehler und Vorurteile zu verringern.

KI-basierte Automatisierung ist in Fertigung, Mobilität und im Gesundheitswesen inzwischen allgegenwärtig. Durch Datenintegration und Auswertung wird die Komplexität für menschliche Entscheider vereinfacht, allerdings sind diese Systeme nie perfekt. In der wissenschaftlichen Veröffentlichung „Supporting the Human-In-The-Loop interacting with AI“ hat Institutsleiterin Professorin Martina Ziefle gemeinsam mit ihren Mitarbeitern den Einfluss der Korrektheit der datengesteuerten Entscheidungsunterstützungssysteme im Hinblick auf Benutzerakzeptanz, Vertrauen, Einhaltung und Gesamtleistung untersucht. Die Ergebnisse deuten darauf hin, dass fehlerhafte Systeme das Vertrauen in die Automatisierung, wahrgenommene Nützlichkeit, Gesamtakzeptanz und Leistung reduzieren. Ein gute, menschen-gerechte gestaltete, Benutzerschnittstelle hingegen kann „blindes Vertrauen“ in Automatisierung kompensieren.