2. April 2024
Die Sicherheitsaspekte von Künstlicher Intelligenz (KI) werden immer wichtiger. An der RWTH Aachen werden Grundlagenforschung und praktische Anwendungen zusammengebracht, um Sicherheitslösungen für KI zu entwickeln und ein Bewusstsein für deren Risiken zu schaffen. Wir haben uns mit Professor Holger Hoos, Inhaber des Lehrstuhls für Methodik der Künstlichen Intelligenz an der RWTH Aachen und Vorstandsvorsitzenden des Centers für Künstliche Intelligenz über die aktuellen Forschungsaktivitäten der RWTH unterhalten. Dabei sprachen wir mit dem Inhaber einer Alexander von Humboldt-Professur auch über die Sicherheitsaspekte von Künstlicher Intelligenz für die Öffentlichkeit und Industrie.
Professor Hoos, das Thema Künstliche Intelligenz ist aktuell sehr präsent in der öffentlichen Wahrnehmung. Deepfakes, mittels KI-Methoden manipulierte Wahlen und Datenschutz – um nur ein paar Themen zu nennen – tragen dazu bei, dass die Öffentlichkeit KI kritisch betrachtet. Was tut die RWTH Aachen in diesem Zusammenhang, wie sensibilisiert sie die Öffentlichkeit und Industrie für die Sicherheitsrisiken und -herausforderungen?
Holger Hoos: Künstliche Intelligenz ist eines der Zukunftsthemen schlechthin. Ein Großteil der Technologie, die wir in der Wirtschaft, in der Gesellschaft, an der RWTH nutzen, wird bereits heute von Algorithmen getrieben. In Zukunft werden dabei zunehmend KI-Algorithmen und -Systeme zum Einsatz kommen. Schon jetzt machen wir uns bereits intensiv Gedanken über IT-Sicherheit. Das müssen wir in Zukunft auch bei KI-Systemen machen. Die RWTH Aachen spielt dabei eine führende Rolle. Unser Center für Künstliche Intelligenz (KI-Center), das ich gemeinsam mit Professor Sebastian Trimpe aus dem Institut für Data Science im Maschinenbau leite, hat sich drei Grundsätzen verschrieben: Sicherheit, Zuverlässigkeit und Nachhaltigkeit. Die Art von KI, die heutzutage in aller Munde ist, ist die generative KI, die ChatGPT beispielsweise nutzt. Diese KI-Technologie ist nicht besonders sicher, da muss noch vieles gemacht werden, damit wir Menschen dieser Art von KI-Systemen vertrauen können.

An der RWTH und durch die RWTH organisiert gibt es eine Menge Aktivitäten, die sich mit Sicherheitsrisiken beschäftigen. Das geht von öffentlichen Veranstaltungen wie unsere KI-Woche, die wir vergangenes Jahr durchgeführt haben, bis zur Veranstaltung „Uni im Rathaus“, die vor ein paar Wochen stattgefunden hat. Darüber hinaus gibt es viele Publikationen von Mitgliedern des KI-Centers zum Thema Sicherheit. Zudem arbeiten wir auf unterschiedlichen Ebenen mit der Stadt Aachen und auch mit Schulen zusammen, zum Beispiel im Rahmen der Kinder-Uni. Dabei geht es natürlich nicht nur um KI-Sicherheit, sondern auch um das enorme Potenzial von KI und darum, ein gewisses Grundverständnis dafür zu schaffen, was KI überhaupt ist. Das sind nur ein paar Veranstaltungen, bei denen wir mit dem Thema KI vertreten sind. Weiterhin spielen wir als Exzellenzuniversität eine Schlüsselrolle bei der Sensibilisierung der Öffentlichkeit und Industrie.

Gibt es an der RWTH Aachen Initiativen zur Entwicklung von Sicherheitslösungen für spezifische Anwendungsbereiche von KI?
Natürlich. Zum Beispiel am Lehrstuhl für Softwaremodellierung und Verifikation meines Kollegen Professor Joost-Pieter Katoen, der gemeinsam mit Ford das autonome Fahren von PKW untersucht. In dem Projekt geht es um die automatische Verifikation, also ein sogenanntes Software Modell Checking von sicherheitskritischer Software in High-End PKW. Automatisierte Verifikationen und Synthesemethoden spielen für alle Arten von autonomen Fahrzeugen und Robotern eine wichtige Rolle bezüglich der Sicherheit, zum Beispiel bei unerwarteten Bewegungen von anderen Robotern. Dazu gibt es das Graduiertenkolleg UnRAVel (UNcertainty and Randomness in Algorithms, VErification and Logic). Dabei geht es um völlig andere KI-Methoden, als diejenigen, über die man täglich in der Presse liest und hört. Aber das ist genau die Art von KI, die man in sicherheitskritischen Bereichen wie autonom fahrenden PKW, Schiffen oder Luftfahrzeugen braucht. Das Institut für Kraftfahrzeuge der RWTH Aachen (IKA) forscht auf dem Campus Melaten an Validierungsmethoden für automatisierte Fahrzeuge. Also genau den Fahrzeugen, die man manchmal schon auf dem Campus-Boulevard, dem Aachener Umland oder auf Teststrecken fahren sieht.

Weiterhin gibt es Grundlagenforschung im Bereich Probabilistic Machine Learning. Dafür gibt es am Lehrstuhl von Professor Joost-Pieter Katoen einen ERC Advanced Grant und einen Proof of Concept Grant, das sind zwei sehr wichtige europäische Forschungsprojekte. An meinem Lehrstuhl gibt es zudem einen großen Schwerpunkt zum Thema Robustheit von neuronalen Netzwerken. Dabei geht es darum, sicherzustellen, dass beispielsweise bildverarbeitende KI, basierend auf neuronalen Netzen, nicht durch Manipulation dazu gebracht wird, Dinge falsch zu erkennen – und beispielsweise statt einem “Stopp-Schild” ein “30 km/h” sieht. Die Beherrschung dieser gut bekannten Risiken bringt erhebliche Herausforderungen in der Forschung mit sich, an denen wir an der RWTH intensiv arbeiten.

Auch im geistes- und sozialwissenschaftlichen Bereich gibt es an der RWTH sehr wichtige und deutschlandweit führende Aktivitäten zu Sicherheitslösungen in der KI: Meine Kolleginnen Professorin Saskia Nagel aus dem Profilbereich Information & Communication Technology (ICT) und Professorin Verena Nitsch aus dem Institut für Arbeitswissenschaft verfolgen eine Blickweise aus der Ethik und Arbeitspsychologie, die sich mit möglichen Auswirkungen von KI-Risiken in der Arbeitswelt und Gesellschaft auseinandersetzt.

“Generative KI-Systeme erfüllen Kriterien für Vertrauenswürdigkeit nicht”

Was macht die RWTH, um vor ständig ändernden Bedrohungen wie Missbrauch von KI zu schützen?
Aktuell werden an der RWTH keine KI-Systeme im großen Maßstab eingesetzt. Das wird sich aber vermutlich bald ändern. Da wir hier vor Ort deutschland- und europaweit führende KI-Expertise haben, unterstützt das KI-Center gerne, um grobe Fehler zu verhindern. Da ist die RWTH sicherlich wesentlich besser aufgestellt als viele kleine und mittelständische Unternehmen, die keine KI-Expertise im Haus haben.

Die generativen KI-Systeme sind bislang von Expertinnen und Experten bezüglich ihrer Risiken und Grenzen nicht wirklich gut verstanden. Daher ist es besonders wichtig, dass die RWTH Grundlagenforschung betreibt. Denn nur so können wir sicherstellen, dass überhaupt ein vernünftiges Bewusstsein für diese Risiken, Herausforderungen und mögliche Probleme erzielt und öffentlich zugänglich gemacht wird. Wenn führende Industrieunternehmen, die KI-Entwicklung betreiben, Schwächen in ihren Systemen sehen, sind diese nicht unbedingt daran interessiert, das in der Öffentlichkeit kundzutun. Zum einen könnte das dazu führen, dass die Schwächen noch stärker ausgenutzt werden, zum anderen könnte das schlecht für das Geschäft sein. Daher ist es auch nachvollziehbar, dass solche Probleme hinter verschlossenen Türen gelöst werden. Auf der anderen Seite ist es wichtig, dass im öffentlichen Raum Informationen bezüglich der Grenzen und Schwächen dieser Systeme verfügbar sind. Aktuell gibt es bei generativer KI eine Menge Schwächen. Die aus hochrangigen Mitgliedern bestehenden Expertengruppe der Europäische Union hat 2019 einen Bericht zum Thema vertrauenswürdige KI herausgebracht, in dem sieben Kriterien für Vertrauenswürdigkeit von KI-Systemen definiert werden. Diese Kriterien bilden auch eine wichtige Grundlage für die KI-Verordnung. Aus meiner Expertensicht erfüllen ChatGPT und andere generative KI-Systeme keines dieser sieben Kriterien.

Ich kann gut nachvollziehen, dass KI für viele Unternehmen sehr interessant ist. Aber es ist gleichzeitig auch ein Spiel mit dem Feuer, weil man Systemen vertraut, die bislang nicht bis in die Tiefe verstanden sind. Es gibt Bereiche, in denen der Einsatz von KI-Technologie sicherlich unproblematisch ist. In anderen Bereichen hingegen wäre ich sehr vorsichtig, was den Einsatz von KI angeht. Deswegen sollte man beispielsweise die Entscheidung von Microsoft, KI so breit und aggressiv herauszubringen, mit einiger Vorsicht betrachten. Ein Großteil der Verantwortung für den vernünftigen Einsatz dieser Systeme liegt in meinen Augen bei den Firmen, die diese Dienste in ihre Abläufe und Produkte integrieren. Es ist wichtig, dass in den Bereichen KI-Zuverlässigkeit und -Sicherheit mehr Grundlagenforschung betrieben wird, damit man eine bessere Basis hat. Einiges dieser Grundlagenforschung muss dringend für die Öffentlichkeit verfügbar und transparent stattfinden, an Institutionen wie der RWTH. Die Sicherheitskultur, die Europa hat, ist eine andere als in den USA. Damit gibt es für uns Europäer eine enorme Chance, in der KI-Sicherheit und -Zuverlässigkeit noch eine führende Rolle einzunehmen.

“Die RWTH ist in der Grundlagenforschung zu den Themen Zuverlässigkeit und Sicherheit ideal positioniert”

Welche Maßnahmen sollten ergriffen werden, um Europa in der KI-Entwicklung voranzubringen?
Wir sind in Europa aktuell deutlich abgeschlagen in der KI-Entwicklung. Daher gibt es in der Wirtschaft, aber durchaus auch in der Politik das Missverständnis, dass unsere Zukunft darin bestehen sollte, KI in den Industriebereichen anzuwenden, in denen wir bereits Vorreiterrollen einnehmen. Das ist eine sehr gefährliche und problematische Einschätzung, weil wir uns dadurch stark abhängig machen und insbesondere damit nicht auf die sich ständig ändernde Bedrohungen und Herausforderungen im Bereich KI-Sicherheit vernünftig reagieren. Die einzige Möglichkeit, wie wir uns mit unserem europäischen Verständnis von Sicherheit und Zuverlässigkeit gut positionieren können, ist, indem wir Grundlagenforschung und anwendungsorientierte Forschung im Bereich KI-Sicherheit und -Zuverlässigkeit zusammenbringen. Das ist der Schlüssel. Man kann nicht nur die Grundlagenforschung und die Systeme, die woanders gebaut werden, anwenden und dadurch Sicherheit erreichen wollen. Die Sicherheit muss, wie bei jedem technischen System, von Anfang an eingeplant und eingebaut sein. In der KI funktioniert das nur, wenn man dringend nötige Grundlagenforschung in diesem Bereich macht. Deswegen glaube ich, dass die RWTH, in der Grundlagenforschung zu den Themen Zuverlässigkeit und Sicherheit seit der Gründung in Bezug auf andere technische Systeme im Vordergrund steht, ideal positioniert ist – nicht nur in NRW und in Deutschland, sondern auch in Europa und der Welt. Das sieht man beispielsweise daran, dass Google DeepMind und das CERN sich sehr stark für das interessieren, was wir an der RWTH im Bereich KI-Sicherheit machen. Wir spielen aktuell weit vorne mit, können aber noch viel mehr erreichen. Dazu braucht es die Unterstützung seitens der Landes- und Bundesregierung sowie der Europäischen Union, um weltweit eine Führungsrolle zu übernehmen.
Welche Potenziale sehen Sie in der Künstlichen Intelligenz in unserer Region?
Auf der Pressekonferenz „Von der Kohle zur KI“ hat NRW-Ministerpräsident Hendrik Wüst deutlich gemacht, dass beides für unsere Region essenziell ist. Menschen aus dem Rheinischen Revier machen sich Sorgen um ihre Zukunft, aber auch Hoffnungen. Das, was wir in unserer Region schaffen müssen, ist, von der Technologie von gestern in einem mutigen Schritt auf die Technologie von morgen umzusatteln. Die Tatsache, dass Microsoft sich entschieden hat, im Rheinischen Revier in einen KI-nahen Bereich, nämlich den Aufbau von Datenzentren, zu investieren, ist ein sehr gutes Zeichen. Die großen Unternehmen nehmen das Potenzial unserer Region wahr. Wir haben die Kapazität, noch mehr Talente auszubilden und wir haben in der Industrie den Bedarf und das Potenzial, KI-Themen vernünftig umzusetzen. Aus meiner Sicht war das ein sehr kluger Schachzug von Microsoft und ein gewaltiges Kompliment für unsere Region.

Es wäre schade, wenn Microsoft das einzige große Unternehmen bleibt, dass sich im Rheinischen Revier ansiedelt und diese Entwicklung nach vorne treibt. Ich wünsche mir sehr, dass hier auch deutsche und europäische Unternehmen einsteigen, damit vor Ort Alternativen zu den Produkten aus den USA geschaffen werden. Eine Talentschmiede wie die RWTH spielt hier eine entscheidende Rolle. Der KI-Bereich von Microsoft ist nicht dadurch groß geworden, weil Microsoft viel Zeit in dessen Aufbau investiert hat, sondern weil sie mit OpenAI eine kleine Organisation, die sehr schnell sehr gut geworden ist, aufgekauft haben. Solche kleinen, neuen Organisationen, also Start-ups beispielsweise, produziert die RWTH. Die Start-ups liefern Wert und bringen viel Energie in den wichtigen Strukturwandel ein. Durch unsere Ingenieurkultur wird die KI-Technologie sicherer, zuverlässiger und nachhaltiger. Wir brauchen die Technologien dringend in verschiedensten Anwendungsbereichen. Um das vielfältige Potenzial verantwortungsvoll auszunutzen, müssen wir unsere Möglichkeiten in der Grundlagenforschung weiter ausbauen und ausschöpfen.