Herr Professor Becker, beginnen wir mit einer Einschätzung: Künstliche Intelligenz (KI) – Segen oder Fluch?
Lassen Sie mich mit einer Gegenfrage antworten: Ist ein Schraubenzieher eine gute oder eine schlechte Sache? Denn eigentlich ist auch die Künstliche Intelligenz in erster Linie nichts anderes als ein Werkzeug. Und in diesem Zusammenhang kommt es darauf an, was man damit tut. Ich könnte mit einem Schraubenzieher zum Beispiel einen Revolver zusammenschrauben und damit etwas erschaffen, mit dem man Menschen schadet. Oder ich kann etwas Tolles bauen, das nützlich ist und Freude bringt. So ähnlich ist es mit der KI – es gibt Anwendungen, die sehr hilfreich sind, und andere sind nicht gut, wenn sie falsch oder unreflektiert eingesetzt werden.
Ich selbst hatte einmal vor Jahren eine ziemlich schlechte Schufa-Bewertung und wusste gar nicht warum. Dann hat sich herausgestellt, dass es einfach daran lag, dass ich öfter umgezogen bin, was mein Job nun einmal mit sich bringt. Damals gab es aber offensichtlich im Bewertungsprogramm der Schufa eine Regel, die besagte, dass ein häufiger Wohnortwechsel negativ auszulegen ist. Und schon entsteht ein Problem, wo eigentlich gar keines ist.
Seit wann beschäftigen Sie sich denn mit Künstlicher Intelligenz?
Ich bin kein KI-Forscher, aber ich habe das Thema vor rund 30 Jahren kennengelernt und es seitdem als informierter Informatiker begleitet.
Welche Entwicklungsstufen haben Sie in diesem Zeitraum beobachtet?
Zunächst einmal wurde ja schon seit den 60-er Jahren versucht, mithilfe von Künstlicher Intelligenz explizite Expertensysteme zu modellieren. In der Wirtschaftsinformatik hat man beispielsweise Bankensysteme modelliert, um daraus Schlüsse ziehen zu können, wie Konten, Aktivitäten und Finanzströme zusammenhängen. Damals ist man allerdings krachend gescheitert, weil die Begriffswelten einfach viel zu kompliziert waren. Und natürlich auch, weil es zu aufwändig war, die notwendigen Daten zu beschaffen, um die Systeme umfassend zu trainieren.
In anderen Bereichen war das ähnlich, und dann war das ganze Thema erst einmal tot. Was folgte, war der sogenannte KI-Winter – die Experten waren sich einig, dass das mit der Künstlichen Intelligenz so erstmal nicht funktioniert.
Ab wann hat sich das Blatt gewendet?
Man könnte sagen, dass der große Knackpunkt letztendlich Katzenbilder waren – damit meine ich das Internet mit seiner riesigen Datenmenge. Die unzähligen Bilder von Katzen, die die Nutzer gepostet haben, sind einfach das perfekte Beispiel, denn irgendwann hat sich jemand gedacht: „Mensch, wenn ich im Internet eine Milliarde Bilder von Katzen finde, dann kann ich doch einer Maschine sicher beibringen, wie eine Katze aussieht!“
Die Ansammlung unzähliger Daten ging außerdem mit einer extremen Hardware-Entwicklung einher, es trafen also große Datenmengen auf große Hardware-Fähigkeiten. Das war dann wie ein großer Knall, der alle früheren Probleme auf einmal gelöst hat, denn wir Nutzer liefern fortwährend freiwillig neue Daten zu allen möglichen Themen, mit denen man eine KI füttern kann.
Der Deal ist: Ich gebe Dir einen bestimmten Service wie etwa Social Media oder ein Programm, und dafür erhalte ich von Dir Daten. Und so kann die Software plötzlich Bilder erstellen, Texte übersetzen oder generieren und mittlerweile auch ziemlich gut programmieren.
In welchen Bereichen sehen Sie denn die schnellsten Entwicklungen?
Da wäre als Erstes natürlich die Bilderkennung zu nennen, die unter anderem in Autos genutzt wird, um Passanten, Tiere, Schilder und so weiter zu erkennen. Dann die Spracherkennung und letztlich alles Generative. All das entwickelt sich in einer rasanten Geschwindigkeit – die KI-Modelle erledigen ab einem bestimmten Punkt selbst Aufgaben, die zu Beginn gar nicht explizit in die Software reinprogrammiert wurden. Und das führt dazu, dass wir zum Beispiel Betrug in Steuerdaten aufdecken können, Filme generieren, Literaturstudien machen, Tutoren an der Uni ersetzen, Autos autonom fahren lassen. Diese ganzen Sachen sind teilweise schon möglich oder kurz davor zu funktionieren.
Das hat doch sicher auch Auswirkungen auf die Studiengänge bei Ihnen an der Universität?
Wir haben seit Kurzem ein spezielles KI-Institut mit derzeit vier KI-Professionen, angedacht sind insgesamt sieben. Aber die Forschung zieht sich natürlich durch alle Bereiche. Man könnte so flapsig sagen, dass die IT sich bisher vor allem in die sogenannten „Blue-Collar-Berufe“ hineingedrängt hat, in denen Roboter körperliche Tätigkeiten übernehmen, die bisher Menschen gemacht haben. Und jetzt dehnt sie sich eben auch auf die sogenannten „White-Collar-Arbeiter“ aus, die bisher recht sicher waren, weil sie Wissensarbeiter sind. Dieses Wissen bekommt man nun allerdings per KI mehr und mehr in den Griff.
Können Sie uns ein paar Beispiele nennen?
Gerade der klassische Mittelbau ist davon betroffen, also die Sachbearbeiter-Ebene, auf der Aufgaben sehr routiniert und repetitiv anfallen. Aber auch viele kreative Berufe trifft es, etwa im Marketing oder in der Filmindustrie – ich kann Filme generieren, Bilder, Logos und so weiter. Ich muss mein Bild nur noch beschreiben, ich muss es gar nicht mehr malen. Es gibt Projektionen, die vorhersagen, dass in den nächsten zehn Jahren ganze Berufsgruppen wegfallen werden.
Wo Berufe wegfallen, entstehen natürlich auch neue – welche Kompetenzen brauchen wir künftig?
Ich skizziere das beispielhaft einmal für meinen Fachbereich Software Engineering, in dem wir im Hinblick auf die Nutzung von KI ja auch erst am Anfang stehen und sich alles rapide ändert. Sicher ist, dass das sogenannte „Prompt Engineering“ ein neuer Skill ist, den wir künftig brauchen werden: Korrekt und sauber beschreiben, was wir haben wollen. Das fiel den Studenten ehrlich gesagt schon immer schwer, doch jetzt ist es eine zentrale Fähigkeit geworden, weil man die Lösung gar nicht mehr selbst erarbeiten muss, sondern sie generieren lässt.
Dazu kommt die Fähigkeit, eine generierte Lösung auch richtig zu bewerten. Auch das musste ich früher machen, aber jetzt wirft mir die KI ganz schnell Lösungen aus, und ich muss erkennen, ob es in die richtige Richtung geht, ob alles abgedeckt ist oder ob ich den Prompt ändern und meine Beschreibung verfeinern muss. In vielen Berufsfeldern wird das ähnlich sein.
Da stellt sich die Frage, ob Künstliche Intelligenz nicht schon viel mehr kann als dem Nutzer freigegeben wird – welche Anwendungstechnologien werden uns denn in den kommenden Jahren noch zugänglich gemacht?
Wir sehen ja, was wir bisher so schon bekommen haben. Jeder kann mittlerweile Bilder und Texte generieren, Large Language Models sind heute schon Teil vieler Arbeitsprozesse. Wo es allerdings hingeht, ist extrem schwer zu sagen. Alle versuchen ja, KI bei sich zu integrieren. Wirtschaftsbereiche, Steuerberater, Journalisten, Anwälte, Forscher, Lehre – es gibt wahrscheinlich kaum ein Gebiet, das gar nicht betroffen sein wird.
Wir dürfen aber nicht vergessen, dass es sich an vielen Stellen auch nur um eine Unterstützung handeln wird. Wir hatten ja schon früher einmal geglaubt, dass die Roboter künftig alles übernehmen und wir nur noch am Strand mit einem Cocktail sitzen werden. Das ist dann nicht ganz so gekommen. Mit den KI-Lösungen erhofft man sich auch jetzt wieder die eierlegende Wollmilchsau, doch wir werden auch hier erkennen, was alles nicht funktioniert.
Zum Schluss bitte noch einmal eine Einschätzung: Wird es irgendwann die „Terminator-KI“ geben, die die Menschheit beherrscht?
Also realistisch kann das heute keiner sagen, und es wird sich wohl auch niemand so weit aus dem Fenster lehnen und behaupten, dass es so kommen wird. Tatsächlich müssten die ganzen KI-Systeme erst einmal so vernetzt sein, dass es möglich wäre, eine Art Masterplan zu entwickeln und zu verfolgen. Und es gibt natürlich sogenannte „Safety Shields“, die bewusst in KI-Komponenten integriert werden, um eben alles abzufangen, was nicht passieren darf. Wenn jetzt zum Beispiel der autonom fahrende Tesla behaupten würde, vor ihm stehe ein Elefant, dann würden wir wohl doch dem Fahrer erst einmal wieder das Steuer übergeben, weil das eben nicht plausibel ist – zumindest nicht bei uns in Europa.
Wenn man den Entscheidungsraum der KI also bewusst definiert, wird es Bereiche geben, in denen sie gar nichts machen darf. Diese Leitplanken sind ja selbst bei menschlichen Programmierern wichtig, und wenn das gemacht wird, sehe ich ehrlich gesagt keine Gefahr, dass die Künstliche Intelligenz irgendwann einmal übernimmt. Voraussetzung ist allerdings, dass diese Beschränkungen auch wirklich festgelegt werden.
Herr Professor Becker, wir danken Ihnen für das Gespräch.
Prof. Dr.-Ing. Steffen Becker leitet die Abteilung Softwarequalität und -architektur am Institut für Software Engineering der Universität Stuttgart. Darüber hinaus hat er zahlreiche weitere Funktionen inne, unter anderem Prüfungsausschussvorsitzender der Lehramtsstudiengänge Informatik, Fachstudienberater Lehramt Informatik, Mitglied im Senatsausschuss Lehrerbildung, Sprecher der GI Fachgruppe Architekturen und Leiter des Transfer- und Gründerzentrums (TGZ) „TSS – Trustworthy Software Systems“ der TTI GmbH.
Die Fragen stellte Dr. Philip Wenger, Geschäftsführender Gesellschafter der expertalis GmbH.