Dank ChatGPT oder Midjourney sind generative KI-Tools inzwischen in aller Munde und führen uns das rasante Innovationstempo in der Entwicklung von Artificial Intelligence tagtäglich vor Augen. Um das immense Potenzial von KI auch in der Industrie heben zu können, müssen wir aber noch einen Schritt weiter gehen, erklärt Prof. Dr. Dr. h.c. Michael ten Hompel, geschäftsführender Institutsleiter am Fraunhofer IML.
Herr Prof. ten Hompel, bei kaum einer anderen Technologie können wir ein ähnlich hohes Innovationstempo feststellen wie bei KI. Wie bewerten Sie den aktuellen Stand der Entwicklung?
Eigentlich war die Entwicklung vorhersehbar. Wie schon in unserem ersten Interview im Sommer 2019 gesagt, wird die Digitalisierung von allem und die Künstliche Intelligenz in allem alles für uns alle fundamental verändern. Atemberaubend ist für mich jedoch im Moment vor allem die Geschwindigkeit, mit der sich zum Beispiel große Sprachmodelle wie ChatGPT in den letzten Monaten entwickelt haben. Wir sehen eine exponentielle Entwicklung, die wir als echte Zäsur wahrnehmen und auf einmal stellen wir fest, dass wir bereits in einer veränderten Welt leben. Künstliche Intelligenz ist bereits zum täglichen Handwerkszeug geworden und wir steuern nun auf eine KI zu, die nicht nur Auskunft gibt, sondern schon bald auch aktiv steuern, verhandeln oder planen wird.
Sozusagen KI mit Esprit. Wieweit sind wir davon noch entfernt?
Die laufende Diskussion über KI konzentriert sich derzeit oftmals nur auf diese Zukunft, sei es in Form dystopischer Ängste vor einer superintelligenten KI, die die Menschheit beherrscht, oder in Form utopischer Träume von einer KI, die alle unsere Probleme löst. Diese Diskussion ist wichtig, lenkt aber von den Möglichkeiten ab, die wir bereits heute in Händen halten. Die Gegenwart zugunsten der Zukunft zu ignorieren, kann zu verpassten Möglichkeiten führen. Dies gilt für die Technologieentwicklung ebenso wie für die Regulierung, Bildung oder die gesellschaftliche Bereitschaft für ein KI-Zeitalter, in das wir bereits eintreten.
Warum ist das so?
Al Bartlett hat es in seinem Buch „The Essential Exponential“ auf den Punkt gebracht: Die größte Schwäche der Menschheit ist, dass wir die Exponentialfunktion nicht verstehen. Immer wieder erscheint es uns so, als ob exponentiell verlaufende Entwicklungen fast schlagartig eintreten. Man hat das Gefühl, man wird morgens wach und die Welt hat sich verändert, obwohl an einer Entwicklung, wie in unserem Fall die der KI, schon seit Jahrzehnten gearbeitet wird.
Kommen wir damit echter Intelligenz jetzt wieder ein großes Stück näher?
Man könnte sagen, die KI wird „immer stärker“ und sie nähert sich offensichtlich dem an, was wir als intelligent und kreativ empfinden. Von einem echten Selbstbewusstsein, dem berühmten Cogito-ergo-sum-Moment, sind wir aber noch ein gutes Stück entfernt. Im Fall ChatGPT handelt es sich immer noch um einen sogenannten Transformer, der seine Antworten dekodiert. Er verdankt seine überraschenden Fähigkeiten nur dem Training mit sehr großen Datenmengen und einem hochdimensionalen Netz mit Billionen von Parametern.
Heißt neudeutsch, die KI à la ChatGPT übersteigt bereits verstandestechnisch unsere Capacity?
Solche KI-Systeme sind oft so komplex und undurchsichtig, dass selbst ihre Schöpfer, geschweige denn ihre Nutzerinnen und Nutzer, nicht mehr vollständig verstehen, wie sie zu ihren Ergebnissen kommen. Doch genau das macht sie so faszinierend und herausfordernd zugleich. Diese „Black- Box“-Natur der aktuell verfügbaren KI hat zu einer neuen Art des Lernens geführt, bei der wir Menschen uns auf die Ergebnisse verlassen, die uns die KI liefert, auch wenn wir ihre inneren Abläufe nicht völlig durchdringen können. Das heißt, wir lernen durch die Anwendung, die Nutzung und das Experimentieren mit diesen Systemen, anstatt durch das vollständige Verstehen ihrer Funktionsweisen. „Lernen, was wir nicht verstehen“ - dieser Ausdruck beschreibt aus meiner Sicht die aktuelle Situation. Es handelt sich auch um ein neues Paradigma des Lernens. Ich denke in diesem Kontext aber auch, wir sollten uns nicht allein darauf konzentrieren, den Menschen und sein Verhalten, zum Beispiel mit solchen großen Sprachmodellen, zu imitieren und das Erreichen menschlicher Intelligenz zum alleinigen Maßstab zu erheben – insbesondere nicht in industriellen Anwendungen.
Wieso nicht?
Lassen Sie mich das an einem Beispiel erklären: Wir beschäftigen uns seit vielen Jahren mit Schwärmen autonomer Fahrzeuge. Es war naheliegend, deren Verhalten mit naturidentischen Verfahren wie in einem Armeisenschwarm zu organisieren. Wir haben aber im Laufe der Entwicklung gelernt, dass selbst so ein kleines Gehirn wie das einer Ameise mit aktueller Rechnertechnik kaum nachzuahmen ist. Zum anderen sehen wir, dass ein natürlicher Schwarm ganz anderen Gesetzen und Zielen folgt als in einer industriellen Anwendung erforderlich. Bei den Tieren geht es eben häufig um Futter und Vermehrung und nicht um das Sortieren von Paketen. Andererseits haben unsere Computer Fähigkeiten, die kein Lebewesen beherrscht – insbesondere, wenn es um die Speicherung und Verarbeitung großer Datenmengen geht. Das hat uns zu dem Schluss geführt, dass wir eine virtuelle Umgebung schaffen müssen, in der Computer in geeigneter Weise und mit der ihnen eigenen Geschwindigkeit lernen können. Dies führte zu dem Forschungsthema »Simulationsbasierte KI«. In einer Computersimulation können Milliarden von Varianten durchgespielt und neue Lösungen gelernt und auf die Realität übertragen werden – vorausgesetzt das Modell der Realität in der Simulation ist genau genug. So können wir neue Lösungen finden, für Probleme, die wir algorithmisch nicht lösen konnten. Wir lernen, was wir nicht verstehen. Das gilt für den Schwarm in besonderer Weise. Wenn sie zum Beispiel einen Schwarm von 62 Fahrzeugen haben, dann ist allein die Anzahl der möglichen Wegekonstellationen schon größer als die Zahl der Atome im Universum. Bei solchen Betrachtungsräumen stoßen viele klassische Methoden und der Mensch an ihre Grenzen.
KI wird also künftig vor allem auch als Komplexitätsenabler gebraucht?
Genau. Und jetzt muss neben den „einfachen“ Quelle-Ziel-Beziehungen noch die Lastverteilung, die Route jedes einzelnen Fahrzeugs und die Anzahl und Lage der Abgabestellen optimiert werden. Spätestens dann fliegt uns der Betrachtungsraum schon mal um die Ohren, denn die Komplexität steigt in Summe superexponentiell. Hier nutzen wir die Simulation – auch, da das Maschinelle Lernen in der Realität viel zu lange dauern würde. Am neu gegründeten Lamarr Institute for Machine Learning and Artificial Intelligence der TU Dortmund, Universität Bonn und den Fraunhofer-Instituten IAIS und IML (gefördert vom BMBF und dem Land NRW) arbeiten wir an einer triangularen KI der dritten Generation, in der Daten, Wissen und Kontext zusammengeführt werden. Wir schaffen gerade über 100 neue Stellen und berufen elf Professuren im KI-Bereich und die simulationsbasierte KI ist eines der großen Zukunftsthemen, an denen wir arbeiten.
Müssen wir uns dann nicht spätestens jetzt nochmals eingehend Gedanken über den kategorischen Imperativ von KI und unser Zusammenleben mit intelligenten Maschinen machen?
Auch mit dieser Fragestellung befassen wir uns weiter sehr intensiv. Ich muss aber leider zugeben, dass wir dabei noch zu keiner Lösung gekommen sind. Eine allgemein vertrauenswürdige KI oder Trustworthy AI bleibt erst einmal eine Vision. Ich würde in diesem Zusammenhang auch eher von „maschineller Verantwortung“ sprechen wollen. Damit adressieren wir die wichtige Frage, wie wir Verantwortung mit Maschinen teilen, die wir nicht völlig verstehen. Und wie können wir sicherstellen, dass sie in einer Weise arbeiten und Anwendung finden, die unseren Normen und Werten entspricht? Gleichzeitig bietet KI uns die Möglichkeit, komplexe Zusammenhänge zu begreifen, die uns herkömmliche Methoden nicht vermitteln können. Ein Paradebeispiel ist die exponentielle Natur vieler dringender Probleme unserer Zeit. Dank des exponentiellen Fortschritts der KI sind wir in der Lage, der Dynamik globaler Entwicklungen wirksam zu begegnen. Mit Hilfe der KI können wir potenziell beängstigende Entwicklungen in den Griff bekommen. Das ist die große Chance, die sich uns gegenwärtig bietet – wir können mit KI lernen, was wir sonst nicht in der Lage wären zu verstehen.
Ist eine „maschinelle Verantwortung“ nicht ein Widerspruch in sich?
Auf den ersten Blick schon, denn Verantwortung als zutiefst menschliches Phänomen beruht auf dem Dreiklang aus Subjekt, dem Menschen und dem Objekt, also seiner Umgebung und den gesellschaftlichen Normen. Verändern sich die Umgebung und die Normen, passt sich das Subjekt und in Zukunft auch das Objekt an.
Es lernt sozusagen.
So könnte man sagen. Wichtig dabei ist allerdings, dass dieses Lernen nicht vorherbestimmt ist. Denn wenn es so wäre, bräuchte ich die KI ja nicht, sondern hätte ein regelbasiertes System. Wir können den eben erwähnten Schwarm aber nur bedingt über Regeln steuern, sondern müssen damit leben, dass die KI ihr Verhalten ändert. Und genau in diesem Moment ist jetzt die große Frage, wie die Normen aussehen, die diese Verhaltensänderung bestimmen. Noch vor wenigen Jahren wurde diese Diskussion als abgehobenes, philosophisches Konstrukt abgetan. Heute würde das glaube ich niemand mehr behaupten. Zumal eine „maschinelle Verantwortung“ in den USA ganz anders aussehen kann als in China beispielsweise. Eben weil die jeweiligen Kulturen und geltenden gesellschaftlichen Regeln sehr unterschiedlich sind.
Wie kommen wir denn dann jetzt zu diesen KI-Normen, die doch weltweit gelten sollten?
Das ist unheimlich schwer zu fassen, auch wenn die EU bereits vor fünf Jahren damit begonnen und unlängst eine neue, bemerkenswerte Version des „AI act“ vorgelegt hat. Es ist einfach sehr schwierig diesen Widerspruch zwischen lernenden Systemen und einem Normengerüst, das Regeln vorgibt, aufzulösen. Geschweige denn, einen verbindlichen Umgang global umzusetzen, auch wenn wir uns als Weltbevölkerung sicherlich auf einige Grundwerte einigen könnten, wie es in der UN-Charta auch schon geschehen ist. Deshalb kann ich nachvollziehen, wenn z. B. Elon Musk ein halbjähriges Moratorium in der KI-Entwicklung gefordert hat, um sich darüber klar zu werden und ein Zeichen zu setzen.
Geschah das nicht auch, weil seine und unsere Angst vor einer starken Super-KI berechtigt ist?
Dass so eine KI irgendwann kommt, ahnen wir und auch Elon Musk sicherlich schon länger. Es hilft aber nicht, auf Entwicklungen wie etwa ChatGPT mit verhindernder Gesetzgebung zu reagieren, wie es in einigen Ländern der Fall war. Wir müssen vielmehr offen sein und uns aktiv an diesen Entwicklungen beteiligen und die Möglichkeiten nutzen, die sich uns bieten. Was mich und ich glaube auch Musk viel stärker überrascht, ist die Geschwindigkeit, mit der wir uns auf so eine starke KI und ganz am Ende eine Singularität zubewegen. Nicht umsonst hat er, kurz nachdem er öffentlich gewarnt hat, ja selbst eine weitere KI-Firma gegründet, um den Zug nicht zu verpassen. Wir befinden uns gerade an dem Moment, an dem sich die Kreise schließen.
Was bedeutet das?
Wir leben in einer Zeit, die sich aufgrund der immer stärker KI-basierten Prozesse in unserer vollautomatisierten Welt so stark beschleunigt, dass wir Menschen sie auf lange Sicht ohne maschinelle Hilfe nicht mehr beherrschen können. Trotzdem müssen wir zu jeder Zeit den Stecker in der Hand behalten.
Wo nehmen Sie diese exponentielle Beschleunigung in der Industrie wahr? Können Sie uns Beispiele nennen?
Es beginnt im Kleinen, etwa mit intelligenten Sensoren, die KI z. B. für die Bildanalyse oder Objekterkennung nutzen. Und daraus ergeben sich auch neue Use Cases. Wir haben z. B. zwei Verteilzentren eines großen Logistikers mit insgesamt 1.000 Kamerascannern ausgestattet, die mittels Objekterkennung die kompletten Zentren analysieren. Fragen wie etwa „Wo steht welche Palette und welche Dimensionen hat sie?“ aber auch „Wie kann der nächste Lkw optimal gepackt werden?“ können so technologisch beantwortet werden. Das Spannende daran ist auch nicht nur, dass es funktioniert, sondern dass ein Logistikdienstleiter wie Dachser diese Investition gewagt hat und jetzt sogar weitere Verteilzentren mit dieser Technik ausstatten will. Ein weiteres Beispiel liegt im Internet der Dinge und einer scheinbar simplen Anwendung in der Abfallwirtschaft (s. Info-Kasten). Dort haben wir die Wertstofftonnen eines Entsorgers mit kleinen Sensoren ausgestattet, die den Füllstand und noch ein paar weitere Parameter messen und anschließend ihre Abholung selbständig und verbindlich an den Entsorger melden und auf einer Blockchain buchen. Laut dem Unternehmen spart man durch den Einsatz tausender dieser intelligenten Sensoren bis zu 30 % Ressourcen ein – unter anderem, weil keine leeren Tonnen mehr abgeholt werden. Das zeigt den enormen Effizienzgewinn solch intelligenter Lösungen. Und dabei sind wir „nur“ bei der Objekterkennung und haben z. B. die Planung komplexer logistischer Systeme noch gar nicht betrachtet.
Betreten wir hier auch bezogen auf die Industrie eine neue Welt?
Naja, zumindest haben wir die Tür schon mal einen kleinen Spalt aufgemacht und können erahnen, was dahinter ist, würde ich sagen. Solche Anwendungen finden Eingang in unsere Vision einer Silicon Economy, also einer datensouverän vernetzten Wirtschaft, die sich entlang ihrer Supply Chains über KI autonom steuert und optimiert. In unserem ersten Gespräch 2019 standen Sie hier noch ganz am Anfang. Ja und ich muss sagen, dass ich bisher kaum ein Projekt verantwortet habe, wo vor allem junge Menschen mit solcher Begeisterung mitarbeiten. Alle, die beteiligt sind, merken, dass wir hier wirklich an einer neuen Welt bauen und die eben angesprochenen intelligenten Sensoren bilden die IoT-Basis bezogen auf das Big Picture einer Silicon Economy. Dinge fangen an, ihre Umgebung wahrzunehmen und mit ein wenig KI aktiv zu handeln. Sie verbinden sich über souveräne Datenräume wie Gaia-X und die International Data Spaces mit anderen cyberphysischen Systemen und ihren Plattformen. Verfahren Künstlicher Intelligenz durchdringen absehbar die ganze Logistik und KI schließt autonome Prozessketten. Nicht nur die Logistik steht einmal mehr vor einer Zäsur und vor einem Aufbruch in ein Digitales Kontinuum.
Welche Rolle spielt dabei die Open Logistics Foundation, die 2021 gegründet wurde?
Diese durch das Fraunhofer IML initiierte und durch die Wirtschaft getragene Stiftung ist der Transmissionsriemen, um die Wirtschaft von unserer Vision der Silicon Economy zu überzeugen. Denn wenn wir es nicht schaffen, die Wirtschaft mitzunehmen, bringen unsere ganzen Mühen am Ende nichts. Wichtig ist in diesem Zusammenhang auch, dass es eine europäische Initiative nach deutschem Recht ist.
…, weil sie die sichere Dateninfrastruktur erarbeiten, die für die Silicon Economy notwendig ist?
Ja, und selbst wenn nicht jedes Projekt erfolgreich ist, wird endlich mal angepackt. Für mich ist dabei besonders wichtig, Open Source in Europa und speziell in Deutschland als gemeinsame Basis zu etablieren. Das ist zwingend notwendig, nicht um Tech-Konzernen und Hyperscalern zwangsläufig etwas entgegenzusetzen, sondern um eine eigene Infrastruktur und ein eigenes Ökosystem nach unseren Maßstäben zu entwickeln. Wir müssen uns zusammentun, damit wir die Ressourcen und das Knowhow, das wir in Deutschland zweifelsohne haben, auch zielgerichtet nutzen können. Das einhundertste Mal von High Professionals eine Schnittstelle oder andere Commodities programmieren zu lassen, können und dürfen wir uns nicht mehr leisten. Wir müssen Kapazitäten für die Entwicklung von neuen Produkten und Geschäftsmodellen freimachen.
Sehen Sie Open Source Software auch als Schlüssel für die KI-Entwicklung?
Davon bin ich zutiefst überzeugt! Gerade so große Dinge wie eine vertrauenswürdige KI können nur gemeinsam in großen Communities entwickelt werden. Wir wollen ein Ecosystem schaffen, in dem wir tauschen, was nicht wettbewerbsdifferenzierend ist und zu gemeinsamen Standards führt – sozusagen ein Linux für KI. Das ist die Idee der Open Logistics Foundation und das Motto der Stunde lautet: Lieber gemeinsam als einsam! Dabei dürfen wir aber eins nicht aus den Augen verlieren: Open Source und KI sind mächtige Werkzeuge, aber über eine humane Zukunft sollten immer noch wir Menschen entscheiden.