LLMs und KI-Agenten in der Produktion – mit Dr. Jana Kirchheim #227
Wie KI und konkrete Anwendungsfälle die Fabrik verändern
19.08.2025 38 min Tobias Herwig
Zusammenfassung & Show Notes
Wie können produzierende Unternehmen KI gewinnbringend nutzen? In dieser Episode spricht Dr. Jana Kirchheim, Industry & Partner Sales Lead bei Microsoft, mit Podcast-Host Tobias Herwig über den praktischen Einsatz von Industrial AI in der Produktion. Jana begleitet seit fünf Jahren Unternehmen dabei, mit KI neue Wertschöpfungspotenziale zu erschließen – von Predictive Maintenance bis hin zu Co-Piloten für den Shopfloor.
Im Mittelpunkt steht die Frage, wie KI-Modelle und KI-Agenten in der Industrie tatsächlich messbaren Mehrwert schaffen können:
- KI als Schlüsseltechnologie: Vom Experiment zum weltweiten Rollout
- Predictive Maintenance: Praxisbeispiel Husqvarna mit Azure IoT & Adaptive Cloud
- Wie Bots Schichtübergaben und Produktivität verbesseren
- LLMs in der Industrie: Vom Siemens Industrial Co-Pilot bis zum Industry Foundation Model
- Automatisierung im Engineering: Anforderungen analysieren, Test Cases generieren, Dokumentation beschleunigen
- Use Cases bei GEA und Continental: Von 30.000 Requirements zu klaren Tasks in Rekordzeit
- KI-Agenten vs. klassische Chatbots – was Agenten wirklich leisten
- Agentic Enterprise: Multi-Agenten-Architekturen und der Co-Pilot als User Interface
- Praktische Tipps: Wo Unternehmen starten sollten und warum Mut & Einbindung der Mitarbeiter entscheidend sind
Vernetze dich gerne mit Dr. Jana Kirchheim auf LinkedIn: https://www.linkedin.com/in/dr-jana-kirchheim-737563a/
--
Folge Tobias Herwig auf LinkedIn für die neusten Episoden und Updates: https://www.linkedin.com/in/tobias-herwig/
Wir freuen uns über dein Feedback zur Episode direkt über LinkedIn oder an podcast@fabrikderzukunft.com
Transkript
Hallo und herzlich willkommen.
Fabrik der Zukunft.
Der Podcast für Inspiration
aus Produktion und Logistik.
Mit cleveren Konzepten und smarten
Technologien für deine Fabrik.
Mein Name ist Tobias Herwig.
Schön, dass du wieder mit dabei bist,
wenn es darum geht, die Fabriken
von heute nach vorne zu bringen.
Heute reden wir darüber, wie
Hyperscaler wie Microsoft auf
die KI in der Fabrik schauen.
Wir schauen uns an.
Ja, was heißt das?
In welchen Bereichen kann ich AI nutzen?
Wie bringt es produzierende
Unternehmen voran?
Und was sind ganz praktische
Beispiele aus der Industrie?
Wir reden über LMMs über KI-Agenten
wir reden über die Frage des
Mehrwerts und natürlich gibt es auch
den ein oder anderen Praxistipp zum
Einsatz von AI in der Produktion.
Mein Gast ist heute Dr. Jana Kirchheim.
Sie ist Industry & Partner
Sales Lead bei Microsoft.
Sie hat als Motto Driving Digital
Manufacturing Growth und sie ist fünf
Jahre bei Microsoft, kommt selbst
aus dem produzierenden Mittelstand
und ist heute hier zu Gast.
Hallo Jana, herzlich
willkommen im Podcast.
Hallo Tobias, vielen Dank,
dass ich heute hier sein darf.
Ich möchte mit dir über... KI in der
Produktion reden und wenn wir über KI
reden und über Produktion reden, dann
möchte ich erstmal damit anfangen, was
beschäftigt produzierende Unternehmen?
Wie siehst du das?
Wo sind die größten Schmerzen Stand
heute im Bereich Manufacturing?
Da gibt es tatsächlich, wenn du
heute mit den Kunden sprichst
im Bereich Manufacturing, einige
kann man tatsächlich so sagen.
Ich würde sagen, mit der größte
Schmerz den wir von unseren Kunden
hören, ist der Fachkräftemangel.
Ich gebe dir mal so ein Beispiel.
Also ein Unternehmen sagte
tatsächlich zu uns, sie haben circa
zwei Drittel der Mitarbeiter in
der Belegschaft sind über 40 Jahre
alt und sogar ein Viertel über 54.
Wenn du das Institut der deutschen
Wirtschaft anschaust, dann sagen
die, dass bis 28 um die fast 800.000
Stellen nicht durch entsprechende
Fachkräfte besetzt werden können.
Und wenn man Einen Schritt weiter geht
und dann überlegt, wie viel Wissen
in den Köpfen der Menschen ist, die
dann bald verrenzelt werden und wie
wenig dieses Wissen strukturiert in
den Fabriken, im Shopfloor also bei
unseren Kunden tatsächlich erfasst
wurde, dann weiß man auch, was für
eine große Wissenslücke entstehen kann.
Zusätzlich kommt immenser
Wettbewerbsdruck.
Ein Maschinenbauer hat gesagt, wir
brauchen heute so... Zwei, drei
Jahre, um eine neue Maschine auf
den Markt zu bringen, das können
wir künftig nicht mehr so machen.
Wir müssen schneller werden.
Wir müssen aber auch effizienter und
günstiger werden in der Produktion.
Wir werden immer komplexer mit immer mehr
Systemen die Mitarbeiter heute bedienen
können muss und gleichzeitig muss er
schneller werden und das zusammenkommend
ist eine riesengroße Herausforderung
die wir heute bei unseren Kunden sehen.
Und einer hat das mal ziemlich
schön zusammengefasst, der
sagte, nee, wir wissen überhaupt
nicht, was wir alles wissen.
Und was wir eigentlich
alles machen können.
Also das wirklich nochmal so
in einem Satz zusammengebracht.
Ja, das ist eine
superschöne Zusammenfassung.
Und ja, ich glaube, das können alle,
die hier jetzt zuhören auch bestätigen.
Vor allem das Thema mit dem
Fachkräftemangel und auch der Frage,
was passiert mit dem Wissen in den
Köpfen der Leute, die auch absehbar,
das ist ja berechenbar, früher oder
später das Unternehmen verlassen.
Das ist wirklich ein großes Thema.
Jetzt sind es ja wirklich große
Herausforderungen, wenn wir jetzt
sagen, wir gucken auf vielleicht
die produzierenden Unternehmen
gerade im deutschsprachigen Raum.
Jetzt gibt es eine große Hoffnung, KI.
Und jetzt mal ein bisschen salopp
formuliert würdest du sagen, KI
löst uns alle diese Probleme?
Ich würde sagen, KI löst
tatsächlich sehr viele von den
Problemen oder hilft, die Basis zu
schaffen, diese Probleme zu lösen.
Es ist für uns eine Schlüsseltechnologie.
Und wir sind... Kann man
auch sagen, schon mittendrin.
Während wir irgendwie 2023 langsam
angefangen haben, das Ganze zu
annoncieren und ganz vorsichtig zu
testen und 2024 so ein bisschen mehr
in den Rollout gekommen sind, sind
wir heute tatsächlich mittendrin.
Das heißt, wir hatten auf der Hannover
Messe das Motto Industrial AI in Action
und das ist auch tatsächlich so, weil
Man sieht es bei unseren führenden
Unternehmen im Bereich Manufacturing,
dass die KI nicht mehr nur als
Theorie ansehen, sondern mitten dabei
sind, das auch voll auszuschöpfen.
Da gab es eine Studie von Suprastea,
die auch gesagt haben, dass die Zahl
sagt, der weltweite KI-Markt soll bis
28 auf 1,27 Billionen Dollar wachsen.
Das ist das dreifache Wachstum
und das fand ich so spannend Von
dem üblichen Tech-Marktwachstum.
Also so groß ist das Potenzial dort.
Und das aus vielfältigsten Ursachen.
Super.
Ich glaube, es gibt ja mittlerweile
auch kein Unternehmen, was
nicht irgendwo KI nutzt.
Die spannende Frage ist halt wirklich
in diesem industriellen Kontext und vor
allem auch in der Produktion Ist meine
Wahrnehmung da stehen die allermeisten
Firmen noch wirklich ganz am Anfang.
Wenn man jetzt genau in dieser Situation
ist, dass man ganz am Anfang steht, was
würdest du sagen, wo soll man da loslegen?
Also einfach machen.
Das klingt jetzt total trivial.
Aber wir sehen Firmen die machen
einen riesengroßen Plan erstmal und
sagen, was wollen sie erreichen?
Das ist sicherlich wichtig und
sicherlich auch gut zu wissen.
Aber viele haben auch natürlich
die Herausforderung dass sie
noch gar nicht wissen, was man
eigentlich alles mit KI machen kann.
So haben wir so im Prinzip unser
Ansatz oder unsere Empfehlung ist
zu sagen, zweifach vorzugehen.
Einmal zu sagen, hey, wir suchen uns
einen dezidierten Use Case gemeinsam
aus, wo wir relativ schnell Einen
Nutzen gemeinsam sehen können.
Und das ist das Schöne an KI,
man kriegt wirklich nach drei
Monaten anfassbare Ergebnisse.
Also was früher so lange Digital
Transformation Projekte von einem
Jahr oder anderthalb waren und dann
nochmal Implementierung, das ist heute
tatsächlich zusammengedampft auf drei
Monate, wo man konkreten Nutzen sieht.
Und deswegen würde ich auch jedem
empfehlen, einen konkreten Use Case
sich auszusuchen wo es wirklich wehtut.
Und parallel zu sehen, was kann
man eigentlich damit machen, wo
wollen wir damit hin und parallel
eine Strategie auszuarbeiten.
Weil ansonsten wenn man zu lange nur
in theoretischen Modellen sich bewegt,
der Wandel ist unglaublich schnell.
Die Modelle werden täglich besser.
Wenn wir sehen was wir heute mit
den Datenmodellen mit LLMs machen
können, ist das das Fast keinen
Vergleich mehr von vor einem Jahr.
Und deswegen wirklich dran zu bleiben,
kontinuierlich sich mitzuentwickeln,
das ist, glaube ich auch eine Challenge,
die wir insbesondere hier in Deutschland
noch viel mehr nutzen können.
Weil man hört gerade momentan überall
in der Presse dass Deutschland mit
der AI-Majority wirklich absinkt
dass wir das nicht können und dass
wir hinterher sind, weil uns die
Governance fehlt und die Strukturen
und wir das nicht skaliert kriegen.
Ja.
Ich glaube aber an unsere Industrie
ganz, ganz fest, weil wir, was wir
gesehen haben, also wir sind ja
immer noch führend in dem Bereich.
Und ich glaube, wenn wir da mutiger
werden, mutiger werden, Daten tatsächlich
auch zu nutzen für Zukunftsmodelle,
also Zukunftsvorhersagen, Datenmodelle
zu nutzen, um uns intern Arbeit zu
ersparen, dann sind wir auf dem besten
Wege da auch tatsächlich Fuß fassen
zu können und das gut zu machen.
Sehr gut.
Gut dass du da Mut machst, auch die
Dinge auszuprobieren und du hast vorhin
so schön gesagt, viele wissen gar nicht,
was geht, was überhaupt möglich ist
und lass uns das heute ändern in dieser
Podcast-Episode, indem wir mal ganz
praktisch zeigen, was alles schon geht
und ja, da auch wirklich mal ein bisschen
zu zeigen, was auch schon innovativ ist,
aber auch genauso praktisch umsetzbar ist.
Und als allererstes würde ich mit einem
Thema anfangen, was ganz viele kennen und
vielleicht auch recht schnell in den Sinn
kommt, wenn man über KI in der Produktion
redet nämlich Predictive Maintenance.
Das ist ein Thema, was uns wirklich
schon lange beschäftigt und
gleichzeitig interessiert Ich bei
ganz vielen Unternehmen höre, in
der Praxis ist es richtig schwierig,
da einen Mehrwert zu bekommen.
Wie siehst du das?
Habt ihr Beispiele, wo man sagen kann,
ja, Predictive Maintenance, das kriegt man
hin und das gibt genau diesen Mehrwert?
Ja, da habe ich euch tatsächlich ein
ganz schönes Beispiel mitgebracht heute.
Also Predictive Maintenance das...
Die Urherausforderung ist immer
noch die Connectivity at Scale zu
bekommen, gerade im diskreten Shopfloor
also im diskreten Fabrikumfeld.
Und das andere ist dann
tatsächlich mit den verschiedenen
Daten-Silos, die es heute gibt.
Kontinuierlich und einheitlich
Insights Einsichten über die
Daten zu bekommen, dass man die
Maschine tatsächlich steuern kann.
So wie war es denn
jetzt früher im Prinzip?
Wenn man denn mal so weit war und die
Connectivity hatte und die Daten hatte,
dann hatte ein Werker, hat dann die
Information bekommen, hat die gesehen,
konnte gar nichts damit anfangen musste
wahrscheinlich dann erstmal zu seinem
Vorgesetzten der hat dann zu einem
AI, KI-Beauftragten Gehen und dann
musste das Ganze analysiert werden,
dann waren vier Tage vorbei und bis
er zurückkam, war wahrscheinlich das
Problem schon wieder ein ganz anderes
und er wusste es gar nicht mehr.
Was wir mit Husqvarna gemacht haben, ist
ein ganz schön anschauliches Beispiel.
Also zum einen sind wir bei
Husqvarna mit unserem Adaptive
Cloud Ansatz reingegangen.
Adaptive Cloud bedeutet, dass wir
die Cloud zu jeglichem, in jegliches
Environment mit reinnehmen können.
Das heißt, sowohl bei Multiclouds
Installation-Architekturen, die wir
bei Kunden haben, als auch auf die
Edge selber, als auch komplett hybrid
und in die komplette Cloud mit rein.
Und wir haben, das ist ein Ansatz wo wir
die IT-Welt in die OT-Welt mit reinbringen
können und somit eine einheitliche
Steuerungsmöglichkeit schaffen können.
Und jedes Asset, das dann tatsächlich
in der OT-Welt ist, Kann über
Ressourcen unseren Ressource-Manager
und ARC gesteuert werden.
Also haben wir im Prinzip, und das
war nämlich die Herausforderung
von Squana, die gesagt haben,
wir wachsen unglaublich schnell.
Wir haben unsere Produktion über
Jahre immer wieder angepasst von,
ich weiß nicht, was die alles gemacht
haben Motorräder, Kettensägen und
jetzt Smart-Systems Outdoor-Devices.
Wir müssen innovativ bleiben.
Gleichzeitig wachsen
wir unglaublich schnell.
Also wir brauchen was, wo wir nicht
alles abreißen müssen, sondern auf unsere
bestehenden Architekturen aufbauen können,
was wir mit Adaptive Cloud machen können.
Und mit Azure Arc, um diese
Ressourcen zu steuern.
Darauf... Obendrauf haben sie den
Azure IoT Operations draufgesetzt,
wo sie die Daten, die sie rausziehen,
zusammen mit Fabric, das ist so ein
Datenintegrationslayer von uns, die
Insights rausziehen konnten, sodass
ein Worker tatsächlich dann in Echtzeit
diese Informationen zur Verfügung hat.
Was Sie in zwei Werken ja angefangen
haben, planen Sie jetzt mit dem
weltweiten Rollout noch in diesem Jahr.
Da sieht man auch, wie schnell
skalierbar das ist, sobald
man das einmal aufgesetzt hat.
Du hast jetzt schön die
beiden Ebenen beschrieben.
Das eine war überhaupt erstmal die
Daten zusammenzubringen mit der
Konnektivität und dann aus diesen
Daten eine Mehrwert zu erzeugen und
das ganz konkret Für den Werker sogar,
habe ich das richtig verstanden.
Also das geht dann wirklich bis runter
auf den Shopfloor dass der direkt
auf Basis dann der Ergebnisse quasi,
der Insights wie du gesagt hast,
dann entsprechend reagieren kann.
Und dann kommt eben die KI noch mit ins
Spiel, weil damit demokratisieren wir
Einsichten aus den Daten rauszukriegen
Was ich dir vorher beschrieben hatte,
was früher mühselig dann im Prinzip um
mehrere Stufen ausgehen musste, kann heute
ein Werker in natürlicher Sprache fragen.
Bei Husqvarna war das Problem, dass
die Schichtarbeiter keine Übergaben
oder nicht genügend Informationen über
die Übergaben der Schichten hatten.
Also wenn da ein Nachtschichtmitarbeiter
war und der hatte aus einer Wartung
irgendwas herausbekommen, wusste das der
in der Frühschicht nicht ausreichend.
Und so haben sie den... Ich muss
einmal den Namen, den Factory
Companion Bot ins Leben gerufen.
Der basiert auf KI und mit einem LLM,
also einem Large Language Model, kann
der Werker in natürlicher Sprache fragen,
was war denn in der Schicht davor los.
Er kriegt dann automatisiert auf
den ganzen Bedienungsanleitungen,
die natürlich da reingespeist
werden, auch gleich einen
Vorschlag woran es liegen kann.
Und jetzt wird es ganz spannend
Aufgrund der Historie der Daten
kriegt er auch gleich Vorschläge,
wie er es besser machen kann.
Das heißt, die Ausfallzeiten gehen extrem
runter und die Produktivität erhöht sich.
Schön, dass man nicht nur Informationen
bekommt, irgendwie gepusht,
sondern auch aktiv nachfragen kann.
Und das in natürlicher Sprache, das
ist dann schon ein großer Mehrwert.
Und andersrum geht es
wahrscheinlich aber auch.
Also so klassisches Sprachwissen
Predictive Maintenance zu sagen, okay,
ich kriege über die Daten dann die
Information, wann mache ich wo wie eine
Wartung, also wo werde ich dann als
Mensch aktiviert mich um meine Maschinen
und Anlagen zu kümmern, also so wird es
wahrscheinlich genauso funktionieren.
Ja, ganz genau, dass eben dieses
Vorausschauende, dass ich nicht warten
muss, bis ein Fehler passiert, sondern
dass ich aufgrund von verschiedenen
Vibrationen oder aufgrund von
verschiedenen Effekten Sensordaten schon
sagen kann, dass etwas passieren wird.
Und das ist halt, sobald wir KI
ein-einmal integriert haben in den
Bereich, kriegen wir die Daten.
Sobald wir die Daten haben, können wir
natürlich auch so Vorhersagen treffen.
Und je mehr Daten wir haben, das
kennst du selber, Tobias, desto
besser ist eine KI natürlich auch.
Super.
Tolles Beispiel und vor allem auch
toll, dass ihr da gar nicht stehen
geblieben seid beim Thema Predictive
Maintenance, sondern dann schon
weitergegangen seid mit dem Mit dem
Bot und dem LLM, Large Language Model.
Das ist ein gutes Stichwort,
weil ich weiß dass ihr in dem
Bereich LLMs auch noch mehr macht.
Und viele nutzen das ja gefühlt
mehr wie so eine Spielerei.
Und das ist schon gezeigt,
es ist viel zu klein gedacht.
Hast du noch ein anderes Beispiel,
wie man LLMs gewinnbringend in
der Produktion einsetzen kann?
Also was wir heute mit
unserem Partner machen, weil
vielleicht ein Satz noch dazu.
Die Microsoft selbst versteht
sich als... Plattform-Anbieter.
Das heißt, wir bringen die Plattform,
wir haben bei AI Plattformen wo wir
über 1900 Modelle haben, die wir
heute unseren Kunden anbieten können.
Und das nicht nur IT-Modelle, sondern
tatsächlich auch Industrie-Modelle, wo
beispielsweise Unternehmen wie eine Bayer,
eine Side Machine, eine Siemens, eine
Rockwell auch ihre eigenen Daten darauf
trainieren konnten und die nun ihren
Kunden und unseren Kunden zur Verfügung
zu stellen, sodass sie spezifische LLMs
nutzen können und Datenmodelle nutzen
können, um damit Insights zu generieren.
Und Es ist gerade der Name Siemens
gefallen, das ist einer unserer
Partner, unser wichtigsten Partner
gerade im Bereich Industrie weil
wir horizontale Plattformanbieter,
Siemens absolute Experte, was die
Vertikale oder das Vertical angeht.
Und mit Siemens machen wir beispielsweise
den Siemens Industrial Co-Pilot zusammen,
also im Bereich Shop Floor selber.
Da hast du zwei Co-Piloten
Das ist im Prinzip einer für
Engineering im Shop Floor und
einer für Operations im Shop Floor.
Der zweite wird dieses
Jahr noch live gehen.
Der Co-Pilot für Engineering
im Shop Floor der spricht PLC.
Also, ein Mitarbeiter muss eine
neue Maschine in Betrieb nehmen,
muss natürlich dafür PLC können,
muss sie einsetzen können.
Und der Siemens Industrial
Co-Pilot for Engineering hilft
dem Mitarbeiter, genau das zu tun.
Er hilft ihm, die Steuerung
mit aufzusetzen, er hilft ihm,
die Visualisierung auf dem
Maschineninterface zu machen.
Und wenn dann später...
Schwierigkeiten oder Probleme oder
Issues entstehen Im Betrieb, im
Shopfloor der Maschine haben wir den
Industrial Co-Pilot for Operations.
Der für Engineering, der ist
heute bereits bei einer Thyssen
Automation Engineering Live.
Das heißt, die planen weltweiten Rollout
noch in diesem Jahr, weil sie sagen,
dass sie damit zusammenarbeiten Ihren
Automation Engineer, die einfach auch ganz
viele verschiedene Tools haben müssen,
die ganz viele verschiedene Maschinen
haben müssen, extrem helfen können,
sich aufs Wesentliche zu fokussieren.
Also nicht mit solchen, das Codeschreiben
tatsächlich zu übernehmen weil da
kriegst du dann einen Vorschlag von einem
Copilot, wie dieser Code geschrieben
werden kann und das Ganze wird direkt
wieder, wenn du in natürlicher Sprache
was eingibst, in Code übersetzt.
Okay, also das heißt, meine
ganze SBS-Programmierung kann
dann der Co-Pilot übernehmen?
Zumindest wesentlich dabei helfen.
Und im Siemens-Gerätewerk in Erlangen
ist bereits der Co-Pilot für Operations
für Load-Maschinen implementiert.
Also das heißt, wenn ein Fehler
entsteht dann kann er den Anlagenführern
sagen... Wo könnte das Problem
liegen, was ist ein Lösungsvorschlag.
Er kann sogar helfen, den direkt zu lösen.
Okay, das heißt, er hat auch Zugriff
dann auf den SPS-Code quasi und kann
dann auch verstehen, was ist jetzt
gerade passiert, wo hängt vielleicht die
Maschine, was ist das Problem dahinter.
Ja Und was auch nochmal total
spannend ist, wir haben jetzt mit der
Siemens zusammen das EFM, Industry
Foundation Model, annonciert.
Damit wollen wir ein LLM für
die Industrie machen, gemeinsam
mit der Siemens zusammen.
Das bedeutet, dass sowas wie von
Sprache was wir klassisch hatten mit
den LLMs, was eigentlich jeder kennt,
Zwischenzeitlich auch Bildern tatsächlich
in den Industriekontext übersetzt.
Also von 2D-Zeichnungen, 3D-Modellen,
P&IDs, wo du sagst ich habe heute
eine Pumpe, die muss in eine P&ID
ausgetauscht werden und du gibst
eine P&ID rein und hast nachher mit
der natürlichen Spracheinput eine
völlig neue P&ID, die du rausbekommst.
Also das hast du im Prinzip
alles in dem Kontext zusammen.
Das eine, was sich da verändert, ich
meine, es ist schon heute nicht leicht,
gute SPS-Programmierer zu kriegen.
Entsprechend diese Je mehr wir
automatisieren, je mehr brauchen
wir da auch das Know-how.
Das heißt, die werden im
besten Fall entlastet.
Ändert sich aber auch noch mehr, wenn wir
jetzt über Programmierung und nachher auch
in Betriebnahme von den Maschinen reden?
Also ich glaube, zum einen werden
die Automatisierenden nicht nur
entlastet sondern das sind ja
Tätigkeiten, die repetitiv sind.
Das bedeutet... Keiner macht sowas
gerne und es ist meistens eine super
anstrengende Aufgabe, also schleichen
sich sehr viele Fehler ein und
was wir eben auch beobachten ist,
dass die Qualität sich wesentlich
verbessert und die Fehler zurückgehen.
Weil einfach diese repetitiven Aufgaben
von der KI übernommen werden plus
die Leute, das sehen wir bei unseren
Programmierern die GitHub Copilot nutzen,
die sind zufriedene, Wie schon gesagt,
keiner macht diese Aufgaben eben gerne.
Sehr cool.
Das ist glaube ich sofort, wenn
man da entsprechende Unterstützung
bekommt, dann freut man sich.
Das eine ist jetzt ja den Codes
programmieren Wie sieht das
aus im Engineering von Anlagen?
Können da LMMs auch unterstützen?
Ja.
Ja gerade schon so ein bisschen in die
Richtung beschrieben mit den PNIDs ja?
Ja, also da haben wir tatsächlich so
eine, das ist so tatsächlich unser
Steckenswert, da haben wir so eine
Bandbreite und zwar von ganz am Anfang
dem Requirements Engineering bis ganz
zum Schluss vom Testing, also vom
automatisierten Erstellen von Test Cases
Und der Dokumentation der Ergebnisse.
Wenn du das V-Modell kennst das ist ja
im Automotive-Sektor ganz schön, wie
die Entwicklung beschrieben ist, können
wir tatsächlich entlang der kompletten
R&D-Toolchain mit KI unterstützen.
Wir wissen heute, dass so ein klassischer
Engineer fast 60 Prozent seiner Zeit
mit administrativen Aufgaben verbringt.
Das heißt, Der arbeitet heute
noch mit E-Mails und Ähnlichem
Sucht dann irgendwelche Daten
zum Beispiel oder keine Ahnung.
Also tatsächlich manuell.
Wir sind mal daneben gesessen
und haben uns das angeguckt.
Der kriegt dann irgendwie eine Anforderung
und dann fängt er an, manuell raus
zu suchen und die Daten manuell im
Internet nochmal zu überprüfen und
die dann in der Excel einzutragen.
Und natürlich ist A, der
Frustrationslevel, die Zeit die
man braucht, sehr hoch, plus B, die
Fehlerwahrscheinlichkeit immens.
Jetzt gebe ich dir mal ein Beispiel,
was wir mit einer GEA, aber auch mit
einer Continental gemeinsam gemacht
haben, um den Engineer-to-Order-Prozess
massiv zu beschleunigen.
Eine GEA kriegt, die machen
Separatoren, große Anlagen zum Trennen
von allen möglichen Flüssigkeiten.
Und wenn die eine Anfrage für so eine
neue Anlage bekommen, dann sind das
Zehntausende von Seiten, Die sie kriegen.
Und da muss man sich vorstellen,
da stehen in den 10.000 von Seiten
sind alle möglichen Anforderungen
drin für so eine Anlage, aber nur
50% Sind wirklich relevant, ja.
Und dann sind Anforderungen drin,
die sich gegenseitig widersprechen.
Wenn das ein Hersteller nicht weiß
oder nicht merkt und anfängt falsch
zu produzieren, dann ist es in seiner
Verantwortung und er muss das im Prinzip
dann kostenintensiv wieder rückabwickeln.
Und was wir hier gemacht haben,
und das ist bei einer Gier der Fall
und bei einem Zulieferer wie einer
Continental, die, das muss ich, die Zahl
hat mich echt umgehauen, Die schätzen
37.500 Stunden für so ein Projekt an
Aufzuwenden, bis das dann mal fertig ist.
Das sind mehrere Mannjahre, also völlig
wahnsinnig Die haben 30.000 Requirements
wenn da so ein neues Projekt reinkommt.
Und was wir jetzt gemacht haben,
ist mit einer Entity Data so eine
Art AI-Shadow mit draufzulegen.
Das heißt, du Völlig easy nimmst du
deine kompletten Dokumente, die du
bekommst, packst in einen Bulk Upload in
dieses Tool mit rein, dann werden alle
Anforderungen die du hast, automatisiert,
extrahiert und in dein Tool eingefüttert
Die werden aber nicht nur das, sondern
sie werden bereits klassifiziert Ist
das irgendwie sicherheitsrelevant?
Ist das Hardware?
Gehört das irgendwie zu
einem bestimmten Bereich?
Gleichzeitig wird im Prinzip schon gesagt,
zu welchem bestehenden Produktfeature
könnte diese Anforderung passen mit
einer bestimmten Wahrscheinlichkeit
Dass du auch schon siehst was
brauchst du neu, was hast du aber
auch schon in deinem Produktkatalog.
Und dann nochmal einen Schritt
weiter, automatisiert werden
dann Tasks abgeleitet und an die
unterschiedlichen Forschungszentren
jetzt bei einer Continental, verteilt.
Damit diese Tasks dann basierend
auf den Anforderungen direkt
abgearbeitet werden können.
Und die GEA geht halt
noch einen Schritt weiter.
Die haben so ein Deep Research, so ein
Multi-Agent noch mit dazu gepackt wo
du mit deinen Requirements tatsächlich
Tief technisch chatten kannst.
Also du kannst sagen, hey,
welche Requirements gibt es denn
eigentlich in Bezug auf Noise
oder Vibrations oder Ähnliches?
Und was muss ich denn berücksichtigen?
Sodass du halt da auch wie so einen
kleinen Experten Technik-Experten, den
du 24-7 neben dir sitzen hast, Gründe
erfragen kannst und wissen kannst, warum
es eigentlich bestimmte Dinge gibt.
Finde ich spannend.
Also das eine ist wirklich die Analyse
zu machen, was du beschrieben hast.
Das kann man sich ja noch gut
vorstellen, aber dann wirklich zu
sagen, naja, ich kriege schon konkret
die ganzen Aufgaben abgeleitet.
Das ist ja wirklich nochmal an
der Top eine große Erleichterung.
Das heißt aber dann auch, wenn man das so
ein bisschen hört, kriegt man ein Gespür
dafür, wie sich dann auch so ein gesamter
Entwicklungsprozess ja auch verändert.
Also das ist zum Start so gesagt, wenn
man heute irgendwie ein, zwei Jahre für
so eine Anlage so eine Maschine braucht.
Und das verwundert ja dann nicht, wenn
man weiß, wie es heute funktioniert und
wie viele Anforderungen dahinter stecken.
Und man kriegt mal eine Idee,
wie sich das dann verändert.
Gibt es auch Vorteile für die
Produzierendenunternehmen?
Weil das eine ist ja der Vorteil
jetzt für den Maschinenbauer.
Profitieren auch die Kunden am
Ende der Maschinenbauer davon?
Also bei der GEA war es ganz klar, die
hat gesagt, und bei einer Conti genauso,
dadurch, dass wir viel schneller so
ein RFQ beantworten können und das
ist eine viel höhere Qualität weil
wir... Und auch von der Bepreisung
her natürlich viel sicherer das sagen
können, Haben unsere Kunden damit auch
einen Wettbewerbsvorteil, weil sie
schneller bessere Ergebnisse bekommen.
Das ist die eine Sache.
Weil die andere Sache ist, je nachdem,
was unsere Kunden selber herstellen,
wenn das beispielsweise Hardware mit
Software ist, können wir natürlich in
jegliches Software, die heute von einem
produzierenden Unternehmen, einem anderen
Unternehmen zur Verfügung gestellt
wird, auch Co-Piloten integrieren.
Das heißt, unsere Kunden sagen heute
schon immer Ich kaufe eigentlich
Software in so einem Bereich oder auch
Hardware mit Software in dem Bereich
nur noch wenn AI integriert ist.
Denn meine Leute müssen
schneller damit arbeiten können.
Die müssen schnellere Einsicht haben.
Und wenn ich beispielsweise wie Andritz
die haben eine Plattform, die nennt
sich Metritz, Copilot dort integriere
und direkt meinen Kunden zur Verfügung
stellen kann, dass die wiederum schneller
Predictive Maintenance machen können,
Ausfälle sehen können, sagen können,
wenn tatsächlich was passiert und auf
Ausfälle mit Vorschlägen zur Wartung
schneller reagieren können, haben wir
so ein wunderschönes Ökosystem, kann
man tatsächlich sagen, wo von Anfang
bis zum Ende jeder reagiert Jeder
davon partizipiert und profitiert.
Super, ja, das heißt, du hast es
vorhin schon beschrieben, was die ganze
Durchgängigkeit im Engineering anbelangt
aber das hört dann nicht auf, sondern
geht dann weiter bis ins Produkt.
Genau, und spannend wird es halt
dann vor allen Dingen, wenn du die
Daten aus der Produktion und aus dem
Service hast Noch nehmen kannst, wenn
du so eine Art Datenlayer oben drüber
legst der die Daten von Engineering,
Operations und Service zusammennimmt.
So eine Art wirklich Digital Thread,
das bisher ganz oft Theorie war.
Aber heute haben wir die
technologischen Möglichkeiten dazu.
Weil du hast mit Fabric einen ganz
einfachen Datenintegration-Layer, wo
du oben dann KI drauflegen kannst.
Und Fabric ist das egal,
was darunter liegt.
Und dann könntest du im Prinzip...
Von Design über Shopfloor bis hin
zu Service schauen, was passiert
eigentlich mit dem Design von
Produkt nachher im Service?
Welche Bomben brauche
ich eigentlich dafür?
Was für Fehler passieren, um im
Idealfall dann zu sagen, du spielst es
wieder vorne ins Engineering zurück?
Und da arbeiten wir auch neben einer
Siemens mit einer PTC zusammen, dieses
Multi-Agent-Framework zusammen Eigentlich
über den ganzen Prozess, genauso wie eine
Siemens, mit uns gemeinsam spannen möchte.
Ja, das ist dann, sind wir bei
dem, wo wir schon viele Jahre
über den digitalen Zwilling reden,
da wird das dann Wirklichkeit.
Genau.
Mit den entsprechenden
Fähigkeiten noch on the top.
Du hast jetzt KI oder AI Agents
genannt KI Agenten auf Deutsch.
Das ist ja auch gerade
ein ganz großes Thema.
Also wo gehen wir hin in Richtung
Agenten Ihr habt auch KI-Agenten
auf der Hannover Messe vorgestellt.
Vielleicht mal zum Start als
Unterscheidung Wie würdest du so
ein, Klassischen Chatbot von so
einem KI-Agenten unterscheiden?
Du hast auf der einen Seite so
ein Large-Language-Model und
ein Large-Language-Model ist
eigentlich die Basis von allem.
Ein Large-Language-Model von einem
klassischen Chatbot kennst du daran,
du gibst was ein und dann bekommst
du, also du promptest und dann
kriegst du eine Ausgabe zurück.
Das passiert in natürlicher Sprache.
Ein Agent ist Basiert auf einem Large
Language Model, hat aber ein genaues
Ziel, hat einen Auftrag und hat
einen Kontext dazu und kann sich auf
verschiedene Datentöpfe fokussieren
sodass du wie so eine Art Experten hast.
Also du kannst dir vorstellen, dein
Agent ist wie dein Experte, den du
normalerweise nehmen würdest, wenn du
jetzt ein Schweißproblem hast, dann
holst dir einen Materialexperten.
Wenn du ein Datenproblem hast,
holst dir deinen Datenexperten.
Und so kannst du deine Agenten
relativ einfach informieren.
Selber einrichten und stören, auf
was sie Zugriff haben, ob sie völlig
autonom sind, ob sie gesteuert werden
sollen, also du sie erst triggern musst,
bevor sie überhaupt irgendwie was tun.
Das ist wie so eine Art
Trigger Dein eigenes Team an
Experten, die für dich arbeiten.
Und dann hast du obendrauf
noch den Co-Piloten.
Und bei Microsoft sagen wir
eigentlich immer, jeder Mensch
wird einen Co-Pilot haben.
Das ist dein Assistent, das ist dein User
Interface für die künstliche Intelligenz.
Er greift auf die LLMs zu, er kann
Agenten steuern, mit dem sprichst du.
Ja, und die Agenten ist dein, jeder
Business-Prozess, jedes Problem, was
du heute hast, kann Agenten haben.
Das kann von E-Mails schreiben sein,
über Excel analysieren, über ich habe ein
Schweißproblem in meiner Produktion und
meine Agenten lösen mir, woran es liegt.
Das heißt, wenn ich das zu meinen
Worten zusammenfasse, sind die deutlich
spezialisierter und haben aber auch
noch… Eben neben dem klaren Ziel auch
nochmal spezielle Informationsquellen
oder du hast es Context genannt, dass
sie dann entsprechende Datentöpfe
haben, wo sie genau für diese eine
Aufgabe dann auch die richtigen
Informationen zur Verfügung haben.
Genau.
Was würdest du sagen, ist da der
große Vorteil von solchen Agenten?
Also warum brauche ich
Agenten in der Produktion?
Du kannst dir einen Agenten für genau
das Problem schaffen, was du hast.
Wenn wir bei unseren großen
Enterprise-Kunden anschauen, dann gibt
es Einige Use Cases die haben irgendwie
alle, also so eine Chatbot-Funktion
beispielsweise mit jeglicher Software.
Wenn ich heute meine Software fragen
kann, was muss ich denn tun, um eine neue
Funktion zu machen, dann finde ich es
ganz toll, wenn mir mein Chatbot das sagt.
Wenn der nächste Agent aber schon
darauf zugreifen kann, Welches Wissen
vorliegt und wirklich inhaltlich
mit meiner Software zu chatten.
Das ist im Prinzip der
nächste Vorteil den wir haben.
Und so ein Agent geht halt genau auf
deine individualisierten Bedürfnisse los.
Das heißt, jeder kann sich den
Agenten schaffen, den er braucht,
sein eigenes Experten-Team.
Und dieses eine Beispiel, was ich
vorher genannt hatte mit dem Schweißen
also das ist nicht sektiv sondern
Es war tatsächlich so, dass einer
unserer Kunden gesagt hat wir haben
ein systematisches Schweißproblem,
das tritt immer wieder auf.
Und die haben mit mehreren Experten
fast ein Jahr dran gesessen um
versucht, das Ganze zu lösen.
Haben es dann irgendwann gelöst,
woran es liegt und haben dann zu
uns gesagt, Microsoft, ihr sagt
immer, AI oder KI hilft für alles.
Jetzt zeigt doch mal, was ihr könnt.
Und wir haben tatsächlich erst mal unsere
Modelle, also die Agenten mit allen
möglichen Daten gefüttert die wir hatten
von Robotern über Produktionsdaten.
Alles, was sie haben.
Und haben dann vier Agenten
drumherum entwickelt.
Und das waren genau diese Experten.
Also einer war es fürs Material.
Einer war fürs Schweißen.
Einer war dafür da,
Zusammenhänge zu finden.
Einen gab es für uns so
einen Dateningenieur.
Und wir haben... Mehrere Stunden gebraucht
und sind dann zur selben Lösung gekommen.
Also wir hatten fünf Ergebnisse und
davon waren drei genau diejenigen,
die diese ganzen Experten über
ein Jahr lang eroiert hatten.
Deswegen, du schaffst ja dein
Experten-Team, das dich unterstützt.
Das fand ich jetzt aber noch
schön, wie du es beschrieben hast.
Es geht eigentlich gar nicht darum,
einen KI-Agenten für eine Aufgabe zu
haben, sondern dass man eigentlich für
einzelne Aufgaben dann verschiedene
Rollen braucht, so wie man auch Sag ich
mal, im Alltag ein interdisziplinäres
Team sich zusammenstellen würde.
Und nichts anderes ist dann die
Basis auch von diesen KI-Agenten.
Genau, richtig.
Das ist das Schöne daran.
Also wenn wir jetzt wieder bei
dem V-Modell bleiben oder bei
der Tool-Chain, dann sprechen wir
gerne von einem Agentic Enterprise.
Das heißt, von jedem Tool, von jeder
Software, die ein Unternehmen hat, Kannst
du im Prinzip einen Agent draufsetzen.
Du hast dann oben drüber so
einen Multi-Agenten-Orchestrator.
Voraussetzung ist, dass die
Agenzen immer mit demselben
Protokoll miteinander sprechen.
Aber da haben wir schon zwei
Standardprotokolle, A2A oder MCP.
Und wenn das da ist, dann kann jeder
Drittanbieter jeder, der eine Software
hat, Heute in Agenten mit draufsetzen
und dann hast du oben drüber deinen
Multi-Orchestrator, mit dem sprichst
du über den Co-Pilot und sagst was du
möchtest und der macht den automatisiert
Die Aufgaben die du möchtest.
Und ich glaube, was ganz wichtig ist,
das ist eine Unterstützung für Menschen.
Also ich mache heute nichts mehr
ohne Co-Pilot und ohne meine Agenten
weil ich gar keine Lust mehr habe,
diese... Diese Aufgaben, die früher
so viel Zeit gebraucht haben, selber
zu machen, sodass ich mich auf die
Aufgaben konzentrieren kann, wo ich
wirklich dann Mehrwert stiften kann.
Und das ist, glaube ich auch
nochmal ganz wichtig zu sagen.
Also das ist ein Co-Pilot ein Assistent.
Super.
Lass uns da jetzt auch noch ein bisschen
nach vorne schauen und als allererstes
da die Frage, das, was du jetzt
beschrieben hast mit Agentic Enterprise.
Ich habe einen Co-Piloten, ich
habe eine Architektur eigentlich
mit mehreren AI-Agents.
Ist das heute schon möglich?
Kann ich das heute schon
so umsetzen Zukunftsvision,
was du da beschrieben hast?
Beides.
Also ja, du kannst es
heute schon so umsetzen.
Wir haben schon Architekturen
mit mehreren Agenten und
Multi-Agenten-Orchestrator oben drüber.
Das entwickelt sich aber mit einer
rasanten Geschwindigkeit weiter.
Also was ich sage, was wir heute mit
Partnern machen, ist tatsächlich über
deren komplettes Software-Portfolio was
sie haben, also im Bereich Industrie
von PLM, ALM, SLM CAD, alles was man
sich vorstellen kann, aber auch bis
zum Operation MES und bis zum Service
Management, Agenten zu entwickeln, die
verschiedenste Funktionalitäten haben.
Einerseits nativ integriert in die
Software, andererseits auch, und ich
finde, dann wird das wirklich spannend,
weil große Kunden oder auch kleine Kunden,
unsere Mittelständler sagen, das ist ganz
cool, aber kann das denn auch das und das?
Sodass sie denen auch so eine Art
Toolset mitliefern, wo sie dann obendrauf
über eine Schnittstelle ihre eigenen
Agenten wiederum draufbauen können.
Also du hast dann irgendwann so ein Layer,
wo das nativ drin ist in der Software und
über eine Schnittstelle noch das drauf,
was ein Unternehmen individuell braucht,
um optimal für sich selber zu designen
zu produzieren und den Service zu machen.
Das heißt, wenn ich es richtig verstanden
habe, ist eigentlich die Vision, jede
Software bringt nachher seinen eigenen
Kunden KI-Agenten mit und ich habe da
drüber hinaus dann meine individuellen
Agenten quasi, die das Ganze dann auch
eben daneben noch weitere Funktionen
anbieten oder halt auch Experte sind dann
für die Nutzung auch am Ende der Software.
Ja, ganz genau.
Und um das mal plastisch zu machen, also
wir haben ein Beispiel gehabt mit der
Harting, wo du neue Stecker designen
kannst über so eine Schnittstelle
zusammen mit NX von der Siemens.
Wir machen das zusammen mit einer E-Plan,
wo du ganze Schaltschränke und Schallpläne
mit einem Co-Pilot designen kannst.
Und wenn unsere Kunden das sehen,
werden die auf einmal super kreativ
weil sie sagen, das ist ja toll.
Was kann ich denn damit noch machen?
Dann kommen sie zurück und haben eine
Use-Case-Liste von 200 Use-Case und sagen,
und, wie stehen wir das zusammen an?
Und das ist, glaube ich, auch nochmal so
die Kern-Message was ich mitgeben möchte.
Wirklich mutig sein, sich anschauen.
Was geht eigentlich?
Ausprobieren.
Die Leute mitnehmen, das ist glaube
ich auch nochmal total wichtig, weil
egal wie gut eine Technologie ist, wenn
die Mitarbeiter von einem Unternehmen
davon nicht überzeugt sind, Dann
werden sie nicht genutzt und das ist
zum Sterben verurteilt tatsächlich.
Also die Leute mitzunehmen, ihnen
die Angst nehmen, sie nutzen lassen,
weil nur der, der das Ganze auch
ausprobieren darf, sieht, was raus ist.
Am besten irgendwelche Champions noch
mit dazunehmen und dann ausprobieren.
Und was wir halt sehen ist, dass, wie
ich eingangs gesagt habe, innerhalb
von drei Monaten haben wir...
Ganz konkrete Ergebnisse.
Du hast ja vorhin schon gesagt,
da geht es gar nicht erst mal
darum, was für einen Use Case man
sich raussucht, sondern vor allem
den, der Entsprechend den größten
Schmerz vielleicht gerade verursacht.
Und wenn ich mir diesen Use
Case dann herausgesucht habe,
wie gehe ich dann weiter?
Was ist denn so ein praktischer
Tipp, den du noch mitgeben kannst?
Also wie wir es jetzt bei den vier
Unternehmen gemacht haben, wir sind
tatsächlich zusammen hingesessen
und haben gesagt, wie sieht denn
bei euch so ein Prozess aus?
Wo tut es euch am meisten weh Dann
haben wir den Use Case identifiziert
und dann war es tatsächlich, Also
direkt in die Implementierung
gehen, umsetzen, Learning by Doing
machen, schauen, was funktioniert,
was funktioniert, nicht Anpassungen
wiederum vornehmen und gleichzeitig
dann die Leute aus dem Shopfloor
aus dem Engineering mit dazunehmen.
Die müssen Teil davon werden, denen nicht
eine vorgesetzte Lösung präsentieren,
sondern am besten mit dazunehmen,
dass sie selber sagen können, wo liegt
denn mein Problem und wenn die dann
sehen, dass ihr Problem gelöst wird.
Dann ist eigentlich kein Halten mehr.
Das glaube ich sofort.
Sehr schön.
Das ist ein super Abschluss, dass es
dann kein Halten mehr gibt, wenn die
Leute wirklich abgeholt sind und sie
sehen, dass ihr Problem gelöst wird.
Vielen Dank für die vielen praktischen
Einblicke, die du uns gegeben hast,
wo AI schon heute einen großen
Mehrwert in der Produktion bieten
kann und ich denke, das wird viele
inspirieren, es mal auszuprobieren.
Gerne Hat mir sehr großen
Spaß gemacht, Tobias.
Vielen Dank Diana.
Bis dann.
Tschüss Das war der Fabrik der Zukunft
Podcast mit deinem Host Tobias Herwig.
Hat es dir gefallen?
Dann schreib mir eine Bewertung
bei Apple Podcasts und empfehle
mich in deinem Netzwerk weiter.
Vielen Dank für deine Unterstützung.
Feedback geben
Dir gefällt der Podcast und Du möchtest das mal loswerden? Du hast Tipps für neue Themen oder magst über den Inhalt bestimmter Folgen diskutieren? Dann wähle im Formular die jeweilige Episode aus und schreib uns eine Nachricht. Vielen Dank für Dein Feedback!