Fabrik der Zukunft

Inspirationen für die Produktion und Logistik von morgen!

LLMs und KI-Agenten in der Produktion – mit Dr. Jana Kirchheim #227

Wie KI und konkrete Anwendungsfälle die Fabrik verändern

19.08.2025 38 min Tobias Herwig

Zusammenfassung & Show Notes

Wie können produzierende Unternehmen KI gewinnbringend nutzen? In dieser Episode spricht Dr. Jana Kirchheim, Industry & Partner Sales Lead bei Microsoft, mit Podcast-Host Tobias Herwig über den praktischen Einsatz von Industrial AI in der Produktion. Jana begleitet seit fünf Jahren Unternehmen dabei, mit KI neue Wertschöpfungspotenziale zu erschließen – von Predictive Maintenance bis hin zu Co-Piloten für den Shopfloor.

Im Mittelpunkt steht die Frage, wie KI-Modelle und KI-Agenten in der Industrie tatsächlich messbaren Mehrwert schaffen können:
  • KI als Schlüsseltechnologie: Vom Experiment zum weltweiten Rollout
  • Predictive Maintenance: Praxisbeispiel Husqvarna mit Azure IoT & Adaptive Cloud
  • Wie Bots Schichtübergaben und Produktivität verbesseren
  • LLMs in der Industrie: Vom Siemens Industrial Co-Pilot bis zum Industry Foundation Model
  • Automatisierung im Engineering: Anforderungen analysieren, Test Cases generieren, Dokumentation beschleunigen
  • Use Cases bei GEA und Continental: Von 30.000 Requirements zu klaren Tasks in Rekordzeit
  • KI-Agenten vs. klassische Chatbots – was Agenten wirklich leisten
  • Agentic Enterprise: Multi-Agenten-Architekturen und der Co-Pilot als User Interface
  • Praktische Tipps: Wo Unternehmen starten sollten und warum Mut & Einbindung der Mitarbeiter entscheidend sind
Vernetze dich gerne mit Dr. Jana Kirchheim auf LinkedIn: https://www.linkedin.com/in/dr-jana-kirchheim-737563a/

--

Folge Tobias Herwig auf LinkedIn für die neusten Episoden und Updates: https://www.linkedin.com/in/tobias-herwig/

Wir freuen uns über dein Feedback zur Episode direkt über LinkedIn oder an podcast@fabrikderzukunft.com

Transkript

Hallo und herzlich willkommen. Fabrik der Zukunft. Der Podcast für Inspiration aus Produktion und Logistik. Mit cleveren Konzepten und smarten Technologien für deine Fabrik. Mein Name ist Tobias Herwig. Schön, dass du wieder mit dabei bist, wenn es darum geht, die Fabriken von heute nach vorne zu bringen. Heute reden wir darüber, wie Hyperscaler wie Microsoft auf die KI in der Fabrik schauen. Wir schauen uns an. Ja, was heißt das? In welchen Bereichen kann ich AI nutzen? Wie bringt es produzierende Unternehmen voran? Und was sind ganz praktische Beispiele aus der Industrie? Wir reden über LMMs über KI-Agenten wir reden über die Frage des Mehrwerts und natürlich gibt es auch den ein oder anderen Praxistipp zum Einsatz von AI in der Produktion. Mein Gast ist heute Dr. Jana Kirchheim. Sie ist Industry & Partner Sales Lead bei Microsoft. Sie hat als Motto Driving Digital Manufacturing Growth und sie ist fünf Jahre bei Microsoft, kommt selbst aus dem produzierenden Mittelstand und ist heute hier zu Gast. Hallo Jana, herzlich willkommen im Podcast. Hallo Tobias, vielen Dank, dass ich heute hier sein darf. Ich möchte mit dir über... KI in der Produktion reden und wenn wir über KI reden und über Produktion reden, dann möchte ich erstmal damit anfangen, was beschäftigt produzierende Unternehmen? Wie siehst du das? Wo sind die größten Schmerzen Stand heute im Bereich Manufacturing? Da gibt es tatsächlich, wenn du heute mit den Kunden sprichst im Bereich Manufacturing, einige kann man tatsächlich so sagen. Ich würde sagen, mit der größte Schmerz den wir von unseren Kunden hören, ist der Fachkräftemangel. Ich gebe dir mal so ein Beispiel. Also ein Unternehmen sagte tatsächlich zu uns, sie haben circa zwei Drittel der Mitarbeiter in der Belegschaft sind über 40 Jahre alt und sogar ein Viertel über 54. Wenn du das Institut der deutschen Wirtschaft anschaust, dann sagen die, dass bis 28 um die fast 800.000 Stellen nicht durch entsprechende Fachkräfte besetzt werden können. Und wenn man Einen Schritt weiter geht und dann überlegt, wie viel Wissen in den Köpfen der Menschen ist, die dann bald verrenzelt werden und wie wenig dieses Wissen strukturiert in den Fabriken, im Shopfloor also bei unseren Kunden tatsächlich erfasst wurde, dann weiß man auch, was für eine große Wissenslücke entstehen kann. Zusätzlich kommt immenser Wettbewerbsdruck. Ein Maschinenbauer hat gesagt, wir brauchen heute so... Zwei, drei Jahre, um eine neue Maschine auf den Markt zu bringen, das können wir künftig nicht mehr so machen. Wir müssen schneller werden. Wir müssen aber auch effizienter und günstiger werden in der Produktion. Wir werden immer komplexer mit immer mehr Systemen die Mitarbeiter heute bedienen können muss und gleichzeitig muss er schneller werden und das zusammenkommend ist eine riesengroße Herausforderung die wir heute bei unseren Kunden sehen. Und einer hat das mal ziemlich schön zusammengefasst, der sagte, nee, wir wissen überhaupt nicht, was wir alles wissen. Und was wir eigentlich alles machen können. Also das wirklich nochmal so in einem Satz zusammengebracht. Ja, das ist eine superschöne Zusammenfassung. Und ja, ich glaube, das können alle, die hier jetzt zuhören auch bestätigen. Vor allem das Thema mit dem Fachkräftemangel und auch der Frage, was passiert mit dem Wissen in den Köpfen der Leute, die auch absehbar, das ist ja berechenbar, früher oder später das Unternehmen verlassen. Das ist wirklich ein großes Thema. Jetzt sind es ja wirklich große Herausforderungen, wenn wir jetzt sagen, wir gucken auf vielleicht die produzierenden Unternehmen gerade im deutschsprachigen Raum. Jetzt gibt es eine große Hoffnung, KI. Und jetzt mal ein bisschen salopp formuliert würdest du sagen, KI löst uns alle diese Probleme? Ich würde sagen, KI löst tatsächlich sehr viele von den Problemen oder hilft, die Basis zu schaffen, diese Probleme zu lösen. Es ist für uns eine Schlüsseltechnologie. Und wir sind... Kann man auch sagen, schon mittendrin. Während wir irgendwie 2023 langsam angefangen haben, das Ganze zu annoncieren und ganz vorsichtig zu testen und 2024 so ein bisschen mehr in den Rollout gekommen sind, sind wir heute tatsächlich mittendrin. Das heißt, wir hatten auf der Hannover Messe das Motto Industrial AI in Action und das ist auch tatsächlich so, weil Man sieht es bei unseren führenden Unternehmen im Bereich Manufacturing, dass die KI nicht mehr nur als Theorie ansehen, sondern mitten dabei sind, das auch voll auszuschöpfen. Da gab es eine Studie von Suprastea, die auch gesagt haben, dass die Zahl sagt, der weltweite KI-Markt soll bis 28 auf 1,27 Billionen Dollar wachsen. Das ist das dreifache Wachstum und das fand ich so spannend Von dem üblichen Tech-Marktwachstum. Also so groß ist das Potenzial dort. Und das aus vielfältigsten Ursachen. Super. Ich glaube, es gibt ja mittlerweile auch kein Unternehmen, was nicht irgendwo KI nutzt. Die spannende Frage ist halt wirklich in diesem industriellen Kontext und vor allem auch in der Produktion Ist meine Wahrnehmung da stehen die allermeisten Firmen noch wirklich ganz am Anfang. Wenn man jetzt genau in dieser Situation ist, dass man ganz am Anfang steht, was würdest du sagen, wo soll man da loslegen? Also einfach machen. Das klingt jetzt total trivial. Aber wir sehen Firmen die machen einen riesengroßen Plan erstmal und sagen, was wollen sie erreichen? Das ist sicherlich wichtig und sicherlich auch gut zu wissen. Aber viele haben auch natürlich die Herausforderung dass sie noch gar nicht wissen, was man eigentlich alles mit KI machen kann. So haben wir so im Prinzip unser Ansatz oder unsere Empfehlung ist zu sagen, zweifach vorzugehen. Einmal zu sagen, hey, wir suchen uns einen dezidierten Use Case gemeinsam aus, wo wir relativ schnell Einen Nutzen gemeinsam sehen können. Und das ist das Schöne an KI, man kriegt wirklich nach drei Monaten anfassbare Ergebnisse. Also was früher so lange Digital Transformation Projekte von einem Jahr oder anderthalb waren und dann nochmal Implementierung, das ist heute tatsächlich zusammengedampft auf drei Monate, wo man konkreten Nutzen sieht. Und deswegen würde ich auch jedem empfehlen, einen konkreten Use Case sich auszusuchen wo es wirklich wehtut. Und parallel zu sehen, was kann man eigentlich damit machen, wo wollen wir damit hin und parallel eine Strategie auszuarbeiten. Weil ansonsten wenn man zu lange nur in theoretischen Modellen sich bewegt, der Wandel ist unglaublich schnell. Die Modelle werden täglich besser. Wenn wir sehen was wir heute mit den Datenmodellen mit LLMs machen können, ist das das Fast keinen Vergleich mehr von vor einem Jahr. Und deswegen wirklich dran zu bleiben, kontinuierlich sich mitzuentwickeln, das ist, glaube ich auch eine Challenge, die wir insbesondere hier in Deutschland noch viel mehr nutzen können. Weil man hört gerade momentan überall in der Presse dass Deutschland mit der AI-Majority wirklich absinkt dass wir das nicht können und dass wir hinterher sind, weil uns die Governance fehlt und die Strukturen und wir das nicht skaliert kriegen. Ja. Ich glaube aber an unsere Industrie ganz, ganz fest, weil wir, was wir gesehen haben, also wir sind ja immer noch führend in dem Bereich. Und ich glaube, wenn wir da mutiger werden, mutiger werden, Daten tatsächlich auch zu nutzen für Zukunftsmodelle, also Zukunftsvorhersagen, Datenmodelle zu nutzen, um uns intern Arbeit zu ersparen, dann sind wir auf dem besten Wege da auch tatsächlich Fuß fassen zu können und das gut zu machen. Sehr gut. Gut dass du da Mut machst, auch die Dinge auszuprobieren und du hast vorhin so schön gesagt, viele wissen gar nicht, was geht, was überhaupt möglich ist und lass uns das heute ändern in dieser Podcast-Episode, indem wir mal ganz praktisch zeigen, was alles schon geht und ja, da auch wirklich mal ein bisschen zu zeigen, was auch schon innovativ ist, aber auch genauso praktisch umsetzbar ist. Und als allererstes würde ich mit einem Thema anfangen, was ganz viele kennen und vielleicht auch recht schnell in den Sinn kommt, wenn man über KI in der Produktion redet nämlich Predictive Maintenance. Das ist ein Thema, was uns wirklich schon lange beschäftigt und gleichzeitig interessiert Ich bei ganz vielen Unternehmen höre, in der Praxis ist es richtig schwierig, da einen Mehrwert zu bekommen. Wie siehst du das? Habt ihr Beispiele, wo man sagen kann, ja, Predictive Maintenance, das kriegt man hin und das gibt genau diesen Mehrwert? Ja, da habe ich euch tatsächlich ein ganz schönes Beispiel mitgebracht heute. Also Predictive Maintenance das... Die Urherausforderung ist immer noch die Connectivity at Scale zu bekommen, gerade im diskreten Shopfloor also im diskreten Fabrikumfeld. Und das andere ist dann tatsächlich mit den verschiedenen Daten-Silos, die es heute gibt. Kontinuierlich und einheitlich Insights Einsichten über die Daten zu bekommen, dass man die Maschine tatsächlich steuern kann. So wie war es denn jetzt früher im Prinzip? Wenn man denn mal so weit war und die Connectivity hatte und die Daten hatte, dann hatte ein Werker, hat dann die Information bekommen, hat die gesehen, konnte gar nichts damit anfangen musste wahrscheinlich dann erstmal zu seinem Vorgesetzten der hat dann zu einem AI, KI-Beauftragten Gehen und dann musste das Ganze analysiert werden, dann waren vier Tage vorbei und bis er zurückkam, war wahrscheinlich das Problem schon wieder ein ganz anderes und er wusste es gar nicht mehr. Was wir mit Husqvarna gemacht haben, ist ein ganz schön anschauliches Beispiel. Also zum einen sind wir bei Husqvarna mit unserem Adaptive Cloud Ansatz reingegangen. Adaptive Cloud bedeutet, dass wir die Cloud zu jeglichem, in jegliches Environment mit reinnehmen können. Das heißt, sowohl bei Multiclouds Installation-Architekturen, die wir bei Kunden haben, als auch auf die Edge selber, als auch komplett hybrid und in die komplette Cloud mit rein. Und wir haben, das ist ein Ansatz wo wir die IT-Welt in die OT-Welt mit reinbringen können und somit eine einheitliche Steuerungsmöglichkeit schaffen können. Und jedes Asset, das dann tatsächlich in der OT-Welt ist, Kann über Ressourcen unseren Ressource-Manager und ARC gesteuert werden. Also haben wir im Prinzip, und das war nämlich die Herausforderung von Squana, die gesagt haben, wir wachsen unglaublich schnell. Wir haben unsere Produktion über Jahre immer wieder angepasst von, ich weiß nicht, was die alles gemacht haben Motorräder, Kettensägen und jetzt Smart-Systems Outdoor-Devices. Wir müssen innovativ bleiben. Gleichzeitig wachsen wir unglaublich schnell. Also wir brauchen was, wo wir nicht alles abreißen müssen, sondern auf unsere bestehenden Architekturen aufbauen können, was wir mit Adaptive Cloud machen können. Und mit Azure Arc, um diese Ressourcen zu steuern. Darauf... Obendrauf haben sie den Azure IoT Operations draufgesetzt, wo sie die Daten, die sie rausziehen, zusammen mit Fabric, das ist so ein Datenintegrationslayer von uns, die Insights rausziehen konnten, sodass ein Worker tatsächlich dann in Echtzeit diese Informationen zur Verfügung hat. Was Sie in zwei Werken ja angefangen haben, planen Sie jetzt mit dem weltweiten Rollout noch in diesem Jahr. Da sieht man auch, wie schnell skalierbar das ist, sobald man das einmal aufgesetzt hat. Du hast jetzt schön die beiden Ebenen beschrieben. Das eine war überhaupt erstmal die Daten zusammenzubringen mit der Konnektivität und dann aus diesen Daten eine Mehrwert zu erzeugen und das ganz konkret Für den Werker sogar, habe ich das richtig verstanden. Also das geht dann wirklich bis runter auf den Shopfloor dass der direkt auf Basis dann der Ergebnisse quasi, der Insights wie du gesagt hast, dann entsprechend reagieren kann. Und dann kommt eben die KI noch mit ins Spiel, weil damit demokratisieren wir Einsichten aus den Daten rauszukriegen Was ich dir vorher beschrieben hatte, was früher mühselig dann im Prinzip um mehrere Stufen ausgehen musste, kann heute ein Werker in natürlicher Sprache fragen. Bei Husqvarna war das Problem, dass die Schichtarbeiter keine Übergaben oder nicht genügend Informationen über die Übergaben der Schichten hatten. Also wenn da ein Nachtschichtmitarbeiter war und der hatte aus einer Wartung irgendwas herausbekommen, wusste das der in der Frühschicht nicht ausreichend. Und so haben sie den... Ich muss einmal den Namen, den Factory Companion Bot ins Leben gerufen. Der basiert auf KI und mit einem LLM, also einem Large Language Model, kann der Werker in natürlicher Sprache fragen, was war denn in der Schicht davor los. Er kriegt dann automatisiert auf den ganzen Bedienungsanleitungen, die natürlich da reingespeist werden, auch gleich einen Vorschlag woran es liegen kann. Und jetzt wird es ganz spannend Aufgrund der Historie der Daten kriegt er auch gleich Vorschläge, wie er es besser machen kann. Das heißt, die Ausfallzeiten gehen extrem runter und die Produktivität erhöht sich. Schön, dass man nicht nur Informationen bekommt, irgendwie gepusht, sondern auch aktiv nachfragen kann. Und das in natürlicher Sprache, das ist dann schon ein großer Mehrwert. Und andersrum geht es wahrscheinlich aber auch. Also so klassisches Sprachwissen Predictive Maintenance zu sagen, okay, ich kriege über die Daten dann die Information, wann mache ich wo wie eine Wartung, also wo werde ich dann als Mensch aktiviert mich um meine Maschinen und Anlagen zu kümmern, also so wird es wahrscheinlich genauso funktionieren. Ja, ganz genau, dass eben dieses Vorausschauende, dass ich nicht warten muss, bis ein Fehler passiert, sondern dass ich aufgrund von verschiedenen Vibrationen oder aufgrund von verschiedenen Effekten Sensordaten schon sagen kann, dass etwas passieren wird. Und das ist halt, sobald wir KI ein-einmal integriert haben in den Bereich, kriegen wir die Daten. Sobald wir die Daten haben, können wir natürlich auch so Vorhersagen treffen. Und je mehr Daten wir haben, das kennst du selber, Tobias, desto besser ist eine KI natürlich auch. Super. Tolles Beispiel und vor allem auch toll, dass ihr da gar nicht stehen geblieben seid beim Thema Predictive Maintenance, sondern dann schon weitergegangen seid mit dem Mit dem Bot und dem LLM, Large Language Model. Das ist ein gutes Stichwort, weil ich weiß dass ihr in dem Bereich LLMs auch noch mehr macht. Und viele nutzen das ja gefühlt mehr wie so eine Spielerei. Und das ist schon gezeigt, es ist viel zu klein gedacht. Hast du noch ein anderes Beispiel, wie man LLMs gewinnbringend in der Produktion einsetzen kann? Also was wir heute mit unserem Partner machen, weil vielleicht ein Satz noch dazu. Die Microsoft selbst versteht sich als... Plattform-Anbieter. Das heißt, wir bringen die Plattform, wir haben bei AI Plattformen wo wir über 1900 Modelle haben, die wir heute unseren Kunden anbieten können. Und das nicht nur IT-Modelle, sondern tatsächlich auch Industrie-Modelle, wo beispielsweise Unternehmen wie eine Bayer, eine Side Machine, eine Siemens, eine Rockwell auch ihre eigenen Daten darauf trainieren konnten und die nun ihren Kunden und unseren Kunden zur Verfügung zu stellen, sodass sie spezifische LLMs nutzen können und Datenmodelle nutzen können, um damit Insights zu generieren. Und Es ist gerade der Name Siemens gefallen, das ist einer unserer Partner, unser wichtigsten Partner gerade im Bereich Industrie weil wir horizontale Plattformanbieter, Siemens absolute Experte, was die Vertikale oder das Vertical angeht. Und mit Siemens machen wir beispielsweise den Siemens Industrial Co-Pilot zusammen, also im Bereich Shop Floor selber. Da hast du zwei Co-Piloten Das ist im Prinzip einer für Engineering im Shop Floor und einer für Operations im Shop Floor. Der zweite wird dieses Jahr noch live gehen. Der Co-Pilot für Engineering im Shop Floor der spricht PLC. Also, ein Mitarbeiter muss eine neue Maschine in Betrieb nehmen, muss natürlich dafür PLC können, muss sie einsetzen können. Und der Siemens Industrial Co-Pilot for Engineering hilft dem Mitarbeiter, genau das zu tun. Er hilft ihm, die Steuerung mit aufzusetzen, er hilft ihm, die Visualisierung auf dem Maschineninterface zu machen. Und wenn dann später... Schwierigkeiten oder Probleme oder Issues entstehen Im Betrieb, im Shopfloor der Maschine haben wir den Industrial Co-Pilot for Operations. Der für Engineering, der ist heute bereits bei einer Thyssen Automation Engineering Live. Das heißt, die planen weltweiten Rollout noch in diesem Jahr, weil sie sagen, dass sie damit zusammenarbeiten Ihren Automation Engineer, die einfach auch ganz viele verschiedene Tools haben müssen, die ganz viele verschiedene Maschinen haben müssen, extrem helfen können, sich aufs Wesentliche zu fokussieren. Also nicht mit solchen, das Codeschreiben tatsächlich zu übernehmen weil da kriegst du dann einen Vorschlag von einem Copilot, wie dieser Code geschrieben werden kann und das Ganze wird direkt wieder, wenn du in natürlicher Sprache was eingibst, in Code übersetzt. Okay, also das heißt, meine ganze SBS-Programmierung kann dann der Co-Pilot übernehmen? Zumindest wesentlich dabei helfen. Und im Siemens-Gerätewerk in Erlangen ist bereits der Co-Pilot für Operations für Load-Maschinen implementiert. Also das heißt, wenn ein Fehler entsteht dann kann er den Anlagenführern sagen... Wo könnte das Problem liegen, was ist ein Lösungsvorschlag. Er kann sogar helfen, den direkt zu lösen. Okay, das heißt, er hat auch Zugriff dann auf den SPS-Code quasi und kann dann auch verstehen, was ist jetzt gerade passiert, wo hängt vielleicht die Maschine, was ist das Problem dahinter. Ja Und was auch nochmal total spannend ist, wir haben jetzt mit der Siemens zusammen das EFM, Industry Foundation Model, annonciert. Damit wollen wir ein LLM für die Industrie machen, gemeinsam mit der Siemens zusammen. Das bedeutet, dass sowas wie von Sprache was wir klassisch hatten mit den LLMs, was eigentlich jeder kennt, Zwischenzeitlich auch Bildern tatsächlich in den Industriekontext übersetzt. Also von 2D-Zeichnungen, 3D-Modellen, P&IDs, wo du sagst ich habe heute eine Pumpe, die muss in eine P&ID ausgetauscht werden und du gibst eine P&ID rein und hast nachher mit der natürlichen Spracheinput eine völlig neue P&ID, die du rausbekommst. Also das hast du im Prinzip alles in dem Kontext zusammen. Das eine, was sich da verändert, ich meine, es ist schon heute nicht leicht, gute SPS-Programmierer zu kriegen. Entsprechend diese Je mehr wir automatisieren, je mehr brauchen wir da auch das Know-how. Das heißt, die werden im besten Fall entlastet. Ändert sich aber auch noch mehr, wenn wir jetzt über Programmierung und nachher auch in Betriebnahme von den Maschinen reden? Also ich glaube, zum einen werden die Automatisierenden nicht nur entlastet sondern das sind ja Tätigkeiten, die repetitiv sind. Das bedeutet... Keiner macht sowas gerne und es ist meistens eine super anstrengende Aufgabe, also schleichen sich sehr viele Fehler ein und was wir eben auch beobachten ist, dass die Qualität sich wesentlich verbessert und die Fehler zurückgehen. Weil einfach diese repetitiven Aufgaben von der KI übernommen werden plus die Leute, das sehen wir bei unseren Programmierern die GitHub Copilot nutzen, die sind zufriedene, Wie schon gesagt, keiner macht diese Aufgaben eben gerne. Sehr cool. Das ist glaube ich sofort, wenn man da entsprechende Unterstützung bekommt, dann freut man sich. Das eine ist jetzt ja den Codes programmieren Wie sieht das aus im Engineering von Anlagen? Können da LMMs auch unterstützen? Ja. Ja gerade schon so ein bisschen in die Richtung beschrieben mit den PNIDs ja? Ja, also da haben wir tatsächlich so eine, das ist so tatsächlich unser Steckenswert, da haben wir so eine Bandbreite und zwar von ganz am Anfang dem Requirements Engineering bis ganz zum Schluss vom Testing, also vom automatisierten Erstellen von Test Cases Und der Dokumentation der Ergebnisse. Wenn du das V-Modell kennst das ist ja im Automotive-Sektor ganz schön, wie die Entwicklung beschrieben ist, können wir tatsächlich entlang der kompletten R&D-Toolchain mit KI unterstützen. Wir wissen heute, dass so ein klassischer Engineer fast 60 Prozent seiner Zeit mit administrativen Aufgaben verbringt. Das heißt, Der arbeitet heute noch mit E-Mails und Ähnlichem Sucht dann irgendwelche Daten zum Beispiel oder keine Ahnung. Also tatsächlich manuell. Wir sind mal daneben gesessen und haben uns das angeguckt. Der kriegt dann irgendwie eine Anforderung und dann fängt er an, manuell raus zu suchen und die Daten manuell im Internet nochmal zu überprüfen und die dann in der Excel einzutragen. Und natürlich ist A, der Frustrationslevel, die Zeit die man braucht, sehr hoch, plus B, die Fehlerwahrscheinlichkeit immens. Jetzt gebe ich dir mal ein Beispiel, was wir mit einer GEA, aber auch mit einer Continental gemeinsam gemacht haben, um den Engineer-to-Order-Prozess massiv zu beschleunigen. Eine GEA kriegt, die machen Separatoren, große Anlagen zum Trennen von allen möglichen Flüssigkeiten. Und wenn die eine Anfrage für so eine neue Anlage bekommen, dann sind das Zehntausende von Seiten, Die sie kriegen. Und da muss man sich vorstellen, da stehen in den 10.000 von Seiten sind alle möglichen Anforderungen drin für so eine Anlage, aber nur 50% Sind wirklich relevant, ja. Und dann sind Anforderungen drin, die sich gegenseitig widersprechen. Wenn das ein Hersteller nicht weiß oder nicht merkt und anfängt falsch zu produzieren, dann ist es in seiner Verantwortung und er muss das im Prinzip dann kostenintensiv wieder rückabwickeln. Und was wir hier gemacht haben, und das ist bei einer Gier der Fall und bei einem Zulieferer wie einer Continental, die, das muss ich, die Zahl hat mich echt umgehauen, Die schätzen 37.500 Stunden für so ein Projekt an Aufzuwenden, bis das dann mal fertig ist. Das sind mehrere Mannjahre, also völlig wahnsinnig Die haben 30.000 Requirements wenn da so ein neues Projekt reinkommt. Und was wir jetzt gemacht haben, ist mit einer Entity Data so eine Art AI-Shadow mit draufzulegen. Das heißt, du Völlig easy nimmst du deine kompletten Dokumente, die du bekommst, packst in einen Bulk Upload in dieses Tool mit rein, dann werden alle Anforderungen die du hast, automatisiert, extrahiert und in dein Tool eingefüttert Die werden aber nicht nur das, sondern sie werden bereits klassifiziert Ist das irgendwie sicherheitsrelevant? Ist das Hardware? Gehört das irgendwie zu einem bestimmten Bereich? Gleichzeitig wird im Prinzip schon gesagt, zu welchem bestehenden Produktfeature könnte diese Anforderung passen mit einer bestimmten Wahrscheinlichkeit Dass du auch schon siehst was brauchst du neu, was hast du aber auch schon in deinem Produktkatalog. Und dann nochmal einen Schritt weiter, automatisiert werden dann Tasks abgeleitet und an die unterschiedlichen Forschungszentren jetzt bei einer Continental, verteilt. Damit diese Tasks dann basierend auf den Anforderungen direkt abgearbeitet werden können. Und die GEA geht halt noch einen Schritt weiter. Die haben so ein Deep Research, so ein Multi-Agent noch mit dazu gepackt wo du mit deinen Requirements tatsächlich Tief technisch chatten kannst. Also du kannst sagen, hey, welche Requirements gibt es denn eigentlich in Bezug auf Noise oder Vibrations oder Ähnliches? Und was muss ich denn berücksichtigen? Sodass du halt da auch wie so einen kleinen Experten Technik-Experten, den du 24-7 neben dir sitzen hast, Gründe erfragen kannst und wissen kannst, warum es eigentlich bestimmte Dinge gibt. Finde ich spannend. Also das eine ist wirklich die Analyse zu machen, was du beschrieben hast. Das kann man sich ja noch gut vorstellen, aber dann wirklich zu sagen, naja, ich kriege schon konkret die ganzen Aufgaben abgeleitet. Das ist ja wirklich nochmal an der Top eine große Erleichterung. Das heißt aber dann auch, wenn man das so ein bisschen hört, kriegt man ein Gespür dafür, wie sich dann auch so ein gesamter Entwicklungsprozess ja auch verändert. Also das ist zum Start so gesagt, wenn man heute irgendwie ein, zwei Jahre für so eine Anlage so eine Maschine braucht. Und das verwundert ja dann nicht, wenn man weiß, wie es heute funktioniert und wie viele Anforderungen dahinter stecken. Und man kriegt mal eine Idee, wie sich das dann verändert. Gibt es auch Vorteile für die Produzierendenunternehmen? Weil das eine ist ja der Vorteil jetzt für den Maschinenbauer. Profitieren auch die Kunden am Ende der Maschinenbauer davon? Also bei der GEA war es ganz klar, die hat gesagt, und bei einer Conti genauso, dadurch, dass wir viel schneller so ein RFQ beantworten können und das ist eine viel höhere Qualität weil wir... Und auch von der Bepreisung her natürlich viel sicherer das sagen können, Haben unsere Kunden damit auch einen Wettbewerbsvorteil, weil sie schneller bessere Ergebnisse bekommen. Das ist die eine Sache. Weil die andere Sache ist, je nachdem, was unsere Kunden selber herstellen, wenn das beispielsweise Hardware mit Software ist, können wir natürlich in jegliches Software, die heute von einem produzierenden Unternehmen, einem anderen Unternehmen zur Verfügung gestellt wird, auch Co-Piloten integrieren. Das heißt, unsere Kunden sagen heute schon immer Ich kaufe eigentlich Software in so einem Bereich oder auch Hardware mit Software in dem Bereich nur noch wenn AI integriert ist. Denn meine Leute müssen schneller damit arbeiten können. Die müssen schnellere Einsicht haben. Und wenn ich beispielsweise wie Andritz die haben eine Plattform, die nennt sich Metritz, Copilot dort integriere und direkt meinen Kunden zur Verfügung stellen kann, dass die wiederum schneller Predictive Maintenance machen können, Ausfälle sehen können, sagen können, wenn tatsächlich was passiert und auf Ausfälle mit Vorschlägen zur Wartung schneller reagieren können, haben wir so ein wunderschönes Ökosystem, kann man tatsächlich sagen, wo von Anfang bis zum Ende jeder reagiert Jeder davon partizipiert und profitiert. Super, ja, das heißt, du hast es vorhin schon beschrieben, was die ganze Durchgängigkeit im Engineering anbelangt aber das hört dann nicht auf, sondern geht dann weiter bis ins Produkt. Genau, und spannend wird es halt dann vor allen Dingen, wenn du die Daten aus der Produktion und aus dem Service hast Noch nehmen kannst, wenn du so eine Art Datenlayer oben drüber legst der die Daten von Engineering, Operations und Service zusammennimmt. So eine Art wirklich Digital Thread, das bisher ganz oft Theorie war. Aber heute haben wir die technologischen Möglichkeiten dazu. Weil du hast mit Fabric einen ganz einfachen Datenintegration-Layer, wo du oben dann KI drauflegen kannst. Und Fabric ist das egal, was darunter liegt. Und dann könntest du im Prinzip... Von Design über Shopfloor bis hin zu Service schauen, was passiert eigentlich mit dem Design von Produkt nachher im Service? Welche Bomben brauche ich eigentlich dafür? Was für Fehler passieren, um im Idealfall dann zu sagen, du spielst es wieder vorne ins Engineering zurück? Und da arbeiten wir auch neben einer Siemens mit einer PTC zusammen, dieses Multi-Agent-Framework zusammen Eigentlich über den ganzen Prozess, genauso wie eine Siemens, mit uns gemeinsam spannen möchte. Ja, das ist dann, sind wir bei dem, wo wir schon viele Jahre über den digitalen Zwilling reden, da wird das dann Wirklichkeit. Genau. Mit den entsprechenden Fähigkeiten noch on the top. Du hast jetzt KI oder AI Agents genannt KI Agenten auf Deutsch. Das ist ja auch gerade ein ganz großes Thema. Also wo gehen wir hin in Richtung Agenten Ihr habt auch KI-Agenten auf der Hannover Messe vorgestellt. Vielleicht mal zum Start als Unterscheidung Wie würdest du so ein, Klassischen Chatbot von so einem KI-Agenten unterscheiden? Du hast auf der einen Seite so ein Large-Language-Model und ein Large-Language-Model ist eigentlich die Basis von allem. Ein Large-Language-Model von einem klassischen Chatbot kennst du daran, du gibst was ein und dann bekommst du, also du promptest und dann kriegst du eine Ausgabe zurück. Das passiert in natürlicher Sprache. Ein Agent ist Basiert auf einem Large Language Model, hat aber ein genaues Ziel, hat einen Auftrag und hat einen Kontext dazu und kann sich auf verschiedene Datentöpfe fokussieren sodass du wie so eine Art Experten hast. Also du kannst dir vorstellen, dein Agent ist wie dein Experte, den du normalerweise nehmen würdest, wenn du jetzt ein Schweißproblem hast, dann holst dir einen Materialexperten. Wenn du ein Datenproblem hast, holst dir deinen Datenexperten. Und so kannst du deine Agenten relativ einfach informieren. Selber einrichten und stören, auf was sie Zugriff haben, ob sie völlig autonom sind, ob sie gesteuert werden sollen, also du sie erst triggern musst, bevor sie überhaupt irgendwie was tun. Das ist wie so eine Art Trigger Dein eigenes Team an Experten, die für dich arbeiten. Und dann hast du obendrauf noch den Co-Piloten. Und bei Microsoft sagen wir eigentlich immer, jeder Mensch wird einen Co-Pilot haben. Das ist dein Assistent, das ist dein User Interface für die künstliche Intelligenz. Er greift auf die LLMs zu, er kann Agenten steuern, mit dem sprichst du. Ja, und die Agenten ist dein, jeder Business-Prozess, jedes Problem, was du heute hast, kann Agenten haben. Das kann von E-Mails schreiben sein, über Excel analysieren, über ich habe ein Schweißproblem in meiner Produktion und meine Agenten lösen mir, woran es liegt. Das heißt, wenn ich das zu meinen Worten zusammenfasse, sind die deutlich spezialisierter und haben aber auch noch… Eben neben dem klaren Ziel auch nochmal spezielle Informationsquellen oder du hast es Context genannt, dass sie dann entsprechende Datentöpfe haben, wo sie genau für diese eine Aufgabe dann auch die richtigen Informationen zur Verfügung haben. Genau. Was würdest du sagen, ist da der große Vorteil von solchen Agenten? Also warum brauche ich Agenten in der Produktion? Du kannst dir einen Agenten für genau das Problem schaffen, was du hast. Wenn wir bei unseren großen Enterprise-Kunden anschauen, dann gibt es Einige Use Cases die haben irgendwie alle, also so eine Chatbot-Funktion beispielsweise mit jeglicher Software. Wenn ich heute meine Software fragen kann, was muss ich denn tun, um eine neue Funktion zu machen, dann finde ich es ganz toll, wenn mir mein Chatbot das sagt. Wenn der nächste Agent aber schon darauf zugreifen kann, Welches Wissen vorliegt und wirklich inhaltlich mit meiner Software zu chatten. Das ist im Prinzip der nächste Vorteil den wir haben. Und so ein Agent geht halt genau auf deine individualisierten Bedürfnisse los. Das heißt, jeder kann sich den Agenten schaffen, den er braucht, sein eigenes Experten-Team. Und dieses eine Beispiel, was ich vorher genannt hatte mit dem Schweißen also das ist nicht sektiv sondern Es war tatsächlich so, dass einer unserer Kunden gesagt hat wir haben ein systematisches Schweißproblem, das tritt immer wieder auf. Und die haben mit mehreren Experten fast ein Jahr dran gesessen um versucht, das Ganze zu lösen. Haben es dann irgendwann gelöst, woran es liegt und haben dann zu uns gesagt, Microsoft, ihr sagt immer, AI oder KI hilft für alles. Jetzt zeigt doch mal, was ihr könnt. Und wir haben tatsächlich erst mal unsere Modelle, also die Agenten mit allen möglichen Daten gefüttert die wir hatten von Robotern über Produktionsdaten. Alles, was sie haben. Und haben dann vier Agenten drumherum entwickelt. Und das waren genau diese Experten. Also einer war es fürs Material. Einer war fürs Schweißen. Einer war dafür da, Zusammenhänge zu finden. Einen gab es für uns so einen Dateningenieur. Und wir haben... Mehrere Stunden gebraucht und sind dann zur selben Lösung gekommen. Also wir hatten fünf Ergebnisse und davon waren drei genau diejenigen, die diese ganzen Experten über ein Jahr lang eroiert hatten. Deswegen, du schaffst ja dein Experten-Team, das dich unterstützt. Das fand ich jetzt aber noch schön, wie du es beschrieben hast. Es geht eigentlich gar nicht darum, einen KI-Agenten für eine Aufgabe zu haben, sondern dass man eigentlich für einzelne Aufgaben dann verschiedene Rollen braucht, so wie man auch Sag ich mal, im Alltag ein interdisziplinäres Team sich zusammenstellen würde. Und nichts anderes ist dann die Basis auch von diesen KI-Agenten. Genau, richtig. Das ist das Schöne daran. Also wenn wir jetzt wieder bei dem V-Modell bleiben oder bei der Tool-Chain, dann sprechen wir gerne von einem Agentic Enterprise. Das heißt, von jedem Tool, von jeder Software, die ein Unternehmen hat, Kannst du im Prinzip einen Agent draufsetzen. Du hast dann oben drüber so einen Multi-Agenten-Orchestrator. Voraussetzung ist, dass die Agenzen immer mit demselben Protokoll miteinander sprechen. Aber da haben wir schon zwei Standardprotokolle, A2A oder MCP. Und wenn das da ist, dann kann jeder Drittanbieter jeder, der eine Software hat, Heute in Agenten mit draufsetzen und dann hast du oben drüber deinen Multi-Orchestrator, mit dem sprichst du über den Co-Pilot und sagst was du möchtest und der macht den automatisiert Die Aufgaben die du möchtest. Und ich glaube, was ganz wichtig ist, das ist eine Unterstützung für Menschen. Also ich mache heute nichts mehr ohne Co-Pilot und ohne meine Agenten weil ich gar keine Lust mehr habe, diese... Diese Aufgaben, die früher so viel Zeit gebraucht haben, selber zu machen, sodass ich mich auf die Aufgaben konzentrieren kann, wo ich wirklich dann Mehrwert stiften kann. Und das ist, glaube ich auch nochmal ganz wichtig zu sagen. Also das ist ein Co-Pilot ein Assistent. Super. Lass uns da jetzt auch noch ein bisschen nach vorne schauen und als allererstes da die Frage, das, was du jetzt beschrieben hast mit Agentic Enterprise. Ich habe einen Co-Piloten, ich habe eine Architektur eigentlich mit mehreren AI-Agents. Ist das heute schon möglich? Kann ich das heute schon so umsetzen Zukunftsvision, was du da beschrieben hast? Beides. Also ja, du kannst es heute schon so umsetzen. Wir haben schon Architekturen mit mehreren Agenten und Multi-Agenten-Orchestrator oben drüber. Das entwickelt sich aber mit einer rasanten Geschwindigkeit weiter. Also was ich sage, was wir heute mit Partnern machen, ist tatsächlich über deren komplettes Software-Portfolio was sie haben, also im Bereich Industrie von PLM, ALM, SLM CAD, alles was man sich vorstellen kann, aber auch bis zum Operation MES und bis zum Service Management, Agenten zu entwickeln, die verschiedenste Funktionalitäten haben. Einerseits nativ integriert in die Software, andererseits auch, und ich finde, dann wird das wirklich spannend, weil große Kunden oder auch kleine Kunden, unsere Mittelständler sagen, das ist ganz cool, aber kann das denn auch das und das? Sodass sie denen auch so eine Art Toolset mitliefern, wo sie dann obendrauf über eine Schnittstelle ihre eigenen Agenten wiederum draufbauen können. Also du hast dann irgendwann so ein Layer, wo das nativ drin ist in der Software und über eine Schnittstelle noch das drauf, was ein Unternehmen individuell braucht, um optimal für sich selber zu designen zu produzieren und den Service zu machen. Das heißt, wenn ich es richtig verstanden habe, ist eigentlich die Vision, jede Software bringt nachher seinen eigenen Kunden KI-Agenten mit und ich habe da drüber hinaus dann meine individuellen Agenten quasi, die das Ganze dann auch eben daneben noch weitere Funktionen anbieten oder halt auch Experte sind dann für die Nutzung auch am Ende der Software. Ja, ganz genau. Und um das mal plastisch zu machen, also wir haben ein Beispiel gehabt mit der Harting, wo du neue Stecker designen kannst über so eine Schnittstelle zusammen mit NX von der Siemens. Wir machen das zusammen mit einer E-Plan, wo du ganze Schaltschränke und Schallpläne mit einem Co-Pilot designen kannst. Und wenn unsere Kunden das sehen, werden die auf einmal super kreativ weil sie sagen, das ist ja toll. Was kann ich denn damit noch machen? Dann kommen sie zurück und haben eine Use-Case-Liste von 200 Use-Case und sagen, und, wie stehen wir das zusammen an? Und das ist, glaube ich, auch nochmal so die Kern-Message was ich mitgeben möchte. Wirklich mutig sein, sich anschauen. Was geht eigentlich? Ausprobieren. Die Leute mitnehmen, das ist glaube ich auch nochmal total wichtig, weil egal wie gut eine Technologie ist, wenn die Mitarbeiter von einem Unternehmen davon nicht überzeugt sind, Dann werden sie nicht genutzt und das ist zum Sterben verurteilt tatsächlich. Also die Leute mitzunehmen, ihnen die Angst nehmen, sie nutzen lassen, weil nur der, der das Ganze auch ausprobieren darf, sieht, was raus ist. Am besten irgendwelche Champions noch mit dazunehmen und dann ausprobieren. Und was wir halt sehen ist, dass, wie ich eingangs gesagt habe, innerhalb von drei Monaten haben wir... Ganz konkrete Ergebnisse. Du hast ja vorhin schon gesagt, da geht es gar nicht erst mal darum, was für einen Use Case man sich raussucht, sondern vor allem den, der Entsprechend den größten Schmerz vielleicht gerade verursacht. Und wenn ich mir diesen Use Case dann herausgesucht habe, wie gehe ich dann weiter? Was ist denn so ein praktischer Tipp, den du noch mitgeben kannst? Also wie wir es jetzt bei den vier Unternehmen gemacht haben, wir sind tatsächlich zusammen hingesessen und haben gesagt, wie sieht denn bei euch so ein Prozess aus? Wo tut es euch am meisten weh Dann haben wir den Use Case identifiziert und dann war es tatsächlich, Also direkt in die Implementierung gehen, umsetzen, Learning by Doing machen, schauen, was funktioniert, was funktioniert, nicht Anpassungen wiederum vornehmen und gleichzeitig dann die Leute aus dem Shopfloor aus dem Engineering mit dazunehmen. Die müssen Teil davon werden, denen nicht eine vorgesetzte Lösung präsentieren, sondern am besten mit dazunehmen, dass sie selber sagen können, wo liegt denn mein Problem und wenn die dann sehen, dass ihr Problem gelöst wird. Dann ist eigentlich kein Halten mehr. Das glaube ich sofort. Sehr schön. Das ist ein super Abschluss, dass es dann kein Halten mehr gibt, wenn die Leute wirklich abgeholt sind und sie sehen, dass ihr Problem gelöst wird. Vielen Dank für die vielen praktischen Einblicke, die du uns gegeben hast, wo AI schon heute einen großen Mehrwert in der Produktion bieten kann und ich denke, das wird viele inspirieren, es mal auszuprobieren. Gerne Hat mir sehr großen Spaß gemacht, Tobias. Vielen Dank Diana. Bis dann. Tschüss Das war der Fabrik der Zukunft Podcast mit deinem Host Tobias Herwig. Hat es dir gefallen? Dann schreib mir eine Bewertung bei Apple Podcasts und empfehle mich in deinem Netzwerk weiter. Vielen Dank für deine Unterstützung.

Feedback geben

Dir gefällt der Podcast und Du möchtest das mal loswerden? Du hast Tipps für neue Themen oder magst über den Inhalt bestimmter Folgen diskutieren? Dann wähle im Formular die jeweilige Episode aus und schreib uns eine Nachricht. Vielen Dank für Dein Feedback!

Mit einem Klick auf "Nachricht absenden" erklärst Du Dich damit einverstanden, dass wir Deine Daten zum Zwecke der Beantwortung Deiner Anfrage verarbeiten dürfen. Die Verarbeitung und der Versand Deiner Anfrage an uns erfolgt über den Server unseres Podcast-Hosters LetsCast.fm. Eine Weitergabe an Dritte findet nicht statt. Hier kannst Du die Datenschutzerklärung & Widerrufshinweise einsehen.

★★★★★

Gefällt Dir die Show?
Bewerte sie jetzt auf Apple Podcasts