Mit intelligenten Workflows dem Wissensverlust in der Arbeitswelt vorbeugen.
In den kommenden zehn bis fünfzehn Jahren vollzieht sich in deutschen Unternehmen ein fundamentaler Wandel, dessen Tragweite viele Führungskräfte noch unterschätzen. Die geburtenstarken Jahrgänge der 1960er-Jahre – die sogenannte Babyboomer-Generation – erreichen das Rentenalter und verlassen die Arbeitswelt. Was auf den ersten Blick als normaler Generationswechsel erscheint, entpuppt sich bei genauerem Hinsehen als stiller Wissensexodus mit potenziell dramatischen Folgen für Produktivität, Innovationskraft und Wettbewerbsfähigkeit.
Die Zahlen sprechen eine deutliche Sprache: Nach Angaben des Statistischen Bundesamtes hat sich der Anteil der Beschäftigten über 55 Jahren in den vergangenen zwanzig Jahren mehr als verdoppelt. In manchen Industriebereichen macht diese Altersgruppe bereits über ein Viertel der Belegschaft aus. Wenn diese erfahrenen Fachkräfte gehen, nehmen sie nicht nur ihre formalen Qualifikationen mit – sie hinterlassen eine Lücke an implizitem Erfahrungswissen, das sich in keinem Handbuch findet und das für den reibungslosen Betriebsablauf oft unverzichtbar ist.
McKinsey hat in seiner aktuellen Studie „Investing in the Manufacturing Workforce to Accelerate Productivity" dieses Phänomen untersucht und kommt zu einem bemerkenswerten Befund: Die fortschreitende Alterung der Belegschaft ist einer der Haupttreiber für die stagnierende Arbeitsproduktivität in der Fertigungsindustrie. Das Problem verschärft sich dadurch, dass neue Mitarbeiter immer länger brauchen, um das Kompetenzniveau ihrer Vorgänger zu erreichen – die sogenannte „Time-to-Proficiency" steigt kontinuierlich an. Unternehmen, die es schaffen, diese Einarbeitungszeit systematisch zu verkürzen, verschaffen sich einen messbaren Wettbewerbsvorteil.
Was macht Erfahrungswissen so wertvoll – und gleichzeitig so schwer transferierbar? Das vom Bundesministerium für Bildung und Forschung geförderte Forschungsprojekt „KI_eeper – Know how to keep" des ifaa (Institut für angewandte Arbeitswissenschaft) hat sich genau dieser Frage gewidmet. Die Wissenschaftler unterscheiden dabei zwischen explizitem und implizitem Wissen. Während explizites Wissen in Dokumenten, Verfahrensanweisungen und Schulungsunterlagen festgehalten werden kann, entzieht sich implizites Wissen weitgehend der Verschriftlichung.
Ein Beispiel aus der Praxis verdeutlicht dies eindrücklich: In einem metallverarbeitenden Betrieb führen erfahrene Facharbeiter schwere Stahlbalken in eine hydraulische Presse ein. Das Material ist krumm und muss gerichtet werden. Die Experten wissen intuitiv, wann welche Kraft an welcher Stelle des Werkstücks ausgeübt werden muss. Sie haben, wie Nicole Ottersböck vom ifaa es formuliert, die Tätigkeit „im Gefühl". Fragt man sie, wie genau sie dabei vorgehen, können sie es oft nicht erklären – das Wissen ist durch jahrelange Praxis so tief verinnerlicht, dass es unbewusst abgerufen wird. Wenn diese Experten in Rente gehen, steht das Unternehmen vor der Herausforderung, dieses nicht artikulierbare Know-how irgendwie zu bewahren.
In Bereichen wie Produktion, Logistik, Administration und Verwaltung manifestiert sich implizites Wissen auf unterschiedliche Weise: erfahrene Maschinenbediener, die an minimalen Geräuschveränderungen erkennen, dass ein Ausfall bevorsteht; Logistikexperten, die bei unvorhergesehenen Störungen blitzschnell alternative Routen improvisieren; oder Verwaltungsmitarbeiter, die komplexe Genehmigungsverfahren durch informelle Netzwerke und ungeschriebene Regeln navigieren können. All dieses Wissen droht verloren zu gehen, wenn keine systematischen Ansätze zu seiner Bewahrung implementiert werden
Angesichts dieser Herausforderung rückt generative künstliche Intelligenz zunehmend in den Fokus strategischer Überlegungen. Der Einsatz von KI im Wissensmanagement ist dabei weit mehr als ein technisches Experiment – er kann zum entscheidenden Differenzierungsmerkmal für Unternehmen werden, die ihre Wettbewerbsfähigkeit langfristig sichern wollen.
Die zentrale Idee besteht darin, KI-Systeme nicht nur als passive Wissensspeicher zu nutzen, sondern als intelligente Assistenten, die Erfahrungswissen aktiv erfassen, strukturieren und kontextbezogen zur Verfügung stellen können. Dabei kommen verschiedene Technologien zum Einsatz, die jeweils unterschiedliche Aspekte des Wissensmanagements adressieren.
Retrieval-Augmented Generation (RAG) hat sich als besonders vielversprechender Ansatz etabliert. Bei RAG handelt es sich um eine Architektur, die große Sprachmodelle mit unternehmensspezifischen Wissensdatenbanken verknüpft. Statt sich allein auf das während des Trainings erworbene Wissen zu verlassen, greift das System bei jeder Anfrage auf eine kuratierte Wissensbasis zu und generiert Antworten, die auf verifiziertem Unternehmenswissen basieren. Dies adressiert zwei zentrale Schwachstellen herkömmlicher KI-Systeme: das Problem der Halluzinationen, bei dem Modelle plausibel klingende, aber faktisch falsche Informationen generieren, sowie die Aktualitätsproblematik, da das Systemwissen nicht auf den Trainingsstand beschränkt bleibt.
Für Unternehmen bedeutet dies konkret: Ein RAG-basiertes System kann die Dokumentationen langjähriger Mitarbeiter, Wartungsprotokolle, Fehlerdatenbanken und Best-Practice-Sammlungen durchsuchen und neue Mitarbeiter bei spezifischen Fragestellungen mit präzisen, kontextbezogenen Antworten unterstützen. Die Zitierung der Quellen schafft dabei Transparenz und ermöglicht eine Überprüfung der Aussagen. McKinsey betont in seiner Analyse zu RAG, dass diese Fähigkeit zur quellenbasierten Antwortgenerung besonders in regulierten Branchen entscheidend ist, wo Nachvollziehbarkeit und Audit-Fähigkeit unabdingbar sind.

Eine kritische Betrachtung verdienen die sogenannten Large Reasoning Models (LRMs), die von führenden Technologieunternehmen als nächster Entwicklungsschritt propagiert werden. Diese Modelle zeichnen sich dadurch aus, dass sie bei komplexen Aufgaben explizite Denkprozesse durchlaufen und ihre Schlussfolgerungen schrittweise dokumentieren – ein Ansatz, der als Chain-of-Thought-Reasoning bekannt ist.
Allerdings hat eine vielbeachtete Studie von Apple Research mit dem Titel „The Illusion of Thinking" ernsthafte Fragen zur tatsächlichen Leistungsfähigkeit dieser Modelle aufgeworfen. Die Forscher testeten führende Reasoning-Modelle verschiedener Hersteller anhand kontrollierter Puzzle-Umgebungen mit skalierbarer Komplexität. Die Ergebnisse waren ernüchternd: Während die Modelle bei mittlerer Komplexität durchaus Vorteile gegenüber einfacheren Systemen zeigten, kam es bei hoher Komplexität zu einem vollständigen Zusammenbruch der Leistungsfähigkeit. Die Genauigkeit fiel auf nahezu null.
Für Entscheider in Operations und IT birgt diese Erkenntnis eine wichtige Lektion: KI-gestützte Systeme für das Wissensmanagement sollten nicht blindlings auf die fortschrittlichsten Modelle setzen, sondern die Komplexität der jeweiligen Anwendungsfälle sorgfältig berücksichtigen. In einem Bereich mittlerer Komplexität – etwa bei der Unterstützung von Troubleshooting-Prozessen oder der Beantwortung kontextbezogener Fachfragen – können Reasoning-Modelle echten Mehrwert liefern. Bei hochkomplexen, mehrstufigen Planungsaufgaben jedoch ist Vorsicht geboten.
Die Apple-Studie identifiziert dabei drei Performance-Zonen: Bei niedriger Komplexität überraschen herkömmliche Modelle oft durch bessere Ergebnisse als ihre aufwendigeren Reasoning-Pendants; bei mittlerer Komplexität entfalten LRMs ihre Stärken; bei hoher Komplexität versagen beide Ansätze. Diese differenzierte Betrachtung sollte die Grundlage jeder Technologieauswahl bilden.
Der strategische Einsatz von KI im Wissensmanagement erschöpft sich nicht in der reinen Wissensspeicherung und -bereitstellung. Ein besonders vielversprechendes Anwendungsfeld liegt in der Gestaltung KI-unterstützter Lernprozesse, die den Transfer von Erfahrungswissen aktiv fördern.
Gartner prognostiziert, dass bis 2027 rund 80 Prozent der Fachkräfte im Ingenieurbereich ihre Kompetenzen aufgrund von KI-Entwicklungen erweitern müssen. Diese Weiterbildung kann ihrerseits durch KI-Systeme unterstützt werden, die sich adaptiv an den Wissensstand und die Lernbedürfnisse der Mitarbeiter anpassen. Anders als traditionelle E-Learning-Plattformen mit starren Curricula können KI-gestützte Lernumgebungen individuelle Wissenslücken identifizieren und passgenaue Lerninhalte bereitstellen.
Das Forschungsprojekt KI_eeper hat einen besonderen Fokus auf die soziotechnische Dimension dieser Entwicklung gelegt. Die Wissenschaftler betonen, dass technische Innovation allein nicht ausreicht – der Erfolg KI-basierter Wissensmanagement-Systeme hängt maßgeblich davon ab, wie Führungskräfte und Belegschaft eingebunden werden. Ein zentrales Ergebnis des Projekts ist das „KI-Change-Toolkit", das Unternehmen praktische Handlungsempfehlungen für die akzeptanzfördernde Einführung von KI-Systemen an die Hand gibt. Regelmäßige Information, transparente Kommunikation und echte Partizipationsmöglichkeiten erweisen sich dabei als Schlüsselfaktoren.
Praxisbeispiel Elektromechanik-Industrie: Bei der apra-norm Elektromechanik GmbH, einem der Projektpartner von KI_eeper, wurde ein multimodales KI-System erprobt, das ähnlich wie der Mensch mit verschiedenen Sinneskanälen lernt. Das System erfasst Arbeitsprozesse über Sensoren und Kameras, analysiert die Handlungsmuster erfahrener Facharbeiter und stellt dieses Wissen weniger erfahrenen Kollegen als Assistenz zur Verfügung. Entscheidend war dabei das starke persönliche Engagement der Führungskräfte, die ihre Begeisterung für das innovative Vorhaben auf die Belegschaft übertragen konnten. Ohne diese menschliche Komponente hätte die technisch ausgefeilte Lösung ihre Wirkung verfehlt.
Ein innovativer Ansatz, der in der aktuellen Fachdiskussion zunehmend Beachtung findet, ist das Konzept der kontextbasierten Datenreise oder „Insight Journey". Dahinter verbirgt sich die Idee, dass Wissen nicht isoliert, sondern stets in seinem Handlungskontext verstanden und vermittelt werden sollte.
Stellen Sie sich einen neuen Mitarbeiter in der Instandhaltung vor, der mit einer ungewöhnlichen Maschinenstörung konfrontiert wird. Ein traditionelles Dokumentenmanagementsystem würde ihn mit einer Volltextsuche allein lassen, die bestenfalls eine Liste möglicherweise relevanter Dokumente liefert. Ein Insight-Journey-Ansatz hingegen rekonstruiert den Kontext: Welche ähnlichen Störungen sind in der Vergangenheit aufgetreten? Wie wurden sie gelöst? Welche erfahrenen Kollegen haben damals federführend gearbeitet? Gibt es Muster, die auf systemische Ursachen hindeuten?
Die technische Grundlage für solche kontextbasierten Wissensreisen bilden zunehmend Knowledge Graphs in Kombination mit RAG-Architekturen. Der als GraphRAG bezeichnete Ansatz extrahiert aus unstrukturierten Dokumenten Entitäten und deren Beziehungen und baut daraus ein semantisches Netzwerk auf. Dies ermöglicht Abfragen, die über einfaches Keyword-Matching hinausgehen und thematische Zusammenhänge erschließen.
Für Führungskräfte im operativen Bereich eröffnet dies neue Möglichkeiten der Entscheidungsunterstützung. Anstatt Informationen aus verschiedenen Systemen manuell zusammentragen zu müssen, können sie „Datenreisen" durch das organisationale Wissensuniversum unternehmen und dabei auf Erkenntnisse stoßen, die in isolierter Betrachtung verborgen geblieben wären.

Die wirtschaftliche Dimension des KI-gestützten Wissensmanagements ist beträchtlich. McKinseys Berechnungen zufolge liegen die tatsächlichen Kosten von Arbeitskräfte-Herausforderungen im produzierenden Gewerbe typischerweise zwischen 17.000 und 30.000 US-Dollar pro aktivem Mitarbeiter und Jahr – einschließlich Rekrutierung, Training, Schichtabdeckung und Produktionsausfällen. Für ein Unternehmen mit 10.000 Mitarbeitern summiert sich dies zu einem jährlichen EBITDA-Effekt von rund 250 Millionen US-Dollar.
Unternehmen, die als Produktivitätsführer identifiziert wurden, unterscheiden sich von ihren Wettbewerbern durch eine konsequente Investitionsperspektive auf ihre Belegschaft. Sie betrachten Mitarbeiter nicht primär als Kostenfaktor, sondern als Vermögenswert, der entwickelt und dessen Wissen systematisch bewahrt werden sollte. Die Integration von KI-gestützten Wissensmanagement-Systemen ist dabei ein zentraler Baustein.
Praxisbeispiel Maschinenbau: Ein Unternehmen der Schneid- und Mähtechnik, das ebenfalls Partner im KI_eeper-Projekt war, stand vor der typischen Herausforderung alternder Belegschaften in spezialisierten Nischen. Die Facharbeiter verfügten über jahrzehntelange Erfahrung im Umgang mit komplexen Fertigungsprozessen, konnten ihr Wissen aber nur schwer an Nachfolger weitergeben. Durch den Einsatz multimodaler Sensorik und KI-basierter Mustererkennung gelang es, bisher implizites Wissen – etwa über optimale Maschineneinstellungen bei unterschiedlichen Materialeigenschaften – zu explizieren und in eine Assistenzfunktion zu überführen. Die Einarbeitungszeit neuer Mitarbeiter konnte dadurch signifikant verkürzt werden.
Die Einführung KI-gestützter Wissensmanagement-Systeme erfordert eine durchdachte Vorgehensweise, die technische, organisatorische und kulturelle Dimensionen gleichermaßen berücksichtigt. Basierend auf den Erkenntnissen aktueller Forschungsprojekte und Industriestudien lassen sich folgende Erfolgsfaktoren identifizieren:
Zunächst ist eine qualitativ hochwertige Datenbasis unerlässlich. KI-Systeme können nur so gut sein wie die Daten, auf denen sie basieren. Viele Unternehmen unterschätzen den Aufwand, der erforderlich ist, um vorhandenes Wissen in eine für KI verarbeitbare Form zu bringen. Die Investition in Datenqualität und -strukturierung zahlt sich jedoch langfristig aus.
Darüber hinaus empfiehlt sich ein iteratives Vorgehen mit klar definierten Anwendungsfällen. Statt einer unternehmensweiten Einführung auf einen Schlag sollten zunächst Pilotprojekte in überschaubaren Bereichen gestartet werden. Das ermöglicht schnelles Lernen und die Anpassung des Ansatzes, bevor größere Investitionen getätigt werden.
Schließlich ist die Einbindung der Mitarbeiter von Anfang an entscheidend. Die Erfahrungen aus dem KI_eeper-Projekt zeigen, dass Systeme, die ohne echte Partizipation der Belegschaft entwickelt werden, auf Akzeptanzprobleme stoßen. Mitarbeiter sollten als Experten für ihre Arbeitsprozesse anerkannt und in die Gestaltung der Systeme einbezogen werden.
Die Zukunft des Wissensmanagements liegt nicht in der vollständigen Automatisierung, sondern in der intelligenten Verbindung von menschlicher Expertise und maschineller Unterstützung. Generative KI, RAG-Architekturen und intelligente Assistenzsysteme sind Werkzeuge, die das menschliche Urteilsvermögen ergänzen, nicht ersetzen.
Für Fach- und Führungskräfte in Operations und IT ergeben sich daraus konkrete Handlungsfelder: die kritische Evaluation verfügbarer Technologien unter Berücksichtigung ihrer Stärken und Grenzen; die Entwicklung einer Datenstrategie, die das vorhandene Unternehmenswissen systematisch erschließt; die Gestaltung von Change-Prozessen, die technische Innovation mit kulturellem Wandel verbinden; sowie die Entwicklung von Kompetenzen, um KI-gestützte Systeme sinnvoll einzusetzen und weiterzuentwickeln.
Der demografische Wandel ist keine ferne Zukunftsmusik – er vollzieht sich jetzt. Unternehmen, die heute die Weichen für ein intelligentes Wissensmanagement stellen, werden morgen über den entscheidenden Vorsprung verfügen, wenn die Expertise der Babyboomer-Generation nicht verloren geht, sondern als digitales Erbe für kommende Mitarbeitergenerationen bewahrt wird.
Die Transformation des betrieblichen Wissensmanagements durch intelligente Workflows und KI-Technologien ist ein komplexes Vorhaben, das strategische Weitsicht, technisches Know-how und Veränderungskompetenz erfordert. Wir unterstützen Fach- und Führungskräfte aus Operations, IT und angrenzenden Bereichen dabei, die richtigen Weichen zu stellen.
Unser Angebot für Sie:
Sprechen Sie uns an. Vereinbaren Sie ein unverbindliches Beratungsgespräch, in dem wir gemeinsam ausloten, wie intelligente Workflows den Wissenserhalt in Ihrem Unternehmen sichern können. Kontakt