Ein Wegweiser für Personal- und Organisationsentwickler
Künstliche Intelligenz kann mehr als Prozesse automatisieren: Sie ist der Impulsgeber für Lernen, Innovation und menschenzentrierte Organisationsentwicklung. Der Artikel zeigt, wie Unternehmen mit Intent-Story, Use-Cases, Dual Scorecard und Ethik-Retros zur lernenden Organisation werden. Praxisnah, reflektiert, regelkonform und zukunftsorientiert.
Künstliche Intelligenz ist kein kurzlebiger Trend. McKinsey beziffert ihr jährliches Wertschöpfungspotenzial inzwischen auf bis zu 4,4 Billionen US-Dollar. Gleichzeitig hat die EU mit dem AI Act den weltweit ersten Rechtsrahmen für KI in Kraft gesetzt. Damit entsteht ein Spannungsfeld, das sich zwischen enormen Produktivitätsversprechen und hohen regulatorischen Anforderungen bewegt – mit riesigen Potenzialen und enormen Risiken.
Wird New Work durch Künstliche Intelligenz endlich Realität?
Personal- und Organisationsentwickler sollten daher nicht mit punktuellen Schulungen oder einer KI-Abo-Lizenz reagieren. Gefragt ist eine Organisation, die Lernen, Governance und technische Innovation als integrale Bestandteile einer menschenzentrierten Organisationsentwicklung versteht – eben eine lernende Organisation.
Ist es also Künstliche Intelligenz, durch die New Work Realität wird?
Es scheint paradox, dass es künstliche Intelligenz braucht, um den New Work-Gedanken endlich zu verwirklichen. Aus meiner Sicht wird dieser Zusammenhang jedoch immer klarer. Personal- und Organisationsentwickler:innen sollten jetzt handeln!

Auf dem Weg zur lernenden Organisation:
Eine gute Intent-Story verbindet Sinn und Zweck
Wer KI lediglich als weiteren Effizienzhebel betrachtet, landet rasch beim „Shiny-Object-Syndrom“. Es bezeichnet die Neigung von Personen oder Organisationen, sich immer wieder von der neuesten, vermeintlich glänzenden Idee oder Technologie ablenken zu lassen, anstatt sich langfristig an priorisierten Zielen zu orientieren.
Es lohnt sich daher, jeden geplanten Einsatz von KI mit einem Sinn und Zweck zu verbinden. Eine Intent-Story kann dabei helfen, diesen Sinn und Zweck zu formulieren und zu verankern: „Wir nutzen KI, um …!“.
Diese einfache Frage zwingt dazu, Nutzen für Mitarbeitende, Kunden oder Partner klar zu benennen und verhindert Parallelinitiativen ohne strategischen Wert.
Beispiel einer Intent-Story:
„Wir wollen KI-gestützte Lernbegleitung in unserer Organisation einführen, weil viele Kolleg:innen berichten, dass sie sich in der Flut von Schulungsangeboten verlieren und oft nicht wissen, womit sie sinnvoll beginnen sollen. Die neue Lösung wird individuell zum Entwicklungsziel passende Lernimpulse vorschlagen, Fortschritte nachvollziehbar machen und Rückfragen im Dialog klären. Dadurch entsteht mehr Raum für gemeinsames Experimentieren und gegenseitiges Coaching, statt wertvolle Energie in Such- und Verwaltungsaufgaben zu binden. In sechs Monaten möchten wir in den Team-Retrospektiven häufiger Aussagen hören wie ‚Ich finde schneller, was ich wirklich brauche‘ oder ‚Ich nutze Lernzeit bewusster‘. Langfristig soll KI nicht nur Inhalte liefern, sondern einen kulturellen Rahmen schaffen, in dem Lernen als kontinuierlicher Dialog zwischen Menschen und Technik wahrgenommen wird.“
Was eine Intent-Story leisten kann:
- Das Problem aus Sicht der Mitarbeitenden sehen
z. B. Orientierungslosigkeit im Lernangebot - Den Qualitativen Nutzen identifizieren
Bsp.: Entlastung bei der Suche, mehr Fokus auf Peer-Lernen und Experimentieren - Den konkreten Erwartungshorizont abstecken
Bsp.: Erste Veränderungen sollen sich in Sprachbildern und Stimmungsbarometern der Teams spiegeln, nicht in harten Prozentwerten. - Eine Technologieoffenheit wahren
Die Story beschreibt, was erreicht werden soll, ohne festzulegen, womit. Das bietet Raum für spätere Tool-Evaluation. - Eine Verbindung zur Kulturentwicklung herstellen
Lernen wird als dialogischer Prozess verankert, KI ist Begleiter statt Lösung.
Einfache Ampel-Logik macht KI-Risiken transparent
Damit KI-Initiativen mit regulatorischen Anforderungen im Einklang stehen, empfiehlt sich eine grobe Risikoeinschätzung angelehnt an die Kategorien des AI Act: minimal, begrenzt, hoch oder unannehmbar.
Die Einteilung kann zu Beginn eine einfache „Ampel“ auf einer Prozesslandkarte sein. Sie schafft Transparenz darüber, wo ein Audit vorbereitet oder Prüfungen wie ein Bias-Check nötig werden.
Das spart Zeit, weil Teams in unkritischen Bereichen unbürokratisch vorgehen, während sie bei Hoch-Risiko-Use-Cases früh Budget und Fachwissen für die nötigen Prüfungen reservieren.
Regelkonforme Lernprozesse durch Governance in zwei Geschwindigkeiten
Viele Unternehmen ersticken ihre KI-Ambitionen in überlangen Freigabeprozessen; andere riskieren unkontrollierten Wildwuchs. Eine praktikable Lösung: ein doppelter Regelkreis.
Der erste, dauerhafte Kreis besteht aus wenigen, stabilen Prinzipien – z.B. Transparenz gegenüber Betroffenen, Datenschutz, menschliche Letztverantwortung. Der zweite Kreis ist ein lebendiges Playbook: Hier sammeln Teams gute Prompts, Fehlversuche, hilfreiche Use Cases, neue Sicherheitshinweise und Lessons Learned aus ihrem Arbeitskontext.
Damit bleibt die Organisation gleichzeitig regelkonform und lernfähig – eine Grundbedingung, um KI kontinuierlich anwenden und skalieren zu können.
KI-Mündigkeit braucht Lernkultur statt Spezialistenkult
Künstliche Intelligenz verdrängt kein Erfahrungswissen, sie macht es anschlussfähig. Die Kernkompetenz heißt deshalb: KI-Mündigkeit. Mitarbeitende sollten begrifflich unterscheiden können
- was ein Prompt ist,
- warum KI halluziniert und das zu Fehlern führen kann,
- weshalb Trainingsdaten Bias enthalten können – also verzerrt sein können.
Diese Fertigkeiten entwickeln sich nicht durch Theorie, sondern situativ, wenn Teams an konkreten Anwendungsfällen arbeiten. Entscheidend ist, dass Lernzeit nicht zur Restgröße wird, die anderen Prioritäten geopfert wird.
Führende Unternehmen sichern heute 10-25% der durch den Einsatz von KI gewonnenen Stunden als „Creative Slack“ – explizit für Experimentieren, Peer-Coaching oder Retrospektiven. Wird dieser Puffer nicht benannt, verschwindet er im Tagesgeschäft und das New-Work-Versprechen verpufft: sich darauf zu konzentrieren, was man wirklich, wirklich will!
Use Cases schrittweise in drei Evolutionsstufen erweitern
Erfahrungswerte aus Pilotprojekten legen eine schrittweise Vorgehensweise nahe:
Stufe 1: Entlasten
KI automatisiert Routinetätigkeiten, etwa das Zusammenfassen von Meeting-Protokollen. Hier lassen sich Zeitsprünge rasch messen und intern kommunizieren – ein wichtiger Vertrauensvorschuss.
Stufe 2: Erweitern
KI fördert Qualität und Kreativität, indem Content zielgruppenspezifisch aufbereitet wird, Codes geprüft oder Lerninhalte personalisiert werden
Stufe 3: Ermöglichen
Auf dem erreichten Fundament entstehen ganz neue Geschäfts- oder Lernmodelle, etwa dialogische Lern-Labs oder datengetriebene Kultur- und Organisations-Diagnosen.
Wer diese Stufen als Roadmap kommuniziert, verhindert unerfüllbare Erwartungen und hält gleichzeitig den Blick nach vorn offen.
Messen, reflektieren, nachjustieren mit der Dual-Scorecard
Ob KI wirklich Wert stiftet, zeigt erst eine transparente Analyse, z. B. mit Hilfe einer Dual Scorecard. Dabei werden harte Kennzahlen (Zeit- und Kostenersparnis, Fehlerquoten, Umsatzbeiträge) und weiche Indikatoren, wie z. B. ein Engagement-Index oder der Anteil menschlicher Interaktion in Kollaborations-Tools, gemessen.
Ziel | Harte Kennzahl | Weiche Kennzahl |
---|---|---|
Routine entlasten | Ø Bearbeitungszeit Protokolle | Selbstberichtete Entlastung (Qualitative Skala 1–5) |
Qualität erhöhen | Fehlerquote in Reports und Berichtswesen | Zufriedenheit der Fachbereiche (NPS – NetPromoterScore) |
Vertrauen stärken | Dokumentierte Anzahl Bias-Fälle / Halluzinationen | Vertrauen in KI-Entscheidungen (Qualitative Skala 1–5, Pulse Survey) |
Lernkultur fördern | Anzahl abgeschlossener Micro-Learnings | Human-Interaction-Rate (Kollaboration pro Tag/Woche)* |
Mit Hilfe einer Dual Scorecard kann kontinuierlich nachvollzogen werden, ob Effizienzgewinne gleichzeitig Lernprozesse und Teamkohäsion stärken – oder ob man Effizienz auf Kosten der zwischenmenschlichen Interaktionsqualität erkauft.
Die Scorecard kann z. B. durch eine Ethik-Retro ergänzt werden. Alle vier bis sechs Wochen reflektieren Teams, welche Entscheidungen sie an die KI delegiert haben, ob unerwünschte Nebenwirkungen in Bezug auf die zwischenmenschliche Interaktion (Zusammenarbeit) aufgetreten, und welche Leitplanken anzupassen sind.
Ergänzend: Die Ethik-Retro
Die Ethik-Retro fragt:
- Was lief gut?
- Welche Entscheidungen haben wir an die KI delegiert?
- Sind Nebenwirkungen aufgetreten (Bias, De-Skilling, Intransparenz)?
- Passt unsere Risikoeinstufung noch?
Dieser „Inspect & Adapt“-Ansatz überträgt agile Prinzipien auf KI-gestützte Arbeit und macht Governance zum Enabler von Entwicklung und Lernen statt zur Bürokratieübung.
Damit erfüllt die Retro zwei Zwecke gleichzeitig: Sie bleibt eine agile Lernschleife und sie liefert, ganz nebenbei, auditfähige Nachweise für den EU AI Act. Eine Ethik-Retro alle vier bis sechs Wochen verankert Verantwortung im Alltag, ohne neue Bürokratie zu schaffen.
Mit kompaktem Aktionsplan zur lernenden Organisation
- Jetzt eine Intent-Story entwickeln und Use-Cases bzw. Prozesse anhand der AI-Act-Ampel einstufen.
- Innerhalb von vier Wochen einen Pilot-Use-Case aus der Entlastungsstufe umsetzen, inklusive Erfolgsmessung (z. B. 30 % Zeitgewinn).
- Parallel ein Playbook anlegen und erste Erkenntnisse dokumentieren: funktionierende Prompts, Stolperfallen, offene Fragen.
- Spätestens im dritten Monat eine Ethik-Retro durchführen und die Dual Scorecard mit ersten Daten füllen.
Und das alles gelingt einfacher, schneller und besser – wenn KI als Sparringspartner genutzt wird.
Alle weiteren Aktivitäten bauen auf diesem Minimal-Viable-Setup auf und lassen sich in fast jeder Unternehmensgröße schrittweise skalieren.
KI als Enabler einer lernenden Organisation verstehen!
Mein Zwischenfazit: Künstliche Intelligenz kann der Schlüssel für New Work sein. Sie verstärkt, was in Organisationen bereits angelegt ist: das Verharren in tradierten Mustern oder Innovationsgeist und sinnstiftendes Arbeiten.
Personal- und Organisationsentwickler:innen, die Sinn, schlanke Governance, Lernkultur, evolutionäre Use Cases und messbare Reflexion miteinander verzahnen, schaffen eine Lernende Organisation. Eine solche Organisation erfüllt regulatorische Anforderungen – und realisiert gleichzeitig das Versprechen von New Work: mehr Zeit für die Arbeit, die wir wirklich, wirklich tun wollen.
Die Alternative?
Von der nächsten KI-Version überrascht zu werden.
Die Entscheidung liegt – wie so oft – in unserer eigenen Veränderungsbereitschaft.

Stimmst Du meiner These zu, dass es künstliche Intelligenz braucht, um den New Work-Gedanken endlich zu verwirklichen?
Scheibe gerne einen Kommentar!
Christian Konz
Geschäftsführer, Lernbegleiter, Coach und Organisationsentwickler
christian.konz@ibo.de
Übrigens: Dieser Beitrag ist bewusst mit Unterstützung von KI entstanden. Alle Quellen wurden geprüft und einem Fakten-Check unterzogen.
Auswahl der Quellen:
- The economic potential of generative AI: The next productivity frontier – McKinsey & Company 2023
- Europäische Kommission (Aug 2024) – AI Act enters into force
- EU Digital Strategy – Regulatory framework for AI
- EU-AI-Act, Art. 14 – Human Oversight
- AI Governance Scorecard – BSC Designer 2024
- World Economic Forum (Jan 2025) – The Future of Jobs Report 2025
- Measures that Matter: Correlation of Technical AI Metrics with Business Outcomes – Medium 2025
- Product innovation and employees’ slack time – ScienceDirect 2020
Verpasse keinen Artikel und bleibe immer up to date! Jetzt anmelden zum ibo-Newsletter.