Die IT hat grünes Licht gegeben. Die Lizenzen sind beschafft. Die Schulungen geplant. Der technische KI-Readiness-Check sagt: Alles bereit.
Sechs Monate später: Die Nutzungsquote liegt bei 23%. Teams nutzen KI heimlich oder gar nicht. Die Schulungen sind verpufft. Und niemand kann erklären, warum.
Weil niemand die richtigen Fragen gestellt hat.
Technische Readiness-Checks messen Infrastruktur, Datenqualität, IT-Prozesse. Das ist wichtig. Aber sie messen nicht, ob Ihre Menschen bereit sind. Ob sie verstehen, was KI für sie bedeutet. Ob sie Angst haben. Ob sie es wollen. Ob sie es können.
Im KI-Kontext zeigen sich beide Kernphänomene besonders deutlich: Schweigen — niemand meldet KI-Fehler, niemand spricht über Ängste, niemand sagt, dass die Schulung nicht gereicht hat. Und Nicht-Handeln — die Tools sind da, aber niemand nutzt sie. Die Vorsätze sind gut, aber der Alltag bleibt unverändert. Beides zusammen torpediert jede KI-Transformation.
80%+
nutzen ungenehmigte KI-Tools
UpGuard, State of Shadow AI, 2025
71%
haben Angst vor KI
EY, AI Anxiety in Business Survey, 2023
59%
verbergen KI-Nutzung aktiv
Cybernews, Shadow AI Survey, 2025
Hier sind die fünf Fragen, die Ihre IT-Abteilung nicht stellt — aber die über Erfolg oder Misserfolg Ihrer KI-Transformation entscheiden.
Frage 1: Was glauben Ihre Mitarbeitenden, was KI mit IHREM Job macht?
Nicht was die Geschäftsführung sagt. Nicht was auf den Folien steht. Was Ihre Mitarbeitenden wirklich glauben, wenn sie nachts um 2 Uhr wach liegen.
Studien zeigen: Mitarbeitende fürchten nicht primär den Jobverlust. Sie fürchten den Sinnverlust. KI übernimmt genau die Teile ihrer Arbeit, die ihnen wichtig sind — die kreativen, die analytischen, die beratenden. Was bleibt, fühlt sich an wie Resteverwertung.
„KI ersetzt mich nicht. Aber KI ersetzt das, was mich in meinem Job ausmacht."
— Die Angst, über die niemand spricht
Im VOICE & ACT CODE® ist das eine Frage der ERKENNEN-Dimension: Verstehen Ihre Menschen konkret, was KI für IHRE Arbeit bedeutet — nicht abstrakt, sondern greifbar? Weniger als 20% haben von ihrer Führungskraft gehört, was KI für sie persönlich bedeutet (Mercer, HR Technology's Impact on the Workforce, 2025; 8.500+ Befragte weltweit).
Frage 2: Traut sich jemand, KI-Fehler zu melden?
KI macht Fehler. Das weiß jeder, der schon einmal mit einem LLM (Large Language Model — großes Sprachmodell) gearbeitet hat. Halluzinationen (erfundene Antworten), falsche Daten, unsinnige Empfehlungen. Das ist normal — und behebbar. Wenn jemand den Fehler meldet.
Aber wer meldet einen Fehler in einem Tool, das die Geschäftsführung gerade mit großem Aufwand eingeführt hat? Wer sagt: „Das funktioniert nicht richtig" — wenn die implizite Botschaft lautet: „Wer Probleme meldet, bremst die Innovation"?
Drei Schweigemuster im KI-Kontext
Kompetenz-Schweigen: „Ich frage nicht nach — ich will nicht inkompetent wirken." Die ältere Mitarbeiterin, die längst hätte fragen müssen, was ChatGPT eigentlich macht.
Fehler-Schweigen: „Die KI hat Unsinn produziert — aber ich melde es nicht." Niemand will der Erste sein, der zugibt, dass das neue Tool Fehler macht.
Loyales Schweigen: „Ich bin gut mit KI — aber ich zeige es nicht, weil meine Kolleginnen sich dann schlecht fühlen." Solidarität, die Innovation bremst.
Im VOICE & ACT CODE® ist das die SPÜREN-Dimension: Dominiert Sicherheit oder Angst? Fühlen sich Ihre Menschen als Gestalter der KI-Transformation — oder als Bedrohte?
Frage 3: Glauben Ihre Mitarbeitenden, dass die KI-Strategie in ihrem Interesse ist?
Die Zahlen sind eindeutig: 75% der C-Suite (Vorstandsebene/Top-Management) glauben an eine erfolgreiche KI-Adoption. Bei den Mitarbeitenden sind es 45% (Writer/Workplace Intelligence Survey, 2025; 1.600 Befragte). Das ist kein Verständnisproblem. Das ist ein Vertrauensproblem.
75%
der Vorstandsebene glauben an erfolgreiche KI-Adoption
45%
der Mitarbeitenden teilen diesen Optimismus
Wenn Mitarbeitende nicht glauben, dass die KI-Strategie auch in ihrem Interesse ist — warum sollten sie sie unterstützen? Compliance (Pflichterfüllung) vielleicht. Engagement: nein.
Im VOICE & ACT CODE® ist das die WOLLEN-Dimension: Nutzen Ihre Menschen KI, weil sie wollen — oder weil sie müssen? Intrinsische Motivation vs. Alibi-Nutzung.
Frage 4: Wissen Ihre Mitarbeitenden, was erlaubt ist?
78% der Mitarbeitenden nutzen nicht genehmigte KI-Tools — nicht aus Rebellion, sondern weil die genehmigten ihre Bedürfnisse nicht erfüllen. Und weniger als die Hälfte kennt die KI-Richtlinien ihres Unternehmens.
Das Ergebnis ist Shadow AI (nicht genehmigte KI-Nutzung): Unkontrollierte KI-Nutzung im Verborgenen. Datenschutzrisiken, die niemand sieht. Produktivitätsgewinne, die nicht skaliert werden. Eine offizielle KI-Strategie, die an der gelebten Realität vorbeigeht.
Kosten von Shadow AI
Shadow-AI-Breaches (Datenvorfälle durch nicht genehmigte KI) kosten durchschnittlich 670.000 USD mehr als Standard-Breaches (IBM, Cost of a Data Breach Report, 2025; Ponemon Institute, 600 Organisationen weltweit).
Im VOICE & ACT CODE® ist das die KÖNNEN-Dimension: Ermöglichen Zeit, Schulung, Infrastruktur und klare Regeln, dass Ihre Menschen KI wirklich nutzen können?
Frage 5: Leben Ihre Führungskräfte KI vor?
Die Frontline-Nutzung (Nutzung durch operative Mitarbeitende) stagniert bei 51%. Führungskräfte liegen bei über 75% (BCG, AI at Work 2025; 10.600 Befragte, 11 Länder). Das klingt gut — bis man genauer hinschaut. Denn „nutzen" heißt nicht „vorleben".
Wenn Führungskräfte KI in ihrem eigenen Alltag nutzen, aber nicht darüber sprechen — wissen ihre Teams nicht, dass es erlaubt, erwünscht und normal ist. Wenn Führungskräfte KI-Fehler nicht offen teilen — lernt niemand aus ihnen. Wenn Führungskräfte KI als „IT-Thema" delegieren — signalisieren sie: Das ist nicht wichtig genug für mich.
BCG beschreibt es sinngemäß so: Um KI wirklich in Kernprozesse einzubetten, müssen Führungskräfte die persönliche Adoptionsreise ihrer Mitarbeitenden verstehen — und die psychologischen und organisationalen Faktoren, die sie zurückhalten.
— Sinngemäß nach: BCG, AI at Work, 2025
Das beschreibt im Kern, was der VOICE & ACT CODE® KI-Culture Check tut.
Warum technische Readiness nicht reicht
Die fünf Fragen adressieren genau die vier Dimensionen, die technische Readiness-Checks ignorieren. Im VOICE & ACT CODE® folgen wir der Formel:
WIRKSAMKEIT = ERKENNEN x SPÜREN x WOLLEN x KÖNNEN
Wenn auch nur eine Dimension schwach ist, bricht die Gesamtwirksamkeit ein — egal wie stark die anderen sind. Mehr zur Methodik erfahren Sie auf der Programmseite.
Das ist der Grund, warum Gießkannen-Schulungen nicht wirken. Sie adressieren eine Dimension — und ignorieren die drei anderen.
Was der KI-Culture Check anders macht
Der VOICE & ACT CODE® KI-Culture Check misst, was technische Assessments nicht messen: die psychologische, emotionale und motivationale Bereitschaft Ihrer Mitarbeitenden.
Was Sie nach 15-18 Minuten wissen
→ Ein klares Bild über alle vier Dimensionen — wo genau die KI-Adoption blockiert
→ KI-spezifische Schweigemuster und Handlungshemmer sichtbar gemacht
→ Konkrete Interventionsvorschläge — passgenau für Ihre Situation
Der erste Schritt ist nicht mehr Technik
Sie können weiter in Technik investieren. Mehr Lizenzen kaufen. Noch eine Schulung buchen. Oder Sie können hinschauen.
Der erste Schritt ist: Zuhören.
„Kein anderes Assessment am Markt misst gleichzeitig Schweigemotive (warum Menschen nicht sprechen) UND Handlungshemmer (warum Menschen nicht handeln) im KI-Kontext."
3 Fragen für heute
1. Wenn ich meine Mitarbeitenden fragen würde, was KI konkret für ihren Arbeitsalltag bedeutet — wie viele könnten mir eine klare Antwort geben?
2. Wer in meinem Team nutzt KI heimlich — und warum traut sich niemand, darüber zu sprechen?
3. Wenn meine Mitarbeitenden einen KI-Fehler bemerken — was passiert dann?
Wenn Sie auf eine dieser Fragen keine klare Antwort haben, ist der KI-Culture Check Ihr nächster Schritt.
KI-Investitionen wirksam machen.
28 Fragen. 15-18 Minuten. Wissenschaftlich validiert.
10% Neukundenrabatt bis 01.05.2026
KI-Culture Check → Erstgespräch vereinbaren →Ihre
Betina Hubrich
Inhaberin von TEAM SiNNRE!CH