🔐
Docs & Data
Tina K · Ceraluna Labs
Falsches Passwort
← Zurück zur Übersicht
Business Case Presentation

Citizen Self-Service
KI-Plattform mit Governance

Runde: Business Case Präsentation Thema: Citizen Self-Serving KI Platform Governance Ziel: Zeige, dass du die Plattform denkst — nicht nur die Technik

🎯 Präsentationsstrategie

Die eine Botschaft, die hängen bleiben muss

„Eine Citizen-AI-Plattform funktioniert nur, wenn Governance unsichtbar eingebaut ist — nicht als Bremse nachgeschaltet. Ich bringe die seltene Kombination: ich habe Governance im regulierten Enterprise aufgebaut (Wintershall), die Theorie hinter Agentensystemen erforscht (PhD, 240.000 Agenten), und eine agentische Plattform von Grund auf selbst betrieben — inklusive aller Fehler, die passieren, wenn Governance fehlt."

Was sie eigentlich wissen wollen

01
Verstehst du das Problem?
Können Fachbereiche selbst KI-Agenten bauen, ohne dass IT Engpass wird — und ohne dass Chaos entsteht?
02
Hast du einen Plan?
Wie sieht die Governance aus? Wie skaliert man von 1 Agent auf 100? Was passiert bei Fehlern?
03
Kannst du es umsetzen?
Nicht nur Theorie — hast du es schon gemacht? Enterprise-Erfahrung + Hands-on-Beweis?
04
Wirst du die Fachbereiche mitnehmen?
Technik allein reicht nicht. Wie treibst du Adoption? Wie machst du Change Management?

Zeitaufteilung (ca. 20–25 Min Präsentation)

AbschnittFolienZeitFokus
Problem & Warum jetzt1–23 MinSchmerz zeigen, Dringlichkeit erzeugen
Vision & Governance-Framework3–56 MinDas Herzstück — hier gewinnst du die Präsentation
Architektur (high-level)6–74 MinTechnisch genug für Glaubwürdigkeit, nicht zu tief
Rollout-Plan & KPIs8–94 MinKonkret und messbar — keine vagen Versprechen
Risiken & Mitigierung102 MinZeigt Reife — du versteckst Probleme nicht
Warum ich112 MinKurz, selbstbewusst, auf den Punkt
Rückfragen10+ MinHier wird die Entscheidung getroffen

📖 Dein Narrativ — Der rote Faden

Erzähle eine Geschichte, keine Feature-Liste. Der rote Faden: „Citizen Self-Service KI ist ein Beschleuniger — aber nur mit eingebauter Governance. Ohne Governance wird es zum Risiko. Ich zeige euch, wie ihr beides bekommt."

Die drei Akte

Akt 1: Das Problem
„Warum der Status quo nicht skaliert"
Fachbereiche wollen KI nutzen → IT wird zum Engpass → entweder zu langsam oder Schatten-KI ohne Kontrolle. Beides ist schlecht.
Akt 2: Die Lösung
„Self-Service mit eingebauten Leitplanken"
Fachbereiche bauen selbst → Plattform stellt Governance automatisch sicher → Skalierung ohne Kontrollverlust. Governance ist unsichtbar bis man sie braucht.
Akt 3: Der Beweis
„Ich habe genau das gebaut — und die Fehler gemacht"
Wintershall (Enterprise-Governance) + PhD (Agententheorie) + eigene Plattform (Gründer-Erfahrung). Drei Ebenen Beweis.
1
Das Problem: Warum jetzt?
Eröffnung — Dringlichkeit erzeugen
3 Min

Auf die Folie

  • Das Dilemma: Fachbereiche wollen KI-Agenten → IT kann nicht schnell genug liefern → Ergebnis: Schatten-KI oder Stillstand
  • Schatten-KI-Risiko: Mitarbeitende nutzen ChatGPT, Copilot, eigene Tools — ohne Governance, ohne Audit Trail, ohne Datenschutz
  • Das regulatorische Fenster: EU AI Act ist in Kraft → Unternehmen brauchen jetzt Governance-Frameworks, bevor die Durchsetzung beginnt
  • Die Chance: enercity kann Vorreiter im Energiesektor werden — Self-Service KI mit eingebauter Compliance
So sagen „Die Realität in den meisten Unternehmen: Fachbereiche wollen KI nutzen, IT kann nicht schnell genug liefern. Was passiert? Entweder Stillstand — gute Ideen warten in der Warteschlange. Oder Schatten-KI — Mitarbeitende nutzen ChatGPT mit Firmendaten, ohne Governance, ohne Audit Trail. Beides ist für ein reguliertes Energieunternehmen inakzeptabel. Besonders jetzt: der EU AI Act ist in Kraft. Wir brauchen nicht nur eine KI-Plattform — wir brauchen eine, die Compliance eingebaut hat. Die gute Nachricht: mit dem M365-Stack und Agent 365 hat enercity die Infrastruktur. Was fehlt, ist das Governance-Framework, das Self-Service ermöglicht, ohne die Kontrolle zu verlieren."

Tipp: Wenn du weißt, ob enercity bereits Schatten-KI-Probleme hat, erwähne es hier. Wenn nicht, bleib beim allgemeinen Branchentrend — jedes Unternehmen hat dieses Problem.

2
Vision: Die Citizen AI Plattform
Das Zielbild — einfach und klar
3 Min

Auf die Folie

Leitprinzip: „Self-Service mit Leitplanken — nicht Freiheit gegen Kontrolle, sondern Freiheit durch Kontrolle."

🧑‍💼
Fachbereich (Citizen)
Wählt aus Agenten-Vorlagen, konfiguriert per Formular, testet im Sandbox, nutzt in Produktion. Kein Code nötig.
🛡
Plattform (Governance)
Erzwingt automatisch: Entra ID, Purview-Klassifizierung, DLP, Audit Trail. Unsichtbar für den Nutzer — bis eine Regel greift.
📋
Vorlagen (Templates)
Vorab genehmigte Agenten-Patterns. Jedes Template hat definierte Berechtigungen, Datenquellen, Aktionsradius.
📊
Monitoring (Transparenz)
Echtzeit-Dashboard: wer nutzt was, welche Agenten laufen, Kosten, Fehler, Compliance-Status.
So sagen „Das Zielbild: Fachbereiche bedienen sich selbst. Sie wählen aus einem Katalog genehmigter Agenten-Vorlagen, konfigurieren sie per Formular — kein Code nötig — und nutzen sie in ihrem Arbeitsalltag. Was sie nicht sehen: die Governance läuft im Hintergrund. Entra ID prüft Identität und Rolle. Purview klassifiziert die Daten. DLP-Regeln verhindern, dass sensible Daten den falschen Agenten erreichen. Jede Aktion wird auditiert. Das ist der entscheidende Punkt: Governance ist kein Genehmigungsprozess, der bremst. Governance ist ein automatisches Sicherheitsnetz, das mitläuft. Nutzer merken es nur, wenn sie etwas versuchen, das gegen die Regeln verstößt."
3
Governance-Framework: Drei Risikostufen
Das Herzstück — hier gewinnst du
3 Min

Auf die Folie

Nicht jeder Agent braucht die gleiche Kontrolle. Das Framework stuft nach Risiko:

🟢
Grün — Niedrigrisiko
Nur interne Daten, keine Aktionen, read-only. Meeting zusammenfassen, interne FAQ beantworten, Text umformulieren.
Auto-genehmigt
🟡
Gelb — Mittelrisiko
Kundendaten lesen, E-Mails entwerfen, Reports generieren. Fachbereichs-genehmigte Vorlagen nutzen.
Fachbereich genehmigt
🔴
Rot — Hochrisiko
Personenbezogene Daten, Finanzdaten, externe Aktionen, automatische E-Mails. Compliance + Security Review.
Compliance-Review
So sagen „Der Kern des Governance-Frameworks: drei Risikostufen. Grün: Niedriges Risiko. Interne Daten, read-only, keine Aktionen nach außen. Zum Beispiel: Meeting-Notizen zusammenfassen, interne FAQ beantworten. Diese Agenten werden automatisch genehmigt. Das ist der Self-Service-Teil — keine Wartezeit, kein Ticket. Gelb: Mittleres Risiko. Kundendaten lesen, E-Mail-Entwürfe erstellen, Reports generieren. Diese Agenten nutzen vorab genehmigte Vorlagen. Der Fachbereich wählt aus, die Vorlage stellt sicher, dass die Governance-Regeln eingehalten werden. Rot: Hohes Risiko. Personenbezogene Daten, Finanzdaten, automatische E-Mails nach extern. Diese brauchen ein Compliance-Review. Hier muss ein Mensch genehmigen — aber das betrifft nur 10–15 % der Use Cases. Das Ergebnis: 85 % der Anwendungsfälle laufen ohne Wartezeit. Governance bremst nicht — Governance skaliert."

Erfahrungsbrücke

„Dieses Muster habe ich in der Praxis getestet. In meiner eigenen Plattform kommt jeder KI-klassifizierte Datenpunkt gesperrt an — publish_locked. Erst nach expliziter Freigabe wird er sichtbar. Das ist dasselbe Prinzip: der Agent kann empfehlen, aber handeln nur mit Berechtigung. Bei Wintershall habe ich EU AI Act-Risikoklassifizierung implementiert — genau diese Stufenlogik."

4
Architektur: Technischer Überblick
Genug Tiefe für Glaubwürdigkeit — nicht überladen
4 Min

Auf die Folie — Schichtenmodell

┌─────────────────────────────────────────────────────────────┐ │ CITIZEN LAYER — Fachbereich-Self-Service │ │ Agenten-Katalog · Template-Auswahl · Konfigurationsformular │ └──────────────────────────┬──────────────────────────────────┘┌──────────────────────────▼──────────────────────────────────┐ │ GOVERNANCE LAYER — Automatische Compliance │ │ Entra ID → Purview → DLP → Risikostufe → Genehmigung │ └──────────────────────────┬──────────────────────────────────┘┌──────────────────────────▼──────────────────────────────────┐ │ AGENT RUNTIME — Ausführungsumgebung │ │ Copilot Studio · Azure OpenAI · LangChain · Graph API │ └──────────────────────────┬──────────────────────────────────┘┌──────────────────────────▼──────────────────────────────────┐ │ MONITORING LAYER — Beobachtbarkeit │ │ Audit Trail · Kosten-Tracking · Fehler-Alerts · Dashboard │ └─────────────────────────────────────────────────────────────┘
So sagen „Die Architektur hat vier Schichten: Oben: die Citizen Layer. Hier arbeiten die Fachbereiche. Agenten-Katalog, Template-Auswahl, Konfiguration per Formular. Kein Code. Darunter: die Governance Layer. Jede Aktion läuft automatisch durch: Entra ID prüft wer du bist, Purview klassifiziert die Daten, DLP-Regeln greifen, die Risikostufe bestimmt den Genehmigungsweg. Das ist der unsichtbare Schutzschild. Dann: die Agent Runtime. Hier laufen die Agenten — Copilot Studio, Azure OpenAI, LangChain, Graph API. Die Runtime weiß nur, was die Governance Layer ihr erlaubt. Unten: Monitoring. Jede Agentenaktivität wird protokolliert. Kosten, Fehler, Compliance-Status — alles in einem Dashboard. Der entscheidende Punkt: die Governance Layer ist kein nachgelagerter Prüfschritt — sie sitzt zwischen Nutzer und Agent. Jede Anfrage durchläuft sie automatisch."

Kaskaden-Architektur innerhalb der Agenten

Prinzip aus meiner Plattform: Regeln zuerst, KI zuletzt. 90 % der Fälle werden von deterministischen Regeln abgefangen — schnell, günstig, vorhersagbar. LLMs nur für die restlichen 10 %, die Regeln nicht lösen können. Das senkt Kosten um 90 % und macht das System zuverlässiger.

5
Rollout-Plan: 6 Monate
Konkret, phasenweise, messbar
3 Min
Monat 1–2: Foundation
Bestandsaufnahme & Governance-Design
  • M365-Security-Stack kartieren (Purview, Defender, Entra ID)
  • Stakeholder-Interviews: Fachbereiche, Compliance, Security, IT
  • 3-Stufen-Governance-Framework definieren und abstimmen
  • Ersten Pilot-Fachbereich identifizieren (höchster Schmerz, niedrigstes Risiko)
Monat 3–4: Pilot
Erster Agent in Produktion
  • Referenz-Agent bauen: Template + Governance-Pipeline + Monitoring
  • Agenten-Lebenszyklus: Entwickeln → Validieren → Deployen → Überwachen → Stilllegen
  • Automatisierte Compliance-Checks in Deployment-Pipeline
  • Pilot-Fachbereich: MVP-Agent im Einsatz, Feedback-Loop
Monat 5–6: Skalierung
Template-Katalog & zweiter Fachbereich
  • Referenz-Agent in wiederverwendbare Vorlage generalisieren
  • Agenten-Katalog mit 3–5 genehmigten Templates bereitstellen
  • Erster Enablement-Workshop mit Pilot-Fachbereich
  • Governance-Playbook veröffentlichen
  • 12-Monats-Roadmap an Leadership präsentieren
Monat 7–12: Vision
Self-Service im Regelbetrieb
  • 5+ Fachbereiche nutzen die Plattform eigenständig
  • Template-Katalog wächst organisch durch Fachbereichs-Input
  • Governance-Dashboard für Compliance & Leadership
  • Community of Practice für Citizen AI Builders
So sagen „Der Plan ist phasenweise und messbar. Kein Big Bang. Monate 1–2: Foundation. Bestandsaufnahme, Governance-Framework designen, Pilot-Fachbereich finden. Ich arbeite mich parallel tief in Purview und Defender ein. Monate 3–4: Pilot. Ein Referenz-Agent mit vollständiger Governance in Produktion. Ein Fachbereich testet. Echtes Feedback. Monate 5–6: Skalierung. Aus dem Referenz-Agent werden Templates. Ein Katalog entsteht. Workshops machen die Fachbereiche handlungsfähig. Das Governance-Playbook wird veröffentlicht. Danach: Self-Service im Regelbetrieb. Fachbereiche bedienen sich selbst. Die Plattform wächst organisch."
6
KPIs & ROI
Messbare Erfolge — keine vagen Versprechen
2 Min

KPIs nach 6 Monaten

1
Governance-Framework live
3–5
Templates im Katalog
2+
Fachbereiche aktiv
100%
Audit-Trail-Abdeckung

ROI-Hebel

HebelWirkungMessung
Zeitersparnis FachbereicheRepetitive Aufgaben automatisierenStunden/Woche pro Team
IT-EntlastungSelf-Service statt Ticket-WarteschlangeReduzierte Anfragen an IT
Compliance-KostenreduktionAutomatisch statt manuelles ReviewAudit-Aufwand in Stunden
RisikoreduktionKeine Schatten-KI mehrAnzahl nicht-genehmigter Tools
InnovationsgeschwindigkeitVom Use Case zum Agenten in Tagen statt MonatenTime-to-Value pro Use Case
So sagen „Keine vagen Versprechen. Nach 6 Monaten: Governance-Framework live, 3 bis 5 Agent-Templates im Katalog, mindestens 2 Fachbereiche aktiv, 100 % Audit-Trail-Abdeckung. Der wichtigste ROI ist nicht nur Zeitersparnis — er ist Risikoreduktion. Jeder Mitarbeitende, der heute Schatten-KI nutzt, ist ein Compliance-Risiko. Die Plattform macht den sicheren Weg zum einfachsten Weg."
7
Risiken & Mitigierung
Zeigt Reife — du versteckst Probleme nicht
2 Min
RisikoAuswirkungMitigierung
Niedrige Adoption Plattform existiert, keiner nutzt sie Pain-first-Ansatz: erst Schmerz finden, dann Agent bauen. Change Management von Tag 1.
Governance zu restriktiv Nutzer umgehen die Plattform 85 % auto-genehmigt (Grün). Governance unsichtbar. Der sichere Weg muss der einfachste sein.
LLM-Halluzinationen Agent gibt falsche Informationen Kaskaden-Architektur: Regeln zuerst. LLM nur additiv. Confidence Scoring. Human-in-the-Loop bei kritischen Aktionen.
Datenschutzverletzung Sensible Daten im falschen Kontext Purview-Klassifizierung + DLP-Regeln automatisch. Tiered Access. Kein Agent sieht mehr als seine Risikostufe erlaubt.
Kostenexplosion Unkontrollierter LLM-Verbrauch Budget-Limits pro Agent, pro Fachbereich, pro Monat. Kosten-Dashboard in Echtzeit. Kaskade minimiert LLM-Aufrufe.
So sagen „Ich möchte transparent über Risiken sprechen — das gehört zu guter Plattform-Ownership. Das größte Risiko ist nicht Technik — es ist Adoption. Die Plattform muss genutzt werden. Deshalb: Pain-first-Ansatz. Wir bauen nicht, was wir für sinnvoll halten — wir bauen, was den Fachbereichen konkret hilft. Zweitgrößtes Risiko: Governance zu restriktiv. Wenn der offizielle Weg umständlicher ist als ChatGPT, nutzen die Leute ChatGPT. Deshalb die Stufenlogik: 85 % der Fälle brauchen keine manuelle Genehmigung. Datenrisiken werden durch die Governance Layer automatisch abgefangen — Purview klassifiziert, DLP-Regeln greifen, Audit Trail dokumentiert. Und Kosten: Budget-Limits pro Agent und Fachbereich. Kein unerwarteter Spend."
8
Warum ich: Drei Ebenen Erfahrung
Kurz, selbstbewusst, auf den Punkt
2 Min
🏢
Enterprise
4 Jahre Wintershall Dea. EU AI Act Governance. MLOps-Frameworks. LLM-Produktion (GPT-5, Azure). 6-köpfiges Team. Change Management 120+ Mitarbeitende.
🎓
Akademisch
PhD: 240.000-Agenten-Simulationen auf HPC. Publiziert zu Kaskadeneffekten in Agentennetzwerken. Dozentin. Konferenzvorträge.
🚀
Gründerin
Agentische Plattform von Grund auf gebaut. 4 LLM-Agenten, 24 Zero-Touch-Workflows, 3.085 Tests. Jeden Governance-Fehler persönlich gemacht.
So sagen „Zum Abschluss — warum bin ich die Richtige? Ich bringe drei Ebenen mit, die selten zusammenkommen: Enterprise: Bei Wintershall Dea habe ich vier Jahre KI-Systeme in Produktion gebracht, EU AI Act-Governance implementiert, ein Team geleitet und 120 Mitarbeitende durch Change Management begleitet. Akademisch: Meine Promotion simulierte 240.000 interagierende Agenten. Ich verstehe, wie Agentensysteme sich verhalten, wo sie instabil werden und wie Fehler kaskadieren. Gründerin: Ich habe eine agentische Plattform von Grund auf allein aufgebaut und betrieben. 4 Agenten, 24 automatisierte Workflows, 3.085 Tests. Dabei habe ich jeden Governance-Fehler persönlich gemacht — und die Lösungen dafür gebaut. Diese Kombination ist selten. Die meisten Kandidaten haben Enterprise ODER akademische Tiefe ODER Hands-on-Erfahrung. Ich habe alle drei."

Erwartete Rückfragen & Antworten

1 „Wie stellen Sie sicher, dass Fachbereiche die Plattform tatsächlich nutzen?"
Antwort „Drei Hebel. Erstens: Pain-first. Wir bauen nicht, was wir für wichtig halten — wir finden den schmerzhaftesten Prozess im Fachbereich und lösen ihn. Zweitens: der einfachste Weg muss der sicherste sein. Wenn die Plattform umständlicher ist als ChatGPT, verlieren wir. Deshalb auto-genehmigte grüne Agenten. Drittens: Erfolg sichtbar machen. Der erste Pilot wird zum Referenzfall. Bei Wintershall war der Wendepunkt: nachdem wir eine Dokumentenverarbeitung automatisiert hatten, kamen die Teams mit eigenen Ideen."
2 „Wie gehen Sie mit Halluzinationen um?"
AntwortKaskaden-Architektur. LLMs nicht für alles einsetzen. Deterministische Regeln lösen 90 % der Fälle — schnell, günstig, vorhersagbar. LLMs nur für den Rest, und dort mit Confidence Scoring. Niedrige Confidence → Human-in-the-Loop. Hohe Confidence → automatisch, aber auditiert. Zusätzlich: Ground Truth Monitoring. Stichprobenartig prüfen, ob Agenten korrekte Ergebnisse liefern. Aus meiner Erfahrung: die schlimmsten Halluzinationen sind die, die plausibel klingen. Deshalb Monitoring, nicht nur zur Fehlersuche, sondern zur Qualitätssicherung."
3 „Sie haben keine Purview/Defender-Erfahrung."
Antwort „Richtig. Aber drei Dinge: Erstens bin ich seit vier Jahren im Azure-Ökosystem. Zweitens habe ich die Konzepte gebaut, die Purview und Defender implementieren — Datenklassifizierung, DLP, Identity Governance, Audit Trails. Drittens: mein Rollout-Plan sieht die ersten zwei Monate als Foundation-Phase. In dieser Zeit arbeite ich mich tief in Purview und Defender ein — gleichzeitig mit der Governance-Design-Phase. Die Konzepte sind mir bekannt, nur die spezifische Microsoft-Oberfläche ist neu."
4 „Wie kontrollieren Sie die Kosten?"
Antwort „Drei Ebenen. Architektur: Kaskade — Regeln zuerst, LLM nur wenn nötig. Das reduziert API-Kosten um 90 %. Plattform: Budget-Limits pro Agent, pro Fachbereich, pro Monat. Echtzeit-Dashboard für Kosten. Alerts bei ungewöhnlichem Verbrauch. Governance: Hochrisiko-Agenten, die potenziell teuer sind, brauchen Compliance-Review — da wird der Kostenrahmen vorab definiert. In meiner eigenen Plattform kosten LLM-Aufrufe zwischen 0,001 und 0,005 Dollar pro Durchlauf — weil die Kaskade 90 % der Fälle ohne LLM löst."
5 „Was passiert, wenn ein Agent einen Fehler macht — wer haftet?"
Antwort „Genau deshalb die Risikostufen. Grüne Agenten können keine externen Aktionen ausführen — read-only. Der Schaden bei einem Fehler ist begrenzt. Gelbe und rote Agenten haben Human-in-the-Loop bei kritischen Aktionen. Und jede Aktion ist auditiert — wer hat den Agenten konfiguriert, welche Daten hat er verwendet, was hat er getan. Das ist die EU AI Act-Anforderung: Nachvollziehbarkeit über die gesamte Kette. Aus meiner Wintershall-Erfahrung: klare Verantwortlichkeiten definieren. Der Fachbereich verantwortet den Use Case, die Plattform verantwortet die Guardrails."
6 „Wie unterscheidet sich das von einfach Copilot Studio auszurollen?"
Antwort „Copilot Studio ist ein Werkzeug. Mein Vorschlag ist eine Plattform mit Governance. Copilot Studio allein hat keine Risikostufen, keine automatische Datenklassifizierung, keinen gestaffelten Genehmigungsworkflow, kein zentrales Kosten-Monitoring. Es ist, als würde man jedem einen Hammer geben, ohne Bauvorschriften. Die Plattform, die ich vorschlage, nutzt Copilot Studio als einen Baustein — aber bettet es in ein Framework ein, das Compliance, Monitoring und Skalierung sicherstellt."
7 „Was ist Ihr erster konkreter Schritt am ersten Tag?"
AntwortZuhören. Vier Gespräche in der ersten Woche: mit dem M365-Engineering-Team, mit Cloud & Security, mit Compliance, und mit dem Fachbereich, der am lautesten nach KI fragt. Ich will verstehen: Was existiert schon? Wo sind die Lücken? Was hat man schon versucht? Erst danach baue ich den Plan. Die Foundation-Phase lebt von guten Gesprächen, nicht von Annahmen."

🎤 Präsentationstipps

💡
Einfache Sprache
Nicht „wir implementieren eine multi-layer governance abstraction". Sondern: „Fachbereiche nutzen Self-Service, die Plattform stellt im Hintergrund sicher, dass nichts schiefgeht." Einfach > beeindruckend.
📊
Wenige Folien, viel Sprechen
Max. 10–12 Folien. Jede Folie hat 3–5 Punkte, nicht mehr. Dein Wissen zeigst du beim Sprechen, nicht auf der Folie.
🔄
Erfahrung natürlich einweben
Nicht: „Bei Wintershall habe ich…" als eigene Sektion. Sondern bei jedem Punkt kurz: „Das kenne ich aus der Praxis — bei Wintershall haben wir…". Erfahrung belegt deine Aussagen.
🤝
Fragen positiv aufnehmen
Jede Frage ist eine Chance zu zeigen, dass du tiefer denkst. „Gute Frage — genau das…" Nie defensiv. Nie „das habe ich nicht." Sondern: „Das ist ein Bereich, den ich so angehen würde…"

Zeitmanagement

  • Übe die Präsentation auf 20 Minuten. Plane 25 Min ein, damit du nicht hetzen musst.
  • Die Rückfragen sind wichtiger als die Folien. Lieber 15 Min präsentieren + 15 Min Rückfragen als 25 + 5.
  • Governance-Framework (Folie 3) ist dein Anker. Wenn du bei Rückfragen unsicher wirst, leite zurück: „Das adressiert unser dreistufiges Framework, weil…"

Sprache: Deutsch oder Englisch?

Empfehlung: Frage vorher, ob die Präsentation auf Deutsch oder Englisch sein soll. Falls keine klare Antwort: Folien auf Englisch (Fachbegriffe sind ohnehin englisch), Sprechen auf Deutsch. Das zeigt Professionalität und Sprachkompetenz gleichzeitig.

Fallen vermeiden

❌ Falle: Zu technisch werden

Business Case ≠ Architektur-Vortrag. Wenn du 10 Minuten über LangChain vs. Semantic Kernel redest, verlierst du das Publikum. Architektur nur high-level zeigen. Tiefe nur bei Rückfragen.

❌ Falle: Purview/Defender-Lücke verstecken

Sprich es selbst an — proaktiv, nicht defensiv. „Purview und Defender sind für mich neues Tooling, nicht neue Konzepte. Mein Ramp-up-Plan sieht das explizit vor." Das zeigt Reife. Verheimlichen wirkt schwächer als Ehrlichkeit.

❌ Falle: Nur über das eigene Projekt reden

CapeTownData ist Beweis, nicht Hauptthema. Lead mit Wintershall (Enterprise-Erfahrung). PhD und CapeTownData stützen. Maximal 2–3 Sätze pro CapeTownData-Referenz.

❌ Falle: Governance als Bremse positionieren

Nie sagen: „Governance verlangsamt, aber ist nötig." Sondern: „Governance beschleunigt, weil sie manuelle Reviews überflüssig macht." Governance = Enabler, nicht Einschränkung.

❌ Falle: Versprechen, die du nicht halten kannst

Sage nicht „50 Agenten in 6 Monaten". Sage „ein funktionierendes Framework, 3–5 Templates, 2 aktive Fachbereiche". Realistische Versprechen, die du übererfüllen kannst.