🔐
Docs & Data
Tina K · Ceraluna Labs
Falsches Passwort
← Zurück zur Übersicht
EN DE
Interview-Vorbereitung

Agentic AI
Platform Owner

Unternehmen: enercity Netz GmbH, Hannover Job-ID: J2026011 Arbeitsmodell: Hybrid, Vollzeit
Anforderungs-Match
10 / 12
Ausbildung
Übertrifft
Promotion agentenbasierte Modelle + Diplom-Kauffrau
Multi-Agenten-Systeme
Seltener Match
240k Agenten (PhD) + 4-Agenten-LLM-Plattform
LLM / RAG
Stark
GPT-5, LangChain, Azure OpenAI, Produktion
KI-Governance
Direkt
EU AI Act bei Wintershall + Praxiserfahrung
Cloud & MLOps
Stark
Azure AI/ML, DevOps, Docker, MLflow
Skalierbare Plattformen
Stark
MLOps-Frameworks + konfigurationsgetriebenes Design
Teamführung
Direkt
6-köpfiges Team, 4 Mentees, Budgetverantwortung
Enablement
Stark
Change Management 120+ Mitarbeitende, Konferenzen
Kommunikation
Stark
Publikationen, Lehrtätigkeit, Konferenzvorträge
Sprachen
Exakt
Deutsch Muttersprache, Englisch fließend
Purview / Defender
Lücke (30 Tage)
Azure-Ökosystem transferierbar; Konzepte bekannt
M365 Graph API
Lücke (30 Tage)
API-Integrationserfahrung transferierbar

🎤 Dein 60-Sekunden-Pitch

Auswendig lernen

„Ich bin Data Scientist mit einer Promotion im Bereich komplexer agentenbasierter Modelle — meine Doktorarbeit simulierte 240.000 interagierende Agenten auf Hochleistungsrechnern. Bei Wintershall Dea habe ich vier Jahre lang KI von der Idee bis in die Produktion gebracht — darunter LLM-gestützte Dokumentenintelligenz, EU AI Act-konforme Governance und MLOps-Frameworks. Ich habe ein 6-köpfiges Team geleitet und ein Change-Management-Programm für 120 Mitarbeitende verantwortet.

Nebenbei habe ich eine vollständige agentische Datenplattform von Grund auf aufgebaut — vier spezialisierte LLM-Agenten, orchestriert durch 24 automatisierte Workflows, die ohne menschliches Eingreifen laufen. Dabei habe ich gelernt, was in agentischen Systemen tatsächlich schiefgeht: stille Ausfälle, fehlende Autorisierungs-Gates und Governance-Lücken, die erst in der Produktion sichtbar werden.

Ich bringe die Kombination mit: Enterprise KI-Governance von Wintershall, akademische Tiefe in agentenbasierten Systemen aus meiner Promotion und praktische Gründer-Erfahrung aus dem eigenständigen Betrieb von Agenten."

🗺 Nachweiskarte: Anforderung → Beleg

Architektur, Strategie & Roadmap

Wintershall

End-to-End-Delivery mehrerer KI/ML-Projekte geleitet. MLOps-Frameworks implementiert (CI/CD, Monitoring, Governance). LLM-Dokumentenintelligenz auf Azure geliefert — 99 % Genauigkeit bei mehrsprachigen PDFs. Vortrag „MLOps Design Principles" auf der EAGE Digital 2024.

Promotion

240.000-Agenten-Simulationen auf HPC-Clustern. Forschung zu systemischen Risiken und Kaskadeneffekten in Agentennetzwerken publiziert.

CapeTownData

Multi-Agenten-Pipeline: Klassifikation → Deduplizierung → Geokodierung → Übersetzung. Konfigurationsgetriebene Architektur — neue Use Cases per JSON, nicht per Code. 11 Architekturentscheidungen mit Begründung dokumentiert.

KI-Governance (EU AI Act, DSGVO)

Wintershall

EU AI Act-Risikoklassifizierungs-Workflows aufgebaut. Governance-Dokumentation für den gesamten KI-Modell-Lebenszyklus erstellt. Sichere Lösungen in einem regulierten Energieunternehmen geliefert.

CapeTownData

Human-in-the-Loop-Gate: Alle KI-klassifizierten Daten kommen gesperrt an — explizite Freigabe nötig. Datenminimierung: Gestaffelter Zugriff — präzise Daten nur für autorisierte Nutzer, durch automatisierte Tests abgesichert. Aus Fehlern gelernt: Beinahe präzise Geodaten an Gratis-Nutzer weitergegeben. Daraufhin 3.085 automatisierte Tests aufgebaut.

Zero-Touch-Betrieb & Selbstheilung

Wintershall

MLOps-Frameworks mit CI/CD, Monitoring, Governance. Anomalieerkennung (LSTM) für sicherheitskritisches Monitoring. Docker-containerisierte Workflows.

CapeTownData

24 automatisierte Zero-Touch-Workflows. Selbstheilung: DB-Verbindungswiederherstellung, Stale-Data-Guards, graceful LLM-Degradation. Fail-Loud-Prinzip: jeder Fehler wird sofort sichtbar. Compliance-bewusstes Deployment mit Dry-Run-Flags und 3.085-Test-CI-Gate.

LLM/Agenten-Frameworks & RAG

Wintershall

LLM-Dokumentenintelligenz (GPT-5, LangChain, Hugging Face, Azure OpenAI). RAG in der Praxis — Retrieval + Generierung für Enterprise-Wissen.

Promotion

240k-Agenten-Simulationen. Publiziert: Wie Information sich durch Agentennetzwerke verbreitet.

CapeTownData

4 LLM-Agenten in Produktion. Kaskaden-Architektur: erst Regeln (90 % der Fälle), dann KI. Kostenoptimiert: 0,001–0,005 $/Durchlauf mit Sicherheitslimits.

Teamführung & externe Experten

Wintershall

6-köpfiges cross-funktionales Team geleitet. 4 Data Scientists mentored. Zusammenarbeit mit Azure/Microsoft-Partnern.

Econometrix

Projektbudgets, Ressourcenplanung, P&L über verschiedene Sektoren gemanagt. Termingerecht, im finanziellen Rahmen.

Enablement & Change Management

Wintershall

Change Management für 120+ Mitarbeitende. Agile Ceremonies, Sprint Reviews, Workshops.

Akademisch

Dozentin an der UCT. Konferenzvorträge (ADIPEC 2022, EAGE Digital 2024). Publizierte Forscherin.

Deine 5 Alleinstellungsmerkmale

Was andere Kandidat:innen wahrscheinlich nicht mitbringen:

01
Promotion genau zu agentenbasierten Modellen
240.000 Agenten auf HPC-Clustern. Publizierte Forschung zu Agentenverhalten, Kaskadeneffekten, emergenter Dynamik. Die meisten KI-Plattform-Kandidat:innen haben Agententheorie nie auf dieser Tiefe studiert.
02
Enterprise-Governance + Gründer-Narben
EU AI Act-Compliance bei Wintershall (der regulierte Weg). Governance von Grund auf im eigenen Projekt aufgebaut (der harte Weg). Du weißt, was das Framework vorschreibt UND was in der Praxis tatsächlich schiefgeht.
03
Change Management in großem Maßstab
120+ Mitarbeitende, KI-Adoptionsprogramm. Die meisten technischen Architekt:innen können kein organisatorisches Change Management. Entscheidend für die Agent 365-Adoption über Geschäftsbereiche hinweg.
04
Energiesektor-Domänenwissen
4 Jahre bei Wintershall Dea. enercity ist Energie. Du verstehst die Domäne, die Risikobereitschaft, das regulatorische Umfeld. Kein Ramp-up beim Branchenkontext nötig.
05
Drei Ebenen der Agenten-Erfahrung: akademisch + Enterprise + Gründerin
Promotion (Agententheorie, 240k Agenten) → Wintershall (Enterprise-LLM-Produktion, Azure, Governance) → CapeTownData (4 LLM-Agenten von Grund auf gebaut, 24 Zero-Touch-Workflows, jeden Governance-Fehler persönlich gemacht). Diese Kombination ist extrem selten.

💬 7 Interviewfragen & Antworten

1 „Erzählen Sie uns von Ihrer Erfahrung mit agentenbasierten Systemen."
„Ich bringe drei Ebenen mit. In meiner Promotion habe ich komplexe agentenbasierte Modelle mit 240.000 Agenten auf HPC-Clustern entwickelt — um zu erforschen, wie Agenten interagieren, wie Information sich ausbreitet und wie Ausfälle kaskadieren. Bei Wintershall habe ich LLM-gestützte KI-Systeme in Produktion gebracht — Dokumentenintelligenz mit GPT-5 auf Azure, 99 % Genauigkeit bei mehrsprachigen PDFs. In meinem eigenen Projekt habe ich eine vollständige agentische Plattform von Grund auf gebaut — vier spezialisierte LLM-Agenten, 24 automatisierte Workflows. Dabei habe ich gelernt, was tatsächlich schiefgeht: stille Ausfälle, fehlende Autorisierungs-Gates, unkontrollierte Kosten, Datenschutzlücken. Diese Kombination — akademisches Fundament, Enterprise-Delivery, Gründer-Erfahrung — bringe ich für Agent 365 mit."
2 „Erzählen Sie von einer Situation, in der ein KI-System in Produktion versagt hat."

Je nach Gesprächsstimmung wählen

Enterprise-Story (sicherer, zeigt Teamführung):

„Bei Wintershall hat unsere LSTM-Anomalieerkennung für Well-Integrität zu viele Fehlalarme ausgelöst. Die Operateure haben den Alarmen nicht mehr vertraut — gefährlich bei sicherheitskritischem Monitoring. Wir haben die Alert-Schicht mit Konfidenz-Schwellenwerten und physikbasierter Validierung neu designt. Lektion: Fehlalarme trainieren Menschen, Alarme zu ignorieren. In agentischen Systemen ist Vertrauen alles."

Gründer-Story (mutiger, zeigt Hands-on-Tiefe):

„Mein LLM-Deduplizierungsagent hat 17 Duplikatgruppen gefunden, aber keine einzige entfernt. Ich hatte das Autorisierungs-Flag im Code eingebaut, aber vergessen, es durch die Orchestrierungsschicht zu verdrahten. Der Agent konnte erkennen, war aber nicht autorisiert zu handeln. Das ist ein fundamentaler Fehlertyp agentischer KI — die Lücke zwischen Fähigkeit und Berechtigung. Jetzt wird jede neue Fähigkeit end-to-end nachvollzogen, bevor sie live geht."
3 „Wie gehen Sie mit KI-Governance und dem EU AI Act um?"
„Bei Wintershall habe ich EU AI Act-Risikoklassifizierungs-Workflows und Governance-Dokumentation in einem regulierten Energieunternehmen aufgebaut. Compliance war dort nicht optional. In meiner eigenen Plattform habe ich Governance von der anderen Seite kennengelernt — durch die Fehler. Ich hätte beinahe präzise Daten an unautorisierte Nutzer weitergegeben. Das hat mir gezeigt: Governance ist kein Dokument — es sind automatisierte Prüfungen, die bei jedem Deployment laufen. Für enercity: das regulatorische Framework von Wintershall, durchgesetzt durch automatisierte Compliance in der Pipeline. Governance sollte Code sein, nicht Papierkram."
4 „Wie würden Sie die Architektur von Agent 365 angehen?"
„Vier Prinzipien: 1. Kaskade statt Ersatz. Regeln behandeln einfache Fälle, KI übernimmt, was Regeln nicht können. 90 % ohne LLM-Aufruf. Kosten runter, Zuverlässigkeit hoch. 2. Governance-Gates bei jeder Aktion. Agenten empfehlen; Ausführung erfordert Autorisierung passend zur Entra ID-Rolle und zum Risikolevel der Aktion. 3. Konfigurationsgetriebene Erweiterbarkeit. Neue Use Cases = JSON-Definition, nicht Code. Was der Agent zugreift, was er tun darf, wer freigeben muss. Skaliert von 1 bis 50 Agenten. 4. Fail-Loud-Monitoring. Stille Ausfälle sind katastrophal. Jeder Agent bekommt Health Checks, Fehler werden sofort sichtbar. Erste 90 Tage: M365-Stack auf diese Muster abbilden, einen Referenz-Agenten mit vollständiger Governance bauen, als Vorlage nutzen."
5 „Sie haben keine Purview/Defender-Erfahrung. Wie werden Sie sich einarbeiten?"
„Richtig. Aber ich bin seit vier Jahren im Azure-Ökosystem: Azure AI/ML, Azure OpenAI, Azure Functions, Azure DevOps. Und ich habe die Konzepte gebaut, die Purview und Defender implementieren: Datenklassifizierung, DLP, Identity Governance, Audit Logging. Die Prinzipien sind identisch — ich brauche die spezifischen Produktoberflächen. Mit meinem Azure-Fundament: 30 Tage. Microsoft Learn für die Grundlagen, dann ein Hands-on-Prototyp, der Governance-Muster demonstriert, die ich bereits beherrsche — implementiert im M365-Stack."
6 „Wie balancieren Sie Innovation und Compliance?"
„Compliance für Entwickler unsichtbar machen. Bei Wintershall waren Governance-Checks in der CI/CD-Pipeline — man konnte nicht deployen, ohne sie zu bestehen. In meinem Projekt verifizieren 3.085 Tests die Datenschutzgrenzen bei jeder Änderung. Innovation verlangsamt sich, wenn Compliance manuelles Review ist. Sie bleibt schnell, wenn Compliance automatisierte Pipeline-Gates sind. Für Agent 365: Purview-Klassifizierung, DLP-Regeln, Entra ID-Checks in die Deployment-Pipeline einbauen. Entwickler bauen Agenten; die Pipeline stellt Compliance sicher. Leitplanken unsichtbar — bis man versucht, sie zu überschreiten."
7 „Wie würden Sie die KI-Adoption bei den Fachbereichen vorantreiben?"
„Bei Wintershall habe ich Change Management für 120+ Mitarbeitende durchgeführt. Größte Erkenntnis: Menschen nutzen Werkzeuge, die ihr konkretes Problem lösen — nicht Werkzeuge, die ‚strategisch wichtig' sind. 1. Erst zuhören. Jeden Bereich treffen. Den schmerzhaftesten sich wiederholenden Prozess finden. Nicht Agent 365 pitchen — fragen, was Zeit kostet. 2. Einen Quick Win bauen. Größter Schmerz, kleinstes Risiko. MVP in 2–3 Wochen. 3. Erfolg sich verbreiten lassen. Erster Bereich = Referenzfall. Die anderen kommen von selbst. Der Wendepunkt bei Wintershall: Wir haben eine Dokumentenaufgabe automatisiert, die Stunden dauerte — 99 % Genauigkeit erreicht. Danach kamen die Teams mit eigenen Ideen auf uns zu."

🚩 Vorbereitung auf kritische Fragen

⚠ „Ihr letzter Titel war Senior Data Scientist, nicht Platform Owner."
„Der Titel war Senior Data Scientist. Der Verantwortungsbereich war Plattform-Level: Ich habe das MLOps-Framework designed, das Team geleitet, die Governance-Strategie vorangetrieben, Change Management für 120 Mitarbeitende durchgeführt. Und in meinem eigenen Projekt bin ich buchstäblich die Platform Owner — Architektur, Governance, Monitoring, Deployment, end-to-end. Der Übergang ist von implizitem zu explizitem Platform Ownership."
⚠ „Sie sind seit November 2025 nicht mehr fest angestellt."
„Ich habe die Zeit genutzt, um eine produktive agentische Plattform von Grund auf aufzubauen — kein Tutorial, ein echtes Produkt: 4 LLM-Agenten, 24 automatisierte Workflows, 3.085 Tests, gestaffelte Daten-Governance. Ich wollte Hands-on-Gründer-Erfahrung mit Agentic AI sammeln, bevor ich eine Platform-Ownership-Rolle übernehme. Ich bin heute stärker als beim Verlassen von Wintershall — weil ich jeden Teil des Stacks selbst gemacht habe."
⚠ „Ihre Azure-Erfahrung ist mit OpenAI, nicht mit Purview/Defender."
„Richtig. Aber drei Dinge: Erstens bin ich seit 4 Jahren im Azure-Ökosystem — AI/ML, OpenAI, Functions, DevOps. Das Ökosystem-Wissen ist transferierbar. Zweitens habe ich die Konzepte gebaut, die diese Tools implementieren — Klassifizierung, DLP, Identity Governance, Audit Trails. Drittens: 30 Tage. Mit meinem Azure-Fundament und Microsoft Learn werde ich produktiv sein. Ich habe mich schon früher in neue Microsoft-Tools eingearbeitet — die Prinzipien übertragen sich, nur die Oberfläche ändert sich."

🔤 Vokabular-Übersetzung

Ihre Sprache verwenden. Eigene Erfahrung in deren Begriffe übersetzen:

Deine ErfahrungSo formulieren
240k-Agenten-Simulation (PhD)Komplexe Multi-Agenten-Systeme in großem Maßstab
Wintershall MLOps CI/CDAutomatisierte Validierungspipelines mit Compliance-Gates
LLM-Dokumentenintelligenz auf AzureEnterprise LLM-Deployment auf dem Microsoft-Stack
EU AI Act-RisikoklassifizierungRegulierungskonformes KI-Governance-Framework
Change Mgmt für 120 MitarbeitendeOrganisatorisches KI-Enablement und Adoption
4-stufige Dedup-KaskadeDeterministisch-zuerst, KI-zuletzt-Agentenarchitektur
publish_locked-PatternHuman-in-the-Loop-Governance-Gate
Gestaffelter DatenzugriffRollenbasierte Datenklassifizierung mit DLP-Durchsetzung
24 automatisierte WorkflowsZero-Touch-Agentenorchestrierung
3.085 automatisierte TestsAutomatisierte Compliance-Validierung in CI/CD
Graceful LLM-DegradationResilientes Agentendesign — KI ergänzt, blockiert nie
Konfigurationsgetriebene datasets.jsonSkalierbare, konfigurationsgetriebene Plattformerweiterbarkeit
Econometrix BudgetverantwortungExterne Dienstleisterkoordination mit P&L-Verantwortung

📅 Dein 90-Tage-Plan

Tage 1–30
Lernen & Bestandsaufnahme
  • Deep-Dive M365-Security: Purview, Defender, Entra ID, Graph API
  • Bestehende Agent 365-Architektur und Governance-Status erfassen
  • Stakeholder-Interviews: Produkt, Compliance, Security, Fachbereiche
  • Lücken dokumentieren. Quick-Win-Use-Case für ersten MVP identifizieren.
Tage 31–60
Bauen & Beweisen
  • Referenz-Agent mit vollständiger Governance bauen: Entra ID → Purview → DLP → Defender → Audit Trail
  • Agenten-Lebenszyklus etablieren: Entwickeln → Validieren → Deployen → Monitoren → Stilllegen
  • Automatisierte Compliance-Checks in der Deployment-Pipeline
  • Erster Fachbereich-Engagement: Schmerzpunkt → MVP-Design
Tage 61–90
Skalieren & Befähigen
  • Referenz-Agent in wiederverwendbare Vorlage verallgemeinern
  • Erster Enablement-Workshop mit Pilot-Fachbereich
  • Agent 365-Governance-Playbook veröffentlichen
  • 6-Monats-Roadmap an die Führungsebene präsentieren, priorisiert nach Geschäftswert

🤔 Fragen ans Unternehmen

  1. „Wie weit ist Agent 365 heute?" — Agenten in Produktion oder Greenfield?
  2. „Wo liegt der größte Schmerzpunkt?" — Zuverlässigkeit, Compliance, Skalierung oder Adoption?
  3. „Purview/Defender für KI-Workloads?" — Bereits konfiguriert, oder Teil dessen, was ich aufbauen würde?
  4. „Wie sieht Erfolg nach 6 Monaten aus?" — Governance-Framework, Anzahl Agenten oder Adoption?
  5. „Externe Expert:innen?" — Microsoft-Partner, Beratungen oder Freelancer?
  6. „Zusammenarbeit im Team?" — Wie arbeitet diese Rolle mit M365 Engineering und Cloud & Security zusammen?
  7. „Strategieverantwortung?" — Bestehende KI-Strategie umsetzen oder mitgestalten?

Anschreiben — Kernabsatz

Deutsch

Sehr geehrte Damen und Herren,

als promovierte Wirtschaftsinformatikerin mit Schwerpunkt auf komplexen agentenbasierten Modellen (240.000 Agenten auf HPC-Clustern) und vier Jahren Erfahrung in der Entwicklung produktiver KI-Systeme bei Wintershall Dea bringe ich genau die Kombination mit, die diese Rolle erfordert: tiefes Verständnis für Multi-Agenten-Systeme, praktische Erfahrung mit LLM-Pipelines auf Azure (GPT-5, LangChain, RAG), und nachgewiesene EU AI Act-konforme Governance in einem regulierten Energieunternehmen.

Bei Wintershall Dea habe ich MLOps-Frameworks implementiert, ein 6-köpfiges Team geleitet, und ein Change-Management-Programm für 120+ Mitarbeitende durchgeführt. Parallel dazu habe ich als Gründerin eine vollständige Agentic-AI-Plattform aufgebaut — vier spezialisierte LLM-Agenten, orchestriert durch 24 automatisierte Zero-Touch-Workflows. Diese Hands-on-Erfahrung hat mir gezeigt, wo agentische Systeme tatsächlich scheitern: stille Ausfälle, fehlende Autorisierungsgates, und Governance-Lücken, die erst auffallen, wenn es zu spät ist.

Diese Kombination aus Enterprise-Erfahrung, akademischer Tiefe und Gründer-Pragmatismus möchte ich als Agentic AI Platform Owner bei enercity einbringen.