Kostenloses Live-Webinar · 2. Februar 2026 · 16:00 Uhr
Das kostenlose Webinar für Tech Leads und Engineers, die verstehen wollen, wie sie Regressionen systematisch vermeiden – und wo sie anfangen sollten.
🎯
60 Min. Live-Session
Online via Zoom
Teams releasen LLM-Features ohne systematische Qualitätssicherung, weil klassische Testing-Ansätze nicht übertragbar sind und unklar ist, wo man anfangen soll.
Das führt zu Regressionen, subjektiven Diskussionen und Release-Angst. In diesem 60-minütigen Webinar bekommst du Orientierung über LLM Evals und Klarheit über das erste Minimal-Eval-Set, das sofort Wirkung hat.
⚠️
Änderungen brechen bestehendes Verhalten
🛡️
Sicherheitslücken bleiben unentdeckt
🤝
Stakeholder verlieren Zuversicht
Die drei Risiken: Regression, Safety, Vertrauen. Warum klassische Tests bei LLMs nicht greifen.
Funktionale, qualitative und sicherheitsrelevante Evals – und wann du welche brauchst.
Von Prod-Fehler → Trace → Testfall → Gate. Wie Evals zum Release-Prozess werden.
Minimales Eval-Set identifizieren. Offene Fragen klären.

Freelance AI Consultant & Engineer
Andreas ist Freelance AI Consultant & Engineer aus Köln und übersetzt High-Level Business-Strategien in produktionsreife KI-Lösungen. Mit mehr als 10 Jahren Erfahrung in der Softwareentwicklung – als Senior AI Engineer bei ellamind und Engineering Manager bei Perfect-iD GmbH – bringt er Expertise in Generative KI, RAG-Systemen und LLM Evaluation mit.
LinkedIn-Profil →