Architektur und Aufbau einer Cloud-nativen AI-Plattform

Deutsch
Dieser Vortrag wird auf Deutsch gehalten. / This Talk will be held in German.

Unternehmen erkennen zunehmend die strategische Bedeutung von Künstlicher Intelligenz (KI), doch die Erstellung und Bereitstellung von KI-Lösungen in großem Maßstab ist mit erheblichen Herausforderungen verbunden.

Eine KI-Plattform vereinheitlicht und vereinfacht den gesamten KI-Lebenszyklus. Sie verfügt über einen Cloud-basierten, generischen Kern, der sich um übergreifende Aspekte wie Compliance, MLOps und Monitoring kümmert. Modulare Adapter sorgen für eine nahtlose Integration in die bestehende IT-Infrastruktur.

Dieser Workshop bietet eine praktische Schritt-für-Schritt-Anleitung für das Design und den Aufbau einer solchen Plattform, sowohl lokal als auch in der Public Cloud. Wir zeigen, wie Kubernetes, Open-Source-Technologien und GitOps-Prinzipien dabei helfen, eine hochautomatisierte und skalierbare Umgebung zu schaffen.

In diesem Workshop tauchen wir praktisch in die Architektur und die Implementierung einer zentralen Plattform ein:

  • Kernkomponenten: Wir diskutieren detaillierter die einzelnen Bausteine des generischen Kerns.
  • Modulare Adapter: Anhand von Beispielen wird gezeigt, wie Adapter für die Integration mit bestehenden Datenquellen, Authentifizierungssystemen oder AI Inference konzipiert und implementiert werden können.
  • Technologie-Stack: Wir beleuchten die Rolle von Kubernetes als Fundament und wie es Skalierbarkeit, Ausfallsicherheit und Portabilität ermöglicht. Darauf aufbauend werden exemplarische Open-Source-Technologien für verschiedene Bereiche vorgestellt und via GitOps deployed.

Teilnehmende sollten

  • ein grundlegendes Verständnis von Cloud-Computing-Konzepten (IaaS, PaaS, SaaS) mitbringen.
  • Grundkenntnisse über Künstliche Intelligenz und Machine Learning (was ist ein Modell, Training, Inferenz) haben.
  • Erfahrung mit Kubernetes und DevOps-Prinzipien und damit verwandten Technologien und Tools gesammelt haben.
  • möglichst mit Container-Technologien (z.B. Docker) vertraut sein.

Teilnehmende lernen

  • die Kernkonzepte und Architekturentscheidungen beim Aufbau einer Cloud-nativen KI-Plattformzu verstehen.
  • Schlüsseltechnologien und Open-Source-Tools im Kontext einer KI-Plattform einordnen und deren Nutzen bewerten zu können.
  • Einblicke in den praktischen Aufbau und die Automatisierung einer AI-Plattform kennen, um darauf Agentic AI Workloads standardisiert zu betreiben.

  • ab 09:00 Uhr: Registrierung und Begrüßungskaffee
  • 10:00 Uhr: Beginn
  • 10:00 - 10:30 Uhr: Vorstellung, Einführung und Zielsetzung
  • 10:30 - 12:30 Uhr: Architektur-Deep-Dive: Bausteine einer KI-Plattform
  • 12:30 - 13:30 Uhr: Mittagspause
  • 13:30 - 15:00 Uhr: Technologie-Stack unter der Lupe
  • 15:00 - 15:15 Uhr: Kaffeepause
  • 15:15 - 16:00 Uhr: Testbench und Compliance
  • 16:00 - 16:30 Uhr: Deployment und Betrieb von Agentic Workloads
  • 16:30 - 17:00 Uhr: Offene Diskussion, Q&A und Wrap-up
  • ca. 17:00 Uhr: Ende

Eigener Laptop mit Zugang zu einer Browser IDE

Mario-Leander Reimer
Mario-Leander Reimer
ist passionierter Softwareentwickler und -architekt, stolzer Vater und #CloudNativeNerd. Er ist Managing Director und CTO bei QAware und beschäftigt sich intensiv mit den Technologien der Cloud-native Landscape und deren Einsatzmöglichkeiten im Unternehmensumfeld. Außerdem unterrichtet er Software-Qualitätssicherung an der TH Rosenheim.

CLC-Newsletter

Du möchtest über die CLC auf dem Laufenden gehalten werden?

Anmelden