Architektur und Aufbau einer Cloud-nativen AI-Plattform

Deutsch
Dieser Vortrag wird auf Deutsch gehalten. / This Talk will be held in German.

Unternehmen erkennen zunehmend die strategische Bedeutung von Künstlicher Intelligenz (KI), doch die Erstellung und Bereitstellung von KI-Lösungen in großem Maßstab ist mit erheblichen Herausforderungen verbunden.

Eine KI-Plattform vereinheitlicht und vereinfacht den gesamten KI-Lebenszyklus. Sie verfügt über einen Cloud-basierten, generischen Kern, der sich um übergreifende Aspekte wie Compliance, MLOps und Monitoring kümmert. Modulare Adapter sorgen für eine nahtlose Integration in die bestehende IT-Infrastruktur.

Dieser Workshop bietet eine praktische Schritt-für-Schritt-Anleitung für das Design und den Aufbau einer solchen Plattform, sowohl lokal als auch in der Public Cloud. Wir zeigen, wie Kubernetes, Open-Source-Technologien und GitOps-Prinzipien dabei helfen, eine hochautomatisierte und skalierbare Umgebung zu schaffen.

In diesem Workshop tauchen wir praktisch in die Architektur und die Implementierung einer zentralen Plattform ein:

  • Kernkomponenten: Wir diskutieren detaillierter die einzelnen Bausteine des generischen Kerns.
  • Modulare Adapter: Anhand von Beispielen wird gezeigt, wie Adapter für die Integration mit bestehenden Datenquellen, Authentifizierungssystemen oder AI Inference konzipiert und implementiert werden können.
  • Technologie-Stack: Wir beleuchten die Rolle von Kubernetes als Fundament und wie es Skalierbarkeit, Ausfallsicherheit und Portabilität ermöglicht. Darauf aufbauend werden exemplarische Open-Source-Technologien für verschiedene Bereiche vorgestellt und via GitOps deployed.

Teilnehmende sollten

  • ein grundlegendes Verständnis von Cloud-Computing-Konzepten (IaaS, PaaS, SaaS) mitbringen.
  • Grundkenntnisse über Künstliche Intelligenz und Machine Learning (was ist ein Modell, Training, Inferenz) haben.
  • Erfahrung mit Kubernetes und DevOps-Prinzipien und damit verwandten Technologien und Tools gesammelt haben.
  • möglichst mit Container-Technologien (z.B. Docker) vertraut sein.

Teilnehmende lernen

  • die Kernkonzepte und Architekturentscheidungen beim Aufbau einer Cloud-nativen KI-Plattformzu verstehen.
  • Schlüsseltechnologien und Open-Source-Tools im Kontext einer KI-Plattform einordnen und deren Nutzen bewerten zu können.
  • Einblicke in den praktischen Aufbau und die Automatisierung einer AI-Plattform kennen, um darauf Agentic AI Workloads standardisiert zu betreiben.

ab 09:00 Uhr: Registrierung
10:00 Uhr: Beginn

  • Vorstellung, Einführung und Zielsetzung
  • Architektur-Deep-Dive: Bausteine einer KI-Plattform
13:00 - 14:00 Uhr: Mittagspause

  • Technologie-Stack unter der Lupe
  • Testbench und Compliance
  • Deployment und Betrieb von Agentic Workloads
  • Offene Diskussion, Q&A und Wrap-up
ca. 17:00 Uhr: Ende

Von 11:30 - 11:45 Uhr und 15:30 - 15:45 Uhr finden zudem Kaffeepausen statt.

Eigener Laptop mit Zugang zu einer Browser IDE

Mario-Leander Reimer
Mario-Leander Reimer
ist passionierter Softwareentwickler und -architekt, stolzer Vater und #CloudNativeNerd. Er ist Managing Director und CTO bei QAware und beschäftigt sich intensiv mit den Technologien der Cloud-native Landscape und deren Einsatzmöglichkeiten im Unternehmensumfeld. Außerdem unterrichtet er Software-Qualitätssicherung an der TH Rosenheim.
Felix Kampfer
Felix Kampfer
ist begeisterter Platform Engineer bei der QAware GmbH. Er beschäftigt sich leidenschaftlich mit Best Practices rund um DevOps, GitOps und Infrastructure as Code. Besonders interessiert ist er an der Gestaltung moderner Internal Developer Platforms (IDPs), die Entwicklerinnen und Entwicklern das Leben leichter machen.

Gold-Sponsoren

Silber-Sponsoren


 

CLC-Newsletter

Du möchtest über die CLC auf dem Laufenden gehalten werden?

Anmelden