Skip to content
scieneers
  • Story
  • Leistungen
    • Leistungen allgemein
    • KI für die Energiewirtschaft
    • Große Sprachmodelle für Ihre Daten
    • Erweiterbare AI-Chat-Basis
    • Social Impact @ scieneers
  • Workshops
    • Microsoft Data Strategy & Analytics Assessment
    • Azure Data Platform Proof of Concept
    • Microsoft Fabric: „Bring Your Own Data“ Workshop
    • Power BI Training
    • Data Science Training
    • Data Security Workshop
  • Content
  • Team
  • Join
  • Kontakt
  • DE
  • EN
  • Menü Menü

PyData Berlin 2025

Data Science, Open Source und Agentic AI im Fokus

05.09.2025 – ca. 13 Min. Lesezeit – Zurück zur Startseite – Alle Blog-Artikel

Drei Tage voller Talks, Tutorials und Tech-Community-Spirit – das war die PyData Berlin 2025.

Vom 1. bis 3. September versammelten sich Data Scientists, Data Engineers und Open-Source-Enthusiast:innen im bcc Berlin Congress Center, um sich über die neuesten Entwicklungen in der Welt der Datenanalyse und KI auszutauschen. Mit rund 500 Teilnehmenden bot die Konferenz genau die richtige Größe: groß genug für vielfältige Perspektiven, klein genug für echte Gespräche.

Besonders beeindruckend: In den zentralen Bereichen der Datenverarbeitung, aber auch in der Visualisierung bis hin zum App-Development präsentierten sich viele Open-Source-Initiativen mit neuen oder verbesserten Tools.

Agentic AI

als Leitmotiv

Ein weiterer roter Faden durch viele Vorträge: Agentic AI Use Cases sind allgegenwärtig.

Doch die große Herausforderung bleibt dieselbe: Wie hält man LLMs an der kurzen Leine?

In zahlreichen Gesprächen und Präsentationen wurde deutlich, dass maßgeschneiderte Evaluierungen und Metriken oft der Schlüssel zum Erfolg sind.

Unser Beitrag: LiteLLM in Production

Wir von scieneers waren mit einem Vortrag vertreten, in dem Alina Dallmann Einblicke in unsere Erfahrungen mit LiteLLM in produktiven Umgebungen gab.

Der Titel:
„One API to Rule Them All? LiteLLM in Production“ – eine Referenz auf die Idee, mit LiteLLM eine zentrale Schnittstelle für verschiedenste LLM-Provider zu schaffen.

One API to Rule Them All?

LiteLLM in Production

Eine Präsentation mit dem Titel 'LiteLLM provides two options: a library and a proxy' auf einer Leinwand. Alina Dallmann spricht vor einem Publikum, das aus vielen Personen besteht, die auf Stühlen sitzen. Auf dem Bildschirm sind Codebeispiele in einer Python-Bibliothek zu sehen.

Alina beim Vortrag über LiteLLM in Production

Heutzutage gibt es viele KI-Anwendungen, die mit verschiedenen Sprachmodellen arbeiten –
heute eins von OpenAI, morgen eins von Anthropic, übermorgen vielleicht ein selbst gehostetes Modell.

Die Anforderungen sind klar:

  • Modelle sollen leicht austauschbar und aktualisierbar sein.

  • Der Wechsel zwischen verschiedenen Anbietern muss ohne großen Aufwand möglich sein.

Genau hier kommt LiteLLM ins Spiel. Es bietet eine einheitliche API für verschiedenste Modelle – entweder als Python-Bibliothek oder als Proxy-Server mit OpenAI-kompatiblem Endpunkt.

Der Vortrag zum Durchblättern

Download

Unsere Lessons Learned zur PyData 2025

  • Schneller Einstieg: LiteLLM lässt sich einfach deployen – per Docker und YAML-Konfiguration.

  • Kostenkontrolle: Budgets lassen sich einfach zentral verwalten und Modellkosten automatisch tracken.

  • Grenzen der Abstraktion: Sehr spezifische Anforderungen – wie temporäre Budgeterhöhungen für einzelne User – erfordern Workarounds.

  • Produktionsreife: Nicht alle neuen Features sind sofort uneingeschränkt nutzbar, sie zeigen evtl. noch unerwartetes Verhalten.

Autoren

Alina Dallmann

Alina Dallmann, Data Scieneer bei scieneers GmbH
alina.dallmann@scieneers.de

Dr. Richard Naab, Data Scieneer bei scieneers GmbH
richard.naab@scieneers.de

© Copyright scieneers – Impressum | Datenschutz
Nach oben scrollen Nach oben scrollen Nach oben scrollen