PyData Berlin 2025
Data Science, Open Source und Agentic AI im Fokus
Drei Tage voller Talks, Tutorials und Tech-Community-Spirit – das war die PyData Berlin 2025.
Vom 1. bis 3. September versammelten sich Data Scientists, Data Engineers und Open-Source-Enthusiast:innen im bcc Berlin Congress Center, um sich über die neuesten Entwicklungen in der Welt der Datenanalyse und KI auszutauschen. Mit rund 500 Teilnehmenden bot die Konferenz genau die richtige Größe: groß genug für vielfältige Perspektiven, klein genug für echte Gespräche.
Besonders beeindruckend: In den zentralen Bereichen der Datenverarbeitung, aber auch in der Visualisierung bis hin zum App-Development präsentierten sich viele Open-Source-Initiativen mit neuen oder verbesserten Tools.
Agentic AI
als Leitmotiv
Ein weiterer roter Faden durch viele Vorträge: Agentic AI Use Cases sind allgegenwärtig.
Doch die große Herausforderung bleibt dieselbe: Wie hält man LLMs an der kurzen Leine?
In zahlreichen Gesprächen und Präsentationen wurde deutlich, dass maßgeschneiderte Evaluierungen und Metriken oft der Schlüssel zum Erfolg sind.
Unser Beitrag: LiteLLM in Production
Wir von scieneers waren mit einem Vortrag vertreten, in dem Alina Dallmann Einblicke in unsere Erfahrungen mit LiteLLM in produktiven Umgebungen gab.
Der Titel:
„One API to Rule Them All? LiteLLM in Production“ – eine Referenz auf die Idee, mit LiteLLM eine zentrale Schnittstelle für verschiedenste LLM-Provider zu schaffen.
One API to Rule Them All?
LiteLLM in Production
Alina beim Vortrag über LiteLLM in Production
Heutzutage gibt es viele KI-Anwendungen, die mit verschiedenen Sprachmodellen arbeiten –
heute eins von OpenAI, morgen eins von Anthropic, übermorgen vielleicht ein selbst gehostetes Modell.
Die Anforderungen sind klar:
-
Modelle sollen leicht austauschbar und aktualisierbar sein.
-
Der Wechsel zwischen verschiedenen Anbietern muss ohne großen Aufwand möglich sein.
Genau hier kommt LiteLLM ins Spiel. Es bietet eine einheitliche API für verschiedenste Modelle – entweder als Python-Bibliothek oder als Proxy-Server mit OpenAI-kompatiblem Endpunkt.
Der Vortrag zum Durchblättern
Unsere Lessons Learned zur PyData 2025
-
Schneller Einstieg: LiteLLM lässt sich einfach deployen – per Docker und YAML-Konfiguration.
-
Kostenkontrolle: Budgets lassen sich einfach zentral verwalten und Modellkosten automatisch tracken.
-
Grenzen der Abstraktion: Sehr spezifische Anforderungen – wie temporäre Budgeterhöhungen für einzelne User – erfordern Workarounds.
-
Produktionsreife: Nicht alle neuen Features sind sofort uneingeschränkt nutzbar, sie zeigen evtl. noch unerwartetes Verhalten.
Autoren
Alina Dallmann, Data Scieneer bei scieneers GmbH
alina.dallmann@scieneers.de
Dr. Richard Naab, Data Scieneer bei scieneers GmbH
richard.naab@scieneers.de