scieneers
  • Story
  • Leistungen
    • Leistungen allgemein
    • KI für die Energiewirtschaft
    • Große Sprachmodelle für Ihre Daten
    • Social Impact @ scieneers
  • Workshops
    • Microsoft Data Strategy & Analytics Assessment
    • Azure Data Platform Proof of Concept
    • Microsoft Fabric Kompakteinführung
    • Power BI Training
    • Data Science Training
    • Data Security Workshop
  • Content
  • Team
  • Join
  • Kontakt
  • DE
  • EN
  • Menü Menü

LLMs und Cloud-Technologien zur Vernetzung von Onlineshops der Otto-Gruppe

KI-gestützte Übertragung von Produktempfehlungen zwischen unterschiedlichen Sortimenten von Onlineshops

16.09.2023 – ca. 11 Min. Lesezeit – Zurück zur Startseite – Alle Blog-Artikel

Large Language Models (LLMs) sind wegen ihrer vielfältigen Anwendungen in aller Munde. Auch im E-Commerce Bereich ist diese Technologie sehr nützlich. Zusammen mit der data.works GmbH haben wir sogenannte Embedding-Modelle aus dem LLM-Bereich mit der Vertex AI Matching Engine in der Google Cloud für mehrere Onlineshops der Otto-Gruppe eingesetzt, um kundenspezifische Produktempfehlungen aus einem Shop auf viele andere Shops übertragen zu können. Und das, obwohl sich die Sortimente und Kataloge dieser Shops stark unterscheiden.

Recommender Systeme

Recommender Systems sind seit langem ein etabliertes Werkzeug, um Kunden auf Basis ihrer individuellen Interessen Produkte und Services anzubieten. Auch die Onlineshops der Otto-Gruppe, zu denen otto.de und bonprix.de zählen, setzen Recommender Systeme seit vielen Jahren ein. Die Shops der Otto-Gruppe decken verschiedene Produktsortimente ab und nutzen zudem in ihren Datenbeständen unterschiedliche Produktbezeichnungen. Dadurch sind die Produktempfehlungen eines Shops bisher nicht auf die Sortimente anderer Shops übertragbar. Häufig sind dieselben Kunden aber in mehreren Shops der Otto-Gruppe unterwegs. Eine Übersetzung von Produktempfehlungen in die Sortimente der jeweils anderen Shops würde also insgesamt mehr und zielgenauere Produktempfehlungen ermöglichen.

Technischer Exkurs

Recommender Systeme prognostizieren das Interesse eines Users für ein Objekt, wie in diesem Fall für einzelne Produkte. Dabei werden häufig folgende Mechanismen verwendet:

  • Inhaltsbasierte Empfehlungen: Hierbei werden Produkte empfohlen, deren Eigenschaften ähnlich zu Produkten sind, welche bereits vom User gekauft oder angeschaut wurden.
  • Kollaborative Empfehlungen: Hierbei werden Produkte empfohlen, an denen User mit ähnlichem Nutzerverhalten interessiert waren.

Heutzutage werden meist mehrere Mechanismen in einem hybriden System vereint, um die Vorteile der verschiedenen Ansätze zu vereinen.

Es wird das Prinzip der Sortiment-Übersetzung gezeigt, bei dem einem User bei Einkauf in einem Shop Empfehlungen in einem anderen Shop mit anderem Sortiment gegeben werden können.

Beispiel für Vernetzung von Shops, wodurch dem User durch einen Einkauf in einem Shop eine Empfehlung in einem anderen Shop gegeben werden kann.

Anforderungen an die Vernetzung

Gemeinsam mit der data.works GmbH haben wir eine automatisierte Software- und Datenlösung entwickelt, die zwischen den verschiedenen Sortimenten der Otto-Shops übersetzen kann. Dabei mussten wir drei zentrale Anforderungen erfüllen:

Flexible Übersetzungslogik

Die Sortimente von Onlineshops sind ständig im Wandel. Eine fest programmierte Logik für die Übersetzung zwischen Sortimenten wäre daher wartungsintensiv und fehleranfällig. Somit ist eine Übersetzungslösung, die für beliebige Produktsortimente funktioniert und die aus zukünftigen Nutzerstudien lernen kann, gefordert.

Effizienz und Skalierbarkeit

Die Sortimente der Onlineshops sind zu groß, um mit akzeptablem Rechenaufwand jedes Produkt mit jedem anderen Produkt vergleichen zu können. Aus diesem Grund wird eine effiziente und skalierbare Methode benötigt.

Wartbarkeit und Modularität

In Zukunft sollen möglicherweise weitere Onlineshops in die Lösung integriert werden. Außerdem soll die Übersetzungslogik stetig verbessert werden. Beides erfordert eine möglichst wartbare und modulare Softwarearchitektur.

Unsere Lösung

Unsere Lösung meistert diese Anforderungen durch den Einsatz aktueller Machine Learning Verfahren aus dem Bereich Large Language Models (LLMs), zusammen mit skalierbarer und modularer Cloud-Technologie der Google Cloud Platform (GCP).

Repräsentation von Produkten durch LLM-Technolgie

Um mit ständig neuen Produkten umgehen zu können, setzen wir vortrainierte embeddings (virtuelle niedrig-dimensionale Representation) aus dem LLM-Bereich ein. Als Eingabe erhalten diese Modelle textuelle Beschreibungen aller Produkte aus den Stammdatenbanken der verschiedenen Shops. Als Ausgabe liefern die Modelle für jedes Produkt einen numerischen Vektor, der die Produkteigenschaften kodiert. Wenn sich Produktbeschreibungen ändern oder neue Produkte hinzukommen, müssen die Modelle nicht angepasst werden, sondern lediglich noch einmal auf die neuen Produkte angewendet werden.

Technischer Exkurs

Embedding-Modelle spielen eine unentbehrliche Rolle im Machine Learning Bereich. Sie kodieren die Bedeutung und den Kontext von Ein- und Ausgaben als numerische Vektoren, mit denen andere Machine Learning Modelle arbeiten können. Je höher die Ähnlichkeit zwischen zwei Vektoren, desto höher ist auch die Ähnlichkeit der Eigenschaften der beiden eingebetteten Objekte. Einbettungen können abhängig vom verwendeten Modell auf eine Vielzahl von Objekten angewendet werden, bspw. werden damit in LLM-Anwendungen Wörter und Sätze kodiert.

Effiziente und skalierbare Suche mit der Vertex AI Matching Engine

Wir nutzen die Vertex AI Matching Engine in der Google Cloud, um für jedes Produkt die ähnlichsten Produkte aus anderen Shops zu finden. Dafür stellen wir der Matching Engine die Vektorrepräsentationen aller Produkte bereit, die wir zuvor mit Hilfe der LLMs erzeugt haben. Die Matching Engine beherrscht eine effiziente und parallelisierte Suche der ähnlichsten Vektoren zu einem gegebenen Vektor. Damit bestimmen wir in unserem Fall für jedes Produkt aus einem Shop dessen ähnlichste Produkte in anderen Shops.

Je ähnlicher die Vektoren einzelner Produkte (hier 2-dimensional in 4 Quadranten nur durch Position dargestellt), desto ähnlicher die Produkteigenschaften.

Je ähnlicher die Vektoren einzelner Produkte (hier nur durch Position dargestellt), desto ähnlicher die Produkteigenschaften.

Wartbare und modulare Softwarearchitektur mit Vertex AI und Google Cloud Run

Wartbarkeit bedeutet hier zum einen, dass beim Hinzufügen neuer Funktionalität nur wenige Stellen des Codes angefasst werden müssen. Zum anderen heißt Wartbarkeit aber auch eine Minimierung des laufenden Aufwands für den Einsatz der Software. Für unsere Lösung erreichen wir beide Ziele durch eine Strukturierung der Software in unabhängigen Google Cloud Run Jobs und durch eine konsequente Nutzung von Google’s Vertex AI Abstraktionen zur Versionierung und Ausführung unserer LLMs. Cloud Run ermöglicht uns mit geringem Aufwand zentrale Einstiegspunkte für die Programmlogik zu definieren, z.B. für das Aktualisieren der Produktvektoren nach einer Änderung im Produktsortiment eines Shops. Vertex AI bietet uns eine stabile Ausführungsumgebung für LLMs, die gut mit weiteren GCP Tools integriert ist, wie z.B. BigQuery.

Fazit

Die automatische Übersetzung von Produkt-Sortimenten zwischen Onlineshops ist nur ein Anwendungsfall für LLM-Technologien im E-Commerce Bereich. In den nächsten Jahren werden LLM-Technologien zunehmend ihren Nutzen in verschiedenen Aspekten des E-Commerce finden. Die Verbesserung der Suchfunktion in Onlineshops ist ein solcher Use Case, bei dem auf Suchanfragen wie „Geschenk-Ideen für meine Eltern“ endlich logisch reagiert und keine leeren Ergebnisseiten zurückgegeben werden.

Auch im Bereich der Produktbeschreibungen und -bewertungen können LLMs dazu beitragen, die Qualität und Genauigkeit der bereitgestellten Informationen zu erhöhen. So können sie beispielsweise automatisch relevante Informationen aus unterschiedlichen Quellen zusammenfassen und ansprechende, verständliche Produktbeschreibungen erstellen, die potenzielle Käufer ansprechen und informieren.

Insgesamt bieten LLM-Technologien ein großes Potenzial für den E-Commerce-Bereich, um sowohl die Kundenerfahrung als auch die Effizienz und Effektivität von Onlineshops zu verbessern. Die erfolgreiche Implementierung und Integration von LLMs in verschiedene Aspekte des E-Commerce wird in den kommenden Jahren entscheidend sein, um den wachsenden Anforderungen und Erwartungen der Kunden gerecht zu werden und wettbewerbsfähig zu bleiben.

Autor

Moritz Renftle

Moritz Renftle, Data Scientist bei scieneers GmbH
moritz.renftle@scieneers.de

Weitere Blog-Beiträge zum Thema Large Language Models

M3 2025

21. Mai 2025
Auf der diesjährigen Minds Mastering Machines (M3) Konferenz in Karlsruhe standen neben Best Practices zu GenAI, RAG-Systemen auch Praxisberichte aus verschiedenen Branchen, Agentensysteme und LLM sowie rechtliche Aspekte von ML im Fokus. Wir haben drei Vorträge zu unseren Projekten gehalten.
Weiterlesen
https://www.scieneers.de/wp-content/uploads/2025/05/m3-header.jpg-95618f16427fc555-1.webp 567 1008 Nico Kreiling https://www.scieneers.de/wp-content/uploads/2020/04/scieneers-gradient.png Nico Kreiling2025-05-21 14:37:012025-05-22 08:58:30M3 2025

DesinfoNavigator

21. Februar 2025
DesinfoNavigator ist ein Online-Tool, das Nutzer beim Erkennen von Desinformation unterstützt, indem es Texte auf irreführende rhetorische Strategien untersucht. Es basiert auf dem PLURV-Framework und verwendet ein großes Sprachmodell, um Indizien für Desinformation zu identifizieren und Handlungsanweisungen zur Überprüfung zu generieren. Es ergänzt Faktenchecks, ist kostenlos und fördert kritisches Denken im Umgang mit Informationen.
Weiterlesen
https://www.scieneers.de/wp-content/uploads/2025/02/Output-desinfonavigator_0.png 914 1672 Nico Kreiling https://www.scieneers.de/wp-content/uploads/2020/04/scieneers-gradient.png Nico Kreiling2025-02-21 11:03:012025-02-26 11:07:03DesinfoNavigator

KI trifft Datenschutz: Unsere ChatGPT-Lösung für Unternehmenswissen

18. Dezember 2024
Unsere ChatGPT-Lösung ermöglicht es Unternehmen, firmeninternes Wissen sicher und datenschutzkonform zu nutzen. Mittels eines modularen Systems, das auf unternehmensspezifische Datenquellen wie SharePoint und OneDrive zugreift, können Mitarbeiter schnell und einfach auf Informationen zugreifen. Die Lösung bietet personalisierte Budgetverwaltung, sichere Authentifizierung und eine anpassbare Benutzeroberfläche, inklusive Feedback-Mechanismen für kontinuierliche Verbesserungen.
Weiterlesen
https://www.scieneers.de/wp-content/uploads/2024/12/bild.jpg 899 1599 Alina Dallmann https://www.scieneers.de/wp-content/uploads/2020/04/scieneers-gradient.png Alina Dallmann2024-12-18 15:51:332024-12-19 13:18:51KI trifft Datenschutz: Unsere ChatGPT-Lösung für Unternehmenswissen

Wie Studierende von LLMs und Chatbots profitieren können

8. November 2024
In der Hochschulbildung revolutionieren Large Language Models (LLMs) und Retrieval Augmented Generation (RAG) das Lernen. Ein Projekt der Universität Leipzig zeigt den Erfolg von KI-Tutoren im Jura-Studium, die personalisierte Antworten bieten und auf Ressourcen verweisen. Vorteile für Studierende und Lehrende sind maßgeschneiderte Unterstützung und effiziente Lehrmaterialentwicklung, trotz Herausforderungen wie Ressourcenbedarf und Antwortqualität. Azure und OpenAI unterstützen mit sicherer Infrastruktur.
Weiterlesen
https://www.scieneers.de/wp-content/uploads/2024/11/aa.jpg 413 744 Florence Lopez https://www.scieneers.de/wp-content/uploads/2020/04/scieneers-gradient.png Florence Lopez2024-11-08 11:57:012024-12-12 16:25:00Wie Studierende von LLMs und Chatbots profitieren können

KI für das Gemeinwohl auf dem Digital-Gipfel 2024

31. Oktober 2024
Wir durften unser durch den Civic Coding-Accelerator gefördertes LLM-Projekt StaatKlar an Tag 2 des Digital-Gipfels 2024 vorstellen. Für alle Neugierigen hier eine kurze Zusammenfassung unseres Projekts und des Gipfels.
Weiterlesen
https://www.scieneers.de/wp-content/uploads/2024/10/20241022_161307-scaled-e1730281812544.jpg 1224 2560 Alexandra Wörner https://www.scieneers.de/wp-content/uploads/2020/04/scieneers-gradient.png Alexandra Wörner2024-10-31 12:50:032025-01-31 13:31:01KI für das Gemeinwohl auf dem Digital-Gipfel 2024

Der Einsatz von VideoRAG für den Wissenstransfer im Unternehmen

23. Oktober 2024
VideoRAG bietet einen innovativen Ansatz zur Überbrückung von Wissenslücken in Unternehmen, indem Video- und Textdaten mit Hilfe von generativer KI und Retrieval-Augmentation in eine durchsuchbare Wissensdatenbank umgewandelt werden. Es gewährleistet einen effizienten Transfer von nuanciertem Wissen, einschließlich des impliziten Wissens erfahrener Mitarbeiter, über KI-basierte Chatbots und macht es so auch jüngeren Generationen innerhalb der Belegschaft zugänglich.
Weiterlesen
https://www.scieneers.de/wp-content/uploads/2024/10/neu.jpg 758 1024 Arne Grobruegge https://www.scieneers.de/wp-content/uploads/2020/04/scieneers-gradient.png Arne Grobruegge2024-10-23 09:15:402025-01-31 13:31:35Der Einsatz von VideoRAG für den Wissenstransfer im Unternehmen
Logo der M3-Konferenzdpunkt.verlag GmbH

M3 2024

26. April 2024
Auf der diesjährigen Minds Mastering Machines (M3) Konferenz in Köln standen neben den neuesten Trends im Bereich Machine Learning besonders Sprachmodelle (LLM), aber auch der AI Act, AI Fairness und automatische Datenintegration im Fokus. Wir waren mit zwei talks zu unseren Projekten beteiligt.
Weiterlesen
https://www.scieneers.de/wp-content/uploads/2024/04/m3_logo.png 274 524 Jan Höllmer https://www.scieneers.de/wp-content/uploads/2020/04/scieneers-gradient.png Jan Höllmer2024-04-26 13:13:462024-04-26 23:31:31M3 2024

NextGeneration:AI – Innovation trifft Datenschutz

23. April 2024
Zusammen mit der Carl Remigius Fresenius Education Group (CRFE) entwickelten wir NextGeneration:AI. Dabei handelt es sich um eine datenschutzkonforme Plattform zur Nutzung von Sprachmodellen für alle Studierende und Mitarbeitende der CRFE. Das besondere an NextGeneration:AI ist die Authentifizierung über das Learning Management System Ilias mit Hilfe einer LTI-Schnittstelle, sowie die umfassende Personalisierbarkeit, die Nutzer:innen geboten wird. Im Blogartikel gehen wir auf die Details der Implementierung ein.
Weiterlesen
https://www.scieneers.de/wp-content/uploads/2024/04/fresenius_frontend.png 1327 2551 Florence Lopez https://www.scieneers.de/wp-content/uploads/2020/04/scieneers-gradient.png Florence Lopez2024-04-23 12:15:432024-06-25 08:52:10NextGeneration:AI – Innovation trifft Datenschutz

Multi-Agenten-LLM-Systeme kontrollieren mit LangGraph

28. März 2024
Im zweiten Teil der Reihe zu Multi-Agenten-Systemen werfen wir einen Blick auf LangGraph auf dem LangChain Ökosystem. LangGraph ermöglicht eine dynamische Kommunikation der Agenten die Mittels eines Graphen modelliert wird. Der Artikel vergleicht außerdem LangGraph mit AutoGen mit Blick auf Projektstatus, Nachrichtenfluss, Usability und Produktreife.
Weiterlesen
https://www.scieneers.de/wp-content/uploads/2024/03/Screenshot-2024-03-28-at-17.48.35.png 1770 3108 Nico Kreiling https://www.scieneers.de/wp-content/uploads/2020/04/scieneers-gradient.png Nico Kreiling2024-03-28 17:49:562025-01-31 13:40:05Multi-Agenten-LLM-Systeme kontrollieren mit LangGraph
Zurück Zurück Zurück Weiter Weiter Weiter
© Copyright scieneers – Impressum | Datenschutz
Nach oben scrollen Nach oben scrollen Nach oben scrollen
Skip to content
Open toolbar Barrierefreiheit

Barrierefreiheit

  • Text vergrößernText vergrößern
  • Text verkleinernText verkleinern
  • GraustufenGraustufen
  • Hoher KontrastHoher Kontrast
  • Negativer KontrastNegativer Kontrast
  • Heller HintergrundHeller Hintergrund
  • Links UnterstreichenLinks Unterstreichen
  • Lesbare SchriftLesbare Schrift
  • Reset Reset