Schlagwortarchiv für: machine learning

Optimize an AI Powered Recommendation Engine

scieneers, Intel Corporation, and Von Rundstedt joined forces to optimize an AI powered recommendation engine solution that leverages the Intel® AI Analytics Toolkit and 4th Generation Intel® Xeon® Scalable Processors. In this brief experience report we demonstrate how we managed to achieve up to 9.3X speedup when running on 4th Generation Intel® Xeon® Scalable Processors compared to the baseline configuration. This means that the solution can process more data faster, generate more accurate recommendations, and serve more users with lower latency and cost.

Drawing of a district heating plant

Wärmebedarf prognostizieren mit Temporal Fusion Transformern

Zusammen mit Iqony haben wir den Einsatz von Temporal Fusion Transformern zur Bedarfsprognose in der Fernwärme getestet. Durch Data Fusion können die Vorhersagen von mehreren Standorten in einem Modell vereint und vor allem die Vorhersagegenauigkeit von Standorten mit wenig Daten gesteigert werden. Die Quantisierung von Vorhersageunsicherheiten und die Interpretierbarkeit des Modells schaffen Vertrauen und unterstützen die Entscheidungsfindung.

Offshore windpark

Anomalieerkennung bei Windkraftanlagen mit Temporal Fusion Transformern für Iqony

Transformer-Architekturen haben sich als bahnbrechend im Bereich des Natural Language Processing erwiesen. Temporal Fusion Transformer nutzen diese Architektur für die Prognose von Zeitreihen und bieten dabei gegenüber klassischen Modellen Vorteile wie z.B. hohe Interpretierbarkeit und Data Fusion. Mit iqony hatten wir nun die Möglichkeit dieses Modell in der Praxis für die Anomalieerkennung bei Windkraftanlagen zu testen.

Mit scikit-learn Modelle erstellen

Um Einsteiger:innen einen Überblick über die Möglichkeiten von scikit-learn zu geben, haben wir im kürzlichen erschienenen ix-Sonderheft „Künstliche Intelligenz“ einen Artikel zum Thema „Mit scikit-learn Modelle erstellen“ veröffentlicht.

Einführung in Unittesting mit Python für Data Scientists

Unittests können in Data-Science-Projekten sehr sinnvoll sein, um eine hohe Codequalität sicherzustellen. Um den Einstieg in das Unittesten mit Python für Data Scientists zu erleichtern, haben wir einen Artikel zu diesem Thema geschrieben, der auf Informatik Aktuell veröffentlicht wurde.

Entwicklung nach SCRUM und CRISP-DM am Fallbeispiel Wärmeprognose bei STEAG New Energies

Am Fallbeispiel der Wärmeprognose bei STEAG New Energies wird die Entwicklung und das Projektvorgehen nach SCRUM und CRISP-DM skizziert. Neben der detaillierten Beschreibung der einzelnen Schritte einer Entwicklungsiteration, liegt ein weiterer Fokus des Blog-Artikels auf dem im Einsatz befindlichen Technologie-Stack.

Effektive Code Reviews für Data-Science-Projekte

Code Reviews sind eine gängige Praxis in der Softwareentwicklung, doch sie sind auch in Data-Science-Projekten relevant und sinnvoll. Der Artikel beleuchtet die Gründe dafür und gibt Hinweise darauf, wie Code Reviews in Data-Science-Projekten effektiv gestaltet werden können.

Data Science Training für echte Projekte

Mit unserem Training “Data Science für den Arbeitsalltag” möchten wir Unternehmen dabei unterstützen, Wissenslücken in der praktischen Umsetzung von Machine Learning Projekten zu schließen und ein gemeinsames Teamverständnis zu schaffen.
Neben beliebig kombinierbaren Einzel-Modulen bieten wir dafür eine Beratung für Ihre individuelle Data Challenge an.

Künstliche Intelligenz in der Betriebsoptimierung von erneuerbaren Erzeugungsanlagen bei der EnBW

Die Künstliche Intelligenz und das Maschinelle Lernen wird immer mehr zu einem alltäglichen Begleiter und hält somit auch Einzug in die Energie-Branche. Im Rahmen eines Projekts bei der EnBW stellten wir Untersuchungen zu dem bereits implementiertem Predictive Maintenance System, das Schäden in Erzeugungsanlagen rechtzeitig erkennen soll, an und testeten zusätzlich neuere Algorithmen zur rechtzeitigen Schadenserkennung in Windkraftanlagen.

Daten-Grundlagenarbeit in Python

Machine Learning und intelligente Systeme werden immer allgegenwärtiger, vom Spam-Filter zum Chat-Bot, vom Staubsaugerroboter zum selbstfahrenden Auto. So unterschiedlich wie die Anwendungsszenarien, so vielfältig sind auch die zugrunde liegenden Verfahren. Deep Learning ist medial besonders breit vertreten und eignet sich für anspruchsvolle Probleme mit ausreichender Datenlage. Für tabellarische Daten hingegen sind die etablierten Klassifikations- und Regressions Algorithmen nach wie vor state-of-the-art. Diese können etwa von Cloud-Dienstleistern als Service eingebunden, mittels AutoML gefunden oder auch “von Hand” programmiert werden. Dabei gilt: Je untypischer und unsauberer die Daten, desto größer ist nicht nur der Aufwand, sondern auch das Verbesserungspotential von individueller Lösungen gegenüber fertigen Services.

Unabhängig davon, auf welche Art Machine Learning eingesetzt werden soll, lohnt es sich, die wesentlichen Grundlagen und Frameworks zu kennen, denn auch Cloud Services und AutoML-Tools nutzen unter der Haube ähnliche Prinzipien und Bibliotheken wie eine selbstentwickelte Lösung. In der vorherrschenden Python-Machine-Learning Welt sind vor allem NumPy, pandas und scikit-learn drei Frameworks, welche allgegenwärtig sind. Für das Heise Machine Learning Sonderheft haben wir daher einen entsprechenden Einführungsartikel geschrieben, welcher die wichtigen Prinzipen und Wirkungsweisen dieser Bibliotheken vorstellt und anschließend durch den manuellen Trainingsprozess eines einfachen Regressionsmodells führt.

Die interaktive Notebook-Version des Artikels ist frei zugänglich. Mittels Binder können Interessierte selbst Änderungen vornehmen, um spielend ein besseres Verständnis der Frameworks zu erlangen.