Realtime Data Integration mit Azure Service Bus & Azure Logic Apps & Dataverse
Realtime Data Integration mit Azure Service us & Azure Logic Apps & Dataverse
Realtime Data Integration mit Azure Service us & Azure Logic Apps & Dataverse
Vorstellung von Methoden, Technologien und Best Practices wie man in der Azure Data Factory strukturiert und sicher entwickeln kann, in dem man die Integration und Dienste von Azure DevOps nutzt
Die Künstliche Intelligenz und das Maschinelle Lernen wird immer mehr zu einem alltäglichen Begleiter und hält somit auch Einzug in die Energie-Branche. Im Rahmen eines Projekts bei der EnBW stellten wir Untersuchungen zu dem bereits implementiertem Predictive Maintenance System, das Schäden in Erzeugungsanlagen rechtzeitig erkennen soll, an und testeten zusätzlich neuere Algorithmen zur rechtzeitigen Schadenserkennung in Windkraftanlagen.
I want to share my experience from my projects of creating data applications from a security perspective, covering cloud infrastructure and application parts, as well as application lifecycle challenges during CI/CD. We‘ll go through examples how to handle secrets savely and manageable and configure Azure resources with diverse security concepts.
In dem Vortrag werden die typischen Muster für Datenverarbeitung in der Azure Data Factory aufgezeigt und verglichen. Das wird abgerundet mit best practices zum Application Lifecylce Management.
In der Aufzeichnung sprechen MVP Frank Geisler und Stefan Kirner über Microsoft Zertifizierungen im Allgemeinen und insbesondere für die Data Platform.
Warum sollte ich mich damit beschäftigen?
Was gibt es für Zertifizierungen von MS im Data Bereich?
Wie geht das mit der Anmeldung?
Wie bereite ich mich darauf vor?
Wie läuft so eine Prüfung ab?
Materialien zum Vortrag Professionelles Arbeiten mit Jupyter Notebooks/Lab von Nico Kreiling
Talk is an overview of the „shades“ of data flows in Power Platform and Azure Data Factory, their purpose and of course the technologies
Machine Learning und intelligente Systeme werden immer allgegenwärtiger, vom Spam-Filter zum Chat-Bot, vom Staubsaugerroboter zum selbstfahrenden Auto. So unterschiedlich wie die Anwendungsszenarien, so vielfältig sind auch die zugrunde liegenden Verfahren. Deep Learning ist medial besonders breit vertreten und eignet sich für anspruchsvolle Probleme mit ausreichender Datenlage. Für tabellarische Daten hingegen sind die etablierten Klassifikations- und Regressions Algorithmen nach wie vor state-of-the-art. Diese können etwa von Cloud-Dienstleistern als Service eingebunden, mittels AutoML gefunden oder auch “von Hand” programmiert werden. Dabei gilt: Je untypischer und unsauberer die Daten, desto größer ist nicht nur der Aufwand, sondern auch das Verbesserungspotential von individueller Lösungen gegenüber fertigen Services.
Unabhängig davon, auf welche Art Machine Learning eingesetzt werden soll, lohnt es sich, die wesentlichen Grundlagen und Frameworks zu kennen, denn auch Cloud Services und AutoML-Tools nutzen unter der Haube ähnliche Prinzipien und Bibliotheken wie eine selbstentwickelte Lösung. In der vorherrschenden Python-Machine-Learning Welt sind vor allem NumPy, pandas und scikit-learn drei Frameworks, welche allgegenwärtig sind. Für das Heise Machine Learning Sonderheft haben wir daher einen entsprechenden Einführungsartikel geschrieben, welcher die wichtigen Prinzipen und Wirkungsweisen dieser Bibliotheken vorstellt und anschließend durch den manuellen Trainingsprozess eines einfachen Regressionsmodells führt.
Die interaktive Notebook-Version des Artikels ist frei zugänglich. Mittels Binder können Interessierte selbst Änderungen vornehmen, um spielend ein besseres Verständnis der Frameworks zu erlangen.
Ein turbulentes Jahr neigt sich dem Ende entgegen. Ein Jahr, in dem Corona praktisch alles überschattet hat. Dennoch können wir voller Dankbarkeit auf ein sehr erfolgreiches erstes Geschäftsjahr zurückblicken.