4 Februar 2025
Key takeways
Bis vor kurzem war für die Datenvisualisierung in PowerBI immer eine Verbindung zu anderen Plattformen wie Azure, SharePoint oder Excel erforderlich. Dies bedeutete, dass die Kontrolle über die Datenspeicherung oft außerhalb des PowerBI-Ökosystems lag. Mit dem neuesten Update für Fabric ist es jetzt jedoch möglich, eine End-to-End-Lösung zu erstellen, bei der sich sowohl die Datenbank als auch der PowerBI-Bericht in derselben Umgebung befinden. In diesem Leitfaden erkläre ich, wie Sie diese Lösung anhand von fünf wesentlichen Elementen zusammenstellen: Fabric SQL-Datenbank, Lakehouse, Dataflow, Datenpipeline und PowerBI-Bericht.
SQL-Datenbank
Der erste Schritt besteht darin, eine SQL-Datenbank mit der SQL Fabric-Datenbank zu erstellen. Diese Komponente funktioniert wie eine herkömmliche Datenbank und ermöglicht das Erfassen, Aktualisieren und Abfragen von Daten. Sie können mit der Datenbank über SQL-Abfragen interagieren oder, intuitiver, mit anderen Tools, wie z. B. Dataflows.
Lakehouse
Während Fabric SQL-Datenbank keine direkte Verbindung zu PowerBI bietet, können Sie dies mit Lakehouse tun. Das Lakehouse wird so zum ultimativen Datenspeicher, der die Integration mit mehreren Quellen ermöglicht. Dieses Element ist ideal, um Daten an einem einzigen Ort zu zentralisieren, und es ist sogar möglich, eine Verbindung zu mehreren Datenbanken herzustellen.
Dataflow
Dataflow ist die Komponente, die für das Extrahieren, Transformieren und Laden von ETL-Daten (Data verantwortlich) ist. Damit können Sie konfigurieren, wie Daten extrahiert, transformiert und in Repositories hochgeladen werden. Für diese Lösung können Sie einen oder zwei Dataflows verwenden:
- Ein Dataflow zum Verbinden von SQL-Datenbank mit dem Lakehouse.
- Ein zweiter Dataflow (optional), um externe Datenquellen, wie z. B. Excel, mit Ihrer Datenbank zu verbinden (wenn Sie diese Alternative zur datenbankinternen Datenerfassung auswählen).
Wenn Sie sich dafür entscheiden, die Datenbank konventionell über SQL zu erstellen, müssen Sie keinen Dataflow einrichten. Die gesamte Steuerung erfolgt direkt in der Datenbank.
Data Pipeline
Während Dataflows ausreichen, um die Daten zu integrieren, kann es nützlich sein, Automatisierungen wie Zeitpläne und Auslöser hinzuzufügen. Mit Data Pipeline können Sie automatisierte Prozesse erstellen, verschiedene Elemente verknüpfen und Aktionen für Erfolgs- oder Fehlerszenarien definieren.
Mit Data Pipelines können Sie das Laden von Daten so oft planen, wie Sie möchten (täglich, wöchentlich, monatlich usw.) und Benachrichtigungen für den Fall eines Prozessausfalls einrichten, indem Sie Kommunikationsplattformen wie Outlook oder WhatsApp verwenden. Dies bietet eine bessere Kontrolle über das gesamte Datenökosystem in Fabric.
PowerBI Report
Das letzte Element der Lösung ist die Visualisierung der Daten durch PowerBI Report. Um die in Lakehouse vorbereiteten Daten zu verwenden, richten Sie einfach eine SQL-Endpunktverbindung über den Lakehouse-Connector in PowerBI ein. Anschließend können Sie die gewünschten Berichte erstellen und direkt veröffentlichen, sodass die Lösung auf dem Server voll funktionsfähig ist.
Schlussfolgerung
Mit der neuesten Version von Fabric ist das Speichern und Durchsuchen von Daten immer einfacher geworden. Mit den Elementen und Tipps, die in diesem Leitfaden vorgestellt werden, wird die Erstellung von End-to-End-Lösungen einfach und sicher, während Sie die volle Kontrolle über Ihre Daten an einem Ort behalten.