7 März 2024
Key takeways
Die Notwendigkeit von Data Analytics ist in Unternehmen heute wohlbekannt, und in einigen wird es als unverzichtbar angesehen, insbesondere in sogenannten „digitalen“ Unternehmen.
Der Einsatz von Data Analytics bringt Unternehmen zahlreiche Vorteile. Um jedoch zu gewährleisten, dass die geschäftlichen “Insights” den Entscheidungsträgern zeitnah, qualitativ hochwertig, vertrauenswürdig und zu kontrollierten Kosten zur Verfügung gestellt werden, spielt das gesamte Ökosystem der Informationssysteme eine sehr wichtige Rolle, d.h. die Cloud-Umgebung, die Software für die Bearbeitung und Nutzung der Daten sowie der gesamte Ansatz, der im Prozess angewendet wird.
Unter der Annahme, dass die Vorteile des Einsatzes von Cloud-Umgebungen in dieser Art von Projekten bereits bekannt sind (falls nicht, finden Sie sie in diesem Artikel), ist es dann notwendig, den Cloud Provider oder die Cloud Providers – wenn wir ein Multi-Cloud-Szenario wünschen – auszuwählen, die in dem zu entwickelnden Projekt verwendet werden sollen.
Dies ist eine der wichtigsten Entscheidungen bei der Konzeption der Lösung, denn die verschiedenen Cloud Providers haben einige Eigenheiten, die mehr oder weniger gut zu den spezifischen Anforderungen des zu entwickelnden Projekts passen können. Diese Auswahl wird sich also auf die zu verwendende Software und die Dienste, die Ausführungszeit, die Kosten und die allgemeine Eignung der Lösung auswirken und sich somit auf den Gesamterfolg des Projekts niederschlagen.
In diesem Artikel erläutern wir einige Fakten zur Verwendung von Google Cloud in Data-Analytics-Projekten.
Bevor wir auf die verschiedenen Punkte eingehen, ist es wichtig, die Aufgabe des Unternehmens zu analysieren, das die Google Cloud-Plattform entwickelt hat: Google! Google hat es sich zur Aufgabe gemacht, „die Informationen der Welt zu organisieren und sie universell zugänglich und nützlich zu machen“.
Wenn man sich die Aufgabe von Google ansieht, wird einem klar, dass die größten Herausforderungen schon immer im Bereich Big Data lagen. Seit seiner Gründung hat sich Google immer wieder mit den typischen Problemen von Big Data auseinandergesetzt, nämlich:
- Volumen: Wie geht man mit der Menge der weltweit erzeugten Informationen um?
- Vielfältigkeit: Wie geht man mit den verschiedenen Arten von Informationsquellen um?
- Geschwindigkeit: Wie verarbeitet man die riesigen Mengen an Informationen in kurzer Zeit?
- Variabilität: Wie geht man mit den Informationen um, wenn man bedenkt, dass sie je nach Kontext unterschiedlich sein und unterschiedlich interpretiert werden können?
Es stellt sich also die Frage, wie Google es geschafft hat, diese Herausforderungen zu meistern. Wie hat Google zur Entwicklung von “Big Data”, wie wir es heute kennen, beigetragen?
Google hat eine lange Geschichte in der Veröffentlichung von Papers, von denen einige zu Open-Source-Referenzprojekten in den Bereichen Big Data, Data Analytics und Künstliche Intelligenz geführt haben.
Schon vor der Erstellung von Google Cloud, die erst im April 2008 stattfand, veröffentlichte Google mehrere Papers, in denen es der gesamten Gemeinschaft mitteilte, wie es die Herausforderungen von Big Data angeht. Einige der Referenz-Papers sind das GFS (Google File System) und Map Reduce, die beide als Inspiration für die Projekte Hadoop, BigTable und Dremel dienten, die auch vom Apache HBase-Projekt stark referenziert werden, und in jüngerer Zeit vom Tensorflow-Projekt, das im Bereich der künstlichen Intelligenz weit verbreitet ist.
Heute verfügt Google über eine breite Palette von Produkten, die alle eine große Zahl von Nutzern haben. Wenn wir nur Produkte mit mehr als 1 Milliarde Nutzern betrachten, haben wir zum Beispiel: Android, Drive, Google Play, Chrome, Google Maps, Youtube, Gmail, Search und Google Photos. All diese Produkte haben unter anderem gemeinsam, dass sie auf der Infrastruktur der Google Cloud Platform laufen.
Sie alle verarbeiten sehr viele Informationen und nutzen auch Funktionen des Smart Analytics und der künstlichen Intelligenz. Einige Beispiele: Verkehrsvorschläge auf Maps, Empfehlungen auf Youtube, generierte Alben auf Google Photos, usw…
Dies beweist, dass Google Cloud eine wirklich robuste und leistungsstarke Plattform ist, die bereit und in der Lage ist, die komplexen Herausforderungen der Datenanalyse zu meistern.
Wenn es um Data Analytics-Projekte in Unternehmen geht, finden wir oft spezifische Anforderungen, die von der Art und dem Aufbau des Unternehmens abhängen. Wenn man beispielsweise nur die Benutzerprofile betrachtet, die mit dem System interagieren, kann das Unternehmen aus verschiedenen Profilen bestehen, wie z. B. Business Users, Data Analysts, Data Engineers, Data Scientists, Machine Learning Engineeers usw. Dies führt dazu, dass je nach Art des Profils verschiedene Werkzeuge für die Datenexploration bereitgestellt werden müssen.
Als sehr erfahrenes Unternehmen im Umgang mit Daten bietet Google eine breite Palette von Produkten an, die für die unterschiedlichen Bedürfnisse von Unternehmen entwickelt wurden. Die Smart Analytics Suite ist vollständig in die Artificial Intelligence Suite – Vertex AI – integriert.
Die nachstehende Abbildung zeigt die Vielfalt der Dienste für jede Phase des Datenlebenszyklus, die Benutzerprofile, die mit diesen Diensten interagieren können, sowie die Support- und Governance-Dienste, z. B. Dataplex.
Zusammenfassend können wir feststellen, dass die Google Cloud Platform eine sehr leistungsstarke und stabile Plattform ist, die eine breite Palette von Diensten für Smart Analytics und Künstliche Intelligenz bietet, mit verschiedenen Optionen, die sicherlich die spezifischen Anforderungen Ihres Unternehmens erfüllen können.
Möchten Sie mehr über die Google Cloud erfahren, oder möchten Sie wissen, wie die Google Cloud die speziellen Anforderungen Ihres Unternehmens erfüllen kann?
BI4ALL verfügt über ein Kompetenzzentrum, das in der Google Cloud arbeitet und Sie bei Ihrer Datenreise unterstützen kann.
Quellen:
https://services.google.com/fh/files/misc/dataprocessingorganisationwhitepaper.pdf