In einem unser regelmäßigen Analysten-Meetings bei ISG Research entbrannte vor kurzem eine heiße Diskussion um die Definition von Edge- und Fog-Computing. Wir besprachen unsere individuelle Einschätzung sowie die von uns wahrgenommenen Unterschiede zwischen diesen beiden Themen. Edge- und Fog-Computing werden oft synonym verwendet, die Unterschiede verwischen leicht, sind aber trotzdem auch nicht ganz unerheblich. Im Folgenden finden Sie eine aktuelle Übersicht und unseren Ausblick.
Die Ideen von Edge- und Fog-Computing sind nicht wirklich neu. Der Begriff Edge-Computing wird seit 2002 benutzt. Edge-Computing verlagert die Kontrolle über die Dienste eines Netzwerks von zentralen Knoten (definiert als Core) auf das andere Extrem, nämlich den Sensor selbst (definiert als Rand=Edge) und nicht auf Server oder Knoten. Auf IoT angewedet werden Daten mit Edge-Geräten somit nicht nur einfach produziert und zur Verarbeitung in die Cloud weitergegeben, sondern sie werden auf der Geräteebene mit Hilfe eigener Logik aggregiert. Als Geräte dienen dafür statische Gateways, Sensoren, aber auch Computer, Smartphones, usw. In einigen Publikationen findet man dies auch unter dem Begriff Dew Computing (dew = engl. Tau), der sich jedoch mehr auf Computer und PCs als Edge-Geräte bezieht.
Fog-Computing ist ein 2014 von Cisco geprägter Begriff (die Prinzipien wurden erstmals 2011 von Cisco umrissen) und beschreibt eine Datenverarbeitungs-, Speicher- und Netzwerktechnologie, die sich unterhalb der Cloud befindet (wie ein Nebel, der sich bodennah ausbreitet). Edge- und Fog-Computing werden oft austauschbar verwendet, obwohl sie durchaus unterschiedlich sind. Bei Edge-Computing erfolgt die Verarbeitung durch die Geräte selbst, während bei Fog-Computing die gesammelten Daten zur Verarbeitung auf ein separates Gerät geschoben werden. Unter Fog versteht man also die Netzwerkverbindungen zwischen den Edge-Geräten und der Cloud. Edge hingegen bezieht sich spezifischer auf die Berechnungen, die von oder in der Nähe der Edge-Geräte durchgeführt werden. Fog-Computing beinhaltet daher das Edge-Computing, und Fog ergänzt es um das Netzwerk, das benötigt wird, um die verarbeiteten Daten an ihren endgültigen Bestimmungsort zu bringen.
Die in einem IoT-System von den Sensoren gesammelten Daten werden heute sehr oft noch in ihrer Gesamtheit über die Cloud einem zentralen System zur Analyse und Auswertung übergeben. Dies bringt mehrere Probleme mit sich:
- Cloud-Server sind oft weit entfernt und reagieren daher nur langsam, während lokale Logik Informationen wesentlich schneller, z.T. innerhalb von Millisekunden liefern können. Einige Daten sind unmittelbar nach ihrer Erfassung am nützlichsten, aber Tage oder sogar Minuten später können sie weniger relevant sein. Das Hochladen der Daten in die Cloud zur Analyse kann daher den Wert der erhobenen Daten verschlechtern.
- Der massive Datenstrom benötigt sehr hohe Bandbreiten und verursacht entsprechend hohe Kosten. Lokales Computing ist hingegen weniger kostspielig als Remote Computing, da die Übertragungskosten in die Cloud die Kosten für den lokalen Rechnereinsatz übersteigen. Zudem stehen nicht überall ausreichend Netzwerke zur Verfügung, um einen zuverlässigen und schnellen Zugang in die Cloud zu gewährleisten;
Dazu zwei Beispiele:
Eine moderne Boeing 787 produziert innerhalb einer Flugstunde 40TB Daten aus IoT-Sensoren. Mit Hilfe von Edge/Fog kann diese Datenmenge auf ein halbes TB reduziert werden, die dann für Analyse und Speicherung an die Cloud übergeben wird.
Einige Anwendungen – wie z.B. autonome Fahrzeuge – müssen weiterhin funktionieren, auch wenn kein Hochgeschwindigkeits-Netzwerkzugang existiert – egal, ob es sich um Millisekunden oder Minuten handelt. Und sie brauchen die Auswertung der Daten oft schneller, als dies über eine Cloud-Verbindung möglich wäre. Deswegen basieren alle heutigen Fahrzeuge auf Edge-Computing und verarbeiten einen Großteil der Sensordaten selbst.
Die Vorteile, Daten bereits auf der Geräteebene innerhalb eines begrenzten Netzwerkes zu aggregieren, liegen auf der Hand:
- Die Menge der in die Cloud gesendeten Daten wird stark reduziert;
- Die Netzwerk- und Internet-Latenzzeit wird verringert, gleichzeitig bleibt die (zeitabhängige) Qualität der Daten erhalten;
- Insgesamt tritt eine Verbesserung der Systemreaktionszeit in unternehmenskritischen Remote-Anwendungen ein.
Wir gehen daher davon aus, dass in naher Zukunft die Mehrzahl der von IoT erstellten Daten in der Nähe oder am Rande des Netzwerks gespeichert, verarbeitet, analysiert und bearbeitet werden. Vor diesem Hintergrund sind Architekturen wie Edge- und Fog-Compouting auch zwingend notwendig.
Aber es gibt auch Hindernisse, die sich durch Edge- und Fog-Computing ergeben und die die Umsetzung deutlich erschweren.
- Die Daten, die in die Cloud übermittelt werden, müssen weiterhin durchgehend formatiert und standardisiert sein. Die Logik der einzelnen Edge-Geräte muss daher durchgängig an die Logik der Cloud-Coresysteme angepasst sein. Hier gibt es noch keine Standards.
Das 2016 gegründete Edge-Computing Consortium http://en.ecconsortium.org könnte hier eine Unterstützung sein. Gründungsmitglieder waren Huawei Technologies Co., Ltd., Shenyang Institute of Automation der Chinese Academy of Sciences, China Academy of Information and Communications Technology (CAICT), Intel Corporation, ARM, und iSoftStone. Neben vielen chinesischen Unternehmen sind mittlerweile auch ABB, Bosch und Infosys Mitglieder des ECC. - Das Thema Wartung stellt im IoT-Umfeld eine gewisse Herausforderung dar, insbesondere, wenn die Sensoren an schwer zugänglichen Orten montiert sind oder die Anzahl hoch ist. Auch die längerfristige Energieversorgung der einzelnen Komponenten kann schwierig sein. Werden die Geräte mit zusätzlicher Logik ausgestattet steigt auch der Wartungsaufwand beträchtlich an. Hinzu kommen erhöhte Anforderungen an die Energieversorgung sowie an die Sicherheit und den Schutz vor Manipulation. Auch die Identifizierung unzuverlässiger Daten von isolierten defekten oder manipulierten Sensoren ist in Edge-Geräten wesentlich aufwändiger.
- Bei der Analyselogik der Edge-Geräte muss eine Balance gefunden werden zwischen einer größeren Datenabstraktion vor Ort, die weniger lokale Speicherkapazität benötigt, und einer stärkeren Übertragung gering abstrahierter Daten. Diese erfordern weniger lokalen Speicher, aber eine größere Bandbreite und erzeugen höhere Kosten. Im Gegenzug ermöglichen diese gering abstrahierten Daten erweiterte Analysemöglichkeiten in den Core-Systemen. Einfach gesagt: je mehr Daten die Edge-System übertragen, desto mehr kann ich später in der Cloud zusammenführen und intensiver in der Tiefe auswerten.
- Letztlich muss auch eine Entscheidung getroffen werden, wie die Verteilung der Aufgaben zwischen den Edge-Geräten und den Fog-Netzwerkkomponenten gelöst wird. Die Eingrenzung, welche Aufgaben von einem Edge-Gerät gelöst, an einen lokalen Fog-Knoten weitergegeben und welche davon dann in die Cloud gehen, hängt jeweils von der individuellen Anwendung ab.
Auch für Fog-Computing gibt es eine Instanz, die sich das gesetzt Ziel hat, eine interoperable Fog-Computing-Architektur mit ausreichender Latenz, Bandbreite und Sicherheit zu entwickeln, die Intelligenz am Rande des IoT unterstützt. Das OpenFog-Konsortium https://www.openfogconsortium.org wurde im November 2015 von Vertretern von ARM, Cisco, Dell, Intel, Microsoft und der Princeton University gegründet und hat mittlerweile über 70 Mitgliedsunternehmen.
Grundsätzlich betrachten wir als Analysten Fog- und Edge-Computing intensiv und mit hohem Interesse. Wir sehen zudem Edge-Computing als nächsten Schritt über das Fog-Computing hinaus immer wichtiger werden. Edge wird als Paradigma ein wichtiger Bestandteil des neuen 5G-Mobilfunksystems sein, das sich derzeit schon in der Erprobung befindet.
Das 5G-Netz wird einen schnelleren Dienst mit kürzerer Latenzzeit und geringerem Stromverbrauch bieten als das derzeitige 4G-Netz. Edge-Computing wird voraussichtlich ein Schlüsselfaktor sein, um Prozesse zu realisieren, bei denen eine schnelle Reaktion auf Sensoreingaben notwendig ist. Dazu gehören neben autonomen Fahrzeugen auch Technologien wie virtuelle Realität, Robotik und Drohnen, sowie Anwendungen zum Beispiel in der drahtlosen Gesundheitsüberwachung oder der Maschinen- und Anlagensteuerung.
Die exponentielle Zunahme der von IoT generierten Datenmengen wird einen starken Bedarf an Edge- und Fog-Architekturen schaffen, um die Netzwerke nicht sofort heillos mit Daten zu verstopfen. Hinzu kommen neue Anwendungsfälle, die kleine lokale Fog-Netzwerke ad hoc aufbauen und wieder auflösen, zum Beispiel um eine Kommunikation zwischen benachbarten autonomen Fahrzeugen zu ermöglichen und die Edge-Daten mehrerer Fahrzeuge auf einer höheren Ebene lokal zu analysieren, ohne auf die Reaktionszeit der Cloud warten zu müssen. Vorstellbar sind auch Anwendungen, die – durch höhere Standardisierung – die Edge-Logik fremden Sensoren als Service zur Verfügung stellen. So könnten die Daten von IoT-Sensoren in meiner Jacke dann von der Edge-Logik meines Autos aggregiert werden. Der IoT-Markt ist also auch in diesem Umfeld weiterhin in starker Bewegung.
Dieser Artikel ist auch hier bei ISG Research erschienen.