Mit Event-Streaming auf der Datenautobahn

Event-Streaming, Mit Event-Streaming auf der Datenautobahn

Kaum eine andere Branche erlebt in der aktuellen Zeit größere Herausforderungen und mehr Umdenken als die Automobilbranche. Nicht erst seitdem sich auch neue Hersteller auf dem hart erkämpften Markt etabliert haben, müssen sich die derzeitigen Platzhirsche mit den neuen Gegebenheiten auseinandersetzen. Die Herausforderungen lauten hier vor allem: Car-Sharing, die Integration von Fahrzeugen in entstehende Smart-City-Infrastrukturen, Ladenetze für die neue E-Mobilität, sowie gesetzliche Rahmenbedingungen durch die Politik.

Das Rennen um das Auto der Zukunft

Was vor ein paar Jahren noch Zukunftsmusik war, ist heute bereits fest in der Modelentwicklung der Fahrzeuge implementiert. Autonomes Fahren, Smart Cities und Connected Cars werden immer relevanter. Um diese Technologien sicher und erfolgreich einsetzen zu können, ist der Einsatz einer Event-Streaming Plattform zwingend notwendig. Bei der Gestaltung agiler Prozesse und Dienstleistungen im Rahmen der digitalen Transformation treibt eine Event-Streaming Plattform die zentrale Vernetzung voran und verbindet IT-Abläufe in einem zentralen System. Die Plattform-Technologie hat dabei die Aufgabe, sämtliche ereignisbasierte Datenströme in Echtzeit zu speichern und zu verarbeiten. Sie visualisiert aussagekräftige Muster und leitet weitere Aktionen davon ab.

Event-Streaming Plattform Apache Kafka

Seinen Ursprung hat das Open-Source-Projekt Apache Kafka bei LinkedIn. Dort wurde es eigentlich als Nachrichten-Queue entwickelt. Mittlerweile hat sich dieses Projekt innerhalb der Apache-Foundation zu einer umfassenden Event-Streaming-Plattform weiterentwickelt, die bei über 60% der Fortune-100-Unternehmen im Einsatz ist.  Confluent wurde von den ursprünglichen LinkedIn-Entwicklern und Kafka-Erfindern gegründet und erweitert die Open-Source-Lösung um unternehmenskritische Komponenten wie Security-, Skalierungs- oder Stream-Processing-Bestandteile.

Apache Kafka basiert auf einer verteilten Architektur, die weniger fehleranfällig, leichter skalierbar und somit speziell auf große Datenmengen ausgelegt ist. Die Plattform reagiert schnell und flexibel auf plötzlich auftretende Ereignisse. Ob Connected Car oder Digital Twin, die Streaming Plattform hat sich für die Umsetzung unterschiedlichster Use Cases etabliert. Viele Unternehmen setzen bereits auf Apache Kafka und die Confluent Plattform. Sie erweitern das Anwendungsgebiet um beispielsweise Flottenmanagement, Notfallsysteme sowie die Kundenkommunikation.

Use-Cases in der Automobil-Industrie: Zwei Beispiele

Daten beherrschen jedes Anwendungsfeld der Automobilbranche, sei es die Infrastruktur, die Fertigung oder der direkte Kontakt zum Kunden. Je besser und schneller diese Daten verarbeitet und genutzt werden können, desto höher der Mehrwert.

> Connected Cars: Hierbei handelt es sich um ein Beispiel der innovativen Use-Cases in der Automobilbranche. Es umfasst mehr oder weniger alle Herausforderungen, die in IoT-Szenarien auftreten können, einschließlich der Verbindung von Millionen von Endgeräten, hochskalierbarer Datendurchsatz, zuverlässige Kommunikation bei schlechter und geringer Netzwerkkonnektivität und Anforderungen an die Datenverarbeitung in Echtzeit. Das Herzstück dieses Anwendungsfalls ist die Einspeisung und Verarbeitung der Sensor-Informationen von Millionen von Autos in Echtzeit, während gleichzeitig Events korreliert und Informationen bi-direktional ausgetauscht werden müssen. Gleichzeitig kann im Hintergrund Big-Data-Analytics ausgeführt werden, um neue Einblicke zu erhalten und um zusätzliche Dienstleistungen für Hersteller, Kunden und Partner aufzubauen.

> Ferndiagnosen vs. Datenverarbeitung im Auto: Analysen können „at the Edge“ (z.B. im Auto) oder in einem Rechenzentrum/Cloud erfolgen. Beim autonomen Fahren müssen Personen und Hindernisse in Echtzeit erkannt werden – die Datenverarbeitung muss also im Auto passieren. Cross-Selling hingegen ist ein Beispiel, bei dem Daten zwischen verschiedenen Backend-Systemen in einen Kontext gebracht werden und nur das Endergebnis den Weg zurück in das Auto und zum Fahrer finden muss. Im Fall von Predictive Maintance kann die Analyse sowohl im Auto stattfinden als auch korreliert im Backend. Durch einen Alert wird das Auto dann z.B. gestoppt bevor ein Schaden entsteht. Ganz gleich, wo die Analyselogik eingesetzt wird: Diese muss in der Regel in Echtzeit geschehen (Millisekunden oder Sekunden), manchmal reichen aber auch Minuten oder sogar Stunden. Auch Analysen zur Nutzung von einzelnen Komponenten wie einer Kofferraumklappe müssen nicht in Echtzeit erfolgen, sondern können korreliert im Hintergrund erhoben werden. Mit Apache Kafka lassen sich solche Incidents abbilden.

An weiterführenden Informationen interessiert?

Dann möchten wir auf ein von SVA gemeinsam mit der COMPUTERWOCHE und Confluent erarbeitetes Whitepaper zum Status quo der aktuellen Gegebenheiten aufmerksam machen. Hier geht es zum kostenlosen Download.

War dieser Artikel für dich interessant?