Smart Cluster Ansatz.
Smart Cluster Ansatz.

Smart Cluster Ansatz: Open Connectivity & dezentrale Intelligenz



Smart Cluster Ansatz Zusammenfassung...
Der besondere Ansatz der der bintellix ist hierbei, statt einer zentralen Steuer (Logik), die „Intalligenz“ näher an die Maschine zu bringen.

Dieser Ansatz fasse ich gerne mit dem Begriff „Connected Intelligence“ zusammen.
Er besteht primär aus den beiden nachfolgenden Themenblöcken: „Open Connectivity“ steht für eine modulare, freie und zukunftsoffene Infrastruktur.
Ohne Herstellerabhängigkeiten, Architektur-Vorgaben oder all die vielen Nachteile einer zentral verwalteten Software (DevOps)

Tipp: Mögliche Werbliche Argumente verbergen sich hinter der Frage:
Warum wurde MQTT für die Steuerung von Bohrplattformen und Raffinerien entwickelt statt eine Cloud Plattform zu verwenden?

Statt zentraler Steuerungen und geschlossener Systeme, setzen wir auf eine lokale (EDGE / private Cloud / Kubernetes) Infrastruktur mit loser Kpplung und dezentraler Steuerung.
Da dieser Ansatz konträr zu etablierten Geschäfts-und Software Modellen aufgebaut ist, braucht es eine lebendige und bildliche Sprache zur Darstellung des Kundennutzen und der dazugehörigen technischen Komponenten.
 
Besonderer Ansatz:
- dezentrale Organisation (statt public cloud Abhängigkeit oder Systembindung, wie bei einer Gebäudesteuerung)
- adaptiver Ansatz
– Arbeitsaufträge statt kleinteiliger Steuerbefehle
- zentrales (vor Ort) Logging–günstig, sicher, verfügbar und unabhängig von Internet Anbindung
- ein Infrastruktur Repository (zentrales Management (konfigurativ) aller Komponenten um Kommunikationspfade nachvollziehen zu können)
Für die Gebäudesteuerung muss dieser vereinfacht und mit Focus Vorteile für Wohnen dargestellt werden.
- Flickwerk vermeiden
- Schluss mit Bastellösungen-Schluss mit feinteilig ausprogrammierten Ablaufplänen
- offen, modular und in 360° erweiterbar-modular, ausbaufähig und adaptiv (sein oder bleiben)

Alle Systeme sollen intelligent miteinander interagieren.
Sich wie ein großes Ganzes verhalten.
Technisch gibt es hierfür mehrere Ansätze:
a.Zentrale Steuerung (bspw. die Steuerzentrale im Smart Home, die IoT Platform in der public Cloud, oder das SAP in der Buchhaltung oder beim Fly-by-Wireim Flugzeug)
b.Dezentrale „intelligente“ Steuerungen (bspw. bei Ölplattformen, bei der Eisenbahn, in der Flugüberwachung)
Ansatz a) wird in der klassischen Software-Entwicklung gerne verwendet. Man erkauft sich damit einen Vendor-Lock-In und setzt alles auf eine Karte.
Ansatz b) bringt die Freiheit die jeweils besten Komponenten (bestofbreath) zu verwenden, erlaubt eine sanfte Migration zu neuer Technik und unterstützt das Konzept der Experten-Systeme

Um die maximale Ausfallsicherheit und Modularität zu erhalten, werden alle Komponenten über einen Kommunikationsbus „lose gekoppelt“.
Um die Komplexität handhabbar zu machen, werden verschiedene Schichten (die sogenannten Layer) gebildet, die jeweils über allgemein verfügbare Schnittstellen (Standards) miteinander interagieren.
Diesen offenen + professionellen + industriellen Ansatz verfolgen wir konsequent. Egal für welche Anwendungsfelder.
Die möglichen Anwendungsfelder im Focus:
a. Die Gebäudeautomatisierung (über alle Standards wie KNX, Zigbee & Co.) hinweg eine gemeinsame Steuerlandschaft ermöglichen
(ohne auf eine "zentrale" Steuerzentrale zu setzen!) (Stichwort MQTT und Gateways)
b. In der industriellen Fertigung (um einen langsamen Einstieg in die digitale Fertigung zu ermöglichen, ohne auf Gedeih und Verderb von einem Systemanbieter
(auch Amazon IoT zählt für mich dazu) abhängig zu sein (Stichwort MQTT, zentralesLogging, Auto-Deploymentmit Infrastruktur Repository, Workflow Engine)
c. Um IT Service Systeme (Backend Systeme / Computer Programme in Konzernen) für neue Nutzungszwecke zu öffnen und für neue Leistungsangebote intelligent miteinander zu verbinden
(Stichworte: RESTful API und Micro-Services, ESB / Message Bus, DevOps mit Infrastruktur Repository, Workflow Module)
d. Maschinen Anbindung –Hardware Adapter für MQTT mit individueller Schnittstellenlogik

Selbstverständlich ist die IT Security mit Ihrer Kommunikations-Validierung und Authentifizierung / Autorisierung elementarer Bestandteil einer jeden IT/ITK Landschaft.

Marketing Slogans:
- “Freedom of choice“
- “Living OpenConnectivity”
- „Future proof Open Connectivity“
- „Zukunftsoffen für IT Veränderungen“
- „Zukunftsoffensive Connectivity“
- „Intelligente Produktion – Frei für Veränderungen“

Hieraus ergeben sich einige der wesentlichen der USP (Kundenvorteile):
-Geringe Anfangshürde (klein anfangen und dann successive ausbauen)
-Die Wartungsfalle umgehen (mehrer Software Versionen lassen sich parallel betreiben)
-Investitionssicherheit (keine Abhängigkeit von Herstellern oder bestimmten Technologien oder Plattformen)
-Entscheidungsfreiheit (jeweils das Beste vom Markt kann genutzt werden)
-Zukunftssicherheit (Open Connectivity erlaubt es, neue Technologien einzubinden und bestehende flexibel zu ersetzen)
-Reduzierte Komplexität –durch klare Schichtentrennung, lose Kopplung und modulare Komponenten-Mehr Transparenz
–durch offene Schnittstellen und definierte Übergabepunkte-Sicherheit bis zum Gerät (ermöglicht die Integritätsprüfung aller eingehenden Informationen und Beauftragungen) (englisch Trustee)
-statt blindem Vertrauen bei „dummen“ Devices“ –ergibt: „Mitdenkende Sicherheit“

 
Dieser Ansatz ist konträr zur sonst üblichen, weil zentralen Steuerung (wie z. B. jeder mir bekannte Smart Home Hub) oder zu einer zentral gemanageden public Cloud SaaS Angebot oder einer public Cloud Platformarm wie Amazon IoT) steht, da wir auf eine dezentrale (also beim Kunden vor Ort und unabhängig vom Interne arbeitende IT/OT) Umgebung setzen.

Auch setzt die Software Entwicklung derzeit noch zunehmend auf eine Entwicklungs- und Deployment-Stategie, welche in der Produktionsumgebung / Live-Umgebung / Staging nur eine stets tagesaktuelle Software Version setzt (wie DevOps mit Continous Integration CI / Continous Delivery CD), in der Hardware gebundenen Software Umgebung jedoch diverse (nicht harmonisierbare) Release- und Lebenszyklen existieren, setzt unser Ansatz auf eine Entkopplung der Lebenszyklen für die Prozessabildung (Workflows), der Hard- und Software Adapter (Übersetzer) und der diversen Geräte. Dies erreichen wir durch sogenannte lose Kopplung (loose coupling) via Event-Bus / Message-Bus.
Wo "Arbeitsaufträge" in Form von Dokumenten-basierten Nachrichten "sieh zu, dass die Lichthelligkeit im Raum 20% beträgt" and die Hardware Adapter übertragen werden, statt von der steuerzentrale nur feinteilige dedizierte Steuerbefehle "motor 1 90 grad nach rechts drehen" zu senden. Dadurch kann die Intelligenz näher an die Geräte heranrücken (wo die Ingeniere zu finden sind, die diese Maschine konstruiert haben), und muss nicht mehr vollständig in der Zentrale ausprogrammiert werden (wo meist outgesourcte Programierer (in einer anderen Zeitzohne) für die Steuerung verantwortlich sind, welche keine Erfahrungen mit den Maschinen haben). Ein weiterer großer Vorteil ist, dass der Adapter mit verchiedenen Versionen von Arbeitsaufträgen klar kommen kann, jedoch nur eine Version zur reinen Steuerung des Gerätes / bzw. der Arbeitsgruppe benötigt. Besonders deutlich wird dies, wenn wir zum Beispiel an eine Palettenfertigung (eine Setzkasten) für 9 gleichartige Schrauben denken. Dann reicht ein Arbeitsauftrag, wie diese 9 Schrauben zu fertigen sind, welche gerade auf der Palette xyz angelierfert werden, und wo diese innerhalb der Palette zu finden sind (in welchem Loch sie stecken) statt neun mal UNTERSCHIEDLICHE Steuerbefehl-Sequenzen zu schicken, nur weil jede Schraube an einem anderen Platz in der Palette zu finden ist.
Hier wird gerne gekonntert, dass man alle diese Maschinenenahen Daten für den digitalen Zwilling bzw. für die vorausschauende Wartung (das predictive maintenance) braucht.
Ganz so stimmt das jedoch nicht. Denn es reicht, wenn diese maschienenspeziefischen Bewegungdaten in einem zentralen Logging (als Data Store - gerne auch Big-Data genannt) abgelegt werden.
Dort können sie dann NACHGELAGERT und zeitlich ENTKOPPELT ausgewertet werden.
Das hat den zusätzlichen Charme, dass die IT Security massiv erhöht wird, da nur noch Arbeitsaufträge (mit digitaler Signatur) zwischen der Prozessteuerung und den Geräte-Adaptern ausgetauscht werden müssen.
Alle anderen Arten von eingehender Kommunikation kann daher unterbunden werden. Ein Eindringen "Hacken" der Systeme wird dadurch um einiges aufwendiger.
Da es bei diesem Ansatz keine (und schon gar nicht eine Cloud Connectin mit extrem geringer Latenz) braucht, da die eigentlichen Steuerbefehle nur in unmittelberer Nähe der Geräte übertragen werden,
fällt auch das am heufigsten genannte Problem der super schnellen und hoch verfügbaren Internet Anbindung weg.
Das gilt natürlich genauso für die Industrie wie für die Gebäudesteuerung.

 
"Backups schützen vor Ransomware-Schäden: Gegen die wachsende Gefahr von Ransomware-Attacken brauchen IT-Verantwortliche zwei Gegenmittel: Eine moderne Anti-Malware-Lösung und eine verlässliche Backup- und Replication-Software zur Datensicherung und -wiederherstellung."
Doch mit reinen Backups ist es nicht getan. Hier braucht es auch ein gutes Emergency Revovery Konzept, dass alle Layer (Schichten der Kommunikationsprotokolle) mit einbezieht: Ein "Emergency Recovery" Konzept.
Gemeinsam mit einem (unserem) Infrastruktur Repository (ISR) und dem Auto-Deployment kann man noch einen Schritt weiter gehen (was wir auch intern lange tun) und alle Systeme regelmäßig vollautomatisiert platt machen und frisch aufsetzen "fresh installments"
So kann man nicht nur Altlasten und eine zugemülltes Windows Active Directory vermeiden, sondern auch potentiell eingenistete Schadsoftware (besonders Ransomware, Viren, Würmern und Trojaner) den Garaus machen.
Last but not least, erreicht man auf diese Weise absolute Gewissheit, dass alle Systeme mit deren Komponenten (also Infrastruktur, Computer mit deren Betriebssystem (OS) und BIOS, Steuerungen mit deren OS und Geräte mit deren Firmware) sich jederzeit vollautomatisiert aufsetzen.
Insbesondere bei einem notwendigen Hardware-Wechsel, wo Backups sonst gerne mal versagen (anderer Prozessortyp, anderer Storage (und anderer Treiber), andere Backup Version, anderer Hardware Schlüssel (TPM und MAC-Adresse) geänderte HSM.
Ganz nebenbei werden so diverse manuelle Arbeiten und Software Installationen vermieden, die normalerweise wiederkehrend erforderlich sind, Arbeitszeit kosten, Abklärung (Lizenzen) bedürfen und fehleranfällig sind.
Meine Windows Rechner werden so jede Woche vollständig neu aufgesetzt, sind immer mit der aktuellen Software Version versehen, und deren Hardware kann völlig problemlos ausgetauscht werden. Auch alle Server werden so jeden Monat gefreshed.
Ransomware? Juckt mich nicht, im Durchschnitt würde ich die letzten vier Tage an Arbeit verlieren. Maxmimast ist ein Monat verlohren. Aber in jedem Fall habe ich Gewissheit, dass alle Systeme incl. Firmare und Settings tagesaktuell und problemlos neu aufgesetzt werden können. Besser geht nich.

1 Smart Cluster Ansatz

Was ist ein Smart Cluster?

Smart Cluster = Open Connectivity + Connected Intelligence

Um wirklich offene, flexible und zukunftssichere Informationssysteme zu bauen, braucht es zwei Dinge: Addaptivität und dezentrale organisierte Intelligenz.
 
Alles dreht sich um eine einfache Idee: eine flexible IT-Infrastruktur unterstützt durch dezentrale Intelligenz.
2 Die Herausforderung

Die Herausforderung heutiger Ansätze

Ist Ihr Umfeld geprägt von herstellerspezifischen Insel-Lösungen?
Möchten Sie starre Strukturen und Systeme öffnen und damit neue Synergien schaffen?
Sollen auch Ihre Netzwerk Teilnehmer zu einem intelligenten Systemverbund formiert werden?
Wollen auch Sie eine IT, die zukunftsoffen, intelligent und sicher ist?
 
Derzeit sind IoT - Systeme – und ganz besonders der [smart-home] -Markt – geprägt von einer Vielzahl meist herstellergebundener Systeme und Geräte.
Eine weitere Herausforderung zahlreicher IT-Landschaften: Es handelt sich oft um bis ins Monströse gewachsene, meist geschlossene Systeme. Diese lassen sich meist nur mit großem Aufwand und dem nicht unerheblichen Risiko auf neue Gegebenheiten anpassen.
3 Die Lösung

Die Lösung steckt in unserem besonderen Ansatz

Wir verfolgen den adaptiven Ansatz: Wir setzen auf herstellerübergreifende und somit offene Standards.
Mit smarten kleinen Komponenten (wie z.B. Microservices) und transparenten Schnittstellen (Event-Bus, RESTful APIs) können Sie endlich wieder preisgünstig und flexibel auf geänderte Anforderungen reagieren.
 
Wir arbeiten ganzheitlich: Berücksichtigen alle beteiligten Schichten mit ihren diversen Standards und setzen auf Automatisierung.
Die Stärke unseres Ansatzes liegt in der Verwendung einer gemeinsamen Konfiguration, dem "Infrastruktur Repository". Hier sind alle beteiligten Systeme und Komponenten hinterlegt. Bei Veränderungen werden alle betroffenen Teile vollautomatisch über das neue Setting informiert. So kann stets gewährleistet werden, dass alle Teilnehmern sicher, fehlertolerant und ganzheitlich kommunizieren können, bei voller Transparenz und vollständiger Kontrolle.
 
So kann Ihre Technik [agil] , zeitnah und flexibel auf Veränderungen reagieren, ohne jeweils aufwendig und damit teuer angepasst zu werden.
4 Der Mehrwert? Zukunftssicherheit!

Was man durch ein Smart Cluster gewinnt

 
Um wirklich offene, flexible und zukunftssichere Informationssysteme zu bauen, gilt unbedingt es die folgenden Grundprinzipen zu berücksichtigen:
 
  • Technologieneutral

    Gestallte alle Schnittstellen Technologieneutral (somit unabhängig von Platform und Programmiersprache)
  • Einheitliche Schnittstellen

    Verwende stets allgemein gültige Funktionen und strukturierte Daten (Document Style). Hier lohnt ein Blick auf das RESTful Design Prinzip.
  • Stateless

    Vermeide Sessions, Cookies, Tracking Parameter und andere implizite Status-Speicher. Denn sie blockieren Ressourcen, verschleiern die Kommunikationsflüsse, erschweren die Nutzung und gefährden die Sicherheit.
  • Transparenz

    Sei offen. Stelle die API jedem zur Verfügung. Verwende eine gemeinsame Infrastruktur Datenbank, aus der alle Konfigurationen entnommen und in die alle aktiv genutzten Schnittstellen mit ihren Parametern geschrieben werden.
  • Schichtentrennung

    Für jede Schicht die passende Technologie wählen. Etablierte Standards nutzen, wo immer möglich. Nicht das Rad neu erfinden.
  • Data Centric

    Wo immer möglich ausschließlich fachlich orientierte Daten(strukturen) verwenden. Dann wird die API die natürliche Basis für kommende Fachgespräche.
  • Skalierbar

    Skalierbarkeit heißt Parallelität. Am besten in kleinen Einheiten (wie z. B. Microservices). Das ist das Gegenteil von monolithischen Systemen.
  • Event-Bus / Nachrichten-Bus / Message-Bus

    Für die zuverlässige Kommunikation in vernetzten Systemen ist ein (publish-subscribe) Nachrichten-Bus (wie z. B. MQTT) optimal. Mit einem solchen, können alle Daten und Events in einer Queue für alle interessierten Nodes vorgehalten werden.
5 Basiskomponenten

Basiskomponenten der Smart Cluster Strategie

 
xxx
 
  • Dezentrale Steuerung

    Statt alle Ebenen der Steuerung in einer zentralen Platform zu implementieren, werden von der Steuerlogik nur noch die „Arbeitsaufträge“ an den Adapter des Gerätes / der Maschine geschickt. Dort kann dann das ganze Maschinenspeziefische Detailwissen lokal in Steuerbefehle und Messgrößen umgesetzt werden. Insbesondere vereinfacht dies den Aufbau und den Test eines digitalen Zwilling massiv und reduziert maßgeblich die Komplexität. Da die Steuerlogik / Prozesse dann nur noch die logische Abarbeitung implemtieren muss und die physische Umsetzung dem Gerätespezifischen Adapter (mit seiner Hardwarespezifischen Software-Version) überlassen werden kann.
  • Dezentrale Steuerung

    Statt alle Ebenen der Steuerung in einer zentralen Platform zu implementieren, werden von der Steuerlogik nur noch die „Arbeitsaufträge“ an den Adapter des Gerätes / der Maschine geschickt. Dort kann dann das ganze Maschinenspeziefische Detailwissen lokal in Steuerbefehle und Messgrößen umgesetzt werden. Insbesondere vereinfacht dies den Aufbau und den Test eines digitalen Zwilling massiv und reduziert maßgeblich die Komplexität. Da die Steuerlogik / Prozesse dann nur noch die logische Abarbeitung implemtieren muss und die physische Umsetzung dem Gerätespezifischen Adapter (mit seiner Hardwarespezifischen Software-Version) überlassen werden kann.
  • Infrastruktur Repository

    Das Infrastruktur Repository dient zur zentralen Konfiguration aller Gerätesspeziefischen Parameter. In diesem werden auch alle Kommunikationspfade mit deren Security Werten erfasst. Dies ist die Basis für ein (regelmäßiges) auto-Deployment aller beteiligten Komponenten.
    Auch ist es die basis für ein automatisiertes Intrusio Detection und zur Falsifizierung von (Daten-)Bewegungsmustern.
    So ist es leicht möglich, unterschiedliche Software-Umgebungen vollständig und sauber voneinander separiert zu betreiben. Hierzu gehören z. B. (Dev, Test und Prod-Umgebung), digitaler Zwilling oder das Desaster Recovery.
    Als Nebeneffekt erhält man so die maximale Transparenz aller Komponenten mit deren Kommunikationsverbindungen, Software Versionen, Security Credentials und Recovery Daten.

Im Ergebniss ergeben sich die folgenden Freiheiten:

  • Heteroge ITK und IT Service Landschaft --> den maximalen Freiheitsgrad für künftige Anpassungen
  • Sanfte Migration (statt big-bang Deployment oder single-version PROD)
  • Dezentrale Steuerung --> Maschienenspeziefische Kenntnisse können im Adapter des Gerätes / Maschiene von den Geräte-Experten umgesetzt werden. Statt dieses Know-How erst umständlich auf eine zentrale Platform zu migrieren.
  • Homogenes Verhalten aller beteiligten Systeme
  • Maximale Trasparenz der IT/ITK Lanschaft und seiner Verknüpfungen