Zum Inhalt springen
FM-Connect Chat

Hallo! Ich bin Ihr FM-Connect Chat-Assistent. Wie kann ich Ihnen helfen?

FM-Solutionmaker: Gemeinsam Facility Management neu denken

CAFM: Lösungsarchitektur und Systemlandschaft (inkl. Umgebungen)

Facility Management: FM-Software » Strategie » Lösungsdesign » Lösungsarchitektur

Lösungsarchitektur eines CAFM‑Systems zur Integration von Funktionen, Daten und IT‑Komponenten

CAFM: Lösungsarchitektur und Systemlandschaft (inkl. Umgebungen)

Eine sauber geplante Lösungsarchitektur bildet das Fundament für eine erfolgreiche CAFM/IWMS/CMMS-Einführung. Sie stellt sicher, dass das CAFM-System nahtlos in die bestehende IT-Landschaft des Unternehmens eingebettet wird, ohne Datenredundanzen oder Inkonsistenzen zu verursachen. Eine durchdachte Architektur definiert, wie alle Komponenten (Softwaremodule, Datenbanken, Schnittstellen) zusammenwirken und gewährleistet, dass benötigte Informationen zuverlässig, präzise und schnell verfügbar sind. Nur so kann das CAFM als gemeinsame Wissensbasis dienen, auf die alle Beteiligten jederzeit zugreifen können. Darüber hinaus ist es von strategischer Bedeutung, dass ein CAFM-System keine Insellösung bleibt, sondern sich nahtlos in die Unternehmens-IT integriert – andernfalls würde es in der Praxis kaum akzeptiert und genutzt. Eine gute Lösungsarchitektur schafft also den Mehrwert des CAFM erst: Sie verbindet Systeme und Datenquellen so, dass Facility-Management-Prozesse effektiv unterstützt und die FM-Ziele (Kostenoptimierung, Rechtssicherheit, Effizienz) nachhaltig erreicht werden können.

Lösungsarchitektur für CAFM-Systeme

Abbildung der Systemlandschaft: Systeme, Schnittstellen und Datenflüsse

Ein CAFM-System steht selten für sich allein, sondern ist Teil einer größeren Systemlandschaft im Unternehmen. Im Rahmen der Lösungsarchitektur wird daher genau abgebildet, welche Umgebungssysteme angebunden werden und wie der Datenfluss zwischen ihnen und dem CAFM erfolgt.

Typische Systeme und Schnittstellen im CAFM-Kontext sind unter anderem:

  • ERP-Systeme (z. B. SAP, Microsoft Dynamics) – verwalten finanzielle und kaufmännische Daten (Kostenstellen, Buchungen, Anlagen-Stammdaten), die auch im FM relevant sind. Über eine ERP-Schnittstelle kann das CAFM z.B. Buchhaltungsdaten austauschen oder Stammdaten abgleichen. So lassen sich etwa Buchungssätze aus dem ERP ins CAFM übernehmen, um Betriebskosten zu verbuchen, oder Wartungskosten aus dem CAFM ans Controlling übermitteln.

  • Gebäudeautomation / BMS (GLT – Gebäudeleittechnik) – Systeme für Klima, Beleuchtung, Sicherheit etc. Eine GLT-Anbindung ermöglicht es, Betriebsdaten automatisch ins CAFM zu übernehmen, z.B. Zählerstände für das Energiemonitoring, Alarm- oder Störmeldungen von technischen Anlagen. Solche Meldungen können im CAFM direkt in Wartungsaufträge oder Tickets überführt werden (z.B. eine Aufzugsstörung löst automatisch einen Instandhaltungsauftrag aus). Durch die Schnittstelle bleiben diese Daten aktuell, ohne manuelle Übertragung.

  • Dokumentenmanagement-Systeme (DMS) – z.B. elektronische Archive wie SharePoint, ELO oder behördliche E-Akte. Im FM fallen zahlreiche Dokumente an (Baupläne, Verträge, Wartungsprotokolle, Handbücher etc.). Über eine DMS-Schnittstelle werden Dokumente zentral verfügbar gemacht und mit CAFM-Objekten verknüpft (Wartungsverträge, Prüfnachweise werden direkt beim jeweiligen Anlagendatensatz hinterlegt). So bleiben Gebäudeinformationen und zugehörige Unterlagen konsistent und aktuell in beiden Systemen.

  • CAD- und BIM-Systeme – Planungswerkzeuge (CAD-Zeichenprogramme wie AutoCAD) und BIM-Plattformen (z.B. Revit). Grafische Gebäudedaten (Grundrisse, 3D-Modelle) und ihre alphanumerischen Attribute sind fürs CAFM essentiell (Räume, Flächen, Anlagen). In der Regel bietet CAFM eine CAD-Schnittstelle, um DWG/DXF-Pläne einzulesen und daraus automatisch Räume oder Inventarobjekte zu erzeugen. Moderne CAFM-Systeme unterstützen auch BIM: Sie können IFC-Modelle importieren, sodass nach einem Bauprojekt ein digitaler Zwilling im CAFM entsteht, der alle relevanten Geometrien und technischen Daten enthält.

  • IoT-Plattformen und Sensorik – Im Zuge von Smart Building Konzepten liefern IoT-Sensoren Echtzeitdaten (Temperatur, Luftqualität, Präsenz in Räumen, Gerätezustände). Ein CAFM kann solche Sensordaten aufnehmen und in Instandhaltungs-, Flächen- oder Energiemanagementprozessen nutzen. Beispielsweise fließen Belegungsdaten ins CAFM ein, um bedarfsgerechte Reinigungen zu planen, oder Schwingungssensoren an Maschinen melden Grenzwertüberschreitungen als Wartungsfall. Dank offener Architekturen (oft via REST-API) lassen sich IoT-Lösungen heute relativ leicht anbinden.

  • Weitere Integrationen – Je nach Organisation werden Identitätsmanagement-Systeme (z.B. Active Directory für Benutzerverwaltung und Single Sign-On), GIS-Systeme (Geoinformationssysteme für Liegenschaftskarten) oder E‑Mail/Kalender-Server (für Benachrichtigungen, z.B. Störungsmeldungen per E-Mail, Kalenderbuchungen bei Raumbuchungen) an das CAFM angebunden. Diese stellen sicher, dass Nutzer und Prozesse medienbruchfrei zusammenarbeiten – z.B. automatische E-Mail-Benachrichtigungen aus dem CAFM oder eine Anbindung ans Verzeichnis für zentrale Nutzerverwaltung.

Durch die Abbildung aller Schnittstellen und Datenflüsse entsteht ein Gesamtbild der CAFM-Systemlandschaft. Die Architektur legt fest, welche Daten führend in welchem System gepflegt werden und wie der Austausch erfolgt. Moderne CAFM-Software bietet hierfür unterschiedliche Integrationstechniken: vom manuellen Datei-Import/Export über automatisierte Batch-ETL-Jobs bis hin zu Echtzeit-APIs. Entscheidend ist, die passende Integrationsstrategie je Schnittstelle zu wählen – etwa tägliche Synchronisation von Stammdaten mit dem ERP oder Live-Webservices für Buchungen und Meldungen, um Änderungen sofort zu übertragen. All dies wird im Lösungsarchitekturkonzept detailliert geplant und dokumentiert.

Architekturebenen: Anwendung, Daten, Integration, Sicherheit

Bei der CAFM-Lösungsarchitektur betrachtet man typischerweise mehrere Ebenen, um das System strukturiert zu planen:

  • Anwendungsebene (Application Layer): Hier geht es um die Softwarestruktur des CAFM-Systems selbst. Häufig ist eine 3-Schichten-Architektur anzutreffen (Präsentation, Logik, Datenhaltung), insbesondere bei Web-basierten CAFM-Lösungen. Das heißt, es gibt eine Benutzeroberfläche (Web-Client oder mobile App), Applikations-Server, die die Geschäftslogik und Module ausführen, und eine Datenbank im Hintergrund. Ältere CAFM-Systeme waren mitunter Client-Server-Monolithen (dicke Clientsoftware und Datenbank), während moderne Lösungen eher modular und mehrschichtig konzipiert sind. Auf Anwendungsebene werden auch Fach-Module definiert (z.B. Flächenmanagement, Instandhaltung, Vertragsmanagement als getrennte Module innerhalb der Applikation). Eine modulare Anwendung erlaubt eine bessere Wartung und Erweiterbarkeit – Funktionen können hinzugefügt werden, ohne den ganzen Kern zu verändern. Gleichzeitig sorgen gemeinsame Kern-Komponenten (z.B. Workflow-Engine, Berichtswerkzeuge) dafür, dass die Module integriert auf einer Plattform laufen.

  • Datenebene (Data Layer): Diese Schicht umfasst die Datenhaltung und das Datenmodell des CAFM. In der Regel wird eine zentrale relationale Datenbank eingesetzt, in der alle Gebäude-, Anlagen- und Flächendaten, sowie Beziehungen und Historien gespeichert sind. Dieses zentrale “Datentopf”-Konzept hat den Vorteil, dass alle grafischen und alphanumerischen FM-Daten an einem Ort konsistent vorliegen und von dort aus von verschiedenen Nutzergruppen abgerufen werden können. Alternativ oder zusätzlich können auch verteilte Datenbanken bzw. spezialisierte Datenstores Teil der Architektur sein – etwa separate BIM-Datenbanken, IoT-Datenplattformen oder Data Warehouses für Auswertungen. In solchen Fällen muss klar geregelt sein, welche Daten wo gepflegt werden. Stammdaten (z.B. Personaldaten, Kostenstellen, Standortlisten) werden oft in einem führenden System (HR, ERP) gemanagt und ins CAFM synchronisiert. Ein wichtiger Grundsatz ist hier die Dateneindeutigkeit: Wird derselbe Datensatz in mehreren Systemen vorgehalten, muss ein führendes System definiert sein, um Widersprüche zu vermeiden. Beispielsweise kann festgelegt sein, dass das ERP die Masterdaten für Räume und Kostenstellen liefert, während das CAFM dafür die technischen Anlagendaten führt. Die Integrationen sorgen dann für regelmäßigen Abgleich – etwa ein stundenweiser Stammdatenabgleich zwischen CAFM und ERP oder der viertelstündliche Import von Zählerständen aus der GLT. Das Datenmodell der CAFM-Software sollte alle relevanten FM-Objekte und ihre Beziehungen abbilden (Objektbuch, Flächen- und Hierarchiestrukturen, technische Anlagen und Wartungspläne, Verträge, etc.), idealerweise orientiert an etablierten Standards (z.B. GEFMA 444-Datenmodelle oder IFC-Klassen für Gebäudeelemente).

  • Integrationsebene (Integration Layer): Diese Ebene überlappt mit der Systemlandschaft: Sie beschreibt wie das CAFM mit anderen Systemen kommuniziert. Dazu gehören die technischen Schnittstellen-Mechanismen (Dateiaustausch, Webservices, Message Queues, ESB etc.) und die Integrationsarchitektur insgesamt. Oft wird hier ein zentrales Integrationsmiddleware oder API-Gateway eingesetzt, um die Kopplung zu entkoppeln – insbesondere in großen IT-Landschaften. In der Lösungsarchitektur wird festgelegt, ob das CAFM punktuelle direkte Schnittstellen zu jedem System hat oder ob eine Enterprise Service Bus (ESB)-Architektur genutzt wird, die als Vermittler fungiert. Wichtig ist auch die Gestaltung der Datenflüsse: Welche Daten werden wie häufig ausgetauscht (Echtzeit vs. Batch), in welchem Format (z.B. Nutzung von Standardformaten wie IFC für Gebäudedaten oder GAEB für Leistungsverzeichnisse) und wie werden Fehler im Datenaustausch behandelt (Logging, Monitoring der Schnittstellen). Die Integrationsarchitektur muss außerdem Transformationsregeln berücksichtigen (z.B. Mappings von Feldinhalten zwischen Systemen). Eine robuste Integrationsebene ist entscheidend, damit das CAFM nicht isoliert bleibt, sondern Teil einer digitalen Gesamtprozesskette im FM wird.

  • Sicherheitsebene (Security Layer): In einem FM-System werden sensible Daten (z.B. Gebäudegrundrisse, sicherheitsrelevante Anlageninfos, personenbezogene Daten wie Mitarbeiter in Räumen) verwaltet – daher ist die Security-Architektur ein eigenes Betrachtungsfeld. Dazu zählen Authentifizierung und Autorisierung (Identity & Access Management). Best Practice ist die Anbindung an bestehende Identity-Provider: etwa die Integration mit Active Directory/LDAP für Single Sign-On und zentrale Benutzeradministration. Weiterhin wird ein Rollen- und Berechtigungskonzept erarbeitet, das definiert, welche Nutzer(gruppen) auf welche Funktionen und Daten zugreifen dürfen (z.B. darf ein externes Wartungsteam nur die ihnen zugewiesenen Aufträge sehen, interne Admins hingegen alles). Solche Berechtigungen können im CAFM in der Regel rollenbasiert, gruppenweise und individuell vergeben werden. Die Sicherheitsarchitektur umfasst auch technische Schutzmaßnahmen: Netzwerk-Segmentierung (z.B. Web-Server in der DMZ, Datenbank im internen Netz), Verschlüsselung der Datenübertragung (TLS für Webzugriff) und idealerweise auch Datenverschlüsselung at rest in der Datenbank und in Backups. In Cloud-basierten Szenarien gelten Shared-Responsibility-Modelle, bei denen der Cloud-Provider für die physische Infrastruktur-Sicherheit sorgt (z.B. zertifizierte Rechenzentren nach ISO 27001) und der CAFM-Anbieter bzw. -Betreiber für Anwendungssicherheit und Konfiguration. Regelmäßige Security-Updates (z.B. für Server-OS, Datenbank, Applikation) sind Pflicht, ebenso wie Logging und Monitoring aller sicherheitsrelevanten Aktionen (Benutzer-Logs, Zugriffsprotokolle) und eventuell eine Anbindung an ein zentrales SIEM-System. Auch Datenschutz (Compliance mit DSGVO etc.) fließt hier ein – etwa durch Löschkonzepte für personenbezogene Daten und Datenschutz-Funktionen im System. Insgesamt stellt die Sicherheitsebene sicher, dass das CAFM-System den Schutzanforderungen des Unternehmens genügt, sowohl in technischer Hinsicht (Schwachstellenminimierung) als auch bezüglich der Berechtigungsstrukturen (Need-to-know-Prinzip).

Varianten der Lösungsarchitektur: Monolithisch, Modular, Hybrid, Cloud vs. On-Premises

Es gibt unterschiedliche Architektur-Ansätze bei CAFM-Lösungen, die jeweils Vor- und Nachteile mit sich bringen.

Wichtig ist, die passende Variante für die jeweilige Organisation auszuwählen:

  • Monolithische Architektur: Ältere CAFM-Systeme oder kleinere Lösungen sind teils monolithisch aufgebaut – d.h. alle Funktionalitäten sind in einer einheitlichen Anwendung gebündelt (oft als Client-Server-Anwendung). Monolithen haben den Vorteil, dass alle Komponenten eng integriert und aus einem Guss sind; die Einrichtung von Schnittstellen zwischen Modulen entfällt weitgehend, da alles im selben System läuft. Allerdings können monolithische Systeme unflexibel sein, schwer zu skalieren und Updates erfordern immer den Eingriff in das Gesamtsystem. In der CAFM-Praxis sind reine Monolithen heute selten geworden, da die Anforderungen vielfältig sind und Modularität gefragt ist. Oft stammen monolithische CAFM-Tools aus einer Zeit, als sie primär lokal (on-premises) mit z.B. einer Access- oder SQL-Datenbank liefen und eine begrenzte Anzahl von FM-Funktionen abdeckten.

  • Modulare (modulbasierte) Architektur: Die meisten modernen CAFM-Systeme sind modular aufgebaut. Das heißt, es gibt separate Funktionsmodule für verschiedene FM-Bereiche (z.B. Flächenmanagement, Instandhaltung, Reservierungsmanagement, Schlüsselverwaltung, Reinigungsmanagement etc.), die aber auf einer gemeinsamen Plattform und Datenbasis laufen. Diese Modularität ermöglicht es, schrittweise einzuführen – man kann z.B. mit Kernmodulen starten und später weitere Module zuschalten, je nach Bedarf. Gleichzeitig stellen modulare CAFM-Lösungen sicher, dass alle Bereiche nahtlos zusammenarbeiten: Die Daten der Module sind zentral abgelegt und logisch verknüpft, was bereichsübergreifende Auswertungen erlaubt. Beispielsweise greifen das Flächen-, Mietvertrags- und Reinigungssystem alle auf dieselben Rauminformationen zu. Modular bedeutet hier nicht zwangsläufig Microservices, sondern häufig eine einheitliche Anwendung mit Modul-Lizenzen. Dennoch sind intern die Komponenten getrennt, was Erweiterungen vereinfacht. Architektonisch kann Modularität auch bedeuten, dass einzelne Module separat skalierbar oder sogar eigenständig als Services deploybar sind – viele CAFM-Anbieter bewegen sich in Richtung serviceorientierter Architekturen (SOA/Microservices) für bessere Skalierbarkeit. Insgesamt bietet ein modularer Ansatz Flexibilität und Funktionsvielfalt, ohne die Vorteile einer integrierten Lösung aufzugeben.

  • Hybride Architektur: Mit hybrid kann in diesem Kontext zweierlei gemeint sein: technologisch hybrid (Mix aus monolithischen Kernkomponenten und ergänzenden Microservices/Cloud-Services) oder infrastruktur-hybrid (Mix aus On-Premises und Cloud). Oft trifft beides zu. Ein Beispiel: Ein Unternehmen betreibt das CAFM-Hauptsystem on-premises aus Sicherheitsgründen, nutzt aber Cloud-Dienste für bestimmte Funktionen – etwa einen IoT-Cloudservice zur Sammlung von Sensordaten, der dann mit dem lokalen CAFM integriert wird. Oder der CAFM-Anbieter stellt einen Kern (z.B. Datenbank, Anwendung) on-prem bereit, während mobile Apps und Außendienst-Zugriffe über eine Cloud-Plattform laufen. Hybride Architekturen können sinnvoll sein, um Vorteile beider Welten zu kombinieren: sensible Daten bleiben lokal, Cloud wird für Skalierung und mobile Zugriffe genutzt. Auch die Verbindung von Edge-Komponenten (z.B. lokale Gateways in Gebäuden für Maschinensteuerung) mit einer zentralen Cloud-CAFM-Plattform ist ein hybrider Ansatz. Allerdings steigen die Integrations- und Betriebsaufwände bei hybriden Lösungen – man braucht klar definierte Schnittstellen zwischen on-prem und Cloud Teilen, sowie ein gutes Monitoring über beide. Die Lösungsarchitektur sollte hybrid nur gewählt werden, wenn hierfür ein echter Bedarf besteht (z.B. gesetzliche Vorgaben für lokale Datenspeicherung und gleichzeitiger Wunsch nach Cloud-Services).

  • Cloudbasiert vs. On-Premises: Diese Variante bezieht sich auf das Betriebsmodell der CAFM-Lösung. Cloudbasiert bedeutet in der Regel Software-as-a-Service (SaaS): Die CAFM-Software wird vom Hersteller oder einem Dienstleister in der Cloud betrieben, und der Kunde greift über Internet (Browser, Apps) darauf zu. Die Cloud-Variante bietet maximale Flexibilität und Skalierbarkeit – neue Nutzer oder Standorte können leicht angebunden werden – und es entfallen lokale Installationen. Updates, Wartung und Backups übernimmt der Anbieter zentral, was den IT-Aufwand beim Anwender reduziert. Nutzer profitieren zudem von hoher Verfügbarkeit und aktuellen Sicherheitsstandards in der Cloud-Infrastruktur. On-Premises bedeutet, die Software wird im Rechenzentrum des Anwenderunternehmens installiert und betrieben. Dies kann erforderlich sein, wenn z.B. Datenschutz oder interne Policies es verlangen, oder wenn tiefe Integrationen in lokale Systeme bestehen (etwa direkte Anbindung ans Gebäudemanagement-Netzwerk). On-Prem gibt mehr Kontrolle über die Systeme, verlangt aber auch, dass interne IT für Server, Datenbank, Updates, Security sorgt. Viele CAFM-Anbieter unterstützen beide Modelle – teilweise mit derselben Software (SaaS oder on-prem installierbar). In der Lösungsarchitektur sollte früh die Betriebs- und Hostingentscheidung getroffen werden, da sie die Architektur beeinflusst: Bei Cloud entfallen z.B. Überlegungen zu eigener Hardware, dafür kommen Aspekte wie Tenant-Fähigkeit, Datengrenzen und Netzwerkzugriff hinzu. On-Prem erfordert dagegen Konzepte für Monitoring, Backup, Desaster Recovery in Eigenregie. Wichtig ist auch zu bedenken, dass Cloud und On-Prem nicht alles oder nichts sein müssen – man kann z.B. eine Private Cloud (Betrieb in einer VM-Umgebung des Kunden) wählen, was on-premise ähnliche Kontrolle bietet, aber cloudartige Verwaltung. Letztlich sollte die Architekturvariante so gewählt werden, dass sie zur IT-Strategie und den Ressourcen des Unternehmens passt (z.B. Cloud-First-Strategie vs. Rechenzentrum mit vorhandenem Personal).

Zusammenfassend ist festzuhalten, dass moderne CAFM-Architekturen meist modular und zunehmend cloudfähig sind, während gleichzeitig integrative Fähigkeiten (APIs, offene Standards) hoch im Kurs stehen. Bei Behörden und sicherheitskritischen Einrichtungen wird oft noch on-prem favorisiert, in der Privatwirtschaft geht der Trend stark zu SaaS-Lösungen. Wichtig ist, dass die gewählte Architektur ausreichend skalierbar, zukunftssicher und integrierbar ist, um das CAFM langfristig betreiben und erweitern zu können.

Umgebungsmodell: Entwicklung, Test, Schulung und Produktion

In jedem größeren Softwareprojekt – so auch bei einer CAFM-Einführung – ist ein durchdachtes Umgebungsmodell essenziell.

Man unterscheidet typischerweise mehrere Systemumgebungen, die klar getrennt sind:

  • Entwicklungs-/Konfigurationsumgebung: Hier werden Anpassungen vorgenommen, das System konfiguriert und ggf. Erweiterungen entwickelt. In dieser Umgebung (auch DEV-System genannt) haben die Projektmitarbeiter volle Administratorrechte. Sie dient dazu, neue Funktionen, Einstellungen oder Schnittstellen zunächst gefahrenlos auszuprobieren, ohne Auswirkungen auf den echten Betrieb.

  • Testumgebung: Auf dem Testsystem (auch QA- oder Staging-Umgebung) wird die konfigurierte Lösung ausführlich geprüft. Hier finden Integrationstests statt, um das Zusammenspiel mit Umsystemen zu verifizieren, sowie User-Acceptance-Tests mit Key-Usern. Die Testumgebung sollte möglichst produktionsnah eingerichtet sein (gleiche Version, ähnliche Datenmenge) und isoliert, um Fehltests nicht in den Live-Betrieb durchschlagen zu lassen. Eine klare Trennung von Test- und Produktivumgebung ermöglicht es, die Systemstabilität und Optimierungen vor dem Go-Live sicherzustellen, ohne die produktiven Daten zu gefährden. Es gilt der Grundsatz: „Keine Experimente im Echtbetrieb“ – selbst kleine Änderungen werden zuerst in Test geprüft.

  • Schulungsumgebung: Oft wird eine eigene Schulungs-/Demoumgebung eingerichtet, auf der die Endanwender geschult werden. Diese kann inhaltlich ein Abbild des Produktivsystems sein, jedoch mit Beispieldaten oder anonymisierten echten Daten. Der Zweck ist, Benutzer in einer realistischen Umgebung üben zu lassen, ohne dass Fehlbedienungen echten Schaden anrichten. Die Schulungsumgebung bleibt auch nach Go-Live nützlich, etwa um neue Mitarbeiter einzuarbeiten oder neue Module vorzustellen. Sie sollte regelmäßig mit aktuellen Daten versehen oder zurückgesetzt werden, damit die Trainings authentisch bleiben. In manchen Projekten wird die Testumgebung doppelt genutzt – vor Go-Live für Tests, danach als Schulungssystem. Besser ist jedoch eine dedizierte Schulungsumgebung, um zeitgleich Schulungen und Tests oder Entwicklung durchführen zu können.

  • Produktivumgebung: Das ist das Livesystem, in dem die täglichen CAFM-Aufgaben im echten Betrieb stattfinden. Hier gelten strenge Änderungsprozesse (kein direktes Herumkonfigurieren ohne Freigaben) und eingeschränkte Berechtigungen. Nur freigegebene Releases oder Konfigurationen, die in Test erfolgreich waren, werden auf Produktion gebracht (in einem geregelten Go-Live-/Rollout-Prozess). Die Produktivumgebung muss hochverfügbar und performant laufen, da Ausfälle oder Performanceprobleme den Betriebsablauf stören können.

Zwischen diesen Umgebungen müssen klare Synchronisations- und Transportmechanismen etabliert werden. Beispielsweise wird ein Customization-Transport (die Konfiguration) von Entwicklung über Test nach Produktion übertragen – etwa mittels Export/Import von Einstellungen oder mittels Versionsverwaltung und Deployment-Pipelines. Ebenso wichtig ist das Datenmanagement zwischen den Umgebungen: Häufig initialisiert man die Test- und Schulungssysteme mit Kopien der Produktionsdaten (bereinigt von sensiblen personenbezogenen Details, falls nötig), damit Tests unter realistischen Bedingungen erfolgen. Anschließend müssen z.B. Änderungen in Stammdaten, die in Produktion passieren, auch ins Schulungssystem eingespielt werden, damit es nicht veraltet. Es bietet sich an, periodisch einen Refresh der Test-/Schulungsdaten aus Produktion vorzunehmen (z.B. quartalsweise ein Backup der Produktiv-DB ins Testsystem einspielen), solange die Datenmenge überschaubar ist und Datenschutz sichergestellt wird.

Ein weiterer Aspekt ist das Rechtemanagement pro Umgebung. In Entwicklungs- und Testsystemen haben oft die Projekt-Admins weitreichende Rechte, um Einstellungen vornehmen zu können. Im Schulungssystem erhalten Trainer und Testuser bestimmte Rollen, die das Lernen ermöglichen (z.B. ein Dummy-Admin-Account für Übungen). In der Produktion hingegen wird der Benutzerkreis und die Rechte genau nach Rollenmodell beschränkt – jeder Nutzer hat nur die für seine Aufgabe nötigen Berechtigungen. Die Architektur sieht vor, dass Rollen und Berechtigungen in jede Umgebung übernommen werden, aber es sollten keine produktiven Accounts für Tests genutzt werden (Stichwort: separate Test-User anlegen). Im Projekt Kantonsspital Aarau (BIM2FM) wurde beispielsweise projektbegleitend das Team auf dem System geschult und Rollenberechtigungen nach und nach entsprechend der vereinbarten Rollenprofile vergeben – so war gewährleistet, dass zur Produktionsaufnahme alle Anwender vorbereitet und mit passenden Rechten ausgestattet waren.

Abschließend ist wichtig, dass das Umgebungsmodell auch Konzept für Datenmigration und Cutover umfasst: Initial werden Bestandsdaten oft im Entwicklungssystem aufbereitet, dann testweise ins Testsystem migriert (Probeläufe), um zum Go-Live final ins Produktivsystem übertragen zu werden. Jede Umgebung muss daher ihren Zweck klar erfüllen und in der Dokumentation mit z.B. Systemnamen, Zuständigkeiten, Backup-Regeln etc. beschrieben sein. Ein strukturiertes Vier-Instanzen-Modell (Dev, Test, Schulung, Prod) hat sich als Best Practice bewährt, um Qualität und Schulungserfolg sicherzustellen – es verhindert, dass Tests die Produktivumgebung beeinträchtigen, und ermöglicht paralleles Weiterentwickeln, Testen und Schulen ohne Konflikte.

Zentrale Datenhaltung ist ein Kernprinzip vieler CAFM-Installationen

Alle relevanten FM-Daten werden in einer zentralen Datenbank konsolidiert. Dieses Prinzip schafft eine einzige zuverlässige Datenquelle („Single Source of Truth“) für Gebäude- und Anlagendaten. Wie bereits erwähnt, führen zentrale Datenbanken dazu, dass grafische und alphanumerische Informationen gemeinsam in einem System gehalten werden. Benutzer aus verschiedenen Fachbereichen greifen mit ihren Berechtigungen auf denselben Datenbestand zu, nutzen ihn für ihre Zwecke und spielen aktualisierte Informationen wieder zurück in den gemeinsamen Topf. Dadurch vermeiden Sie widersprüchliche Datenbestände in verschiedenen Abteilungen – Transparenz und Konsistenz werden erhöht. Beispielsweise nutzen Techniker, Flächenmanager und Controller dieselbe Raumliste und Flächengrößen; jede Änderung (z.B. eine Flächenneuaufteilung) wird einmal zentral erfasst und ist für alle sichtbar.

Verteilte Datenhaltung kommt hingegen ins Spiel, wenn es aus technischen oder organisatorischen Gründen mehrere Datenbanken gibt. Das kann der Fall sein bei geografisch verteilten Standorten (jede Niederlassung hat ihren CAFM-Server, welche periodisch synchronisieren) oder bei spezialisierten Sub-Systemen (z.B. separate Datenbank für IoT-Sensordaten, die nur verdichtet ins CAFM übernommen werden). Ein anderes Beispiel: Einige CAFM-Lösungen erlauben es, mandantenfähige Datenbanken zu nutzen – z.B. getrennte Mandanten/Schema pro Organisationseinheit, die aber in einer Oberfläche zusammengeführt werden. Wann immer Daten verteilt vorliegen, ist besondere Sorgfalt auf Dateneindeutigkeit und Synchronisierung zu legen. Wie oben bereits betont: Liegen identische Datensätze redundant in mehreren Systemen, muss ein führendes System bestimmt werden. Konkret heißt das: Für jede Stammdatenart (Personen, Kostenstellen, Räume, Anlagen, etc.) ist zu definieren, wo der Primärdatensatz gepflegt wird. Oft werden Stammdaten im ERP oder HR-System als führend festgelegt (z.B. Personallisten, Organisationsstruktur, Kostenstellen, Liegenschafts-Adressen) und das CAFM erhält regelmäßige Updates davon. Umgekehrt kann das CAFM für technische Stammdaten führend sein (z.B. Anlagenkennzeichnungen, Wartungspläne), die dann ins ERP zurückgespielt werden für Abschreibungen oder Kostenverrechnungen.

Integrationspunkte sind jene Stellen, an denen Daten zwischen Systemen fließen. Ein Integrationspunkt könnte z.B. die Raumnummer und -bezeichnung sein, die sowohl im CAFM als auch im ERP vorkommt. Wird ein neuer Raum im CAFM angelegt, muss er ins ERP übertragen werden – hier liegt ein Integrationspunkt „Raum-ID“ vor. Solche Punkte müssen identifiziert und technisch abgebildet sein (z.B. über ein gemeinsames Feld oder eine eindeutige Schlüssel-ID, die beide Systeme kennen). Die Lösungsarchitektur legt fest, welche Datenobjekte synchronisiert werden und in welcher Richtung: Ein typischer Integrationspunkt ist etwa der Stammdatenabgleich zwischen CAFM und ERP, bei dem das ERP z.B. alle 24 Stunden als Master die aktuellen Stammdaten ins CAFM übermittelt und dort aktualisiert. Ein anderer ist der Import von Zählerständen aus dem Gebäudeleitsystem ins CAFM im 15-Minuten-Takt für das Energiereporting. An Integrationspunkten müssen Formate und Verantwortlichkeiten klar sein – z.B. wird definiert: „Raum-Stammdaten kommen aus SAP, werden via CSV jede Nacht ins CAFM importiert; Änderungen im CAFM an Raumdaten sind nicht erlaubt, da führend in SAP.“ Für die Stammdatenpflege bedeutet das: Die jeweilige Datenhoheit liegt klar entweder beim FM-Team (im CAFM) oder z.B. beim Rechnungswesen (im ERP) etc., und die Pflegeprozesse richten sich danach.

In der Praxis hat es sich bewährt, ein Data Governance-Konzept im CAFM-Projekt zu etablieren: Darin wird festgelegt, wer welche Daten verantwortet, wo sie gepflegt werden und wie Korrekturen erfolgen. Beispielsweise: Kostenstellencodes werden nur in SAP angelegt; das CAFM erhält sie lesend. Räume und Flächen werden im CAFM gemanagt, mit periodischem Export ans zentrale Data Warehouse. Stammdatenänderungen (z.B. Umbenennen eines Gebäudes) müssen abgestimmt werden zwischen den Systemverantwortlichen, um Konsistenz sicherzustellen. Diese organisatorischen Regeln sind Teil der Lösungsarchitektur und werden dokumentiert (oft im Datenkonzept).

Ob zentral oder verteilt – Datenqualität ist ein Schlüsselfaktor. Daher sollte die Architektur auch vorsehen, wie Daten validiert, bereinigt und über den Lebenszyklus aktuell gehalten werden. Etwa durch regelmäßige Abgleiche mit Referenzdaten (z.B. Abgleich der Mitarbeitenden-Liste mit HR-System monatlich) oder Tools zur Dublettenerkennung. Zudem empfiehlt es sich, offene Datenstandards zu nutzen, um Informationen zwischen Systemen verlustfrei auszutauschen (z.B. IFC für Gebäude-/Anlagendaten).

Skalierbarkeit, Performance-Management, Hochverfügbarkeit und Failover

Ein CAFM-System kann im Laufe der Zeit stark wachsen – sei es durch zusätzliche Nutzer, mehr Standorte oder zunehmende IoT-Daten. Daher muss die Architektur auf Skalierbarkeit ausgelegt sein. Das betrifft sowohl skalierbare Softwarearchitektur (z.B. die Fähigkeit, Last durch mehrere Server zu verteilen) als auch Hardware/Kapazitätsplanung (ausreichende CPU, RAM, Speicher und Netzbandbreite bereitstellen, plus Reserve für Wachstum). Moderne CAFM-Lösungen, insbesondere cloudbasierte, ermöglichen horizontale Skalierung – d.h. zusätzliche Applikationsserver oder Instanzen können bei höherer Last hinzugeschaltet werden, um die Performance zu halten. In einer Cloud-Umgebung kann dies sogar automatisch geschehen (Autoscaling), z.B. wenn hunderte Nutzer gleichzeitig auf das System zugreifen, werden dynamisch zusätzliche Ressourcen bereitgestellt. Auch vertikale Skalierung (Upgrade von Hardware, mehr CPU/RAM pro Server) sollte möglich sein, erfordert aber ggf. geplante Downtimes.

Performance-Management bedeutet, die Leistungsfähigkeit des Systems kontinuierlich zu überwachen und zu steuern. In der Lösungsarchitektur werden hierfür oft Key Performance Indicators (KPIs) definiert, etwa maximal zulässige Antwortzeiten für Benutzeraktionen, Durchsatzraten bei Schnittstellen (z.B. „Import X Datensätze in unter Y Minuten“) etc. Während der Implementation sind Performancetests vorgesehen, um Engpässe früh zu erkennen – z.B. Lasttests mit simulierten gleichzeitigen Zugriffen. Ergibt sich ein Bottleneck (z.B. die Berichtsfunktion wird bei großen Datenmengen langsam), kann man architektonisch gegensteuern (etwa ein separates Reporting-Database einsetzen oder Caching einbauen). Die Architektur sollte auch eine Trennung von transaktionalem System und analytischem Reporting erwägen, falls große Datenmengen ausgewertet werden müssen (Stichwort: Data Warehouse oder OLAP-Cubes für FM-Berichte, um das operative CAFM zu entlasten). Zudem ist ein Monitoring im Betrieb essentiell: System-Metriken (CPU-Last, Speicherauslastung, DB-Abfragezeiten) und Anwender-Metriken (Seiten-Ladezeiten) können mit Tools überwacht werden, um proaktiv auf Performanceprobleme zu reagieren.

Hochverfügbarkeit (High Availability) zielt darauf ab, Ausfallzeiten zu minimieren – das CAFM-System sollte möglichst 24/7 zuverlässig verfügbar sein, insbesondere wenn kritische Prozesse wie Störmeldungen oder Sicherheit darüber laufen. Architektonisch erreicht man Hochverfügbarkeit durch Redundanz und Failover-Konzepte: Kritische Komponenten werden doppelt (oder mehrfach) ausgeführt, sodass beim Ausfall einer Komponente eine andere automatisch übernimmt. Beispielsweise richtet man einen Datenbank-Cluster ein (Primär-Datenbank + synchron gespiegelt auf Sekundär-DB), oder betreibt zwei Applikationsserver im Verbund (Load Balancing). In Cloud-Architekturen wird oft auf geografisch verteilte Rechenzentren oder zumindest verschiedene Verfügbarkeitszonen gesetzt, um selbst den Ausfall eines ganzen Rechenzentrums zu überstehen. Im Hochverfügbarkeitsdesign für CAFM gilt: kein Single Point of Failure – jede Ebene (Webserver, App-Server, DB-Server, Storage) sollte redundant ausgelegt sein. Die Failover-Mechanismen müssen automatisiert sein: Fällt z.B. der Primär-Datenbankserver aus, übernimmt der sekundäre innerhalb von Sekunden oder wenigen Minuten (durch Clusterdienste oder Container-Orchestrierung etc.). In der Praxis bedeutet das z.B., dass in der Cloud mehrere Instanzen über mehrere Availability Zones verteilt betrieben werden. In On-Premises-Umgebungen kann man mit virtuellen Hochverfügbarkeits-Clustern (MS Failover Cluster, Oracle RAC etc.) arbeiten oder zumindest regelmäßige Live-Backups bereit halten, die im Notfall schnell aktiviert werden können.

Failover-Konzept umfasst auch Disaster Recovery: Also die Reaktion auf schwerwiegende Störungen (z.B. Totalausfall Serverraum, Datenbankkorruption). Hier definiert man RTO (Recovery Time Objective – wie lange darf der Ausfall max. dauern) und RPO (Recovery Point Objective – wie viel Datenverlust ist maximal tolerabel). Für ein CAFM-System wird man typischerweise anstreben: RTO im Stundenbereich (nicht tagelang ausfallen) und RPO nahe Null (kaum Datenverlust, evtl. max. einige Minuten). Entsprechend werden Backup- und Wiederanlauf-Pläne erstellt: z.B. tägliche Vollbackups der Datenbank plus stündliche inkrementelle Backups, auf einen separaten Backup-Server oder in die Cloud. Manche Cloud-CAFM haben solche Mechanismen integriert (automatisierte Snapshots). Wichtig ist das Vorhandensein eines aktuellen Offsite-Backups, falls lokal etwas zerstört wird. Die Architektur kann auch vorsehen, einen Cold-Standby-Server an einem anderen Standort zu haben, der im Notfall mit den Backups hochgefahren wird.

Skalierbarkeit und Hochverfügbarkeit gehen Hand in Hand: Ein skalierbares System kann Lastspitzen auffangen (z.B. zum Monatsende wenn viele Berichte laufen), ohne in die Knie zu gehen; ein hochverfügbares System kann Hardware-/Software-Ausfälle abfangen, ohne dass Nutzer es merken. Cloud-Infrastrukturen bieten hier einen Vorteil: Auto-Scaling und verteilte Infrastruktur gehören oft zum Paket. Beispiel: In einer SaaS-Cloud kann das System bei hoher Last automatisch zusätzliche Instanzen hochfahren, sodass die Performance für alle Mandanten stabil bleibt. On-Premises muss man solche Reserven selbst einplanen – etwa indem man die Server nur bis 50% Last ausreizt, um Spitzen abfedern zu können.

Ein oft unterschätzter Punkt ist das Performance- und Kapazitätsmanagement im laufenden Betrieb: Die Architektur sollte erweiterbar sein, damit bei neuen Anforderungen (z.B. Integration eines BIM-Modells mit Millionen von Objekten) zusätzliche Komponenten ergänzt werden können. Beispielsweise könnte man Big-Data- oder Streaming-Services andocken, wenn künftig IoT-Daten in größerem Umfang verarbeitet werden sollen. Dafür braucht es im Betriebsteam entsprechendes Know-how und Monitoring.

Zusammengefasst stellt die Lösungsarchitektur sicher, dass das CAFM-System zuverlässig und schnell läuft – sowohl heute mit den geplanten Nutzerzahlen als auch in Zukunft mit Wachstum. Durch Redundanz und Backup-Konzeption wird erreicht, dass selbst im Störfall die Kernfunktionen schnell wieder verfügbar sind (Stichwort: Business Continuity). Diese Aspekte (Skalierung, Performance, Verfügbarkeit) sollten bereits in der Planungsphase mit den IT-Verantwortlichen abgestimmt werden, um die passenden Technologien auszuwählen (z.B. Cluster-DB, Load Balancer, Cloud-Tier) und die Service Levels (SLAs) festzulegen.

Governance und Verantwortlichkeiten für Systembetrieb und Änderungen

Die beste Architektur nützt wenig ohne klar geregelten Betrieb und Change-Prozess. Deshalb gehört zur CAFM-Lösungsarchitektur auch ein Governance-Modell: Es definiert, wer für welche Aspekte des Systems verantwortlich ist und wie Änderungen kontrolliert ablaufen.

Typischerweise werden verschiedene Rollen im Systembetrieb benannt:

  • System Owner / Fachverantwortlicher: Auf Geschäftsseite gibt es einen Verantwortlichen für das CAFM (oft der Leiter FM oder ein CAFM-Manager), der die fachliche Nutzung überwacht, Anforderungen priorisiert und als Owner fungiert. Er entscheidet z.B. über Änderungswünsche aus den Fachabteilungen und vertritt den Bedarf gegenüber der IT.

  • IT-Systemverantwortlicher / Technischer Betreiber: Auf IT-Seite wird eine verantwortliche Person oder Team bestimmt, das die technische Betriebsführung übernimmt – ähnlich einem Applikationsmanager. Dieses Team (oft in der IT-Abteilung angesiedelt) stellt sicher, dass Server und Software laufen, überwacht die Systemressourcen und koordiniert Updates. Bei Cloud-Lösungen übernimmt das vielfach der Hersteller/SaaS-Provider, aber intern braucht es dennoch jemanden, der die Provider-Leistungen steuert und die Verbindung zur internen IT (z.B. AD-Integration, Netzwerk) hält.

  • Systemadministratoren (Ops-Team): Technische Experten, die die tägliche Administration machen – Nutzerverwaltung, Rechtevergabe, Import von Daten, Konfiguration kleinerer Änderungen. Sie sorgen dafür, dass z.B. die Infrastruktur richtig skaliert ist, verwalten Server, Datenbanken und Schnittstellen. Zu ihren Aufgaben gehört es auch, Änderungen nach definiertem Prozess umzusetzen und die Einhaltung von Konfigurationsvorgaben sicherzustellen. Sie sind also die Hüter der Systemintegrität und arbeiten eng mit dem Systemverantwortlichen zusammen.

  • Key User / Fachadmins: In den Fachabteilungen (z.B. Gebäudebetrieb, Flächenmanagement, Technik) werden oft Key-User ernannt, die besonders geschult sind und z.B. neue Katalogeinträge anlegen dürfen oder Auswertungen für alle erstellen. Sie sind Ansprechpartner für Kollegen und leiten Anforderungen an das zentrale CAFM-Team weiter. Ihre Verantwortlichkeit liegt eher in der Datenpflege und Prozessunterstützung als in der technischen Administration.

Darüber hinaus muss klar sein, welche externen Parteien involviert sind: Bei SaaS-Betrieb der Softwarehersteller oder Cloud-Dienstleister, der beispielsweise für die Verfügbarkeit der Anwendung, Updates und technischen Support zuständig ist. Hier kommt oft das Prinzip der Shared Responsibility zum Tragen: Der Cloud-Infrastrukturanbieter sichert z.B. das Rechenzentrum und Hardware, der CAFM-Anbieter betreibt die Plattform/Application darauf, und der Kunde ist verantwortlich für die korrekte Datennutzung und Benutzerverwaltung. Diese Aufteilung der Verantwortlichkeiten sollte vertraglich fixiert sein (z.B. im SaaS-Vertrag: wer macht Backups, wer spielt Patches ein, wer reagiert auf Incidents in welcher Zeit).

Ein Änderungsmanagement-Prozess (Change Management) ist für das CAFM unabdingbar, weil nach der Einführung regelmäßig Anpassungen, Updates oder Erweiterungen anstehen. Die Lösungsarchitektur sollte grob vorgeben, wie Changes durchgeführt werden: Üblicherweise wird ein Change Board eingerichtet (mit Vertreter aus Fachbereich und IT), das größere Änderungen genehmigt. Jede Änderung – von Konfigurationsänderungen bis zu Versionsupdates – wird zunächst in Test geplant und verprobt, bevor sie in Produktion geht. Die technischen Admins führen dann gemäß diesem Prozess die Änderungen durch und dokumentieren sie. Automatisierte Release-Management-Werkzeuge können helfen (für Versionsstände, Rollbacks etc.). Im Betrieb ist ferner festzulegen, wie Support und Incident-Management laufen: Etwa 1st-Level-Support durch interne IT oder externen Service Desk, 2nd-Level durch CAFM-Admins, 3rd-Level durch Hersteller.

Wichtig für Governance ist auch das Thema Berechtigungsverwaltung und Datenschutz (wer darf neue User anlegen? Wie werden Rechte entzogen, z.B. wenn jemand die Abteilung verlässt? Wie werden Löschfristen für Daten umgesetzt?). Diese organisatorischen Fragen werden im Betriebskonzept geklärt. Beispielsweise kann festgelegt sein, dass nur die zentrale IT Benutzerkonten anlegt (Anbindung an AD) und der Fachbereichsverantwortliche vergibt die inhaltlichen Rollen im CAFM (Leser, Bearbeiter, Manager etc. pro Modul) gemäß abgestimmtem Berechtigungskonzept.

Die Lösungsarchitektur sollte auch sicherstellen, dass Betriebsdokumentation geführt wird

Etwa ein Betriebshandbuch mit Kontakten, Wartungsfenstern, Backup-Plan, Notfallverfahren. Zudem sollten Verantwortlichkeiten für Datenpflege klar sein (z.B. wer aktualisiert Stammdaten im System kontinuierlich – oft werden das feste Prozesse: Facility Manager pflegt Flächendaten, HR pflegt Personaldaten, etc., oder es wird sogar vertraglich geregelt, falls Dienstleister involviert sind). Auch regelmäßige Governance-Runden sind sinnvoll, z.B. quartalsweise Treffen, wo Systemnutzer und Betreiber zusammensitzen und offene Punkte/Optimierungen besprechen (Stichwort kontinuierliche Verbesserung).

Als Beispiel für klare Governance kann man die Cloud-Betriebsmodelle nehmen

Dort wird typischerweise definiert, dass der Softwareanbieter die Plattform betreibt und Updates einspielt, der Kunde aber konfigurationsbezogene Änderungen (Workflows, Formulare) selbst vornimmt oder beauftragt, wobei größere Updates nur nach Freigabe eingespielt werden (z.B. in Wartungsfenstern). Auch Rollen wie Security Officer (der regelmäßige Berechtigungsreviews macht) oder Datenbank-Administrator (für Performance-Tuning der DB) können benannt sein. In Summe geht es darum, das CAFM-System nicht sich selbst zu überlassen, sondern einen klaren Rahmen für Betrieb und Weiterentwicklung zu spannen.

Dokumentation: Architekturdiagramme, Systembeschreibungen, Umgebungspläne

Eine umfassende Dokumentation ist integraler Bestandteil einer professionellen Lösungsarchitektur. Sie stellt sicher, dass Verständnis und Wissen über das CAFM-System nicht nur in Köpfen einzelner steckt, sondern für alle Beteiligten zugänglich festgehalten ist.

Wichtige Bestandteile der Architektur-Dokumentation sind:

  • Architekturdiagramme: Grafische Übersichten, welche die Systemkomponenten und ihre Zusammenhänge zeigen. Dazu zählen z.B. Übersichtsdiagramme der Systemarchitektur mit Servern, Netzwerken, Schnittstellen und Datenbanken. Solche Diagramme sollten darstellen, wo welche Komponenten laufen (z.B. Webserver in Netzsegment A, Datenbankcluster in Segment B, Backup-Storage Offsite) und wie sie miteinander kommunizieren. Ebenso hilfreich sind Integrationsdiagramme, die alle angebundenen Umsysteme und Datenflüsse skizzieren (z.B. ERP ↔ CAFM ↔ BMS, inkl. Art der Schnittstelle). Diese Visualisierungen dienen als gemeinsame Sprache zwischen Fachbereichen und IT und erleichtern auch neuen Teammitgliedern das Verständnis der Lösung.

  • Systembeschreibungen: In schriftlicher Form wird jedes Teilsystem erläutert – z.B. ein Dokument, das die CAFM-Software und ihre Module beschreibt (Version, Hersteller, welche Module im Einsatz, welche Funktionen abgedeckt), ein weiteres Dokument für die Infrastruktur (Server-Hardware oder Cloud-Setup, IP-Adressen, Größen, Betriebssysteme, DB-Versionen). Auch die Schnittstellenbeschreibungen gehören dazu: Für jede Schnittstelle sollte es ein Dokument geben mit Detailinfo (Welche Datenfelder werden übertragen? In welchem Format? Wie oft? Wer ist verantwortlich? etc.). Zudem werden in der Systemdokumentation die Einstellungen und Customizings festgehalten: z.B. welche Kategorien im CAFM angelegt wurden, welche Pflichtfelder, welche Reports es gibt. Diese Dokumentation wird idealerweise während des Projekts erstellt und nach jedem Change aktualisiert.

  • Umgebungs- und Betriebsdokumentation: Hier werden die verschiedenen Systemumgebungen (Dev, Test, Prod, Schulung) und ihre jeweiligen Parameter dokumentiert. Zum Beispiel ein Umgebungsplan, der aufführt: Systemname, Zweck (Test/Prod), verantwortliche Administratoren, verwendete URLs/Logins, Stand der Daten (z.B. „Testsystem, Datenstand vom 01.01.2026 aus Prod übernommen“), Backup-Schedule pro Umgebung, etc. Ebenso Teil der Betriebsdoku: Wartungsfenster (wann dürfen Updates eingespielt werden?), Supportwege (Kontaktdaten Service Desk, Hersteller-Hotline, Eskalation bei Störungen), Sicherheits- und Notfallkonzepte in schriftlicher Form. Auch Architektur-Entscheidungen (Architecture Decisions) können dokumentiert sein – also warum man bestimmte Technologien gewählt hat, um später Nachvollziehbarkeit zu haben.

  • Daten- und Prozessdokumentation: Eng verwandt mit Architektur ist die Dokumentation der Datenmodell-Anpassungen (falls z.B. neue Tabellen oder Felder im CAFM angelegt wurden) und der FM-Prozesse, wie sie im System abgebildet sind. Oft werden Prozessdiagramme erstellt, die zeigen, wie ein Arbeitsauftrag vom Ticket bis zur Abrechnung im CAFM durchläuft – inkl. Rollen und Systemschritten. Solche Diagramme helfen bei Schulungen und bei der Abstimmung zwischen Organisation und IT.

Die Dokumentation sollte möglichst diagrammgestützt und textuell kombiniert sein, damit sowohl technisch versierte Leser als auch fachliche Stakeholder etwas damit anfangen können. Gerade Architekturdiagramme sind ein Muss – in vielen Ausschreibungen (z.B. von UNIDO) wird explizit gefordert, dem Angebot ein Diagramm der Komponenten und ihres Zusammenspiels beizulegen.

Im CAFM-Kontext könnten hier Diagramme wie folgt aussehen:

  • Ein Technisches Architekturdiagramm: zeigt Server, Netzwerkzonen, Schnittstellenverbindungen.

  • Ein Datenflussdiagramm: zeigt, welche Daten von wo nach wo fließen (Integration).

  • Ein Modul-/Schichten-Diagramm: zeigt die internen Komponenten der Software (z.B. Module und gemeinsame Services).

  • Ein Umgebungsdiagramm: zeigt Dev/Test/Prod und evtl. CI/CD-Pipeline dazwischen.

Natürlich gehören auch Architektur- und Benutzerdokumentationen vom Hersteller dazu (z.B. Admin-Handbücher), aber die projektspezifische Ausarbeitung ist ebenso wichtig.

Nicht zu vergessen

Bildliche Darstellung von Standorten bzw. Netzwerk falls relevant (z.B. wenn verschiedene Liegenschaften angebunden sind, kann man eine Karte mit Verbindungen erstellen). Auch Zugriffsarchitektur-Diagramme (wer greift wie zu – intern im LAN, externe via VPN, mobile Nutzer via Web usw.) sind hilfreich, gerade mit Blick auf Security.

Die Dokumentation ist kein statisches Artefakt, sondern lebt mit dem System. Best Practice ist, sie im Rahmen des Changemanagements zu pflegen – d.h. jede Änderung am System (neues Modul, geänderte Schnittstelle, geänderte Serverkonfiguration) zieht eine Aktualisierung der betreffenden Doku nach sich. Daher sollte die Dokumentation an einem zentralen Ort versioniert abgelegt sein (z.B. im Intranet oder einem Projekt-Wiki).

Gerade im CAFM, wo oft externe Dienstleister eingebunden sind (Berater bei Einführung, später vielleicht andere Betreiber), garantiert eine gute Dokumentation die Wissensweitergabe und verhindert Abhängigkeit von Einzelpersonen. Außerdem erleichtert sie Audits (z.B. IT-Prüfungen, Zertifizierungen) und sorgt für Transparenz gegenüber Stakeholdern. Ein Architekturhandbuch inkl. Diagrammen, Systembeschreibungen und Umgebungsplan gehört somit zu den Lieferobjekten einer CAFM-Einführung.

Abschließend einige bewährte Best Practices, die sich speziell bei der Architekturplanung von CAFM-Systemen empfehlen:

  • FM-Prozesse in den Mittelpunkt stellen: Die Architektur muss die fachlichen Anforderungen des Facility Managements erfüllen. Daher sollte man vor technischen Entscheidungen die Prozesse und Ziele klar definieren (z.B. Was soll das System genau unterstützen? Instandhaltung? Raumverwaltung? etc.). Eine CAFM-Software gilt dann als gut integriert, wenn sie ganzheitlich alle FM-Kernprozesse unterstützt und relevante Daten über den gesamten Gebäudelebenszyklus miteinander verknüpft. Die Planung der Architektur sollte also eng mit einer Prozessanalyse verknüpft sein – erst wenn klar ist, wie die Organisation arbeiten will, legt man fest, was das System dafür an Architektur braucht.

  • Frühzeitige Einbindung von BIM/CAD-Daten: Es ist best practice, schon in der Planungs- und Bauphase eines Gebäudes an die spätere FM-Nutzung zu denken. Werden Projektdaten bereits während der Planung FM-gerecht strukturiert, lassen sich enorme Aufwände bei der CAFM-Einführung sparen. Studien zeigen, dass rund 50% der Kosten einer CAFM-Einführung in die Datenerfassung und -aufbereitung fließen, wovon wiederum 10–30% der Daten schon während Planung/Bau entstehen. Daher sollte die Architektur von Anfang an auf BIM-Integration setzen. Konkret: Architekten und Planer liefern nach Fertigstellung ein IFC-Modell, welches ins CAFM übernommen wird, statt manuell Hunderte Räume neu zu erfassen. Dadurch entsteht ein nahtloser Übergang von Bau zu Betrieb (BIM2FM). Offene Standards wie IFC (Industry Foundation Classes) und COBie sollte das CAFM unterstützen, um Informationen verlustfrei zu übernehmen. Gleichzeitig muss geplant werden, wie die BIM-Daten im CAFM aktuell gehalten werden, falls nachträglich Änderungen am Gebäude erfolgen (Prozess für Nachdokumentation).

  • Standards und Richtlinien nutzen: In der FM-IT gibt es etablierte Normen und Richtlinien, die helfen, die Architektur sinnvoll auszurichten. In Deutschland liefert z.B. der Verband GEFMA wichtige Leitfäden: GEFMA 400 definiert Begriffe und Leistungsmerkmale von CAFM-Software, GEFMA 444 stellt einen Katalog von Anforderungen (18 Kriterienkataloge) auf, u.a. zu Datenstrukturen, Funktionen und Schnittstellen-Standards, und GEFMA 420 gibt Empfehlungen für die Einführung von CAFM-Systemen. Ein Best Practice ist, GEFMA-444-zertifizierte Software auszuwählen – diese Produkte haben nachweislich gängige FM-Funktionen und Interoperabilität (z.B. IFC-Import) an Bord. Auch internationale Normen wie ISO 19650-3 (BIM-Datenmanagement in der Betriebsphase) können Orientierung geben, insbesondere in Bezug auf verteilte Datennutzung und klare Verantwortlichkeiten bei digitalen Bauwerksdaten. Die Lösungsarchitektur sollte sich an solchen Standards ausrichten, um zukunftssicher und kompatibel zu bleiben.

  • Modularität und Erweiterbarkeit vorsehen: Selbst wenn anfangs nicht alle Module genutzt werden, sollte die Architektur flexibel erweiterbar sein. Vielleicht startet man nur mit Flächen- und Instandhaltungsmanagement – aber es ist abzusehen, dass später z.B. Energiemanagement oder ein Ticketsystem hinzukommt. Die gewählte Lösung sollte also skalierbar in Funktionsumfang sein und Schnittstellen für weitere Module bieten. Weit verbreitete CAFM-Systeme sind modular aufgebaut und entfalten gerade dadurch ihren Nutzen (Synergien zwischen den Modulen). Bestehende Funktionen sollten miteinander harmonieren, z.B. Flächendaten als Basis für Schlüssel- oder Reinigungsmanagement. Für die Architektur bedeutet das auch, keine proprietären Insellösungen für Teilaspekte einzuführen, die später nicht integrierbar wären. Besser ist ein einheitliches Plattformdenken: alles in einem modularen System oder per sauber definierten Schnittstellen gekoppelt.

  • Change-Management & Key-User einbeziehen: Technisch mag eine Architektur perfekt sein – sie muss aber auch von den Nutzern angenommen werden. Daher zählt zu den Best Practices, frühzeitig Key User und Stakeholder in die Gestaltung einzubeziehen. Beispielsweise kann das Berechtigungskonzept nur funktionieren, wenn es mit den Fachbereichen abgestimmt ist; Schnittstellen zum HR muss man mit der Personalabteilung klären etc. Zudem sind Schulungs- und Testphasen fest in die Einführung einzuplanen (mit dafür vorgesehenen Umgebungen). Ein Architekturdetail ist auch, genügend Testdaten und Use-Case-Szenarien bereitzustellen, damit Key User in UAT prüfen können, ob alles wie gewünscht läuft. Aus der Erfahrung gilt: Je transparenter die Architektur und ihre Auswirkungen kommuniziert werden (z.B. „Wenn das ERP ausfällt, könnt ihr temporär X im CAFM nicht nutzen“), desto besser können Nutzer und Betreiber damit umgehen.

  • Dokumentation und Wissenstransfer sichern: Eine klare Best Practice – oft vernachlässigt – ist die fortlaufende Dokumentation (wie im vorigen Abschnitt beschrieben). Diese ist nicht nur am Ende einmalig zu erstellen, sondern agil zu pflegen. Ebenso sollte der Wissenstransfer von externen Beratern an interne Mitarbeiter aktiv gemanagt werden. Etwa indem ein internes Team von Anfang an bei Architekturworkshops dabei ist und Hands-on-Aufgaben übernimmt. Ziel ist, dass nach Projektende keine Wissenslücken bleiben. Gerade im Hinblick auf zukünftige Erweiterungen ist es wichtig, dass das interne Team die Architekturprinzipien verstanden hat (z.B. „Warum haben wir uns für diesen Integrationsweg entschieden?“).

  • Zukunftstechnologien berücksichtigen: Die FM-Welt entwickelt sich rasant (Stichworte: IoT, KI, digitale Zwillinge, mobile Apps). Eine zukunftsorientierte CAFM-Architektur hält daher bewusst Optionen offen für neue Technologien. Beispielsweise kann vorgesehen werden, eine IoT-Plattform anzubinden, auch wenn das Unternehmen heute noch kein Smart Building betreibt – die Architektur kann schon vorbereitend APIs vorsehen oder zumindest skalierbar genug sein, um in einigen Jahren z.B. tausende Sensordaten zu verarbeiten. Auch mobile Nutzung sollte eingeplant sein: Heutige Servicetechniker erwarten, Aufträge mobil abzurufen und Rückmeldungen vor Ort zu erfassen; daher ist eine App-Integration oder web-responsive UI wichtig. Best Practice ist, bei der Auswahl der Lösung auf eine moderne Architektur zu achten (Stichwort Cloud-ready, API-first, Mobile-ready). Technologien wie KI-Analytics für FM (z.B. Auswertung von Nutzungsdaten) könnten in Zukunft relevant werden – die Datenarchitektur sollte solches Big Data Handling erlauben, etwa durch Exportmöglichkeiten der CAFM-Daten in Data Lakes oder Einbindung externer Analytics-Dienste.

  • Iteratives Vorgehen und Prototyping: Anstatt die gesamte Architektur nur theoretisch zu planen, bewährt es sich, in Iteration vorzugehen. D.h. möglicherweise einen Pilot in kleinerem Umfang umzusetzen und daraus zu lernen, bevor das gesamte System ausgerollt wird. Dies erlaubt, die Architektur in der Praxis zu verproben und ggf. Adjustierungen vorzunehmen. Beispielsweise könnte man eine Liegenschaft exemplarisch ans CAFM anschließen, inklusive aller Schnittstellen, und beobachten, ob die Performance ausreichend ist, ob die Schnittstellendefinitionen passen etc., bevor alle Liegenschaften angebunden werden. Dieses agile Vorgehen mindert Projektrisiken und verbessert die endgültige Architekturqualität.

  • Einhaltung von IT-Compliance und Security-Richtlinien: FM-Systeme dürfen im Eifer des Gefechts nicht losgelöst von der restlichen IT betrieben werden. Best Practice ist, früh die internen IT-Abteilungen (Security, Netzwerk, Datenschutz) einzubinden, um sicherzustellen, dass die Architektur konform ist (z.B. Penetrationstests einplanen, Datenschutz-Folgenabschätzung für personenbezogene Gebäudedaten durchführen, falls nötig). Auch Themen wie Lizenzmanagement (ggf. hat man DB-Lizenzen, Server-Lizenzen etc. – diese müssen in der Doku und Verträgen geregelt sein) und Service-Verträge mit Cloud-Anbietern (SLAs) gehören zur weitsichtigen Planung.

Es zielt all das darauf ab, eine robuste, flexible und zukunftssichere CAFM-Architektur aufzubauen, die den praktischen Anforderungen des Facility Managements gerecht wird. Eine Architektur, die Best Practices folgt, wird leichter akzeptiert, lässt sich einfacher betreiben und an neue Gegebenheiten anpassen. Insbesondere im CAFM-Kontext – wo Prozesse, Menschen und Technik eng verzahnt sind – lohnt es sich, in die Architekturplanung ausreichend Zeit und Expertise zu investieren. Die Dividende ist ein System, das wirklich als Rückgrat des Facility Managements fungieren kann: integrierte Daten, effiziente Abläufe und Mehrwert für alle Nutzergruppen. Im Zweifelsfall gilt: Lieber einen Schritt zurücktreten und die Architektur überdenken (Stichwort „Reflexion vor der Software“), als übereilt ein System aufzusetzen, das später schwer wartbar ist. Mit einer klugen Lösungsarchitektur legt man den Grundstein dafür, dass das CAFM-Projekt nicht nur technisch erfolgreich ist, sondern auch die gewünschten betrieblichen Nutzen voll entfaltet.