Betriebskonzept SaaS
Facility Management: FM-Software » Strategie » Betrieb SaaS
Betriebskonzept für eine Facility-Management Softwareplattform (SaaS)
Eine Facility-Management-Softwareplattform (Computer Aided Facility Management, CAFM, bzw. Integrated Workplace Management System, IWMS) bildet die digitale Grundlage für das Gebäudemanagement. Im vorliegenden Betriebskonzept wird der IT-Betrieb einer solchen Plattform im Software-as-a-Service (SaaS) Modell beschrieben. Die Plattform wird mandantenfähig und modular bereitgestellt, d.h. mehrere Kunden (Mandanten) nutzen eine gemeinsame technische Umgebung, mit Zugriff über Webbrowser und mobile Endgeräte. Der Betrieb erfolgt in einer Public Cloud mit Datenhaltung in Deutschland/EU, um rechtliche Vorgaben einzuhalten (z. B. DSGVO). Dieses Betriebskonzept fokussiert ausschließlich auf die stabile IT-Bereitstellung der FM-Software – nicht auf die fachliche Beschreibung von FM-Prozessen (wie Flächenverwaltung, Instandhaltung etc.), sondern darauf, wie diese Prozesse IT-seitig unterstützt und hochverfügbar betrieben werden können.
Als Rahmen dient ein Nutzungsszenario typischer Büro- und Industrieimmobilien in Deutschland/EU mit ca. 500 gleichzeitigen Nutzern auf ~20.000 m² Brutto-Grundfläche, inklusive technischen Anlagen, Außenflächen, Lagerhallen und Gastronomie. Die IT-Lösung soll herstellerneutral und nach geltenden Normen/Standards implementiert sein.
Stabiler IT-Betrieb einer CAFM-Plattform
- Rahmenbedingungen
- Organisation
- Systembetrieb
- Schnittstellenbetrieb
- Datenqualitätsmanagement
- Änderungsmanagement
- Monitoring
- ITIL-konform
- Betriebseinführung
- Schulungskonzepte
- Datenschutz
- Auditfähigkeit
- Ausblick
Ziele und Rahmenbedingungen des Betriebs
Zielsetzung: Sicherzustellen, dass die FM-Softwareplattform zuverlässig, sicher und effizient betrieben wird, sodass die Facility-Management-Prozesse der Kunden dauerhaft IT-seitig ermöglicht werden. Wichtige Zielkriterien sind: Verfügbarkeit, Datenintegrität, Reaktionsfähigkeit des Supports und Einhaltung von Sicherheits- und Datenschutzvorgaben.
Hochverfügbarkeit: Die Plattform soll mit einer Verfügbarkeit von 99,9 % betrieben werden. Dies entspricht einer maximal tolerierten Ausfallzeit von unter ca. 8 Stunden und 46 Minuten pro Jahr – ein Niveau, das typischerweise als hochverfügbar gilt. Um dieses Niveau zu erreichen, sind Redundanzen und robuste Betriebsprozesse erforderlich. Ein definierter Service-Level-Agreement (SLA) garantiert diese Uptime gegenüber den Nutzern. Die Recovery Time Objective (RTO) – also die maximale Dauer, bis ein ausgefallener Dienst im Notfall wiederhergestellt sein muss – beträgt 4 Stunden, und die Recovery Point Objective (RPO) – maximal tolerierter Datenverlust – liegt bei 15 Minuten (d.h. im Desasterfall dürfen maximal 15 Minuten an Daten verloren gehen). Anders ausgedrückt: Bei RPO = 15 Minuten muss mindestens alle 15 Minuten eine Datensicherung erfolgen, um keine größeren Datenlücken zu riskieren. Diese Kennzahlen fließen in das Notfallvorsorge- und Backup-Konzept ein.
Compliance und Sicherheit: Alle Betriebsmaßnahmen müssen geltende Gesetze und Standards erfüllen. Insbesondere die DSGVO (EU-Datenschutz-Grundverordnung) verlangt geeignete technische und organisatorische Maßnahmen (TOM), um ein dem Risiko angemessenes Schutzniveau für personenbezogene Daten zu gewährleisten. Dazu zählen z. B. Verschlüsselung, Sicherstellung von Vertraulichkeit/Integrität, rasche Wiederherstellbarkeit der Daten nach Zwischenfällen und regelmäßige Wirksamkeitsüberprüfungen der Sicherheitsmaßnahmen. Da die Anwendung personenbezogene Daten (z.B. Mitarbeiterinformationen, Raumbuchungen, Ansprechpartner) verarbeiten kann, ist Datenschutz by Design und by Default zu berücksichtigen. Die Datenhaltung in deutschen/europäischen Rechenzentren stellt sicher, dass kein unkontrollierter Datentransfer in unsichere Drittländer erfolgt. Weiterhin sind relevante Normen und Best Practices einzuhalten: ein Informationssicherheits-Management nach ISO/IEC 27001 (inkl. regelmäßiger Risk Assessments, Maßnahmen gemäß Annex A) sowie ein IT-Service-Management angelehnt an ITIL (für Supportprozesse, s.u.) bilden die methodische Basis des Betriebskonzepts. Schließlich wird auf Branchenrichtlinien Bezug genommen – etwa GEFMA 420 (Leitfaden zur Einführung von CAFM-Systemen), GEFMA 430 (Datenmanagement in CAFM), GEFMA 470 (Standards zum Datenaustausch im FM) oder Publikationen des CAFM-Rings – um spezielle FM-spezifische Anforderungen zu berücksichtigen.
Ein klares Rollen- und Verantwortlichkeitsmodell stellt sicher, dass Betrieb und Nutzung der Plattform reibungslos funktionieren. Die wichtigsten Rollen im Betrieb der SaaS-Software sind:
Plattform-Betreiber – Der Anbieter bzw. die Betriebsorganisation, die die SaaS-Plattform technisch bereitstellt. Er trägt die Gesamtverantwortung für den sicheren und performanten Betrieb der Infrastruktur und Applikation. Der Betreiber stellt Personal für Administration, Wartung, Überwachung und 2nd-Level-Support. In ITIL-Terminologie gibt es hier oft einen Service Owner, der dafür verantwortlich ist, die vereinbarten Service Level zu liefern. Der Betreiber definiert Betriebsprozesse, Wartungsfenster, Backup-Strategien und sorgt für die Einhaltung von Sicherheitsrichtlinien. Ebenfalls stellt er den IT Service Manager (oder Betriebsleiter), der die Betriebsprozesse koordiniert, sowie Spezialisten wie Datenbank-Administratoren, Cloud-Infrastruktur-Experten, Security Officer etc.
Systemadministratoren (Ops-Team) – Technische Experten auf Seiten des Betreibers, die die Systeme administrieren. Ihre Aufgaben umfassen z.B. Deployment neuer Versionen, Überwachung der Systeme, Fehlerbehebung, Durchführung von Backups/Wiederherstellungen und das User-Management auf Systemebene. Sie stellen sicher, dass die Cloud-Infrastruktur richtig skaliert ist, verwalten Netzwerk, Serverinstanzen, Datenbanken und Schnittstellen. In ihrer Verantwortung liegt es auch, Änderungen (Changes) nach dem definierten Prozess umzusetzen und die Einhaltung der Konfigurationsvorgaben sicherzustellen. Sie arbeiten eng mit dem Service Manager und ggf. Entwicklungs-Teams (bei Updates) zusammen.
Mandanten-Administrator / Mandantenverantwortlicher – Jede Kundenorganisation (Mandant) sollte eine interne verantwortliche Person benennen, welche die Nutzung der FM-Plattform in der eigenen Organisation betreut. Dieser Key-User oder Mandanten-Admin übernimmt z.B. das Benutzer- und Berechtigungsmanagement innerhalb des eigenen Mandanten (Anlegen von Usern, Zuweisung von Rollen für z.B. Techniker, Manager, Gastnutzer etc.). Er fungiert als Hauptansprechpartner zwischen Kunde und Betreiber, meldet Probleme oder Änderungswünsche gebündelt an den Support und koordiniert auf Kundenseite die Datenpflege. Der Mandantenverantwortliche stellt sicher, dass die Anwender beim Kunden geschult sind und die Software gemäß den vorgesehenen Prozessen verwenden.
Endanwender (Nutzer) – Die normalen Nutzer der Plattform, z.B. Facility Manager, Hausmeister, Techniker, Servicekräfte oder auch Mieter, die über Self-Service Funktionen verfügen. Sie verwenden die Software für ihre täglichen Aufgaben (Flächen buchen, Störungen melden, Wartungsaufträge bearbeiten, Auswertungen ansehen etc.). Endanwender haben idR. kein administratives Recht, sondern arbeiten innerhalb der von Mandanten-Admins vorgegebenen Strukturen. Ihre Hauptverantwortung ist, das System korrekt zu bedienen und relevante Daten (z.B. Störungsmeldungen, Rückmeldungen nach Tätigkeiten) einzupflegen.
Support-Team / Service Desk – Das mehrstufige Support-Team nimmt Anfragen und Störungsmeldungen der Endanwender entgegen und stellt Hilfe bereit. First-Level-Support (Service Desk) erfasst die Anliegen, leistet grundlegende Hilfestellung und löst einfache Fälle selbst oder eskaliert an den Second-Level-Support (Spezialisten/Administratoren). Die Support-Mitarbeiter halten Kontakt zu den Nutzern und informieren über Status und Lösung von Problemen. In ITIL wird ein solcher zentraler Ansprechpartner als Single Point of Contact (SPOC) empfohlen, typischerweise in Form eines Service Desk.
Informationssicherheits- und Datenschutz-Beauftragte – Auf Betreiberseite (und oft auch kundenseitig) gibt es Rollen, die für die Einhaltung der Sicherheitsrichtlinien und Datenschutzvorgaben zuständig sind. Der Informationssicherheitsbeauftragte achtet darauf, dass Vertraulichkeit, Integrität und Verfügbarkeit der Systeme und Daten gewahrt bleiben, prüft regelmäßig die Wirksamkeit von Sicherheitsmaßnahmen (z.B. Berechtigungskonzepte, Patch-Management, Protokollierung) und koordiniert Audits. Der Datenschutzbeauftragte (DSB) stellt sicher, dass die DSGVO-Anforderungen erfüllt werden, z. B. durch Abschlüsse von Auftragsverarbeitungsverträgen mit Kunden, Durchführen von Datenschutz-Folgeabschätzungen falls nötig, Bearbeitung von Betroffenenanfragen und Beratung bezüglich datenschutzgerechter Systemkonfiguration (z.B. Rollen, die nur benötigte Daten sehen).
Zwischen Betreiber und Kunden werden Verantwortlichkeiten klar verteilt (Stichwort Shared Responsibility im Cloud-Kontext). So ist der Cloud-Infrastrukturprovider (wenn vom Betreiber getrennt) für die unterste Schicht (Rechenzentrum, Hardware) zuständig, der Betreiber für Anwendung und Plattformbetrieb, und der Kunde für die korrekte Nutzung der Anwendung sowie die eigenen eingegebenen Daten. Dieses Modell wird idealerweise schriftlich festgehalten (z. B. in Betriebsführungsvereinbarungen oder Servicehandbüchern). Eine RACI-Matrix kann die Verantwortlichkeiten (Responsible, Accountable, Consulted, Informed) für Hauptaufgaben definieren, etwa: Backup durchführen (Betreiber = Responsible, Kunde = Informed) oder Benutzerdaten pflegen (Kunde = Responsible, Betreiber = Consulted). Klare Zuständigkeiten reduzieren Missverständnisse und stellen die Betriebsfähigkeit auf Dauer sicher.
Systembetrieb und Verfügbarkeitsmanagement
Um das Verfügbarkeitsziel von 99,9 % Uptime zu erreichen, werden umfassende Maßnahmen im Systembetrieb umgesetzt. Zentrale Aufgabe des Betreibers ist das Availability Management, d.h. die Planung und Steuerung aller Ressourcen und Prozesse so, dass die vereinbarten Verfügbarkeitsziele eingehalten werden. Gemäß ITIL stellt das Availability Management sicher, dass Infrastruktur, Prozesse, Tools und Rollen passend dimensioniert und organisiert sind, um die geforderte Verfügbarkeit zu garantieren.
Hierzu gehört zunächst eine ausfallsichere Architektur der SaaS-Plattform:
Cloud-Infrastruktur: Die Anwendung wird in einer hochverfügbaren Cloud-Umgebung betrieben (z.B. Nutzung von geografisch getrennten Rechenzentren oder mindestens mehreren Verfügbarkeitszonen innerhalb eines Rechenzentrums). Die kritischen Komponenten (Applikationsserver, Datenbank, Storage) sind redundant ausgelegt. Ein Single Point of Failure wird vermieden – fällt ein Knoten aus, übernimmt ein anderer (Failover). Zum Beispiel können die Datenbanken in einem synchronen Cluster laufen, sodass bei Ausfall eines DB-Servers ein zweiter nahtlos weiterarbeitet. Application-Server laufen in einem Load-Balancer-Verbund, sodass Last verteilt wird und Wartungen nacheinander erfolgen können, ohne den Dienst komplett zu unterbrechen (Rolling Updates).
Überwachung und Störungsbehebung: Ein Monitoring-System prüft rund um die Uhr die Erreichbarkeit und Performance aller wichtigen Komponenten (Heartbeat, Antwortzeiten, Speicher-/CPU-Auslastung etc.). Bei Auffälligkeiten oder Ausfällen werden automatisch Alerts ausgelöst (z.B. E-Mail/SMS an den Bereitschaftsdienst). Auf diese Weise können selbst außerhalb der Geschäftszeiten Probleme bemerkt und angegangen werden, um die Ausfallzeit zu minimieren. System- und Anwendungsüberwachung durch Logging trägt wesentlich dazu bei, die Verfügbarkeit zu sichern – mittels Analyse von Logdaten können Engpässe erkannt und Ausfälle proaktiv vermieden werden. Tritt dennoch ein Systemfehler auf, liegen klare Incident-Response-Prozesse vor (siehe Incident-Management), um schnell Gegenmaßnahmen einzuleiten (Neustart von Diensten, Umschwenken auf Backupsysteme, Informieren der Nutzer).
Backup- und Desaster-Vorsorge: Zur Einhaltung von RPO/RTO sind effiziente Backup- und Recovery-Prozesse implementiert. Alle transaktionalen Daten (z.B. Datenbankinhalte der CAFM-Plattform) werden mindestens alle 15 Minuten gesichert (inkrementelle Backups oder kontinuierliche Replikation), um die RPO von 15 Minuten zu erfüllen. Zusätzlich erfolgen tägliche Vollsicherungen. Backups werden geografisch getrennt aufbewahrt (z.B. in einem zweiten Rechenzentrum) für den Desasterfall. Die Wiederanlaufprozeduren sind dokumentiert und getestet, sodass im Ernstfall innerhalb von 4 Stunden (RTO) das System auf Ersatzinfrastruktur wiederhergestellt werden kann. Dabei sind auch die Applikationskonfigurationen (z.B. Mandanteneinstellungen) und Schnittstellendaten Bestandteil der Sicherungen. Die Fähigkeit, nach einem technischen Zwischenfall die Verfügbarkeit der Daten und den Zugang rasch wiederherzustellen, ist auch explizit in Art. 32 DSGVO gefordert – entsprechende Disaster-Recovery-Pläne adressieren dies.
Wartungsfenster: Regelmäßige präventive Wartungen (z.B. Security-Patches des Betriebssystems, Datenbank-Optimierungen) werden in geplanten Wartungsfenstern durchgeführt, möglichst außerhalb der Hauptnutzungszeiten. Während Wartungsfenstern kann die Verfügbarkeit temporär eingeschränkt sein; diese Zeiten werden aber nicht auf die SLA-Verfügbarkeitsberechnung angerechnet, sofern sie im vereinbarten Rahmen liegen und vorher angekündigt wurden. Der Betreiber kommuniziert diese Fenster frühzeitig an alle Mandantenverantwortlichen. Bei einem SaaS-Multi-Tenant-System ist idealerweise ein Zero-Downtime Deployment das Ziel: Viele Updates können im laufenden Betrieb erfolgen (blau/grün Deployment oder Canary-Releases), sodass ein Reboot der gesamten Plattform vermieden wird. Sollte doch einmal ein geplanter Ausfall nötig sein (z.B. für einen major Release-Wechsel), wird versucht, diesen z.B. nachts oder am Wochenende durchzuführen und innerhalb kurzer Zeit abzuschließen.
Kapazitätsmanagement: Teil des Systembetriebs ist auch das vorausschauende Kapazitätsmanagement. Die Auslastung von Serverressourcen, Speicher und Netzwerk wird überwacht und anhand der Nutzungsprognosen geplant. So wird z.B. geprüft, ob die aktuelle Hardware/VM-Ausstattung für 500 Nutzer ausreichend ist und auch Spitzen (z.B. Monatsenden, wenn viele Berichte generiert werden) abgefangen werden können. Bei SaaS in der Cloud können hier Skalierungsmechanismen genutzt werden (automatisches Hochskalieren von Instanzen bei hoher Last). Wichtig ist, dass genügend Reserven bestehen, um die Performance für alle Mandanten stabil zu halten. Engpässe würden nicht nur die Geschwindigkeit, sondern u.U. auch die Verfügbarkeit beeinflussen – daher wird z.B. ab einer gewissen CPU- oder Speicher-Auslastung proaktiv aufgestockt. Das Kapazitätsmanagement orientiert sich an geschäftlichen Anforderungen und soll sicherstellen, dass die Systemleistung zu jeder Zeit den Bedürfnissen entspricht.
SLA-Monitoring: Der Betreiber misst die tatsächliche Verfügbarkeit (Uptime) kontinuierlich und erstellt regelmäßige Reports. Falls es doch zu SLA-Verletzungen kommt (Downtime > 0,1 % im Jahr), werden diese dokumentiert und ausgewertet. Mechanismen zur Verbesserung (Problem Management) treten in Kraft, um Wiederholungen zu verhindern. Für die Kunden können evtl. im Vertrag Kompensationen vorgesehen sein, sollte die Verfügbarkeit unter das zugesicherte Niveau fallen.
Zusammenfassend stellt der Systembetrieb sicher, dass die FM-Plattform robust läuft und auch bei Störungen oder Wartungen schnell wieder zur Verfügung steht. Durch dokumentierte Verfahren, Überwachung und Redundanz wird ein ordnungsgemäßer Betrieb gewährleistet – gemäß ISO 27001 müssen alle wichtigen Betriebsprozesse dokumentiert und für alle Beteiligten zugänglich sein, um Einheitlichkeit, schnelle Reaktion im Notfall und Auditierbarkeit sicherzustellen.
Schnittstellenbetrieb und Integration externer Systeme
Die FM-Software ist keine Insellösung – sie muss Daten mit einer Vielzahl anderer Systeme austauschen (Stichwort IoT und Systemintegration). Im Betriebskonzept ist daher dem Schnittstellenbetrieb besondere Beachtung zu schenken. Wichtige angebundene Systeme im genannten Nutzungskontext sind u.a.: ERP-Systeme (z.B. Finanzbuchhaltung, Einkauf – für Kosten- und Auftragsdaten), HR-Systeme (für Personaldaten und Raumbuchungen), Gebäudeautomations- und Leittechniksysteme (BMS) sowie IoT-Sensorik (für Zustandsdaten von Anlagen, Zählerstände, Raumklima etc.), GIS-Systeme (Geoinformation, digitale Pläne) und Dokumentenmanagement (DMS) für technische Dokumentationen.
Ein reibungsloser Datenfluss zwischen diesen Systemen und der CAFM-Plattform ist essentiell für konsistente Prozesse.
Standards und Formate: Soweit möglich, werden offene Schnittstellen und Datenstandards genutzt, um Interoperabilität herzustellen. Moderne CAFM-Plattformen bieten z.B. RESTful APIs auf Basis von OpenAPI-Spezifikationen, sodass Drittanwendungen standardisiert angebunden werden können. Für den Austausch von Gebäude- und Anlagendaten hat sich insbesondere BIM (Building Information Modeling) mit dem Format IFC (Industry Foundation Classes) etabliert. Tatsächlich betont das White Paper GEFMA 926, dass BIM im FM bisher wenig genutzt wird, was u.a. auf fehlende einheitliche Datenmodelle und standardisierte Schnittstellen zwischen den Softwarelösungen zurückzuführen ist. Umso wichtiger ist es, im Betrieb auf etablierte Standards zu setzen: IFC und das vom CAFM-Ring entwickelte CAFM-Connect gelten als Schüsseltechnologien für erfolgreiche BIM-Integration ins Facility Management. IFC bietet ein herstellerneutrales Datenmodell, und CAFM-Connect definiert ein Austauschformat speziell für FM-Daten, wodurch z.B. Bestandsdaten aus BIM-Modellen verlustfrei ins CAFM übernommen werden können. Die neue GEFMA-Richtlinie 470 liefert hierzu eine Übersicht der Anforderungen und Technologien für den digitalen Datenaustausch in der Betriebsphase – einschließlich des Austauschs von Stammdaten zu Facilities und dynamischer Prozessdaten zwischen IT-Systemen.
Architektur der Schnittstellen: Die Plattform stellt für Kernbereiche Webservice-Schnittstellen (REST/JSON oder SOAP/XML, je nach Partner-System) zur Verfügung. Externe Systeme können darüber z.B. folgende Aktionen durchführen: Räume und Flächen anlegen/aktualisieren (aus CAD/BIM), Stammdaten von technischen Anlagen importieren (aus Planungstools), Tickets/Serviceaufträge erstellen (etwa wenn ein IoT-Sensor eine Störung meldet, wird automatisch ein Ticket im CAFM erzeugt), oder Buchungsdaten austauschen (z.B. wenn im HR-System ein neuer Mitarbeiter angelegt wird, wird ein entsprechender Datensatz im CAFM zur Zutrittssteuerung generiert). Für einige Integrationen kommen auch Dateischnittstellen zum Einsatz (z.B. regelmäßiger Import von Excel/CSV wenn kein Live-Interface möglich ist) oder Middleware/Enterprise Service Bus, falls die Infrastruktur es vorsieht. Wichtig ist, dass diese Datenverbindungen überwacht werden: Ein Schnittstellen-Monitoring prüft automatisiert die regelmäßige Ausführung von Import/Export-Jobs und signalisiert Fehler (z.B. ausbleibende Datenlieferungen, Formatfehler). Im Fehlerfall muss der Betreiber oder das Support-Team eingreifen, um die Schnittstelle schnellstmöglich wiederherzustellen – denn stockende Schnittstellen können Geschäftsprozesse beeinträchtigen (etwa wenn Wartungsaufträge aus dem ERP nicht ins CAFM gelangen, werden sie nicht ausgeführt).
Betrieb und Verantwortung: Für jede angebundene Schnittstelle ist klar festgelegt, wer für deren Betrieb verantwortlich ist – dies wird typischerweise im Schnittstellenvertrag oder in der Leistungsbeschreibung dokumentiert. Bei manchen Integrationen (z.B. SAP-ERP) liefert der CAFM-Hersteller ein zertifiziertes Interface-Modul, dessen technische Betreuung beim Betreiber liegt; beim Datenaustausch mit IoT-Sensor-Plattformen kann hingegen der Kunde oder ein Drittanbieter verantwortlich zeichnen. In jedem Fall müssen Änderungen auf einer Seite (z.B. Update des ERP-Systems, neue Felder in der API) koordiniert mit der anderen Seite umgesetzt werden – Change-Management-Prozesse umfassen daher auch Schnittstellen-Änderungen (siehe Releaseplanung).
Datensynchronisation und -qualität: Ein häufiges Problem im Integrationsbetrieb ist die Datenqualität und Synchronisation. Es ist festzulegen, welches System die führende Quelle (Master) für welche Daten ist. Beispielsweise könnten Personaldaten im HR-System Master sein und ins CAFM synchronisiert werden, während technische Gerätedaten im CAFM gepflegt und zum ERP (für Finanzabschreibungen) geliefert werden. Unstimmigkeiten (z.B. ein Mitarbeiter ist im HR schon gelöscht, im CAFM aber noch aktiv) müssen durch Plausibilitätsprüfungen erkannt werden. Der Betrieb richtet hierfür Konsistenzprüfungen ein, eventuell mit regelmäßigen Reports an die Mandantenadministratoren, um Dateninkonsistenzen manuell zu bereinigen. Insgesamt erfordert der Schnittstellenbetrieb enge Kommunikation zwischen den beteiligten IT-Teams und klare Vereinbarungen (z.B. über Formate, Frequenzen, Fehlerverfahren). Eine standardisierte Dokumentation jeder Schnittstelle (Schnittstellenhandbuch) ist Teil der Betriebsdokumentation.
Durch diese Maßnahmen wird gewährleistet, dass die CAFM-Plattform nahtlos in die vorhandene Systemlandschaft der Kunden eingebettet ist. Standardisierte, gut gewartete Schnittstellen erhöhen die Stabilität und Akzeptanz der Lösung erheblich – medienbruchfreie Prozesse sind ein Mehrwert, aber nur erreichbar, wenn der Integrationsbetrieb professionell gemanagt wird.
Datenqualitätsmanagement und Datenpflegeprozesse
Die Datenbasis ist das Herzstück jeder CAFM-Plattform – die besten Funktionen nützen wenig, wenn die zu Grunde liegenden Flächen-, Anlagen- oder Vertragsdaten unvollständig oder veraltet sind. Daher widmet sich das Betriebskonzept ausdrücklich dem Datenqualitätsmanagement und definiert Prozesse zur Datenpflege.
Gemäß GEFMA 430 sollen klare Hinweise zum Aufbau und zur Pflege der CAFM-Datenbasis befolgt werden.
Initiale Datenübernahme: Zu Beginn (beim Onboarding eines neuen Mandanten oder beim Start eines neuen Gebäudes) ist eine umfassende Datensammlung und -aufbereitung notwendig. Idealerweise werden Bau- und Anlagendaten aus Planungsphasen übernommen, z.B. durch BIM2FM-Prozesse. GEFMA 926 hebt hervor, dass beim Übergang von der Bau- in die Betriebsphase derzeit der größte Informationsverlust im Lebenszyklus stattfindet. Viele Gebäudeinformationen, die im Betrieb nützlich wären (für Wartung, Gewährleistungsverfolgung etc.), gehen verloren, wenn kein systematischer Transfer erfolgt. Daher wird angestrebt, alle relevanten Daten aus der Bauphase in geeigneter Form in die FM-Plattform zu importieren – sei es via IFC-Modell, Excel-Listen der Baugewerke oder manuell erfasste Datenblätter. Bereits hier gilt Qualität vor Quantität: Es werden nur geprüfte, verlässliche Daten übernommen, und Datenfelder sind einheitlich nach definierten Standards zu füllen (z.B. Raumnummern nach DIN 277, Anlagenkennzeichnung nach ISO / VDI-Standard).
Datenpflege im laufenden Betrieb: Nachdem die initiale Datenbasis steht, müssen die Daten kontinuierlich aktuell gehalten werden. Dafür werden Datenpflegeprozesse definiert, d.h. es wird festgelegt, wer welche Änderungen in der Datenbank vornimmt und wann. Beispielsweise: Wenn eine bauliche Änderung erfolgt (Umbau, neue Räume), muss der Mandanten-Admin oder dessen Team die Raumdaten im CAFM anpassen; wenn eine Wartung durchgeführt wurde, pflegt der zuständige Techniker die ausgeführten Arbeiten und nächsten Fälligkeiten ein etc. Für bestimmte Datenfelder können Workflows im System hinterlegt werden, die Erinnerungen oder Genehmigungsschritte beinhalten (z.B. jährliche Überprüfung aller Prüftermine von Anlagen durch den Administrator).
Verantwortlichkeiten und Schulung: Datenqualität ist auch eine Verantwortungsfrage. Jeder Mandant sollte Data Owner für seine Daten benennen – häufig in Personalunion mit dem Mandantenverantwortlichen. Dieser trägt Sorge, dass z.B. Stammdaten zu Gebäuden und Verträgen korrekt eingepflegt und geändert werden, und dass Nutzer die Bedeutung der Datenfelder kennen (damit z.B. Störungsmeldungen in die richtigen Kategorien eingeordnet werden). Das Betriebsteam unterstützt durch Schulung und Dokumentation die Anwender bei der richtigen Datenerfassung. Zudem kann das System mit Validierungen und Pflichtfeldern ausgestattet sein, um offensichtliche Fehleingaben zu reduzieren. Beispielsweise ist das Feld „Raumgröße“ nur in m² und nur numerisch erlaubt; Wartungsmeldungen können nur abgeschlossen werden, wenn ein Abschlusskommentar eingegeben wurde etc. Solche Regeln erhöhen die Datenqualität automatisch.
Datenqualitätskennzahlen und Monitoring: Es empfiehlt sich, KPIs für die Datenqualität zu etablieren. Mögliche Kennzahlen: Prozentsatz vollständig befüllter Datensätze, Anzahl der Dubletten, Alter der letzten Aktualisierung pro Datenobjekt. Das Systembetriebsteam kann regelmäßige Qualitätsreports erzeugen, die z.B. auflisten, welche Stammdaten seit >12 Monaten nicht mehr aktualisiert wurden oder wo Pflichtangaben fehlen. Diese Berichte werden den Mandantenverantwortlichen bereitgestellt, um gezielte Datenpflege anzustoßen. Ein Beispiel: Ein Report zeigt, dass für 5 % der technischen Anlagen keine Wartungszyklen hinterlegt sind – der Mandanten-Admin erhält diese Liste, um die entsprechenden Datensätze nachzutragen.
Unterstützung durch BIM und IoT: Langfristig kann die Datenpflege durch integrative Technologien erleichtert werden. Ein fortgeführtes BIM-Modell im Betrieb könnte als „digitale Quelle“ dienen, die Änderungen am Bauwerk direkt ins CAFM einspeist (allerdings ist abzuwägen, ob der Nutzen die Aufwände übersteigt). Ebenso können IoT-Sensoren bestimmte Daten automatisch liefern (z.B. Zählerstände für Verbrauchszählung, Laufzeiten von Geräten für Wartungsbedarf), was manuelle Dateneingaben reduziert. Das Betriebskonzept sollte offen für solche Automatisierungen sein – wichtig ist aber, dass trotzdem regelmäßige Plausibilitätskontrollen stattfinden, da auch automatische Daten Fehler enthalten können.
Insgesamt folgt das Datenmanagement dem Prinzip: „Ein CAFM-System ist nur so gut wie die Qualität seiner Daten“. Durch definierte Prozesse, Verantwortlichkeiten und Hilfsmittel wird sichergestellt, dass die Datenbasis stets verlässlich bleibt – was die Grundvoraussetzung für belastbare Auswertungen, effiziente FM-Prozesse und Auditierungen ist.
Änderungsmanagement und Releaseplanung
In einer lebendigen Softwareplattform sind Änderungen unvermeidbar – seien es funktionale Weiterentwicklungen, sicherheitsbedingte Patches oder Konfigurationsanpassungen für neue Anforderungen. Damit Änderungen nicht zu Chaos oder Ausfällen führen, wird ein striktes Änderungsmanagement (Change Management) nach anerkannten Vorgehensmodellen etabliert. ISO 27001 fordert, dass alle Änderungen kontrolliert ablaufen und Risiken durch Änderungen minimiert werden.
Ziel ist es, nützliche Verbesserungen mit minimalen Unterbrechungen in den Betrieb zu überführen.
Change-Prozess: Jede Änderung an der produktiven Umgebung – ob Hardware, Systemsoftware, Applikation oder Schnittstelle – durchläuft einen standardisierten Prozess.
Typischerweise umfasst dieser:
Antragstellung (Change Request erfassen mit Beschreibung, Begründung),
Bewertung (Impact- und Risikoanalyse, Kostenschätzung),
Freigabe durch das zuständige Gremium,
Planung der Umsetzung (inkl. Zeitplan, Verantwortliche, Backout-Plan für Rollback),
Durchführung im vereinbarten Zeitfenster,
und Nachdokumentation (Change-Report, Aktualisierung der Dokumentation).
Größere Änderungen werden vom Change Advisory Board (CAB) begutachtet – dieses besteht aus Vertretern der relevanten Bereiche (Betrieb, Entwicklung, Kundenvertretung), um alle Perspektiven einzubeziehen. Notfalländerungen (Emergency Changes) können ggfs. im beschleunigten Verfahren durch einen Emergency-CAB genehmigt werden, falls ein sofortiges Handeln zur Wiederherstellung des Betriebs nötig ist.
Release-Management: Funktionale Änderungen (Upgrades der CAFM-Software, neue Module) werden in Releases gebündelt. Der Betreiber plant in Abstimmung mit Entwicklung/Hersteller regelmäßige Release-Termine – z.B. quartalsweise Minor Releases mit kleineren Verbesserungen und jährliche Major Releases mit umfassenden Neuerungen. Für jedes Release gibt es Release Notes und ggf. Schulungsmaterial, damit die Nutzer über Änderungen informiert sind. Die Releaseplanung berücksichtigt auch Abhängigkeiten: Beispielsweise müssen Schnittstellenpartner rechtzeitig informiert werden, wenn sich an den API-Strukturen etwas ändert. Zudem wird auf Rückwärtskompatibilität geachtet, damit z.B. kundeneigene Auswertungen oder Exports nicht plötzlich inkompatibel sind. Vor Ausspielung in Produktion werden neue Versionen intensiv getestet (inkl. Mandantentests mit repräsentativen Daten). Ein dedizierter Test- und Integrationsumgebung (Staging) ist vom Produktionssystem getrennt, um gefahrlos Releases vorab einzuspielen und ggf. Fehler zu finden. Der Betrieb gewährleistet die Trennung dieser Umgebungen, um unbeabsichtigte Auswirkungen auf das Livesystem zu vermeiden.
Kommunikation und Koordination: Alle Änderungen, die Einfluss auf die Kunden haben (z.B. neue Funktionen, geänderte Bedienung oder Downtime während Updates), werden transparent kommuniziert. Der Mandantenverantwortliche erhält rechtzeitig Vorabinformationen. Größere Releases können in Kooperation mit Pilotkunden vorab erprobt werden. Änderungen in der Konfiguration eines bestimmten Mandanten (z.B. neue Workflows oder Schnittstellenaktivierungen) erfolgen in Abstimmung mit diesem und möglichst in dessen Nebenbetriebszeit. Nach erfolgter Änderung/Releases holt der Betreiber Feedback ein, um eventuelle Probleme sofort zu erkennen.
Versionierung und Deployment: Im Kontext SaaS ist der Betreiber dafür verantwortlich, dass immer eine unterstützte, aktuelle Softwareversion läuft. Die Deployment-Pipeline ist so gestaltet, dass neue Versionen automatisiert ausgerollt werden können (Continuous Delivery, sofern praktikabel). Der Source-Code durchläuft Build-, Test-, und Deploy-Stufen. Konfigurationsmanagement stellt sicher, dass Änderungen an Einstellungen nachvollziehbar sind – oft über Infrastructure as Code oder zumindest schriftlich freigegebene Konfigurationsdokumente. ISO 27001 verlangt, dass bedeutende Änderungen aufgezeichnet und formell genehmigt sind; daher führt der Betreiber ein Change-Logbuch bzw. Ticketsystem, in dem jede Änderung inkl. Genehmigungen dokumentiert ist (Audit-Trail).
Risiko- und Rollback-Plan: Teil jeder Change-Planung ist die Risikobetrachtung: Was kann schiefgehen und wie kann man im Fehlerfall zurück? Für Releases wird ein Rollback-Plan erstellt (z.B. bei schweren Problemen wird auf die Vorversion zurückgeschaltet, Datenbank von Backup wiederhergestellt, etc.). Während des Deployments werden engmaschig Tests durchgeführt. Sollte dennoch nach einem Update ein unerwarteter Fehler auftreten, wird dieser als Major Incident behandelt (Notfallprozedur), der ggf. durch schnelles Einspielen eines Patches oder Rückrollen gelöst wird. ITIL empfiehlt bei schwerwiegenden Störungen ein temporäres Major Incident Team, das sich ausschließlich der schnellen Wiederherstellung widmet – dies lässt sich im Change-Kontext analog anwenden, falls ein Release schiefging.
Durch diszipliniertes Änderungs- und Releasemanagement kann die Plattform kontinuierlich verbessert werden, ohne die Stabilität zu gefährden. Änderungen werden planvoll und transparent durchgeführt. Das minimiert das Risiko von Ausfällen durch Änderungen und erhält das Vertrauen der Nutzer in die Weiterentwicklung der Plattform. Zudem ermöglicht der strukturierte Prozess, Compliance-Anforderungen zu erfüllen, da jede Änderung nachvollziehbar und genehmigt ist (wichtig für Prüfbarkeit und ISO-Audits).
Trotz aller Vorsorgemaßnahmen können Incidents – ungeplante Störungen oder Serviceunterbrechungen – im Betrieb auftreten. Entscheidend ist dann ein effizientes Incident-Management, unterstützt durch umfangreiches Monitoring und Logging, um schnell zu
Monitoring und Früherkennung: Die gesamte Plattform wird durch ein zentrales Monitoring-System überwacht. Dieses System sammelt technische Metriken (Serverauslastung, Speicher, Antwortraten von Webservices, Datenbank-Performance) sowie anwendungsspezifische Kennzahlen (z.B. Anzahl offener Aufträge, Verarbeitungslaufzeiten von Schnittstellenjobs). Ereignisüberwachung (Event Monitoring) spielt ebenfalls eine Rolle: Wenn z.B. ein IoT-Sensor einen kritischen Wert meldet oder eine Anwendungskomponente einen Fehler-Event wirft, generiert das Monitoring ein Signal. ITIL unterscheidet hier Event Management (Überwachung von Zustandsänderungen) und Incident Management (Reaktion auf Störungen) – im Betriebskonzept sind beide eng verzahnt: Ein Monitoring-Alarm kann automatisch einen Incident erzeugen. Wichtig ist die Automatisierung: Bei fest definierten Schwellwertüberschreitungen oder Fehlercodes lösen Alarmregeln Benachrichtigungen aus. Diese gehen an das Support-Team (z.B. via Ticketsystem, E-Mail oder SMS/Push an Bereitschaftshandys). Damit erreicht man im Idealfall eine Erkennung von Störungen, noch bevor Endnutzer etwas bemerken (z.B. Warnung bei Speicherplatz <15%, sodass proaktiv gehandelt wird).
Logging und Protokollierung: Alle relevanten System- und Anwendungsereignisse werden protokolliert. Die Logfiles umfassen z.B. Benutzer-Logins, Aktionen im System, Systemfehler, Schnittstellenaufrufe, Datenbank-Transaktionen. ISO/IEC 27001 sieht in Kontrollpunkt A.12.4 vor, Ereignisse umfassend zu protokollieren, um im Nachgang Nachweise führen zu können. Insbesondere sicherheitsrelevante Ereignisse (Loginfehlversuche, Rechteänderungen) und Änderungen an kritischen Daten sollen in Audit-Trails festgehalten werden. Diese Logs werden zentral gesammelt (z.B. in einem SIEM – Security Information and Event Management System), was eine schnelle Analyse erlaubt. Protokollierung dient mehreren Zwecken: der Überwachung von Zustand und Performance, der Fehlerdiagnose und Troubleshooting, aber auch der Compliance/Nachweisführung und forensischen Analyse nach Vorfällen. Wichtig ist, die Log-Datenmenge zu bewältigen: Es müssen Aufbewahrungsfristen definiert sein (Logrotation, z.B. 6 Monate detaillierte Logs online, älteres Archiv offline) und Maßnahmen zur Datenschutzkonformität getroffen werden (Pseudonymisierung, wenn erforderlich, und rechtzeitige Löschung personenbezogener Protokolldaten gem. Datenschutzregeln).
Incident-Prozess nach ITIL: Wenn ein Incident auftritt (entdeckt durch Monitoring oder gemeldet durch Nutzer), wird er zunächst erfasst und priorisiert. Alle Incidents werden im Ticketsystem als Vorgang dokumentiert – inklusive Zeitstempel, Beschreibung, betroffener Services und Zuordnung einer Priorität (z.B. P1 kritisch – Totalausfall, P2 hoch – erhebliche Beeinträchtigung, etc.). Ziel ist es, die Störung schnellstmöglich zu beheben und den Normalbetrieb wiederherzustellen. Der First-Level-Support am Service Desk nimmt eingehende Störungsmeldungen entgegen, registriert sie und versucht eine sofortige Lösung basierend auf bekannten Lösungen oder Workarounds. Beispielsweise könnte ein Nutzer melden, dass er keinen Login vornehmen kann; der Service Desk prüft zunächst offensichtliche Ursachen (Passwort falsch, Konto gesperrt) und kann so manche Incidents direkt lösen. Kann First Level den Incident nicht beheben, erfolgt eine Eskalation an Second-Level (Spezialisten/Administratoren). Diese analysieren tiefer (z.B. anhand Logfiles, Systemstatus) und beheben die Ursache oder stellen einen Workaround bereit. Falls nötig, werden Drittparteien einbezogen – im ITIL-Jargon der Third-Level Support (z.B. der Softwarehersteller bei Codefehlern, oder der Cloudprovider bei Infrastrukturproblemen). Für besonders gravierende Störungen (sog. Major Incidents, etwa kompletter Systemausfall für alle Nutzer) werden Sonderprozesse initiiert: Es wird unverzüglich ein Incident Manager benannt und eventuell ein interdisziplinäres Team gebildet, um den Notbetrieb herzustellen. Parallel informiert man die Kunden aktiv über den Status (Kommunikationsplan für größere Ausfälle, z.B. E-Mail oder Statusseite).
Bearbeitung und Dokumentation: Während der Incident-Bearbeitung wird im Ticket der Fortschritt festgehalten. Nutzer erhalten Rückmeldungen über Annahme, eventuelle Workarounds und Lösung. ITIL legt Wert darauf, dass alle Incidents lückenlos protokolliert werden, inklusive der abschließenden Lösung und ggf. Ursachen. Nachdem der Service wiederhergestellt ist, wird der Incident vom Service Desk in Rücksprache mit dem Meldenden geschlossen und klassifiziert (für spätere Auswertungen). Wichtig: Jeder gelöste Incident kann Erkenntnisse für die Zukunft liefern. Daher erfolgt oft eine nachträgliche Problem-Management-Phase: Wiederkehrende Incidents werden analysiert, um die zugrundeliegende Ursache (Problem) dauerhaft zu beheben. Außerdem fließen Lessons Learned in die Wissensdatenbank ein, damit ähnliche Störungen künftig schneller gelöst werden können.
Incident-Auswertung und KPIs: Das Betriebsteam überwacht Kennzahlen wie die Incident Rate (Incidents pro Monat), die durchschnittliche Reaktions- und Lösungszeit je Priorität, und die Anzahl wiederkehrender Incidents. Diese KPIs helfen, die Servicequalität zu steuern. Etwaige SLA-Vorgaben (z.B. Reaktionszeit innerhalb 30 Min bei P1-Incident) werden ebenso getrackt und in Reports an das Management oder die Kunden (je nach vertraglicher Vereinbarung) berichtet. Ein hoher Anteil an wiederkehrenden Incidents würde z.B. anzeigen, dass ein Problem im System ungelöst ist und im Rahmen des Problem Managements beseitigt werden sollte.
Toolunterstützung: Für Incident- und Problem-Management kommt ein IT-Service-Management-Werkzeug zum Einsatz (z.B. ITIL-konforme Ticketing-Software). Dort sind die Configuration Items (CI) hinterlegt – also die Komponenten der Plattform –, sodass bei einem Incident vermerkt wird, welche CI betroffen war (Server, Modul, Datenbank etc.). So kann man Abhängigkeiten sehen und historisch auswerten, welche Komponenten besonders störanfällig sind.
Zusammengefasst sorgt das Zusammenspiel von Monitoring, Logging und Incident-Management dafür, dass Störungen schnell erkannt, effizient behoben und dokumentiert werden. Durch proaktive Überwachung werden viele Vorfälle bereits frühzeitig erkannt oder gar verhindert. Und wenn Nutzerprobleme auftreten, bietet der Incident-Prozess einen klaren Pfad vom Melden bis zum Wiederherstellen des Normalbetriebs – orientiert an Best Practices (ITIL), die darauf abzielen, Serviceunterbrechungen auf ein Minimum zu reduzieren.
Anwendersupport und Supportprozesse (ITIL-konform)
Ein professioneller Anwendersupport stellt sicher, dass die Nutzer der FM-Plattform im Tagesgeschäft Hilfe und Antworten erhalten. Das Support-Konzept orientiert sich an ITIL Service Support Prozessen, insbesondere an Service Desk, Incident Management und Request Fulfillment (Bearbeitung von Serviceanfragen).
Service Desk (First Level Support): Als Single Point of Contact für alle Anwender wurde ein zentraler Service Desk eingerichtet. Die Nutzer – z.B. Hausmeister, Objektleiter, Büromitarbeiter – können sich per Telefon, E-Mail oder Webportal an den Service Desk wenden, wenn sie Fragen oder Probleme mit der Software haben. Typische Anliegen der Anwender sind z.B.: „Wie erfasse ich eine Störungsmeldung?“, „Wo finde ich die Wartungstermine meiner Anlagen?“ oder „Warum kann ich Raum XY nicht buchen?“. Der Service Desk beantwortet Anwendungsfragen und leistet Hilfestellung bei der Bedienung. Wichtig: Der First Level führt keine tiefgreifende Systemadministration durch (er ändert z.B. keine Konfiguration am System).
Stattdessen fokussiert er auf Nutzersupport und übernimmt dabei folgende Aufgaben:
Entgegennahme und Registrierung aller eingehenden Meldungen (Vorfall oder Anfrage) im Ticketsystem.
Lösungsversuch bei Standardanfragen: Der Service Desk hat Zugriff auf eine Wissensdatenbank, in der gängige Lösungen dokumentiert sind (FAQs, Troubleshooting Guides). Einfachere Fälle (Passwort zurücksetzen, Bedienungshinweise, bekannte Fehler mit Workaround) kann der First Level sofort lösen. Er gibt Anleitungen oder führt den Nutzer schrittweise durch die Lösung. Auch sogenannte Service Requests (wie Nutzerrechte beantragen, Report anfordern) werden oft vom Service Desk direkt erfüllt, sofern dafür freigegebene Standardprozeduren existieren.
Eskalation an Second Level: Kann der Service Desk ein Problem nicht direkt lösen (z.B. ein scheinbarer Softwarefehler oder tiefergehende technische Störung), leitet er das Ticket an den Second Level Support weiter. Dabei stellt er alle bereits erfassten Informationen bereit, führt ggf. erste Klassifikationen (Incident vs. Service Request) und Priorisierungen durch. Der First Level informiert den Nutzer über die Weitergabe und das weitere Vorgehen.
Kommunikation und Verfolgung: Der Service Desk bleibt Owner des Tickets auch nach Eskalation – er verfolgt, dass der Fall im Second Level bearbeitet wird, und hält den Nutzer über den Status auf dem Laufenden (z.B. „In Bearbeitung durch Technik-Team, nächstes Update in 2 Stunden“). Diese kontinuierliche Benutzerinformation ist ein wichtiger Aspekt der Supportqualität. Sobald der Second Level eine Lösung gefunden hat, vermittelt der Service Desk diese an den Anwender und prüft, ob das Problem aus Nutzersicht behoben ist. Dann schließt er in Absprache mit dem Anwender das Ticket.
Dokumentation und FAQs: Der Service Desk pflegt die Lösungsdatenbank: Häufig gestellte Fragen oder neuartige Probleme und deren Lösungen werden dokumentiert. So wächst im Laufe der Zeit ein Self-Service-Wissenspool, der den Support entlastet (Nutzer können Antworten evtl. selbst im FAQ nachlesen) und die Erstlösungsquote erhöht. Außerdem unterstützt der First Level die Erstellung von Nutzerhandbüchern und Kurzleitfäden, da er gut weiß, wo Anwender Wissenslücken haben.
Second Level Support: Diese Stufe besteht aus Fach-Spezialisten (z.B. Anwendungsbetreuer, Systemadministratoren, Entwickler), die komplexere Probleme analysieren und beheben. Der Second Level übernimmt Incidents, die vom First Level eskaliert wurden, sowie technische Aufgaben im Hintergrund. Beispiele: Untersuchung eines Datenbankfehlers, Debugging eines verdächtigen Softwareverhaltens, Bereinigung von Dateninkonsistenzen, Wiederherstellung von Daten aus Backups auf Anfrage. Der Second Level arbeitet eng mit dem Betriebsteam zusammen – oft handelt es sich um dieselben Personen, die auch als Admins fungieren. Falls der Second Level den Fehler auf einen Software-Bug zurückführt, der einen Code-Eingriff erfordert, leitet er dies an den Third Level weiter (das wäre z.B. das Entwicklungsteam oder der Hersteller der Software). Der Third Level Support (nicht immer formal getrennt) kümmert sich dann um Code-Korrekturen oder Patches. In der Regel haben Kunden keinen direkten Kontakt zum Third Level – die Kommunikation läuft über den Service Desk bzw. Second Level.
Supportzeiten und Reaktionszeiten: Der Support wird typischerweise zu definierten Servicezeiten angeboten. In diesem Szenario mit 500 Nutzern in Geschäftsimmobilien könnte der Support z.B. werktags von 7–18 Uhr verfügbar sein (plus Rufbereitschaft für Notfälle 24/7, falls kritische Anlagenüberwachung dran hängt). Diese Zeiten und die garantierten Reaktionszeiten pro Priorität sind im SLA oder Supportvertrag festgehalten. Beispielsweise Priorität 1 (kritischer Ausfall): Reaktionszeit 30 Min, Laufende Information alle 60 Min, Ziel Lösungszeit 4 Std (gleich RTO); Priorität 3 (nicht kritische Anfrage): Reaktion innerhalb eines Werktages etc. Das Einhalten dieser Zeiten wird vom Support-Manager überwacht.
ITIL-Alignment: Die Supportprozesse orientieren sich am ITIL-Framework. Das bedeutet u.a.: Klare Abgrenzung zwischen Incident Management (Wiederherstellung des Service bei Störung) und Problem Management (grundlegende Problemursachen bearbeiten, oft im Hintergrund durch Second Level, ohne dass der Nutzer es direkt merkt). Zudem Request Fulfillment für Routine-Services (z.B. neuen Nutzer anlegen, Berechtigung ändern – solche Standardleistungen werden als Service Requests behandelt, nicht als Incidents). Das Support-Team arbeitet nach den Prinzipien der Kundenorientierung und Kontinuierlichen Verbesserung: Nutzerfeedback wird regelmäßig eingeholt (z.B. über Zufriedenheitsumfragen nach Ticketabschluss), und Prozesskennzahlen wie First Call Resolution Rate, durchschnittliche Bearbeitungsdauer etc. werden analysiert und optimiert.
Unterstützung der FM-Prozesse: Da es sich um eine branchenspezifische Software handelt, erfordert der Support auch Domänenwissen im Facility Management. Der Service Desk sollte Grundbegriffe (wie „Wartungsplan“, „Flächenbuchung“, „Störungsmeldung“) verstehen, um Anfragen einordnen zu können. Für tiefergehende prozessbezogene Fragen (z.B. „Wie bilde ich im System die Betreiberverantwortung gemäß GEFMA 190 ab?“) stehen Experten bereit, evtl. auch konsultativ im Rahmen des Second Level. Wichtig ist die Abgrenzung: Der IT-Support hilft primär bei der Nutzung der Software, nicht bei der fachlichen Beratung im FM. Dennoch überschneiden sich diese Bereiche in der Praxis – daher hat der Support idealerweise Zugang zu FM-Fachexperten innerhalb des Unternehmens oder Netzwerkes, um bei Bedarf fundierte Antworten zu liefern.
In Summe gewährleistet das Supportkonzept, dass die Anwender nicht allein gelassen werden. Es gibt einen leicht erreichbaren Anlaufpunkt (Service Desk), der schnell reagiert und die meisten Anliegen bereits klären kann. Durch die Einhaltung von ITIL-Praktiken – etwa vollständige Dokumentation aller Anfragen und ein gestuftes Eskalationsmodell – wird ein hohes Qualitätsniveau sichergestellt. Dies führt zu zufriedenen Nutzern, was wiederum die Akzeptanz der FM-Plattform im Alltag stärkt.
Dabei kann auf etablierte Leitfäden wie GEFMA 420 („Einführung eines CAFM-Systems – vom Konzept bis zur Implementierung“) zurückgegriffen werden, welche ein strukturiertes Vorgehen empfehlen.
Bedarfsklärung und Vertragsphase: Zunächst wird mit dem neuen Kunden der Leistungsumfang und die Rahmenbedingungen geklärt. Welche Module der Plattform werden benötigt (z.B. Instandhaltung, Flächenmanagement, Helpdesk)? Wie viele Nutzer, welche Rollen? Gibt es besondere Integrationsanforderungen (Schnittstellen zu bestimmten Systemen) oder Customizations? Diese Punkte werden vertraglich festgehalten. Der Betreiber richtet einen Mandanten (Tenant) im System ein – das ist eine logische Instanz, die die Daten des Kunden isoliert speichert. Es werden passende Ressourcen zugewiesen (Speicher, Prozessorleistung, je nach Vertragsgröße). Gleichzeitig wird ein Onboarding-Team aufgestellt, bestehend aus: einem Projektleiter seitens Betreiber, technischen Spezialisten (für Datenmigration, Schnittstellen, Konfiguration) sowie Ansprechpartnern beim Kunden (Projektleiter Kunde, Key-User etc.). Ein Kickoff-Meeting legt Timeline und Verantwortlichkeiten fest.
Systemeinrichtung und Konfiguration: In dieser Phase wird der Mandant technisch vorbereitet. Der Betreiber legt die Mandantenstruktur an – z.B. Mandant „Kunde XY GmbH“ mit eigener Mandanten-ID in der Datenbank. Mandantenspezifische Grundeinstellungen werden konfiguriert: Organisationsstruktur (Standorte, Abteilungen), Rollen- und Berechtigungskonzepte (wer darf was sehen/tun), ggf. Anpassung von Auswahllisten an Kundenterminologie, Einstellungen zu Workflows oder Benachrichtigungen (z.B. welche E-Mail-Absenderadresse verwendet wird, Logo des Kunden im System, etc.). Diese Konfiguration erfolgt oft im Admin-Frontend der Software; komplexere Einstellungen evtl. per Skripte in der Datenbank. Wichtig ist, alle kundenindividuellen Einstellungen zu dokumentieren (Mandanten-Handbuch).
Datenmigration: Parallel oder anschließend werden Bestandsdaten des Kunden in das System übernommen. Dazu zählt das Einspielen der Gebäudestammdaten (Flächen, Räume), technischen Anlagen, Verträge, evtl. bereits laufende Tickets oder Aufträge (falls von einem Vorgängersystem umgezogen wird). Dieser Schritt ist häufig der aufwändigste. Das Betriebsteam stellt Migrationswerkzeuge bereit – z.B. Importvorlagen in Excel/CSV, oder es nutzt Schnittstellen. Die Daten werden zunächst in einer Testumgebung importiert und auf Qualität geprüft. Übliche Tätigkeiten hier: Datenbereinigung (Duplikate entfernen, Format vereinheitlichen), Mapping alter zu neuer Strukturen (z.B. alte Raumkategorien auf neue Kataloge abbilden), Validierung (ist alles vollständig?). Der Kunde sollte diesen Prozess eng begleiten, da er seine Daten am besten kennt. Ggf. wird auch ein BIM-Modell importiert, sofern verfügbar, um Stammdaten zu generieren. Eine große Herausforderung kann die schiere Menge an Informationen sein; daher priorisiert man: kritische Kernstammdaten zuerst, nice-to-have-Daten evtl. später nachpflegen.
Schnittstellen-Einrichtung: Falls vertraglich vereinbart, werden nun Schnittstellen zu den vorhandenen Systemen des Kunden eingerichtet. Das bedeutet: Entwicklung oder Konfiguration von Verbindungsprozessen. Beispielsweise könnte eine Schnittstelle zum ERP so eingerichtet werden, dass künftig alle monatlichen Kostendaten der FM-Maßnahmen automatisch übermittelt werden. Die technische Implementierung kann je nach Komplexität einige Zeit beanspruchen. Wichtig ist, frühzeitig die Koordination mit der IT des Kunden oder Drittanbietern zu suchen, damit Zugänge, Firewalls etc. eingerichtet sind. Nach Umsetzung erfolgen Tests: Stimmen die Daten auf beiden Seiten? Werden Updates richtig erkannt? Hierbei orientiert man sich an FM-Connect Leitfäden oder herstellerneutralen Standards, um die Kompatibilität sicherzustellen. Etwaige Konverter oder Middleware werden dokumentiert.
Schulung und Pilotbetrieb: Bevor alle Nutzer losgelassen werden, erfolgt die Initialschulung der Key-User. Oft wird ein Pilotbetrieb mit einer kleinen Nutzergruppe durchgeführt, um Abläufe zu erproben. Die Key-User testen mit Echtdaten typische Use-Cases: z.B. eine Störungsmeldung erfassen, einen Wartungsplan durchführen, einen Report erzeugen. Das Onboarding-Team sammelt Feedback und passt ggf. Einstellungen an. Dieser „Friendly User Test“ dient dazu, letzte Probleme aufzudecken und Benutzerfeedback zu berücksichtigen. Außerdem gibt er den Key-Usern die Gelegenheit, sich mit dem System vertraut zu machen, damit sie später als Multiplikatoren fungieren können.
Inbetriebnahme (Go-Live): Zum vereinbarten Startdatum wird der Mandant offiziell live geschaltet. Meist bedeutet dies, dass ab diesem Tag alle Mitarbeiter des Kunden mit dem neuen System arbeiten sollen und ggf. alte Systeme abgeschaltet oder parallel nur read-only laufen. Der Betreiber stellt zum Go-Live typischerweise erhöhte Support-Bereitschaft sicher: Das Support-Team ist besonders aufmerksam für eingehende Anfragen des neuen Kunden, um Startschwierigkeiten sofort zu beheben. Oft wird ein „War Room“ eingerichtet – ein dediziertes kleines Team steht in engem Austausch mit dem Kunden während der ersten Tage. Es werden alle auftretenden Probleme notiert und priorisiert angegangen. Erfahrungsgemäß geht es hier häufig um kleinere Bedienungsprobleme oder fehlende Berechtigungen, seltener um technische Fehler (wenn die Vorbereitungsphase gründlich war). Die Performance und Systemlast wird am Anfang ebenfalls genau beobachtet, falls die tatsächliche Nutzung höher ausfällt als angenommen (ggf. schnelles Nachjustieren der Kapazität).
Abnahme und Übergang in Regelbetrieb: Nach einer definierten Stabilisierungsphase (z.B. 1–2 Monate) wird eine Abnahme durchgeführt. Kunde und Betreiber prüfen gemeinsam, ob der Systembetrieb wie vereinbart funktioniert und ob alle anfänglichen Mängel behoben wurden. Dann geht das Projekt über in den Regelbetrieb. Der Kunde wird von nun an über die normalen Support- und Betriebsprozesse betreut. Alle besonderen Vereinbarungen aus der Anfangszeit (z.B. wöchentliche Jour Fixe Meetings) enden oder werden in reduzierte Form überführt (z.B. monatliches Service Review Meeting). Gleichzeitig wird evaluiert, ob die gesetzten Ziele erreicht wurden und ob Nachschulungen erforderlich sind. Das Onboarding-Projektteam löst sich auf, offene Punkte werden an die Betriebslinie übergeben.
Dokumentation: Sämtliche während der Einführung erstellten Artefakte werden in die Betriebsdokumentation übernommen: Das Mandanten-spezifische Betriebshandbuch (inkl. Sonderkonfigurationen), fertige Import-Mappings, Schnittstellenbeschreibungen, und Schulungsunterlagen. Diese Dokumente sind wichtig, um später bei Änderungen (z.B. wenn ein Jahr später ein neues Modul eingeführt werden soll) darauf zurückgreifen zu können. Außerdem dienen sie der Auditierbarkeit – ein externer Prüfer könnte sehen wollen, wie der Mandant XY ongebordet wurde, und ob dabei z.B. Datenschutzvorgaben eingehalten wurden (Auftragsverarbeitungsvertrag, Löschung von Altdaten etc.).
Durch dieses strukturierte Onboarding wird die Inbetriebnahme für neue Kunden effizient und risikoarm gestaltet. Die konsequente Orientierung an Leitfäden wie GEFMA 420 stellt sicher, dass nichts Wesentliches vergessen wird – vom Konzept bis zur Implementierung wird ein roter Faden beibehalten. Am Ende hat der Kunde ein lauffähiges System, dessen Betrieb nahtlos in den geregelten Betriebsprozess des SaaS-Anbieters eingeht.
Schulungskonzepte für Key-User und Techniker
Die Einführung einer FM-Software ist nicht nur ein technisches, sondern auch ein menschliches Projekt. Die besten Funktionen nützen wenig, wenn die Anwender nicht wissen, wie sie zu bedienen sind oder die Vorteile der neuen Tools nicht verstehen. Daher ist ein durchdachtes Schulungskonzept ein integraler Bestandteil des Betriebskonzepts.
Es umfasst sowohl initiale Schulungen beim Onboarding als auch kontinuierliche Weiterbildungs- und Trainingsmaßnahmen während des laufenden Betriebs – für verschiedene Zielgruppen wie Key-User (Schlüsselanwender) auf Kundenseite und Techniker bzw. op
Rolle der Key-User: Key-User sind typischerweise Mitarbeiter des Kunden, die überdurchschnittlich gut in der Anwendung geschult werden und als Multiplikatoren und Ansprechpartner intern dienen. Sie erhalten zu Beginn eine intensive Schulung durch den Betreiber oder dessen Trainer. Inhalte für Key-User-Schulungen: Systemgrundlagen (Navigation, Module), Administration im Rahmen ihrer Rechte (z.B. Benutzerverwaltung im eigenen Mandanten, Konfiguration kleinerer Einstellungen falls vorgesehen), Auswertungsmöglichkeiten (Berichte ziehen, Dashboards nutzen) und Troubleshooting einfacher Probleme. Ebenso werden sie über Betriebsprozesse unterrichtet – z.B. wie meldet man einen Incident, wie werden Änderungswünsche kanalisiert. Key-User sollten nach der Schulung in der Lage sein, Erstanwenderfragen selbst zu beantworten und kleinere Einweisungen für Endanwender zu geben. Sie fungieren somit als lokale Trainer im Unternehmen. Das Schulungskonzept kann Train-the-Trainer-Ansätze verfolgen, d.h. Key-User so fit machen, dass sie eigenständig Schulungen (mit vom Betreiber bereitgestelltem Material) intern durchführen können.
Schulung der Endanwender (Techniker, Sachbearbeiter, etc.): Die breite Masse der Nutzer (z.B. Haustechniker, Wartungspersonal, Raummanager, Helpdesk-Mitarbeiter des FM) benötigt praxisorientierte Schulungen für die konkreten Funktionen, die sie nutzen werden. Beispielsweise: Mobilerfassung von Wartungsaufträgen für Servicetechniker mittels App, Anlegen von Flächen- und Belegungsplänen für Flächenmanager, Einstellen von Tickets für Servicedesk-Mitarbeiter im CAFM-Modul etc. Hier bietet sich oft eine rollenbasierte Schulung an – jeder Nutzerkreis bekommt eine auf seine Prozesse zugeschnittene Einweisung. Die Schulungsformate können variieren: klassische Workshops vor Ort, Webinare, interaktive E-Learning-Module oder Video-Tutorials. Gerade bei verteilten Standorten sind E-Learnings oder Videos sinnvoll, damit alle (auch neue Mitarbeiter in Zukunft) asynchron geschult werden können. Wichtig ist die Verständlichkeit und Praxisnähe: Übungen mit Beispieldaten aus dem eigenen Objekt (z.B. tatsächliche Anlagen) erhöhen den Wiedererkennungswert.
Technische Schulungen: Das Betreiber-Team selbst (Systemadministratoren, Entwickler) muss ebenfalls up-to-date bleiben. Für neue Versionen werden interne Schulungen durchgeführt, etwa durch den Hersteller der Software, damit die Admins über neue Konfigurationsoptionen, Datenbankänderungen oder Schnittstellenerweiterungen Bescheid wissen. Ebenso benötigen ggf. die Second-Level-Supporter Schulungen in ITIL-Prozessen oder in Diagnosewerkzeugen. Dies fällt unter Knowledge Management im Betriebsteam.
Dokumentation und Hilfsmittel: Ein wichtiger Baustein des Schulungskonzepts ist die Bereitstellung von Dokumentationen und Hilfsmitteln für Nutzer. Dazu gehören: Benutzerhandbücher, Schnellstart-Anleitungen (One-Pager für häufige Aufgaben), Online-Hilfen integriert in der Anwendung, und eine FAQ-Sektion. Viele moderne SaaS-Lösungen haben auch In-App-Tutorials (interaktive Anleitungen direkt im System). Diese Materialien sollten kontinuierlich gepflegt werden, insbesondere nach Software-Updates, damit sie aktuell bleiben. Für Key-User kann es erweiterte Admin-Handbücher geben, die tiefer ins Detail gehen.
Auffrischung und neue Releases: Über den reinen Einführungshorizont hinaus sollten regelmäßige Auffrischungsschulungen stattfinden. Erfahrungsgemäß schleichen sich nach einiger Zeit falsche Nutzungsgewohnheiten ein oder es werden neue Mitarbeiter eingestellt, die nie formal geschult wurden. Daher könnte z.B. jährlich eine kurze „Nachschulung“ oder ein Erfahrungsaustausch-Workshop für Key-User stattfinden. Ebenso sollte bei größeren Release-Wechseln (mit neuen Features oder geändertem User Interface) proaktiv Schulungsmaterial bereitgestellt werden – z.B. ein kurzes Video „Was ist neu in Version X.Y“ oder Webinare. So wird sichergestellt, dass die Benutzer die Neuerungen auch anwenden und Akzeptanz für Änderungen geschaffen wird.
Change Management und Nutzerakzeptanz: Schulung ist eng mit dem Change-Management verzahnt. Es geht nicht nur um Wissen, sondern auch um Einstellung. Nutzer müssen den Sinn der neuen Software verstehen und Vorteile erkennen, um sich positiv darauf einzulassen. FM-Connect betont, dass strukturierte Schulungen und Change-Management-Strategien helfen, Widerstände abzubauen und eine positive Einstellung gegenüber neuen Technologien zu fördern. Deshalb kommuniziert man im Schulungsrahmen auch Change-Botschaften: z.B. „Mit dem neuen System werden Eure täglichen Aufgaben leichter, weil…“ und zeigt Quick Wins auf. Erfolge (etwa schnell gelöste Tickets über das System) können in Folgeschulungen hervorgehoben werden, um die Motivation zu steigern.
Evaluation des Lernerfolgs: Schließlich sollte der Erfolg der Schulungen überprüft werden. Direkt im Anschluss an Workshops kann Feedback eingeholt werden (Verständnis, offene Fragen). Nach einigen Wochen Praxiserfahrung der Nutzer lässt sich prüfen, ob Bedienfehler zurückgehen, ob die Systemnutzung steigt (Tracking von Logins/Nutzungsquote) und ob Anfragen beim Service Desk zu einfachen Bedienfragen abnehmen. Diese Indikatoren zeigen, ob die Schulungsmaßnahmen gegriffen haben, oder ob weiterer Bedarf besteht. Gegebenenfalls wird das Schulungskonzept angepasst – z.B. andere Formate gewählt oder bestimmte Themen vertieft, die unklar blieben.
Zusammengefasst sorgt ein gutes Schulungskonzept dafür, dass Menschen, Prozesse und Technik in Einklang kommen. Nur wenn die Anwender kompetent und sicher mit der Plattform umgehen können, werden die FM-Prozesse effizient digital unterstützt. Somit ist Schulung kein einmaliger Akt, sondern ein laufender Prozess der Befähigung und Betreuung der Nutzer. Dies trägt wesentlich zum nachhaltigen Erfolg der FM-Softwareeinführung bei.
Daher sind technische und organisatorische Maßnahmen zu implementieren, die den Schutzzielen Vertraulichkeit, Integrität und Verfügbarkeit (CIA-Triad) ebenso genügen wie den Anforderungen der DSGVO und ggf. branchenspezifischer Standards (z.B. ISO/IE
Zugriffskontrolle und Mandantentrennung: Ein zentraler Aspekt ist die strikte Mandantentrennung, damit Daten eines Kunden niemals für einen anderen einsehbar sind. Dies wird auf Applikationsebene durch das Berechtigungssystem und Mandanten-IDs gewährleistet, aber auch auf Datenhaltungsebene (ggf. separate Datenbanken oder zumindest logische Schemas je Mandant). Administratoren des Betreibers mit Zugang zur Infrastruktur dürfen ebenfalls nur auf mandantenspezifische Daten zugreifen, wenn nötig. Es gilt das Prinzip der geringsten Rechte (Least Privilege): Jeder Benutzer (und Admin) erhält nur die Berechtigungen, die er für seine Aufgabe benötigt. Zugriff auf Produktionssysteme ist streng limitiert; Admin-Handlungen werden mitgeloggt (vier-Augen Prinzip für kritische Aktionen). Benutzerzugriffe der Endanwender werden durch das Rollen-/Rechtesystem gesteuert, sodass z.B. ein Techniker nur die ihm zugewiesenen Objekte sieht und bearbeiten kann, während ein Mandanten-Admin mehr Einsicht hat.
Authentifizierung und Autorisierung: Die Plattform setzt eine sichere Authentifizierung voraus – idealerweise über einen zentralen Identity-Provider mit starkem Passwort-Management und ggf. 2-Faktor-Authentifizierung (2FA) für privilegierte Zugänge. Single Sign-On (SSO) kann implementiert sein, um die Nutzerverwaltung zu erleichtern (z.B. Integration mit Azure AD des Kunden für User-Provisioning). Die Passwort-Richtlinien folgen aktuellen Empfehlungen (Mindestlänge, Complexity, regelmäßige Überprüfung auf geleakte Passwörter etc.). Autorisierungs-Entscheidungen (wer darf welche Daten sehen) basieren auf dem rollenbasierten Zugriffskonzept, das regelmäßig überprüft wird. Insbesondere Administratorenrechte auf Mandantenebene werden nur an vertrauenswürdige Key-User vergeben und vom Betreiber dokumentiert.
Verschlüsselung und Datenspeicherung: Alle Datenübertragungen erfolgen verschlüsselt (TLS 1.2+ für Webzugriffe, VPN oder SSL für Backend-Verbindungen). Auch ruhende Daten in der Cloud-Datenbank und Backups sind durch Verschlüsselung geschützt (Encryption at Rest), sodass bei einem physischen Datenträgerverlust kein Klartext ausgelesen werden kann. Schlüsselverwaltung erfolgt nach Best Practices; soweit Cloud-Provider-Services genutzt werden, sind Kunden-Keys oder KMS (Key Management Service) im Einsatz, um Kontrolle über die Keys zu behalten. Darüber hinaus wird bei Bedarf Datenpseudonymisierung eingesetzt – z.B. könnten personenbezogene Felder (Name, E-Mail) im Testsystem anonymisiert werden, sodass dort keine echten Personendaten sichtbar sind (wichtig bei Entwicklerzugriffen auf Testumgebungen).
Sicherheitsüberwachung und -vorfälle: Neben dem operativen Monitoring gibt es eine Security-Überwachung (SIEM), die verdächtige Vorgänge identifiziert. Beispielsweise zu viele fehlgeschlagene Logins lösen einen Alarm aus; unübliche Zugriffe (User loggt sich von zwei weit entfernten Standorten in kurzer Zeit ein) werden erkannt. Es existiert ein Prozess für Security Incidents – sollte z.B. ein Datenleck oder ein unbefugter Zugriff festgestellt werden, tritt ein Notfallplan in Kraft: Information des Sicherheitsbeauftragten, technische Maßnahmen (z.B. Account sperren, System vom Netz nehmen) und Meldung an Behörden/Kunden innerhalb der vorgeschriebenen Fristen, sofern meldepflichtig nach DSGVO (Art. 33/34). Alle sicherheitsrelevanten Ereignisse werden protokolliert und ausgewertet. ISO 27001 Annex A.16 (Management von Informationssicherheitsvorfällen) dient als Leitlinie.
Datenschutz-Compliance (DSGVO): Da Personendaten der Nutzer (und evtl. weiterer Personen, etwa wenn Mieterdaten verwaltet werden) verarbeitet werden, wird ein besonderer Fokus auf DSGVO-Konformität gelegt. Es besteht zwischen Betreiber und jedem Kunden ein Vertrag zur Auftragsverarbeitung nach Art. 28 DSGVO, der festlegt, wie Daten verarbeitet und geschützt werden, inkl. Unterauftragnehmer (z.B. Cloud-Rechenzentrum). Das System erlaubt die Wahrnehmung von Betroffenenrechten: Auf Anfrage können personenbezogene Daten eines Nutzers zusammengestellt (Auskunft) oder gelöscht/anonymisiert werden, sofern keine Aufbewahrungspflichten entgegenstehen. In der Gestaltung der Anwendung wurde Privacy by Design berücksichtigt – so sind z.B. umfangreiche Protokollierungen personenbezogener Nutzungsvorgänge standardmäßig deaktiviert, es sei denn, sie sind zur Sicherstellung der Sicherheit erforderlich (Grundsatz der Datenminimierung). Eingebettete Daten aus Sensoren oder externen Quellen werden datenschutzkonform behandelt (z.B. keine personenbezogenen Videoaufnahmen etc., was hier aber weniger relevant ist). Art. 32 DSGVO fordert u.a. die Fähigkeit, Vertraulichkeit, Integrität, Verfügbarkeit und Belastbarkeit der Systeme dauerhaft sicherzustellen – durch die oben beschriebenen Maßnahmen (Redundanz, Monitoring, Notfallpläne) wird dies umgesetzt. Ebenso ist die schnelle Wiederherstellbarkeit der Daten nach Zwischenfällen gegeben (Backups, RTO 4h). Regelmäßige Wirksamkeitsprüfungen der Sicherheitsmaßnahmen (Audits, Penetrationstests) sind vorgesehen, um die fortlaufende Compliance sicherzustellen.
Zertifizierungen und Audits: Um das Vertrauen zu erhöhen, strebt der Betreiber ggf. eine formale Zertifizierung nach ISO/IEC 27001 an. Dies würde bedeuten, dass ein Information Security Management System (ISMS) etabliert ist, das alle relevanten Controls implementiert (viele davon decken sich mit hier beschriebenen Maßnahmen, z.B. Zugriffskontrolle, physische Sicherheit der Rechenzentren, Lieferantenmanagement, Protokollierung usw.). Ein unabhängiges Audit prüft die Umsetzung – damit wird auch Kunden gegenüber transparent gemacht, dass ein hohes Sicherheitsniveau herrscht. Ferner sind Audits durch Kunden möglich (vertraglich geregelt), die z.B. Einsicht in Audit-Berichte oder vor Ort Termine beim Betreiber wahrnehmen, um die Einhaltung der vereinbarten Sicherheitsmaßnahmen zu überprüfen. Die Plattform selbst ist so gestaltet, dass sie auditfähig ist: Einstellungen können exportiert werden, Logs werden aufbewahrt, Änderungen sind nachvollziehbar, Berechtigungen können ausgewertet werden. Das erleichtert interne wie externe Prüfungen.
Physische Sicherheit und Cloud-Provider: Der Cloud-Provider, auf dem die SaaS-Plattform läuft, muss ebenfalls hohe Sicherheitsstandards erfüllen (Zertifizierungen wie ISO 27001, ISO 27017 für Cloud-Security, ISO 27018 für Privacy). Rechenzentren sind nach gängigen Standards gesichert (Zutrittskontrollen, Brandschutz, USV etc.). Das Shared-Responsibility-Modell bedeutet hier: Der Cloud-Anbieter sichert die Infrastruktur, der SaaS-Betreiber die Anwendung und Konfiguration darauf. Es werden regelmäßige Security-Updates/Patches für Server-OS, Datenbank und Anwendung eingespielt (Patch-Management), um bekannte Schwachstellen zu schließen – möglichst zeitnah je nach Kritikalität.
Zusammengefasst verfolgt das Betriebskonzept ein ganzheitliches Sicherheitsansatz: Schichtweise Sicherheit (Defense-in-Depth) – vom Netzwerk über System bis zur Anwendung – und Datenschutz durch Technik und Organisation. Somit wird gewährleistet, dass Kunden ihre FM-Daten dem System anvertrauen können, ohne unvertretbare Risiken einzugehen. Im Ergebnis erfüllt die Plattform sowohl die Compliance-Anforderungen (DSGVO, ISO-Normen) als auch die Erwartungen an praktische Sicherheitsbedürfnisse, was in einem Umfeld, wo Betriebs- und Personaldaten zusammenkommen, von höchster Bedeutung ist.
Dokumentation und Auditfähigkeit
Ein oft unterschätzter, aber im professionellen Betrieb unabdingbarer Teil ist die Dokumentation. Vollständige und aktuelle Dokumentation stellt nicht nur den Wissenstransfer bei Personalwechseln sicher, sondern ist auch Voraussetzung für die Auditfähigkeit des Betriebs (sei es interne Revision, externe Zertifizierungsaudits oder Kundenüberprüfungen). ISO 27001 fordert explizit die Dokumentation aller betrieblichen Verfahren, damit ein sicherer und ordnungsgemäßer Betrieb gewährleistet ist. Im Folgenden wird beschrieben, welche Dokumentationsartefakte vorgehalten werden und wie Audit-Anforderungen erfüllt werden.
Betriebsdokumentation: Hierunter fallen alle technischen und prozessualen Unterlagen, die zum Nachvollzug und zur Aufrechterhaltung des Betriebs nötig sind. Dazu zählen:
Systemarchitektur-Dokumentation: Übersichtsdiagramme der gesamten Architektur (Server, Netzwerk, Schnittstellen, Datenbanken), inkl. Cloud-Topologie. Diese zeigen, welche Komponenten wo laufen (z.B. Webserver in Zone A, DB-Cluster in Zone B, Backup-Storage Offsite etc.) und wie sie zusammenhängen.
Konfigurationsdokumentation: Beschreibung der Einrichtung der Plattform, z.B. verwendete Betriebssysteme und Versionen, Datenbankversion, installierte Softwaremodule, Parameter (Time-Out Einstellungen, maximale Benutzeranzahl je Instanz, Cronjobs für nächtliche Tasks etc.). Änderungen an Konfiguration werden versioniert festgehalten (Change-Historie). Hier kann ein Configuration Management Database (CMDB) helfen – ein zentrales Verzeichnis aller Configuration Items mit ihren Eigenschaften und Beziehungen.
Betriebshandbücher: Schritt-für-Schritt-Anleitungen für wiederkehrende Aufgaben der Administratoren, etwa „Deployment eines neuen Releases“, „Wiederherstellung eines Backups“, „Anlegen eines neuen Mandanten“, „Rotieren der Logfiles“. Diese Anleitungen sollen standardisiert sein, damit im Vertretungsfall jeder Admin nachlesen kann, wie es geht. Sie sind in einem internen Wiki oder Repository abgelegt und werden nach jeder Prozessänderung aktualisiert. Gerade im Notfall (z.B. Disaster Recovery) ist eine aktuelle Anleitung Gold wert, um schnell und korrekt zu handeln.
Notfallhandbuch: Enthält die Notfallpläne für verschiedenste Szenarien (Server ausgefallen, Datenbank korrupt, Cyberangriff etc.), mit klar definierten Aktionen, Kommunikationswegen und Verantwortlichkeiten. Es baut auf der Business Impact Analyse (BIA) und dem Notfallkonzept auf, das im Rahmen der RTO/RPO-Planung erstellt wurde. Ein guter Notfallplan enthält auch „Worst-Case“-Anleitungen wie man Systeme neu hochzieht und wie Prioritäten gesetzt werden (z.B. erst Kernfunktionen hochfahren, dann weniger wichtige).
Sicherheits- und Datenschutzkonzept: Ein Dokument, das alle getroffenen Sicherheitsmaßnahmen und Datenschutzvorgaben beschreibt. Hier werden z.B. Berechtigungskonzept, Patchkonzept, Protokollierungskonzept dargelegt. Für Audits nach ISO 27001 oder Überprüfungen durch Kunden ist dies oft das zentrale Nachweisdokument. Ebenso fließen Anforderungen aus ISO 27001 (Anhang A Controls) hier ein – z.B. Richtlinie für Krypto-Einsatz, Password Policy, Backup-Policy.
Benutzerdokumentation: Handbücher, die an Kunden bzw. Endnutzer gerichtet sind (siehe Schulungsunterlagen) – gehören auch zur Gesamt-Dokumentation. Wichtig ist versionierte Ablage, damit nachvollziehbar ist, welche Anleitung zu welcher Softwareversion gehört.
Protokollierung und Aufbewahrung: Ein Aspekt der Auditfähigkeit ist die lückenlose Aufzeichnung relevanter Vorgänge. Dazu zählt insbesondere:
Change-Protokoll: Alle durchgeführten Änderungen (Changes) am System – mit Datum, Beschreibung, Antragsteller, Genehmiger – werden festgehalten. Dies kann im ITSM-System als Change-Tickets erfolgen. Bei Audits kann so gezeigt werden, dass z.B. ein bestimmter Eingriff formal korrekt bewilligt wurde. ISO 27001 verlangt, bedeutende Änderungen aufzuzeichnen und genehmigen zu lassen.
Incident-/Problem-Logs: Ähnlich werden Störungen dokumentiert. Auswertungen davon (Incident-Historie) dienen der Auditors, dass ein kontinuierlicher Verbesserungsprozess existiert und keine gehäuften ungeklärten Vorfälle auftreten.
Zugriffsprotokolle: Wer hat wann auf welche Daten zugegriffen? Dies ist sowohl für Sicherheitsaudits wichtig als auch für Datenschutz (Nachweis von Zugriffsbegrenzung). Das System protokolliert administratorsche Handlungen und sicherheitsrelevante Zugriffe. Im Idealfall sind diese Logs manipulationssicher (WORM-Prinzip, write once read many). DSGVO verlangt teils explizit Protokollierung von Zugriffen auf personenbezogene Daten in sensiblen Kontexten – generell dient es dem Nachweis, dass nur befugte Zugriffe erfolgen.
Audit-Trails: Für bestimmte geschäftliche Aktionen können Audit-Trails direkt in der Anwendung existieren (z.B. Historie von Datenänderungen: wenn ein Wartungsplan geändert wird, wer tat das wann). Diese müssen aktiviert sein und für eine gewisse Zeit abrufbar. So kann z.B. ein externer Auditor überprüfen, ob vorgeschriebene Prüfungen tatsächlich im System dokumentiert wurden.
Im Folgenden wird beschrieben, welche Dokumentationsartefakte vorgehalten werden und wie Audit-Anforderungen erfüllt werden.
Regelmäßige Audits und Reviews: Der Betreiber führt intern regelmäßige Betriebsreviews durch – z.B. quartalsweise Check der Dokumentation (ist alles aktuell?), Review der Berechtigungen (Userberechtigungs-Rezertifizierung), Test der Notfallwiederherstellung (Desaster Recovery Test einmal jährlich). Ergebnisse dieser Reviews und Tests werden protokolliert. So kann bei Nachfragen nachgewiesen werden, dass man seine Prozesse überwacht und verbessert. Externe Audits (z.B. ISO 27001 Zertifizierungsaudit jährlich) werden durch gewissenhafte Vorbereitung bestanden. Im Kundenvertrag kann dem Kunden ein Prüfrecht eingeräumt sein; typischerweise beschränkt man dies, indem man ISO-Zertifikate oder neutrale Prüfergebnisse vorlegt, statt jeden Kundenprüfer ins Datacenter zu lassen. Aber theoretisch könnte ein Kunde sich stichprobenartig zeigen lassen, wie seine Daten gesichert sind – dafür müssen alle Nachweise bereitliegen.
Tool-Unterstützung: Wo möglich, nutzt man Tools für die Dokumentation: Ein Wissensmanagement-System (Wiki, SharePoint o.ä.) für die Betriebsanleitungen, ein Ticket-/Workflow-System für Changes/Incidents (liefert automatisch Logbücher), evtl. spezielle Audit-Trail-Systeme oder SIEM für Protokollierungsdaten. Wichtig ist, dass diese Tools selbst sicher und zugriffsbeschränkt sind (da dort vertrauliche Betriebsinformationen stehen). Für Audit-Zwecke werden oft Read-Only-Exports bereitgestellt, damit Auditoren gezielt Einblick bekommen (z.B. Auszug der Change-Liste der letzten 12 Monate als PDF).
Insgesamt spiegelt eine gute Dokumentation die Professionalität des Betriebs wider. Sie ermöglicht neuen Teammitgliedern, sich schnell einzuarbeiten, unterstützt die Fehlerbehebung (man schaut ins Handbuch statt zu improvisieren) und beweist gegenüber Dritten, dass der Betrieb kontrolliert und standardisiert abläuft. Auditfähigkeit heißt im Kern: Alles Wesentliche ist schriftlich nachweisbar – kein Wissen liegt nur „im Kopf“ Einzelner, Prozesse sind formal definiert und werden auch so gelebt. Dieses Betriebskonzept selbst ist Teil der Dokumentation und wird im Laufe der Zeit fortgeschrieben, um veränderten Bedingungen und Erkenntnissen Rechnung zu tragen.
Die IT-Landschaft und das Facility Management entwickeln sich ständig weiter – daher muss auch ein Betriebskonzept dynamisch bleiben und sich zukünftigen Anforderungen anpassen. Abschließend seien einige Ausblick-Aspekte skizziert, die in den kommend
Smart Buildings und IoT-Integration: Mit der Zunahme von Sensorik in Gebäuden (Stichwort Smart Building) werden FM-Plattformen immer mehr Echtzeitdaten verarbeiten. Dies bedeutet, dass der Betrieb noch stärker auf Skalierbarkeit und Echtzeit-Monitoring ausgerichtet sein muss. Große Datenströme von IoT-Geräten (z.B. Verbrauchsdaten, Präsenzsensoren) müssen gespeichert und ausgewertet werden – ggf. in einer Big-Data-Architektur parallel zur CAFM-Kerndatenbank. Das Betriebskonzept wird künftig Big-Data-Komponenten oder Cloud-Services (wie Streaming-Plattformen) mit einbeziehen. Zudem steigen die Anforderungen an Datenverarbeitungsgeschwindigkeit und Eventverarbeitung (Complex Event Processing, um z.B. aus vielen Sensormeldungen automatisiert Aktionen abzuleiten).
Künstliche Intelligenz und Analytics: KI hält auch im Facility Management Einzug – sei es zur vorausschauenden Instandhaltung (Predictive Maintenance) oder zur Flächenoptimierung mittels Nutzungsanalysen. Der Betrieb muss dafür sorgen, dass entsprechende Analyseservices zuverlässig laufen und sicher mit der CAFM-Plattform verbunden sind. KI-Module könnten z.B. eigenständige Microservices in der Cloud sein, die per API angebunden sind. Für den Betrieb heißt das, man braucht Know-how in diesen Technologien und muss ggf. neue Monitoring-Kennzahlen dafür definieren (etwa die Genauigkeit der Vorhersagen überwachen, um Datenprobleme zu erkennen).
Erweiterte Realität (AR) und mobile Nutzung: Immer mehr Techniker nutzen mobile Endgeräte oder gar AR-Brillen für Wartung (Anzeige von Wartungsanleitungen im Sichtfeld etc.). Das Betriebskonzept muss deshalb auch auf Edge-Computing und 5G-Konnektivität eingestellt sein. Wenn lokale AR-Geräte in Gebäuden angebunden werden, braucht es evtl. lokale Edge-Server. Hier kommen hybride Betriebsformen auf: Cloud plus Edge. Die Supportprozesse müssen entsprechend die neuen Geräte mit abdecken (z.B. Support für App auf Smart Glasses).
Internationalisierung und Skalierung: Wächst die Plattform über EU-Grenzen hinaus, kommen Themen wie Multi-Region-Deployment (Datenhaltung in anderen Rechtsräumen), zusätzliche Sprach- und Zeitzonenunterstützung und diversere Compliance-Vorgaben (z.B. lokale Datenschutzgesetze) hinzu. Das Betriebskonzept müsste für solche Fälle Module enthalten, wie man bspw. Daten in einer Region Americas vs. Europe trennt, oder wie der 24/7-Support global organisiert wird. Hier kann eine Follow-the-sun Supportstrategie relevant werden.
Weitere Normen und Standards: Im FM-Umfeld werden neue Richtlinien entstehen, etwa für Nachhaltigkeitsdaten (ESG – Environmental Social Governance – Kennzahlen für Gebäude). Die Plattform wird solche Daten managen (z.B. Energieverbräuche tracken) und muss ggf. nach neuen Standards berichten können. Der Betrieb muss darauf vorbereitet sein, z.B. Audits nach GEFMA 160 (Nachhaltigkeit im FM) oder künftigen ISO 41001-Prüfungen (FM-Managementsystem) zu unterstützen, indem die notwendigen Daten vorhanden und plausibel sind. Auch IT-Sicherheitsanforderungen verschärfen sich tendenziell (man denke an KRITIS-Verordnungen, falls FM bei kritischer Infrastruktur eingesetzt wird). Das Betriebskonzept muss daher eine regelmäßige Compliance-Überwachung beinhalten, um auf neue Anforderungen zeitnah reagieren zu können.
Kontinuierliche Verbesserung durch Feedback: Schließlich wird das Betriebskonzept selbst regelmäßig evaluiert. Inputs sind z.B. Kundenfeedback (Zufriedenheit mit Verfügbarkeit, Support etc.), Auditergebnisse, Benchmarks gegenüber anderen SaaS-Anbietern. Daraus leitet das Betriebsteam Verbesserungsmaßnahmen ab. Zum Beispiel könnte aus Feedback folgen, dass noch mehr Self-Service-Funktionen für Nutzer sinnvoll wären – dann würde man im Supportprozess ansetzen, eine Enduser-Wissensplattform aufzubauen. Oder Auditerkenntnisse könnten zu einer Optimierung der Backup-Verschlüsselung führen. Dieser Regelkreis stellt sicher, dass das Betriebskonzept lebendig bleibt und nicht in der ursprünglichen Fassung verharrt.
Das hier vorgestellte Betriebskonzept bietet einen umfassenden, strukturierten Rahmen für den IT-Betrieb einer FM-Softwareplattform im SaaS-Modell. Es vereint Hochverfügbarkeit, Prozessqualität und Sicherheit zu einem ganzheitlichen Plan, der auf etablierten Standards und spezifischen FM-Richtlinien basiert. Damit liefert es die Grundlage, um den Facility-Management-Fachbereichen eine zuverlässige digitale Plattform bereitzustellen – heute und in Zukunft, wenn sich Technologie und Anforderungen weiterentwickeln. Die erfolgreiche Umsetzung dieses Konzepts wird dazu beitragen, die FM-Prozesse der betreuten Immobilien effizient und nachhaltig zu unterstützen, sodass Facility Management als Disziplin seinen Wertbeitrag im Kerngeschäft optimal entfalten kann.