CAFM: Daten-Governance und Datenqualitätskonzept
Facility Management: FM-Software » Strategie » Lösungsdesign » Daten-Governance
CAFM: Daten-Governance und Datenqualitätskonzept
Ein CAFM-System ist nur so gut wie die Daten, die darin verwaltet werden. Hochwertige FM-Daten bilden – neben der CAFM-Software selbst und einem passenden Betriebskonzept – eine der entscheidenden Säulen eines erfolgreichen CAFM-Systems. Datenqualität, konsistente Datenstrukturen und ein effizientes Datenmanagement sind daher Schlüsselfaktoren, um im Facility Management fundierte Entscheidungen treffen und digitale Prozesse verlässlich steuern zu können. Ohne klare Richtlinien drohen dagegen Datenchaos, ineffiziente Abläufe und fehlerhafte Entscheidungsgrundlagen. In vielen Organisationen liegen FM-Informationen in verteilten Silos vor – teils redundant oder unvollständig –, was zu Inkonsistenzen führt und eine 360°-Sicht auf Immobilien, Anlagen oder Verträge erschwert. Die Folge sind Risiken bei strategischen Entscheidungen, da unter Umständen auf veraltete oder falsche Daten zurückgegriffen wird. Eine konsequente Daten-Governance im CAFM-Kontext zielt deshalb darauf ab, verbindliche Rollen, Standards und Prozesse zu etablieren, um verantwortungsvollen Umgang mit den Daten sicherzustellen. Damit wird gewährleistet, dass FM-relevante Daten einheitlich, aktuell und vertrauenswürdig sind – eine zentrale Voraussetzung, um den Nutzen der Digitalisierung voll auszuschöpfen und rechtliche Vorgaben (z.B. Datenschutz, GoBD) einzuhalten. Gute Daten-Governance schafft Vertrauen in die Datenbasis, reduziert operative Risiken und bildet die Grundlage für effizientes, ganzheitliches Facility Management. Wer erfolgreich agieren will, benötigt qualitativ hochwertige und valide Daten – Daten-Governance stellt sicher, dass genau diese verfügbar sind.
CAFM‑Datensteuerung und Leitlinien
- Data Stewardship
- Dimensionen der Datenqualität
- CAFM-Datenmanagement
- Governance-Strukturen
- Sicherstellung der Datenqualität
- FM-relevante Stammdaten
- Integration von Datenqualitätsprüfungen
- Messung der Datenqualität
- Sicherung der Datenqualität
- Verantwortlichkeitszuordnung
- Typische Herausforderungen
Abgrenzung zu Master Data Management und Data Stewardship
Data Governance beschreibt den organisatorischen Rahmen und die Steuerungsmechanismen zur Verwaltung von Daten. Sie definiert Rollen, Verantwortlichkeiten, Richtlinien und Prozesse, um Qualität, Sicherheit und Nutzung der Daten unternehmensweit sicherzustellen. Data Governance ist kein einzelnes IT-Projekt, sondern ein fortlaufender, bereichsübergreifender Managementprozess. Im Gegensatz dazu fokussiert Master Data Management (MDM) auf die operative Verwaltung von Stammdaten. MDM umfasst die Prozesse und Technologien, mit denen zentrale Unternehmensdaten (z.B. Assets, Flächen, Verträge im FM) einheitlich angelegt, integriert, gepflegt und über Systemgrenzen hinweg synchronisiert werden. Einfach gesagt sorgt MDM dafür, wie Stammdaten im Tagesgeschäft gehandhabt werden (z.B. welche Systeme führend sind, wie Datenänderungen technisch ablaufen), während Data Governance vorgibt, wer über die Daten bestimmt und welche Regeln gelten. Data Stewardship bezeichnet die operative Verantwortung für die Datenqualität im Rahmen dieser Vorgaben. Data Stewards kümmern sich im Alltag um die Pflege und Qualität der Daten und die Einhaltung der definierten Standards. Sie arbeiten eng mit den Data Ownern zusammen und setzen die Data-Governance-Richtlinien praktisch um. Data Governance liefert also den Regelrahmen und die Rollenverteilung, Master Data Management die Prozesse und Tools zur technischen Umsetzung, und Data Stewardship die tägliche Wahrnehmung der Datenpflegepflichten. Alle drei Disziplinen greifen ineinander, um im CAFM-Kontext eine verlässliche Stammdatenbasis sicherzustellen.
Aufbau eines Datenqualitätskonzepts: Dimensionen der Datenqualität
Ein Datenqualitätskonzept definiert, welche Qualitätskriterien die CAFM-Daten erfüllen müssen, und wie diese gemessen und verbessert werden können.
Typische Datenqualitäts-Dimensionen (auch Data Quality Dimensions genannt) sind unter anderem:
Vollständigkeit: Alle benötigten Daten sind vorhanden. Ein Datensatz enthält sämtliche erforderlichen Attribute – fehlen Pflichtangaben, ist er unvollständig.
Genauigkeit (Korrektheit): Die Werte sind sachlich richtig und entsprechen der Realität. Beispiel: Flächenmaße oder technische Anlagendaten stimmen mit den tatsächlichen Gegebenheiten überein.
Aktualität: Die Daten sind auf dem neuesten Stand. Änderungen (z.B. Umbauten, neue Verträge) werden zeitnah im System nachgepflegt, sodass Informationen nie veraltet sind.
Konsistenz: Widerspruchsfreiheit der Daten über Systeme und Tabellen hinweg. Alle Referenzen passen zusammen (z.B. gleiche Gebäude-ID in allen Modulen) und es gibt keine logischen Konflikte.
Eindeutigkeit / Redundanzfreiheit: Jedes Objekt ist eindeutig identifizierbar und wird nur einmalig geführt. Doppelanlagen oder Dubletten (z.B. dasselbe Asset mehrfach angelegt) werden vermieden.
Integrität / Gültigkeit: Daten entsprechen vorgegebenen Wertebereichen und Formaten (z.B. nur zulässige Raumtypen, valide Datums- und Zahlenformate). Plausibilitätsregeln werden eingehalten.
Verlässlichkeit: Die Daten sind vertrauenswürdig und vollständig nachprüfbar. Historien werden vorgehalten, sodass Änderungen nachvollziehbar sind (Stichwort Audit-Trail).
(Weitere mögliche Dimensionen sind beispielsweise Relevanz, Einheitlichkeit der Benennungen und Verständlichkeit der Daten.)
Nicht alle Kriterien sind stets gleich wichtig – je nach Anwendungszweck werden meist die relevantesten 2–3 Dimensionen priorisiert. Im FM-Umfeld sind Vollständigkeit, Aktualität und Konsistenz besonders kritisch, da z.B. fehlende oder veraltete Flächen- und Anlagendaten zu falschen Kostenberechnungen oder Wartungsfehlern führen können. Das Datenqualitätskonzept legt für jede Dimension konkrete Messgrößen fest (z.B. Prozentsätze für Vollständigkeit und Fehlerfreiheit) sowie Grenzwerte und Ziele (z.B. „mindestens 95% der erforderlichen Felder sind gefüllt“). Diese Kennzahlen dienen später der kontinuierlichen Überwachung der Datenqualität.
Rollen und Verantwortlichkeiten im CAFM-Datenmanagement
Ein zentrales Element der Daten-Governance ist die Definition klarer Rollen: Wer ist für welche Daten verantwortlich, und wer pflegt sie? Ohne definierte Zuständigkeiten besteht die Gefahr, dass „jeder ein bisschen, aber keiner so richtig“ die Datenpflege übernimmt. Im Rahmen einer CAFM-Einführung sollte daher festgelegt werden, welche Rolle für welche Datenkategorie verantwortlich ist. Üblich ist ein Rollenmodell, in dem jede Datenart einen eindeutigen Verantwortlichen (Owner) hat – z.B. technische Stammdaten werden einem technischen Leiter oder Ingenieur zugeordnet, kaufmännische Stammdaten einem Controller, Flächendaten einem Planer oder Zeichner etc.
Im Folgenden die wichtigsten Rollen und ihre Verantwortlichkeiten:
| Rolle | Beschreibung und Verantwortlichkeiten | Beispiele im FM |
|---|---|---|
| Data Owner | Fachlicher Dateneigentümer: trägt die Gesamtverantwortung für bestimmte Datenbestände. Definiert Anforderungen, Zweck und Nutzen der Daten und legt fest, wer sie wie nutzen darf. Der Data Owner überwacht die Einhaltung der Datenrichtlinien und entscheidet bei Konflikten oder Änderungen an „seinen“ Daten. | Leiter der Instandhaltung als Owner der technischen Anlagendaten; Leiter Immobiliencontrolling als Owner der kaufmännischen FM-Daten (Verträge, Kosten). |
| Data Steward | Datenbetreuer: ist für die operative Pflege und Qualitätskontrolle zuständig. Setzt die Data-Governance-Vorgaben um, überwacht die Datenqualität kontinuierlich und behebt Inkonsistenzen oder Fehler. Arbeitet eng mit dem Data Owner zusammen – der Owner gibt die strategische Richtung vor, der Steward kümmert sich um die tägliche Verwaltung und stellt die Korrektheit, Vollständigkeit und Konsistenz der Daten sicher. | CAFM-Data-Manager, der dafür sorgt, dass alle Anlagen, Flächen, Verträge etc. gemäß den Vorgaben erfasst und regelmäßig validiert werden. |
| CAFM-Administrator | System- und Datenadministrator: verantwortet die technische Pflege des CAFM-Systems und unterstützt die Datenqualität durch Systemkonfiguration. Richtet Module, Felder, Benutzerrechte und Workflows ein und stellt den laufenden Betrieb sicher. Zudem überwacht er die Datenintegrität (z.B. durch Datenbank-Checks, Import-Skripte) und führt Änderungen oder Korrekturen in der Datenbank kontrolliert durch. Häufig ist der CAFM-Admin auch erster Ansprechpartner für Datenimporte, Migrationen und Schnittstellen. | CAFM-Manager in der IT-Abteilung oder FM-Organisation, der z.B. neue Gebäude aus CAD-Daten ins System lädt, regelmäßige Plausibilitätsprüfungen fährt und Benutzer schult. |
| Fachverantwortliche | Fachabteilungs- oder Objektverantwortliche: Experten aus den jeweiligen Fachbereichen, die die inhaltliche Richtigkeit der Daten sicherstellen. Sie liefern die fachlichen Informationen und Änderungen (z.B. der Objektleiter meldet neue Anlagen oder Raumänderungen) und überprüfen regelmäßig „ihre“ Datensätze. Oft nehmen sie in ihrem Bereich die Rolle des Data Owners wahr (sofern kein separater Owner benannt ist) bzw. fungieren als Key User, die zwischen Fachbereich und CAFM-Team vermitteln. | Objektmanager für ein Gebäude, der Flächendaten und Ausstattungen meldet; Vertragsmanager, der neue Verträge im CAFM erfasst; Dienstleistungsverantwortlicher, der Leistungsdaten von FM-Dienstleistern prüft. |
Zusätzlich zu diesen Kernrollen kann es ein Data Governance Board oder Lenkungsgremium geben, das übergreifende Richtlinien verabschiedet und Eskalationen klärt. Dieses Gremium (oft bestehend aus Führungskräften der FM- und IT-Abteilung sowie ggf. Datenschutz/Compliance) übernimmt strategische Entscheidungen und priorisiert Daten-Themen. Wichtig ist: Jede Datenkategorie (Flächen, Gebäude, Anlagen, Verträge usw.) sollte klar einem verantwortlichen Owner und ggf. einem Steward zugeordnet sein. Nur so wird verhindert, dass Verantwortlichkeiten diffus bleiben. Regelmäßige Datenqualitätsrunden aller Verantwortlichen (z.B. monatliche Meetings der Data Owner, Stewards und Admins) haben sich als Best Practice erwiesen, um Probleme früh zu erkennen und gemeinsam Lösungen abzustimmen.
Governance-Strukturen: Gremien, Regelwerke und Prozesse
Eine effektive Daten-Governance erfordert feste Strukturen und Regelwerke. Oft etabliert man mehrstufige Gremien: Zum einen eine strategische Ebene (z.B. ein Data Governance Council oder Lenkungskreis), der die Leitplanken setzt – hier sitzen typischerweise FM-Leitung, IT-Leitung und ggf. Vertreter der Geschäftsführung. Dieses Gremium verabschiedet die grundlegenden Datenrichtlinien, priorisiert Initiativen und ist Anlaufstelle für Eskalationen bei größeren Zielkonflikten (z.B. zwischen Datenqualität und Kosten/Nutzen). Zum anderen kann es eine operative Ebene geben, etwa ein Datenqualitäts-Team oder regelmäßiges Koordinationsmeeting der Data Stewards und CAFM-Administratoren. In diesen Runden werden konkrete Qualitätsberichte besprochen, Problemfälle analysiert und Maßnahmen eingeleitet (z.B. Bereinigung von Dubletten, Nachforderung fehlender Informationen aus Fachabteilungen).
Regelwerke und Richtlinien bilden dabei das Rückgrat der Governance-Struktur. Dazu zählen etwa eine Datenrichtlinie (welche Daten werden im CAFM geführt, mit welcher Definition und Quellen), verbindliche Benennungs- und Klassifizierungsstandards (z.B. einheitliche Raum- und Anlagenbezeichnungen) und Qualitätsstandards für jede Datenart. In der Praxis werden solche Regeln oft in Form eines Datenhandbuchs oder einer CAFM-Richtlinie festgehalten – ein Beispiel ist die städtische CAFM-Richtlinie Zürich, die Struktur, Inhalte, Datenhoheit und Verantwortlichkeiten klar für alle FM-Daten definiert.
Ein weiterer Bestandteil sind festgelegte Eskalationsmechanismen:
Was passiert, wenn Datenqualitätsprobleme entdeckt werden oder Prozesse nicht eingehalten werden? Hier sollte definiert sein, wer im Falle von Datenfehlern informiert wird und bis wann Korrekturen erfolgen müssen. Kleine Fehler kann ein Data Steward vielleicht direkt beheben; größere Probleme (z.B. massenhafte falsche Flächenberechnungen) eskalieren an den Data Owner und ggf. ins Governance Board, das Prioritäten setzt und Ressourcen zur Verfügung stellt. Wichtig ist ein klarer Eskalationspfad, damit Probleme nicht „unter den Tisch fallen“.
Auch Abstimmungs- und Änderungsprozesse gehören zur Governance-Struktur
Wenn z.B. eine Fachabteilung neue Datenanforderungen hat (etwa zusätzliche Attribute für Verträge), muss ein geregelter Prozess existieren, wie solche Änderungen beantragt, geprüft (Stichwort Change Request) und umgesetzt werden. Das Governance-Gremium fungiert hier häufig als Entscheidungsinstanz, um Änderungen koordiniert und kontrolliert in die Datenmodelle einzupflegen. Ebenso sollten bereichsübergreifende Abstimmungen institutionalisiert sein – etwa regelmäßige Treffen zwischen CAFM-Team und anderen Systemverantwortlichen (IT, ERP-Team), um sicherzustellen, dass Daten systemübergreifend konsistent bleiben (welches System ist führend für welche Daten, wie werden Schnittstellen konzipiert etc.).
Zusammengefasst sorgen Governance-Strukturen dafür, dass es Verbindlichkeit gibt
Jeder weiß, welche Regeln gelten, wer worüber entscheidet, und wie bei Abweichungen reagiert wird. Diese Transparenz und Verlässlichkeit in der Datenorganisation ist eine Grundvoraussetzung, um Vertrauen in die CAFM-Daten aufzubauen und langfristig zu erhalten.
Methoden und Tools zur Prüfung und Sicherstellung der Datenqualität
Um die definierten Qualitätsstandards im Alltag einzuhalten, kommen diverse Methoden und Werkzeuge zum Einsatz. Zunächst werden im CAFM-System selbst häufig Validierungsregeln konfiguriert: z.B. Pflichtfelder, die ausgefüllt sein müssen (kein Raum ohne Fläche/Nummer, keine Anlage ohne Standortangabe), Wertebereiche (Temperaturwerte nur innerhalb physikalisch plausibler Grenzen) oder automatische Plausibilitätschecks (Meldung, wenn etwa das Baujahr einer Anlage > Gebäudebaujahr ist). Solche geschäftenlogischen Regeln lassen sich in modernen CAFM/IWMS-Systemen oft als Constraints oder per Skripting einrichten, sodass fehlerhafte Eingaben direkt abgefangen werden – eine Art “Data Quality Firewall”, die verhindert, dass unplausible oder unvollständige Datensätze überhaupt ins System gelangen.
Neben den eingebauten Regeln sind Prüfberichte und Auswertungen wichtige Werkzeuge
Zum Beispiel regelmäßige Datenqualitätsreports, die Kennzahlen wie Vollständigkeitsquoten oder Dubletten auflisten. Ein solcher Report könnte monatlich pro Datenkategorie zeigen, wie viele Datensätze fehlen oder fehlerhaft sind (etwa „5% der Assets haben kein Wartungsintervall gepflegt“). Ampelberichte (Rot/Gelb/Grün) machen auf einen Blick erkennbar, wo Handlungsbedarf besteht. Oft werden auch Plausibilitätslisten erstellt – z.B. „zeige alle Räume > 1000 m²“ (um Ausreißer zu finden) oder „Liste der wartungsrelevanten Anlagen ohne Wartungsvertrag“. Diese Berichte können automatisiert vom System generiert und an die Verantwortlichen versandt werden.
Tools zur Datenbereinigung spielen vor allem in der Anfangsphase und bei Massenpflege eine Rolle. Hier kommen ggf. ETL-Werkzeuge (Extract, Transform, Load) oder Excel-Importe zum Einsatz, mit denen man Daten z.B. auf Dubletten prüft, formatiert anpasst und in das CAFM lädt. Manche Organisationen nutzen spezielle Data Profiling-Tools, um die Datenqualität zu analysieren (Verteilungen, Anomalien erkennen). Auch Funktionen wie das vier-Augen-Prinzip können relevant sein – z.B. muss ein Datensatz (etwa eine neu importierte Objektliste) erst von einem zweiten Verantwortlichen gegengelesen und freigegeben werden, bevor er „scharf“ geht.
Stammdatenchecks werden idealerweise in die Geschäftsprozesse integriert. Methoden wie regelmäßige Audits oder Data Quality Reviews haben sich ebenfalls bewährt: Dabei durchforstet man z.B. einmal pro Jahr gemeinsam einen bestimmten Datenbereich (etwa alle Flächendaten) systematisch nach Fehlern oder Lücken und dokumentiert Verbesserungsmaßnahmen. Fortgeschrittene Anwender setzen zudem auf technische Hilfsmittel wie Duplicate Detection (automatisches Erkennen von Datensatzdubletten), Adressvalidierungs-Services (für korrekte Adressdaten) oder Integritätsregeln auf der Datenbankebene (Fremdschlüssel-Beziehungen, die z.B. verhindern, dass ein Raumdatensatz ohne zugehöriges Gebäude existiert).
Wichtig ist die Kombination aus automatisierten Prüfungen und manuellen Kontrollen. Nicht alles lässt sich durch Tools ersetzen – fachliche Plausibilität erfordert oft den Blick eines erfahrenen Mitarbeiters (z.B. prüft ein Techniker, ob die hinterlegte Wartungsdauer realistisch ist). Die Tools unterstützen aber dabei, Auffälligkeiten zu finden und den Prüfvorgang effizienter zu gestalten. So wird mit vertretbarem Aufwand eine hohe Datenqualität sichergestellt, ohne jedes Feld manuell prüfen zu müssen.
Pflege- und Änderungsprozesse für FM-relevante Stammdaten
Ein häufig unterschätzter Aspekt ist die Etablierung klarer Pflege- und Änderungsprozesse für sämtliche FM-Stammdaten. Nach der initialen Datenerfassung im Rahmen der Systemeinführung muss festgelegt sein, wie neue Daten ins System kommen und wie bestehende Daten aktualisiert werden.
Für jedes Datenobjekt sollte es definierte Fortführungsprozesse geben:
Flächendaten (Gebäude, Räume): Prozesse z.B. bei baulichen Änderungen oder Umzügen. Eine gängige Praxis: Änderungen am Gebäudegrundriss (durch Umbau oder neue Flächenaufteilung) werden von der CAD-/Planungsabteilung erfasst und via Schnittstelle oder manuellen Prozess ins CAFM überführt. Oft wird hier ein Zeichnungspfleger oder Planer als Verantwortlicher benannt. Bei Mieterwechseln oder Umzügen sollten Flächennutzungen zeitnah angepasst werden. Manche Organisationen definieren als Pflicht, dass kein interner Umzug vom Betriebsrat freigegeben wird, bevor das Flächenmodul aktualisiert ist – so wird sichergestellt, dass die Belegungsdaten stets stimmen.
Anlagendaten (Assets): Prozesse für die Inbetriebnahme neuer Anlagen (z.B. eine neue Klimaanlage wird vom Projektleiter an den CAFM-Administrator gemeldet, der sie in die Anlage-Datenbank aufnimmt, inklusive aller Attribute wie Hersteller, Wartungszyklen etc.). Ebenso müssen Prozesse für Anlagenausmusterungen bestehen (Altanlagen als „ausser Betrieb“ kennzeichnen oder archivieren, damit sie nicht mehr in Reports auftauchen). Hier ist es wichtig zu definieren, wer solche Änderungen anstößt – z.B. der technische Objektbetreuer meldet das an den Data Steward/CAFM-Admin.
Vertrags- und Lieferantendaten (Dienstleister, Verträge): Prozesse etwa bei Abschluss eines neuen FM-Vertrags. Beispielsweise schließt die Einkaufsabteilung einen Wartungsvertrag ab – ein definierter Schritt im Prozess ist, dass die Vertragsdetails sofort ins CAFM eingepflegt werden (und nicht erst Monate später). Ebenso bei Kündigungen oder Verlängerungen: Der Data Owner für Verträge (z.B. FM-Controller) muss sicherstellen, dass das Vertragsende im System aktualisiert wird. Ein Best Practice ist, die Buchhaltung oder das Einkaufsteam einzubinden: Keine Rechnung wird bezahlt, ohne dass es einen zugehörigen Auftrag/Ticket im CAFM gibt, und umgekehrt wird kein Vertrag deaktiviert, ohne dass die Buchhaltung informiert ist. Diese Kopplung der Prozesse stellt sicher, dass Finanz- und Vertragsdaten konsistent bleiben.
Personen- und Organisationsdaten: Z.B. Änderungen bei zuständigen Personen (wenn ein Objektverantwortlicher wechselt, muss die Verantwortlichkeitszuordnung im System geändert werden). Oft sind hier HR- oder Organisationsabteilungen eingebunden, die dem CAFM-Team solche Änderungen melden. Auch Dienstleister-Stammdaten (Adressänderungen, neue Ansprechpartner) sollten durch einen definierten Prozess (z.B. via Einkauf oder QM-Abteilung) aktualisiert werden.
Weitere Stammdaten: etwa Kostenstellen, Budgetstrukturen, Leistungsverzeichnisse etc., die im CAFM genutzt werden. Für jedes dieser Elemente braucht es einen „Pfad“, wie Änderungen von der Fachabteilung übermittelt und im System nachgeführt werden.
Wesentlich ist, dass Fortschreibungen zeitnah und lückenlos erfolgen
Neue Verträge sofort eintragen, erledigte Tickets direkt abschließen, Flächenänderungen umgehend einpflegen – bleibt dies aus, veraltet die Datenbasis sehr schnell. Einige Unternehmen implementieren hierfür strikte Regeln bzw. Kopplungen: So wird z.B. keine Wartungsrechnung freigegeben, ohne dass ein entsprechendes CAFM-Ticket referenziert ist (was impliziert, dass Anlage und Auftrag im System vorhanden sein müssen). Solche Prozessintegrationen schaffen einen automatischen „Druck“, die Stammdaten aktuell zu halten.
Darüber hinaus sollte klar definiert sein, welches System für welche Daten führend ist. In vielen Fällen gibt es Überschneidungen zwischen CAFM und anderen Systemen (ERP, BIM, IoT-Plattformen). Beispielsweise können technische Anlagen sowohl im CAFM als auch im ERP (für die Finanzabschreibung) geführt werden. Hier muss entschieden werden, wo die Master-Daten gepflegt werden und wie der Abgleich erfolgt (Schnittstellen oder manuelle Absprachen). Doppelerfassungen gilt es zu vermeiden – sie führen unweigerlich zu Inkonsistenzen. Im Zweifel sollte ein System als „golden source“ bestimmt sein und alle anderen ziehen von dort die Informationen.
Schnittstellenkonzeption ist daher eng mit den Pflegeprozessen verzahnt
Wenn zwei Systeme Daten teilen, muss der Pflegeprozess berücksichtigen, dass Änderungen im einen System ans andere gemeldet werden (z.B. via automatischer Schnittstelle oder durch einen definierten manuellen Workflow). Geregelt sein sollte auch der zeitliche Rhythmus für Datenabgleiche (z.B. täglicher Stammdatenabgleich oder Echtzeit-Sync, je nach Prozessanforderung).
Letztlich sorgen sauber definierte Pflege- und Änderungsprozesse dafür, dass die Datenlebenszyklen gemanagt werden: von der Entstehung über Änderungen bis zur Archivierung. Jeder im FM-Team weiß, was bei einer Änderung zu tun ist, niemand verlässt sich darauf „dass es der andere schon einträgt“. Die Prozesse sollten möglichst einfach, klar und workflowgestützt sein, damit sie im Tagesgeschäft auch befolgt werden und nicht als Belastung empfunden werden.
Integration von Datenqualitätsprüfungen in CAFM-Prozesse
Datenqualität darf kein isoliertes Thema sein, sondern sollte integraler Bestandteil der täglichen FM-Prozesse werden. In einer durchdachten CAFM-Einführung werden daher Qualitätsprüfungen in die Ablauforganisation eingebettet – das heißt, während der Bearbeitung von Meldungen, Aufträgen oder Freigaben werden relevante Daten gleich mit validiert.
Beispiele aus der Praxis:
Bei der Störungsmeldung (Ticket-Erfassung) kann das System erzwingen, dass eine Meldung nur abgesendet werden kann, wenn der betroffene Raum oder die Anlage korrekt ausgewählt ist. Falls ein Nutzer einen freien Text eingibt („Klimaanlage im 3. OG defekt“), könnte der Dispatching-Prozess vorsehen, dass ein Disponent die genaue Anlagen-ID nachträgt (Plausibilisierung der Meldung, damit Folgevorgänge saubere Daten haben).
Im Arbeitsauftrag-/Auftragsmanagement (Wartungen, Reparaturen) lässt sich ein Schritt „Datencheck“ einbauen: Ein Techniker, der einen Auftrag abschließt, muss z.B. bestätigten, dass alle verwendeten Ersatzteile dokumentiert sind und die Anlage-Stammdaten ggf. aktualisiert wurden (etwa wenn bei der Wartung auffällt, dass ein Gerät ausgetauscht wurde – dann sollte direkt die neue Seriennummer erfasst werden). Workflows können hier unterstützen, indem sie z.B. nach Abschluss eines Auftrags automatisch ein Formular öffnen: “Gab es Änderungen an Stammdaten? Bitte prüfen.”
Freigabeprozesse sind prädestiniert, um Datenqualität zu sichern. Etwa bei der Rechnungsfreigabe: Im Idealfall ist jede Rechnung im CAFM einem Auftrag und Vertrag zugeordnet. Der Freigabeworkflow kann prüfen, ob diese Verknüpfung existiert – fehlt sie, wird die Rechnung nicht freigegeben, weil sonst Kosten anfallen würden, die im System keiner Leistung zugeordnet sind. So eine Regel („Keine Rechnung ohne CAFM-Ticket-Referenz“) ist in einigen Organisationen Pflicht. Sie führt dazu, dass vor Freigabe fehlende Ticketdaten nachgetragen werden müssen – was die Datenqualität (Vollständigkeit der Leistungs- und Kostendaten) automatisch hoch hält.
Genehmigungen im Flächenmanagement: Ein weiterer bereits erwähnter Mechanismus ist, interne Umzüge oder Flächenumnutzungen an Bedingungen zu knüpfen. Beispielsweise genehmigt die Personal-/Organisationsabteilung einen Abteilungsumzug erst, wenn die Flächenbuchungen im CAFM aktualisiert wurden. Das kann prozessual so umgesetzt werden, dass der Verantwortliche im CAFM-System einen Umzugsvorgang bestätigt, woraufhin erst die organisatorische Freigabe erfolgt. Dadurch wird sichergestellt, dass Umzugsdaten (neue Raumnutzung, Belegungspläne etc.) immer aktuell sind, bevor der Prozess weitergeht.
Wiederkehrende Prüfungen: In Wartungsprozessen ist es denkbar, dass das System automatische Prüfungen vornimmt, z.B. wenn eine Wartung als erledigt markiert wird, prüft das CAFM, ob das nächste Wartungsdatum neu berechnet wurde und ob alle vorgeschriebenen Felder (z.B. Prüfprotokoll als Dokument) hinterlegt sind. Falls nicht, gibt es einen Warnhinweis oder der Vorgang bleibt im Status „in Prüfung“, bis alles vollständig ist.
Diese Verzahnung von Datenchecks mit den Abläufen fördert eine Kultur der ersten richtigen Erfassung (First Time Right). Die Benutzer lernen, dass bestimmte Aktionen automatisch mit Datenpflege verknüpft sind – es gehört einfach dazu, etwa nach Abschluss eines Tickets die Kosten einzutragen, weil es sonst gar nicht abgeschlossen werden kann. Ein positiver Nebeneffekt: Die Datenqualität wird „nebenbei“ verbessert, ohne dass separate Datenbereinigungsaktionen nötig sind.
Moderne CAFM/IWMS-Systeme bieten oft Workflow-Editoren, mit denen solche Abläufe konfiguriert werden können. Wichtig ist, die Balance zu halten: Zu strikte Prüfungen könnten Prozesse verlangsamen oder Benutzer frustrieren, während zu laxe Prüfungen den Nutzen verpuffen lassen. Bewährt hat sich, bei Einführung zunächst nur die wichtigsten Qualitätskontrollen in Prozesse einzubauen und diese Mechanismen dann anhand der Erfahrungen auszubauen.
Nutzung von KPIs zur Messung der Datenqualität
Um den Erfolg von Datenqualitätsmaßnahmen greifbar zu machen, werden Key Performance Indicators (KPIs) für die Datenqualität definiert. Solche Kennzahlen ermöglichen es, den Zustand der Datenbasis quantitativ zu überwachen und Verbesserungen oder Verschlechterungen über die Zeit zu erkennen.
Typische Datenqualitäts-KPIs im CAFM-Umfeld sind zum Beispiel:
Fehlerquote: Anteil fehlerhafter Datensätze gemessen an der Gesamtzahl. Dies kann z.B. der Prozentsatz an Stammdatensätzen sein, die gegen definierte Qualitätsregeln verstoßen. Eine Fehlerquote von 5% würde bedeuten, 5 von 100 Datensätzen enthalten Mängel (etwa fehlende Pflichtfelder oder ungültige Werte).
Vollständigkeitsrate: Auch Attribut-Vollständigkeit genannt – gibt an, wie viele der erforderlichen Attribute ausgefüllt sind. Beispiel: Sind von 10 notwendigen Feldern pro Asset im Schnitt 9 gefüllt, beträgt die Vollständigkeitsrate 90%. Man unterscheidet dabei manchmal Attribut-Vollständigkeit (Belegung einzelner Felder) und Datensatz-Vollständigkeit (ob ein gesamter Datensatz vorhanden ist). Zielgrößen könnten sein: 100% der Gebäude haben einen zugeordneten Gebäudetyp, 99% aller Räume haben eine Flächenangabe etc.
Aktualitätsquote: Anteil der Daten, die innerhalb eines definierten Zeitfensters aktualisiert wurden. Man könnte z.B. messen: „Wie viel Prozent der Anlagen wurden in den letzten 12 Monaten mindestens einmal geprüft/aktualisiert?“ oder „Wie alt sind die Einträge durchschnittlich?“. Eine hohe Aktualitätsquote (nahe 100%) ist Indikator dafür, dass Daten lebendig gehalten werden. Falls z.B. Verträge im Schnitt seit 5 Jahren nicht mehr angefasst wurden, ist das ein Warnsignal.
Dublettenrate/Redundanzquote: Anzahl der identifizierten Dubletten in Prozent der Datensätze. Ziel ist natürlich 0%, doch in Realität hilft dieser KPI, z.B. nach Datenmigrationen oder regelmäßigen Prüfungen zu sehen, ob Duplikate ansteigen.
Korrektheitsquote: Anteil der Daten, der nachweislich korrekt ist. Dies ist schwerer zu ermitteln, da man einen Referenzmaßstab braucht. Man kann jedoch stichprobenartig prüfen und hochrechnen. Z.B. könnte ein Audit ergeben, dass von 50 geprüften Anlagen-Stammsätzen 47 korrekt waren => 94% Korrektheit. Solche Auditergebnisse kann man als KPI darstellen.
Konformitätsrate zu Standards: z.B. Namenskonventionen eingehalten bei X% der Datensätze (Falls man z.B. ein einheitliches Benennungsschema für Räume hat).
Anteil der Daten mit Verantwortlichen: KPI, ob für 100% der Datensätze ein Owner/Verantwortlicher hinterlegt ist (z.B. jeder Vertrag hat einen Vertragsverantwortlichen im System eingetragen).
Wichtig ist, diese KPIs sichtbar zu machen – etwa in Form eines regelmäßigen Datenqualitäts-Dashboards für das FM-Team. Die Kennzahlen lassen sich pro Verantwortungsbereich aufteilen (z.B. Vollständigkeit pro Datenowner, Fehlerquote pro Modul), was einen internen Wettbewerb um bessere Datenqualität fördern kann.
Durch Zielvorgaben (z.B. „Vollständigkeit > 98%“) wird ein Anreiz geschaffen, kontinuierlich an der Datenqualität zu arbeiten. Abweichungen sollten aktiv adressiert werden: Wenn etwa die Aktualitätsrate für Verträge unter einen Schwellwert fällt, kann das Governance-Team eine Aktion beschließen (z.B. eine bereichsübergreifende Aufräumaktion oder zusätzliche Schulung der Verantwortlichen).
Neben den rein datenbezogenen KPIs ist es sinnvoll, auch Prozess-KPIs im Blick zu behalten, die indirekt auf Datenqualität wirken: z.B. Durchlaufzeiten für Datenänderungen (wie lange dauert es im Schnitt von einer Meldung bis zur Einarbeitung ins System?) oder Schulungsquote (wie viele der zuständigen Mitarbeiter wurden im letzten Jahr zu Datenqualitätsthemen geschult?). Diese zeigen, ob die organisatorischen Maßnahmen greifen.
Durch die regelmäßige Nutzung von Datenqualitäts-KPIs wird Datenqualität zu einer messbaren Größe – vergleichbar mit finanziellen KPIs im Controlling. Das schafft Bewusstsein auf Management-Ebene und hilft, Erfolge (oder Probleme) transparent zu machen. Zudem kann über längere Zeiträume ein Trend sichtbar gemacht werden, ob z.B. die Fehlerquote dank Maßnahmen X tatsächlich sinkt.
Maßnahmen zur nachhaltigen Sicherung der Datenqualität
Die einmal erreichte Datenqualität muss nachhaltig gesichert werden – sie ist kein Zustand, den man einmal herstellt und dann dauerhaft garantiert hat. Daher sollten kontinuierliche Maßnahmen implementiert werden, um einer schleichenden Verschlechterung entgegenzuwirken.
Zentrale Bausteine hierfür sind:
Schulung und Awareness: Regelmäßige Trainings der Mitarbeiter, die mit dem CAFM-System arbeiten, sind essenziell. Neue Mitarbeiter sollten unmittelbar in die Datenrichtlinien eingewiesen werden. Für bestehende Teams bieten sich jährliche Auffrischungen oder Workshops an, in denen z.B. häufige Fehler und Best Practices diskutiert werden. Ziel ist es, eine Datenqualität-Kultur zu etablieren, in der jeder den Wert guter Daten erkennt. Ohne Akzeptanz und aktives Mitwirken aller Nutzer kann Data Governance nicht greifen. Schulungen und interne Kommunikation sollten daher den Nutzen guter Daten (und die Folgen schlechter Daten) klar vermitteln.
Verankerung in Verantwortungsziele: Data Owner und ggf. weitere Rollen könnten Datenqualitätsziele in ihre Zielvereinbarungen bekommen. Wenn z.B. der Bonus eines Bereichsleiters zum Teil daran gekoppelt ist, dass „sein“ Datenbereich eine bestimmte Qualität erreicht, schafft dies Management-Aufmerksamkeit. Weniger formal kann man auch regelmäßige Qualitätsreviews als Bestandteil von Mitarbeitergesprächen nutzen.
Regelmäßiges Monitoring & Feedback: Wie im vorherigen Abschnitt beschrieben, sollte die Datenqualität kontinuierlich überwacht werden. Dazu gehört auch ein Feedback-Prozess: Die Ergebnisse der Datenqualitäts-KPIs sollten an die Verantwortlichen zurückgespielt werden – etwa in einem monatlichen Bericht an alle Data Owner („Ihre Vollständigkeitsquote dieses Monat: 97%, vorher 95%, gut verbessert!“). Positive Entwicklungen kann man hervorheben (evtl. auch intern auszeichnen), negative Trends sollten zu konkreten Aktionsplänen führen. Ein solches Monitoring stellt sicher, dass Qualitätsprobleme früh bemerkt und nicht erst nach Jahren entdeckt werden.
„First Time Right“-Prinzip fördern: Nachhaltige Qualität entsteht, wenn schon die Datenerfassung fehlerfrei erfolgt. Daher sollten Prozesse und Tools so gestaltet sein, dass bereits beim Entstehen von Daten auf Qualität geachtet wird. Das Konzept der Data Quality Firewall – also nur qualitativ hochwertige Daten ins System zu lassen – sollte gelebt werden. Beispielsweise kann man neue Daten zuerst in einer Testumgebung prüfen, bevor sie produktiv gehen, oder nur validierte Datenimporte zulassen.
Change-Management und Support: Änderungen im Datenmodell oder neuen Qualitätsregeln sollten immer mit einem Change-Management begleitet werden. D.h. bei jeder größeren Systemanpassung wird kommuniziert, warum z.B. ein neues Pflichtfeld eingeführt wird, und es wird Hilfestellung geboten (etwa Online-Hilfen im System, FAQ-Dokumente oder ein Helpdesk für Datenfragen). So fühlen sich Anwender mit neuen Anforderungen nicht allein gelassen.
Ressourcen bereitstellen: Datenqualität kostet Aufwand – nachhaltig ist sie nur, wenn dafür auch personelle und zeitliche Ressourcen eingeplant sind. Best Practice ist, dedizierte Datenmanager oder Data Stewards im FM-Team zu haben, deren explizite Aufgabe die Qualitätssicherung ist. Diese Personen treiben das Thema, führen Audits durch und unterstützen die Fachverantwortlichen. Ohne solche Ressourcen droht im Tagesgeschäft die Datenpflege unterzugehen.
Kontinuierliche Verbesserung: Data Governance sollte regelmäßig überprüft und weiterentwickelt werden. Basierend auf Erfahrungen (z.B. wiederkehrenden Fehlermustern) können Richtlinien angepasst oder zusätzliche Prüfungen eingeführt werden. Ebenso sollten neue Anforderungen (etwa durch ESG-Reporting, neue Gesetzeslagen) in das Datenqualitätskonzept aufgenommen werden. Eine Versionierung der Datenqualitätsrichtlinien mit jährlicher Überprüfung stellt sicher, dass das Konzept „lebt“ und immer zur Unternehmensstrategie passt.
Nicht zuletzt gehört zur nachhaltigen Sicherung der Qualität auch, Erfolge sichtbar zu machen – das motiviert die Beteiligten. Wenn beispielsweise durch das CAFM-Datenqualitätsprogramm die Fehlerquote binnen eines Jahres von 10% auf 2% gesenkt wurde, sollte dies im Management-Report erwähnt und gewürdigt werden. Dies schafft Rückhalt für das Thema und zeigt allen Beteiligten, dass sich ihre Mühe lohnt. Langfristig wird so aus anfänglichen Governance-Maßnahmen eine selbstverständliche Routine, die im Unternehmensalltag verankert ist.
Dokumentation: Richtlinien, Prüfkataloge und Verantwortlichkeitszuordnung
Eine gründliche Dokumentation ist das Fundament, auf dem Daten-Governance und -Qualität aufbauen. Sämtliche Regeln, Prozesse und Zuständigkeiten sollten schriftlich fixiert und für alle Beteiligten zugänglich sein.
Wichtige Dokumentationsbausteine sind:
Datenqualitätsrichtlinie: Ein zentrales Dokument, das alle Grundsätze zusammenfasst. Darin stehen Definitionen der Datenqualitätsdimensionen, die angestrebten Ziele (z.B. KPI-Zielwerte), Verantwortliche pro Datenbereich sowie Vorgaben zur Datenhaltung. Oft bildet diese Richtlinie einen Teil einer übergreifenden CAFM-Governance-Dokumentation oder eines Datenhandbuchs.
Datenmodell-Dokumentation: Übersicht über das Datenmodell des CAFM-Systems – welche Entitäten/Klassen und Attribute gibt es, wie hängen sie zusammen, welche Felddefinitionen gelten. Hier werden auch Konventionen (Benennung, Formate) festgehalten. Ein gutes Datenmodell-Dokument enthält für jedes Feld Angaben wie Datenformat, Erklärungen, Verantwortlicher (Owner) und ggf. Quellen oder Schnittstellenbezug. So entsteht quasi ein Datenkatalog.
Prüfkataloge und Checklisten: Für die praktische Qualitätssicherung werden oft Checklisten geführt, welche Prüfungen regelmäßig durchzuführen sind. Beispielsweise eine „Monats-Checkliste Datenqualität“: Dublettencheck laufen lassen, Report X kontrollieren, Stichprobe in Modul Y. Ebenso können spezifische Prüfkataloge existieren, z.B. bei der Datenübernahme aus Projekten (eine Liste an Kriterien, die erfüllt sein müssen, bevor die Daten produktiv übernommen werden). Diese Kataloge sollten versioniert und aktuell gehalten werden.
Verantwortlichkeitsmatrix: Um Klarheit zu schaffen, wer wofür zuständig ist, hilft eine tabellarische Übersicht (RACI-Matrix – Responsible, Accountable, Consulted, Informed) für die wichtigsten Datenobjekte. Darin steht z.B.: Gebäudedaten – verantwortlicher Owner: Leiter Portfoliomanagement; ausführende Pflege: CAFM-Steward; konsultiert: Objektmanager; informiert: IT. Eine solche Matrix kann Teil der Richtlinie sein oder separat als Übersicht für alle verteilt werden.
Prozessdokumentationen: Jede in der Governance definierte Prozedur (Pflegeprozess, Änderungsworkflow, Eskalationsverfahren) sollte als Prozessdiagramm oder Beschreibung dokumentiert sein. Insbesondere Schnittstellenprozesse (z.B. „Wie fließen BIM-Daten ins CAFM?“) sollten klar beschrieben werden, damit bei personellen Wechseln das Know-how nicht verloren geht.
Schulungshandbücher: Zur Unterstützung der nachhaltigen Qualitätssicherung ist es sinnvoll, Handbücher oder zumindest Foliensätze aus den Schulungen aufzubewahren, in denen die Nutzer jederzeit nachlesen können, wie sie bestimmte Daten korrekt pflegen sollen. Beispielsweise ein kurzes „How-to“ für das Anlegen einer neuen Anlage im CAFM (welche Felder, welche Kodierung, etc.).
Ein praktischer Tipp
Möglichst viel automatisiert dokumentieren. Einige CAFM-Systeme erlauben den Export des Datenmodells oder haben integrierte Data Dictionaries. Auch Verantwortlichkeiten kann man in Systemmasken hinterlegen (z.B. ein Feld „Data Owner“ pro Datenobjekt). Wenn diese Informationen im System selbst gepflegt werden, können Auszüge leicht erzeugt und z.B. als Teil des Jahresberichts zur Datenqualität veröffentlicht werden.
Ein lebendes Dokumentations-Repository (z.B. im Intranet oder einer Wissensdatenbank) sorgt dafür, dass alle Beteiligten die aktuellen Regeln kennen. Es dient als Nachschlagewerk im Alltag („Welche Werte sind für Raumnutzung erlaubt?“) und als Schulungsgrundlage für neue Mitarbeiter. Außerdem schafft Transparenz in der Organisation: Jeder sieht, dass Datenmanagement keinen Selbstzweck, sondern klare Regeln und Verantwortungen hat – was die Bereitschaft erhöht, sich an diese zu halten.
Typische Herausforderungen und empfohlene Best Practices
Bei der Einführung von Daten-Governance und Datenqualitätsmaßnahmen im CAFM treten erfahrungsgemäß einige Herausforderungen immer wieder auf.
Gleichzeitig haben sich dafür Best Practices entwickelt, die wirksam Abhilfe schaffen:
Herausforderung 1: Kultureller Wandel und Akzeptanz. Oft ist die größte Hürde nicht technischer, sondern organisatorischer Natur. Mitarbeiter sehen zusätzliche Datenpflege zunächst als Mehrarbeit oder fühlen sich durch Kontrollen bevormundet. Best Practice: Frühzeitige Einbindung der Nutzer und transparente Kommunikation des Nutzenversprechens. Zeigen Sie Quick Wins auf – z.B. wie eine saubere CAFM-Datenbasis plötzlich Auswertungen in Minuten ermöglicht, die früher Tage dauerten. Schaffen Sie eine positive Fehlerkultur: Datenprobleme sollen gemeldet (und gelöst), nicht versteckt werden. Incentivieren Sie gute Datenpflege, z.B. durch lobende Erwähnungen oder kleine Prämien für Teams mit hoher Datenqualität.
Herausforderung 2: Unklare Verantwortlichkeiten. Wenn Rollen nicht eindeutig verteilt sind, bleibt Arbeit liegen oder wird doppelt getan. Mitarbeiter sind unsicher, wer Entscheidungen treffen darf. Best Practice: Klares Rollen- und Verantwortlichkeitskonzept aufsetzen und dieses organisatorisch verankern. Jede relevante Person sollte ihre Rolle (Owner, Steward, etc.) kennen und ausgefüllt bekommen. Hilfreich ist ein organisatorischer Rückhalt von oben: Wenn die Geschäftsführung die ernannten Data Owner offiziell bestätigt und ihnen entsprechendes Mandat erteilt, unterstreicht das die Wichtigkeit. Zudem sollte das Thema Datenqualität in Meetings und Reports der Führungsetage präsent sein, um den Stellenwert deutlich zu machen.
Herausforderung 3: Daten-Silos und Systembrüche. In vielen Unternehmen existiert nicht das eine System für alle FM-Daten. So liegen technische Wartungsdaten evtl. im ERP (SAP PM) und Flächendaten im CAFM. Fehlende Integration führt zu inkonsistenten Daten, Redundanz und viel manuellem Abgleich. Best Practice: Integration und Zentralisierung wo möglich. Eine gemeinsame Datenplattform oder gut abgestimmte Schnittstellen minimieren die Doppelpflege. Insbesondere Stammdaten sollten nach Möglichkeit nur einmal gehalten werden (Single Source of Truth). Wenn separate Systeme nötig sind, richten Sie regelmäßige Datenabgleiche ein und definieren Sie eindeutig, welches System Master ist. Auch der Einsatz von Standards (z.B. IFC, CAFM-Connect für Datenaustausch) erleichtert es, Silos zu verbinden.
Herausforderung 4: Initialer Aufwand und dauerhaftes Durchhalten. Die anfängliche Datenerfassung und -bereinigung ist oft mühselig – und nach Go-Live lässt die Aufmerksamkeit gerne nach, sodass Daten wieder veralten. Best Practice: Schrittweises Vorgehen und kontinuierlicher Prozess. Teilen Sie das Projekt in Phasen und starten Sie mit kritischen Daten (z.B. Vertrags- und Flächendaten zuerst). Führen Sie vor Systemeinführung einen Data Audit durch, um Alt-Daten zu analysieren und zu bereinigen. Nach dem Start etablieren Sie sofort Routine-Prozesse (wie oben beschrieben), damit laufende Pflege zum Alltag wird. Feiern Sie Zwischenetappen (etwa „100% der Gebäudegrundrisse sind erfasst“) und halten Sie das Momentum. Oft hilft es, einen zentralen Datenmanager einzusetzen, der ständig nachhakt und koordiniert – diese Investition zahlt sich durch konsistente Daten aus.
Herausforderung 5: Technische Grenzen und Datenqualitätstools. Manchmal bietet das CAFM-System nicht out-of-the-box alle gewünschten Prüfmechanismen, oder die Datenqualität lässt sich schwer messen (z.B. Korrektheit). Best Practice: Kreative Lösungen nutzen: Exportieren Sie Daten temporär in Analysewerkzeuge (z.B. BI-Tools oder sogar Excel), um Qualitätsreports zu fahren, falls das System es nicht abbildet. Überlegen Sie, welche Prüfungen wirklich entscheidend sind und konzentrieren Sie sich auf diese (Pareto-Prinzip: mit 20% der Prüfungen 80% der Probleme finden). Tauschen Sie sich mit anderen Anwendern aus – oft gibt es erprobte Prüfskripte oder Vorgehensweisen, die man übernehmen kann. Auch Anbieter von Data-Quality-Addons können ggf. helfen. Wichtig ist, sich von technischen Hürden nicht entmutigen zu lassen: Notfalls tut es auch ein einmal im Quartal manuell erstellter Fehlerbericht – Hauptsache, man macht es.
Datenmanagement ist ein kontinuierlicher Prozess – es hört nie wirklich auf. Nur durch laufende Pflege und klare Verantwortlichkeiten kann der Nutzen der Digitalisierung im FM voll ausgeschöpft werden. Unternehmen, die CAFM erfolgreich einsetzen, investieren daher nicht nur in Software, sondern genauso in Personal und Prozesse rund um die Datenpflege. Mit den beschriebenen Konzepten, Methoden und Best Practices lässt sich die Herausforderung „CAFM-Daten-Governance und -qualität“ aber meistern – und der Lohn sind verlässliche Informationen, reibungslose FM-Prozesse und fundierte Entscheidungen auf Basis einer erstklassigen Datenbasis.
