Zum Inhalt springen
FM-Connect Chat

Hallo! Ich bin Ihr FM-Connect Chat-Assistent. Wie kann ich Ihnen helfen?

FM-Solutionmaker: Gemeinsam Facility Management neu denken

CAFM: Datenqualitätskontrollen und Stammdatenpflege

Facility Management: FM-Software » Strategie » Betrieb » Stammdatenpflege

Stammdatenpflege im CAFM-System für strukturierte Gebäude- und Anlagendatenverwaltung

Datenqualitätskontrolle und Stammdatenpflege in CAFM -Systemen

Eine hohe Datenqualität ist im Facility Management – insbesondere in CAFM-Systemen – von zentraler Bedeutung. Stammdaten über Gebäude, Anlagen, Flächen und Verträge bilden die Grundlage für nahezu alle FM-Prozesse. Nach dem Prinzip “Garbage in, garbage out” führt eine mangelhafte Datenbasis unweigerlich zu schlechten Ergebnissen. Fehlerhafte, veraltete oder unvollständige Informationen können die Planung von Wartungen, Flächenbelegungen oder Budgets verfälschen und falsche Entscheidungen nach sich ziehen. Umgekehrt erlaubt eine hohe Datenqualität (d.h. korrekte, aktuelle und vollständige Daten) eine effiziente Bewirtschaftung von Immobilien und fundierte strategische Entscheidungen im FM.

Anforderungen an die Datenqualität im CAFM umfassen die Genauigkeit der Informationen (fehlerminimierte Erfassung), ihre Vollständigkeit (alle erforderlichen Felder und Objekte sind vorhanden) sowie Aktualität (Daten werden regelmäßig gepflegt und sind zeitnah aktualisiert). So sollten z.B. wichtige Stammdaten wie Raumgrößen und -nutzungen spätestens vor Inbetriebnahme eines Gebäudes vollständig erfasst und geprüft sein. Zusätzlich ist Konsistenz gefordert – Daten müssen systemweit einheitlich und widerspruchsfrei vorliegen. Die Einhaltung definierter Datenstandards (z.B. einheitliche Kodierung von Raumnummern oder Anlagenschlüsseln) stellt sicher, dass Informationen systemübergreifend vergleichbar sind. Insgesamt gilt: Die Qualität aller nachgelagerten Prozesse (Instandhaltung, Flächenmanagement, Kostencontrolling, Reporting etc.) hängt direkt von der Qualität der Stammdaten ab. Daher muss der Datenqualität höchste Priorität eingeräumt werden – verbunden mit klaren Vorgaben, regelmäßigen Prüfungen und verantwortlichen Personen, die die Einhaltung dieser Anforderungen überwachen.

Typische Stammdatenkategorien in FM-Systemen

Zu den wichtigsten gehören insbesondere:

  • Gebäude und Liegenschaften: Informationen zu jedem Gebäude oder Standort, etwa Name/Bezeichnung, Adresse, Baujahr, Nutzung, technische Kenndaten. Hierzu zählen auch übergeordnete Portfolio-Daten wie Liegenschaften oder Standorte.

  • Räume und Flächen: Detaillierte Raumstammdaten (Raumnummern, Raumart, Fläche in m², Nutzungseinheit, Etage, Gebäudeteil). Flächen werden oft nach Normen (z.B. DIN 277) klassifiziert und dienen als Basis für Flächenmanagement, Belegungsplanung und Flächenkostenrechnung.

  • Anlagen und Assets: Alle technischen Anlagen, Geräte und Inventarobjekte im Gebäude, inklusive ihrer Attribute (Anlagentyp, Hersteller, Seriennummer, Leistungsdaten), Standort (Raumzuordnung) sowie Instandhaltungsrelevanter Daten (Wartungszyklen, Inbetriebnahmedatum). Auch Infrastruktur-Komponenten (Versorgungseinrichtungen, Maschinen) gehören hierzu. Eine gepflegte Inventarliste aller Assets ist essenziell.

  • Verträge: Relevante Vertragsstammdaten, z.B. Mietverträge, Wartungs- und Serviceverträge, Dienstleistungsverträge. Erfasst werden Vertragsparteien, Laufzeiten, Kündigungsfristen, Kosten, Leistungsinhalte und verknüpfte Objekte (welches Gebäude oder welche Anlage ist betroffen). Vertragsmanagement im CAFM ermöglicht Fristenkontrolle und Compliance (Betreiberverantwortung).

  • Organisation und Verantwortlichkeiten: Daten über die organisatorische Struktur und Zuständigkeiten. Dazu zählen z.B. Kostenstellen, Abteilungen, Nutzergruppen oder externe Dienstleister, die den Objekten zugeordnet werden. Auch personelle Stammdaten wie Ansprechpartner für Gebäude oder technische Betreiber können hier fallen. Diese Verknüpfung von Objekten mit Organisationseinheiten stellt sicher, dass Verantwortlichkeiten klar zugewiesen sind (wer ist z.B. Flächenverantwortlicher oder Anlagenbetreuer).

Darüber hinaus existieren weitere Stammdaten- bzw. Referenzdatenkategorien je nach Umfang des Systems: Flächennutzungen (Belegungsstatus, Mietbereiche), Leistungsverzeichnisse (Dienstleistungen, z.B. Reinigungsintervalle als standardisierte Leistungskataloge), Kostenstellen/Konten für kaufmännische Zuordnungen, Maßnahmen/Kalender (Wartungspläne, Prüftermine) usw. All diese Daten werden idealerweise zentral im CAFM gehalten und gepflegt. Sie unterliegen meist einer geringen Änderungsfrequenz, sind aber kritisch für Auswertungen und einen reibungslosen FM-Betrieb. Indem Stammdaten zu Gebäuden, Verträgen, Leistungen, Flächen und Organisationsobjekten konsistent an einer Stelle geführt werden, entsteht eine verlässliche Informationsbasis für operative wie strategische Entscheidungen.

Verantwortlichkeiten und Rollenmodell für die Datenpflege

Eine klare Rollenverteilung ist für die erfolgreiche Stammdatenpflege unerlässlich. In der Praxis hat sich ein organisatorisches Rollenmodell etabliert, das typischerweise folgende Hauptrollen umfasst:

Rolle

Verantwortung und Aufgaben (Beispiele)

Data Owner (Dateneigentümer)

Trägt die fachliche Gesamtverantwortung für einen bestimmten Datenbereich (z.B. Gebäudestammdaten oder Anlagen). Er legt Qualitätsziele, Datenstandards und Pflegeprozesse fest und entscheidet bei Konflikten oder Änderungen. Oft ist dies eine Führungsrolle (z.B. Bereichsleiter FM), die sicherstellt, dass genügend Ressourcen für die Datenpflege bereitgestellt werden und die Daten den Geschäftsanforderungen entsprechen.

Data Steward (Datenmanager)

Ist für die operative Verwaltung und Qualitätssicherung der Daten verantwortlich. Der Data Steward überwacht die Einhaltung der vorgegebenen Standards im Tagesgeschäft, führt regelmäßige Qualitätsprüfungen durch (Validierungsregeln, Dublettenkontrollen) und behebt Datenfehler oder Inkonsistenzen. Er koordiniert außerdem die Datenpflege zwischen den Fachabteilungen, dokumentiert Änderungen und schult Nutzer in korrekter Dateneingabe. In kleineren Organisationen wird diese Rolle oft vom CAFM-Manager oder Application Manager übernommen.

Key User (Schlüsselanwender)

Fachanwender in einer bestimmten Abteilung (z.B. Technik, Flächenmanagement), der als Hauptansprechpartner für das CAFM-System agiert. Key User pflegen Stammdaten im Tagesgeschäft, z.B. indem sie neue Assets erfassen, Flächenänderungen melden oder Vertragsanpassungen eingeben. Sie stellen sicher, dass die Daten in ihrem Verantwortungsbereich aktuell und vollständig sind, und unterstützen Kollegen bei der Nutzung des Systems. Key User fungieren als Bindeglied zwischen den Endanwendern und dem Data Steward/Owner, indem sie Rückmeldungen geben und Anforderungen aus der Praxis kommunizieren.

Zusätzlich zu diesen Kernrollen können je nach Organisationsgröße weitere beteiligt sein – etwa IT-Administratoren (für technische Datenbankpflege, Berechtigungen) oder ein CAF(M)-Application Manager, der das System technisch betreut. Wichtig ist, dass für jeden Datenbereich ein Data Owner benannt ist und die Verantwortlichkeiten schriftlich festgehalten sind. Der Data Owner delegiert operative Aufgaben an Data Stewards und Key User, behält aber die Hoheit. Data Stewards und Data Owner arbeiten eng zusammen, um eine hohe Datenqualität sicherzustellen. Ohne klar zugewiesene Verantwortliche besteht die Gefahr, dass Datenbestände im Alltag “erodieren”, d.h. schleichend veralten oder inkonsistent werden. Ein etabliertes Rollen- und Rechtekonzept schafft hier Abhilfe: Jeder weiß, welche Aufgaben in der Datenpflege an ihn/sie fallen, und es gibt eindeutige Ansprechpartner für Datenfragen.

Prozesse der Stammdatenpflege (Erstpflege und laufende Aktualisierung)

Die Datenpflegeprozesse erstrecken sich über den gesamten Lebenszyklus der Gebäudedaten – von der erstmaligen Datenerfassung bis zur kontinuierlichen Aktualisierung und eventuell Aussonderung von Daten.

Wichtige Prozessschritte sind:

Phase der Datenpflege

Beschreibung der Tätigkeiten und Abläufe

Erstbefüllung (Initialer Datenaufbau)

Einmalige Grunddatenerfassung beim Start des Systems. Alle relevanten Stammdaten werden zusammengetragen – z.B. aus Bauplänen, Übergabedokumentationen, Alt-Systemen (Excel-Listen, CAD-Zeichnungen) oder mittels Vor-Ort-Aufnahmen. Diese Daten werden ins CAFM importiert und dabei validiert und bereinigt, um Dubletten, Fehler und Inkonsistenzen zu eliminieren. Oft erfolgt die Erstpflege als Projekt mit externer Unterstützung. Das Ergebnis ist eine vollständige und geprüfte Ausgangsdatenbasis.

Laufende Aktualisierung

Kontinuierliche Pflege im Tagesbetrieb. Ändern sich Immobilien oder Assets, müssen die Stammdaten zeitnah angepasst werden. Typische Auslöser: neue Gebäude oder Anlagenteile kommen hinzu, Räume werden umgenutzt oder umgebaut, Anlagen werden ausgetauscht, Verträge verlängert oder gekündigt. Die Fachabteilungen (via Key User) melden solche Änderungen an den Data Steward oder pflegen sie direkt ein, gemäß festgelegten Prozessen. Wichtig ist, dass Änderungen möglichst zeitnah nach dem Ereignis erfolgen, um die Daten aktuell zu halten.

Geplante Datenpflege (Periodische Überprüfung)

Regelmäßige Qualitätsaudits in festgelegten Intervallen (z.B. viertel- oder halbjährlich). Dabei werden ausgewählte Datensätze stichprobenartig oder systematisch auf Aktualität und Richtigkeit geprüft. Beispiele: jährliche Begehung zur Inventur der technischen Anlagen, Abgleich von Flächendaten mit aktuellen CAD-Plänen, Durchsicht der Vertragsstammdaten auf auslaufende Verträge. Solche Revisionen helfen, schleichende Fehler zu entdecken und zu korrigieren (z.B. Räume, die zwischenzeitlich anders genutzt wurden, aber nicht im System standen).

Datenänderungs-Management

Gesteuerter Prozess für umfangreichere Änderungen. Hier wird definiert, wie Änderungen beantragt, geprüft und freigegeben werden. Z.B. könnte eine größere Flächenbereinigung oder das Bereinigen von Dubletten als Change Request an den Data Steward gestellt werden, der die Umsetzung koordiniert. Ein formaler Änderungsprozess mit Freigabeschritten stellt sicher, dass Massenänderungen kontrolliert und nachvollziehbar ablaufen. Alle Änderungen sollten versioniert bzw. protokolliert werden (Audit Trail), damit bei Bedarf der vorherige Stand rekonstruiert werden kann.

Archivierung und Historie

Abschluss des Daten-Lebenszyklus. Stammdaten, die nicht mehr aktiv benötigt werden, werden archiviert statt gelöscht. Beispiel: Ein verkauftes Gebäude bleibt als Datensatz erhalten, wird aber als "historisch" markiert; abgelaufene Verträge werden mit Endedatum abgelegt. So bleibt die Historie für Auswertungen oder Nachweispflichten (z.B. gegenüber Behörden) erhalten, während das aktive Datenmodell von inaktiven Objekten entlastet wird.

In der Praxis ist es wichtig, klare Pflegezyklen und Verantwortlichkeiten für diese Schritte zu definieren. Die Erstbefüllung erfolgt meist projektförmig mit definierter Abnahme. Die laufende Pflege wird in Arbeitsanweisungen verankert (z.B. “jede Anlagenänderung ist binnen 2 Werktagen im CAFM zu erfassen”). Für die regelmäßigen Überprüfungen können Reports oder Dashboards eingesetzt werden, die Datenlücken oder Anomalien aufzeigen (siehe Monitoring). Bei größeren Änderungen ist ein Change-Management wichtig, um Fehler durch unkoordinierte Massenupdates zu vermeiden. Nicht zuletzt sollten Mitarbeiter geschult sein, die Pflegeprozesse zu verstehen und im Alltag mitzutragen – denn Datenpflege ist keine einmalige Aktion, sondern ein permanenter Prozess. Schulungen und Awareness-Maßnahmen (z.B. regelmäßige Hinweise auf die Bedeutung korrekter Dateneingabe) fördern die Disziplin bei der Datenpflege.

Werkzeuge und Methoden der Datenqualitätsprüfung

Um die Qualität der Stammdaten sicherzustellen, kommen verschiedene Prüfwerkzeuge und -methoden zum Einsatz. Ein zentrales Element sind Validierungsregeln direkt im System: Diese prüfen Eingaben auf zulässige Werte und Formate, bevor sie gespeichert werden. Beispielsweise kann eine Validierung verhindern, dass ein Raum ohne Flächenangabe angelegt wird, oder dass eine Raumnummer doppelt vergeben wird. Darüber hinaus gibt es Plausibilitätskontrollen, die Zusammenhänge checken – etwa ob die Summe der Raumflächen eines Geschosses zur Gesamtgebäudefläche passt, oder ob ein Baudatum nicht in der Zukunft liegt.

Ein großes Thema ist die Dublettenprüfung: Gerade bei importierten oder manuell gepflegten Daten können Datensätze doppelt existieren (z.B. eine Anlage mit leicht unterschiedlicher Schreibweise zweimal erfasst). Spezielle Algorithmen identifizieren potentielle Dubletten anhand von Schlüsselattributen (Name, Inventarnummer, Standort) und unterstützen deren Bereinigung. Dublettenerkennung und Validierungsregeln gehören zu den Standardmaßnahmen im Data Quality Management und reduzieren Fehlerquoten erheblich.

Weitere Methoden umfassen Data Profiling, also die systematische Analyse der Datenbestände auf Auffälligkeiten. Dabei werden z.B. Verteilungen von Werten, Häufigkeiten von Nullwerten oder Zahlenbereiche ausgewertet, um Ausreißer oder systematische Probleme (wie ungewöhnlich viele fehlende Werte in einem Feld) zu erkennen. Berichtsfunktionen können eingesetzt werden, um Qualitätskennzahlen zu ermitteln (z.B. Anzahl der Datensätze mit fehlenden Pflichtfeldern). Moderne CAFM-Systeme oder externe Master Data Management (MDM)-Tools bieten oft Funktionen zur regelbasierten Qualitätsprüfung: Man definiert Regeln (z.B. “jedes Asset muss einer Kostenstelle zugeordnet sein”) und das System generiert Prüflisten aller Verstöße gegen diese Regeln.

In vielen Fällen lässt sich die Datenqualität auch prozessual sichern: Beispielsweise durch ein Vier-Augen-Prinzip bei kritischen Änderungen (eine Person erfasst, eine zweite prüft und gibt frei) oder durch Nutzung von Pflichtfeldern und Auswahllisten, um Eingabefehler zu minimieren. Bei der Übernahme externer Daten (z.B. BIM-Import oder IoT-Datenfluss) sind Mapping- und Transformationsregeln essenziell, um inkompatible Datenmodelle anzugleichen. Hier kommen ggf. Middleware oder ETL-Werkzeuge zum Einsatz, die Daten vor dem Laden ins CAFM filtern und konvertieren.

Letztlich sorgen kombinierte Maßnahmen – manuelle Kontrollen und automatisierte Prüfungen – für eine robuste Qualitätssicherung. Sie reduzieren nicht nur Fehler im Datenbestand, sondern erhöhen auch das Vertrauen der Anwender in die Auswertungen und Kennzahlen, die auf diesen Daten beruhen.

Automatisierung und Monitoring der Datenqualität

Da die manuelle Prüfung umfangreicher Datenbestände sehr aufwändig ist, wird die Qualitätssicherung zunehmend automatisiert. Viele CAFM/IWMS-Systeme verfügen über Funktionen, um Datenqualitätsprüfungen zeitgesteuert oder eventbasiert durchzuführen. Beispielsweise lassen sich regelmäßige Reports einrichten, die dem Data Steward anzeigen, welche Datensätze unvollständig sind oder seit langem nicht aktualisiert wurden. Solche Berichte können Kennzahlen wie “Vollständigkeitsgrad der Stammdaten” oder “Anzahl der Felder mit ungültigen Werten” als Dashboard visualisieren.

Ein wichtiger Aspekt ist das Echtzeit-Monitoring: Bei bestimmten Aktionen oder Schwellenwert-Verletzungen können Alerts generiert werden. So könnte das System den zuständigen Key User automatisch benachrichtigen, wenn z.B. eine Wartungsplanung für eine Anlage fehlt oder ein Pflichtfeld leer gelassen wurde. Ebenso sind automatisierte Abgleiche möglich – etwa ein nächtlicher Datenabgleich zwischen CAFM und ERP, der Differenzen protokolliert. Moderne Lösungen setzen auch KI-gestützte Überwachung ein, um Anomalien zu erkennen (z.B. plötzlich stark abweichende Verbrauchsdaten, die auf Erfassungsfehler hindeuten).

Wesentlicher Bestandteil des Monitorings sind Qualitätskennzahlen (Data Quality Scores), die kontinuierlich erhoben werden. Diese KPIs können in einem Datenqualitäts-Dashboard nachverfolgt werden und dienen als Frühwarnsystem. Regelmäßige Checks und automatische Validierungs-Fehlerraten schaffen Transparenz über den Gesundheitszustand der Daten. Best Practice ist es, solche Monitoring-Dashboards für alle Beteiligten sichtbar zu machen, um ein Bewusstsein für Datenqualität zu fördern.

Beispielhaft lassen sich folgende Automatisierungs- und Monitoring-Maßnahmen nennen:

  • Qualitätsreports und -dashboards: z.B. ein wöchentlicher Bericht der offenen Datenqualitäts-Mängel (fehlende Werte, Dubletten, ungültige Einträge) oder eine Dashboard-Ansicht, die für jede Datenkategorie einen Qualitätsprozentsatz (Completeness Score) anzeigt.

  • Alerting/Benachrichtigungen: Sofortige E-Mail oder Systemmeldung an den Data Steward/Owner, wenn definierte Regeln verletzt werden (z.B. Dublettenfund, Dateninkonsistenz zwischen zwei Systemen, Fristablauf ohne Datenupdate).

  • Automatische Korrekturen: In begrenztem Umfang können Systeme selbsttätig Daten bereinigen, z.B. Formatierungen vereinheitlichen oder Standardwerte einfügen, wo Informationen fehlen. Dies sollte jedoch vorsichtig eingesetzt werden – meistens bleibt die menschliche Überprüfung nötig.

  • Kontinuierliches Data Streaming: Bei Anbindung von Echtzeitdaten (Sensoren, IoT) können kontinuierliche Datenströme integriert und überwacht werden. Überschreiten Sensordaten definierte Grenzwerte, erzeugt das System automatisch Tickets oder Hinweise, was eine Art Qualitätsüberwachung der Zustandsdaten darstellt (z.B. Ausreißeridentifikation).

Insgesamt ermöglicht die Automatisierung, dass die Datenqualität proaktiv überwacht wird, anstatt erst im Nachhinein bei auftretenden Problemen auffällig zu werden. Sie nimmt den Mitarbeitern Routineprüfungen ab und stellt sicher, dass bei Qualitätsabweichungen rasch Gegenmaßnahmen eingeleitet werden können.

Integration mit Drittsystemen und externen Datenquellen

CAFM-Systeme sind selten isolierte Insellösungen. Vielmehr müssen sie mit einer Vielzahl von Drittsystemen harmonieren, um Daten abzugleichen und Redundanzen zu vermeiden. Eine durchdachte Schnittstellenstrategie stellt sicher, dass Stammdaten idealerweise nur an einer Stelle gepflegt und von anderen Systemen übernommen werden (Single Source of Truth).

Wichtige Integrationsszenarien im Facility Management sind unter anderem:

  • ERP-Systeme (Enterprise Resource Planning): Etwa SAP oder Microsoft Dynamics für finanz- und betriebswirtschaftliche Daten. Über eine ERP-Schnittstelle können z.B. Kosten- und Buchhaltungsdaten bidirektional ausgetauscht werden. So lassen sich Buchungssätze (Betriebskosten) vom ERP ins CAFM importieren oder umgekehrt Wartungskosten aus dem CAFM ans Controlling melden. Auch die Übernahme von Anlagen-Stammdaten aus dem Anlagenmodul des ERP ist gängig. Dadurch entfällt doppelte Datenpflege in beiden Systemen.

  • Gebäudeautomation und IoT: Gebäudeleittechnik-Systeme (GLT/BMS) liefern Sensordaten wie Zählerstände, Störmeldungen oder Klimawerte in Echtzeit. Eine Anbindung ermöglicht, diese Daten ins CAFM zu übernehmen und direkt in Wartungsprozesse umzusetzen – z.B. triggert eine Störungsmeldung aus der GLT automatisch einen Serviceauftrag im CAFM. benso können Smart-Meter-Verbrauchsdaten oder Raumbelegungsdaten (IoT-Sensoren) ins CAFM einfließen, um Energiemanagement oder bedarfsgerechte Reinigung zu optimieren.

  • CAD- und BIM-Systeme: Planungstools wie AutoCAD oder BIM-Plattformen (Revit, Allplan) sind wichtige Quellen für geometrische und alphanumerische Gebäudedaten. Über CAD-Schnittstellen importiert das CAFM Grundrisse (DWG/DXF) und erzeugt daraus automatisch Räume und Flächenobjekte im System. Moderne CAFM-Lösungen unterstützen BIM-Standards (IFC) und können komplette digitale Gebäudemodelle übernehmen, um einen digitalen Zwilling für den Betrieb bereitzustellen. So werden nach Abschluss der Bauphase alle relevanten Bauteil- und Flächendaten ins FM-System überführt.

  • Dokumentenmanagement-Systeme (DMS): Verträge, Pläne, Wartungsprotokolle und andere Dokumente werden idealerweise nicht redundant gespeichert, sondern per DMS-Schnittstelle verknüpft. Das CAFM referenziert Dokumente (z.B. hinterlegt es den Wartungsvertrag direkt beim Anlagenobjekt) und ruft sie bei Bedarf aus dem DMS ab. Damit bleiben Dokumente und Stammdaten konsistent verknüpft und aktuell.

  • HR- und Organisationssysteme: Mitarbeiter- und Organisationsdaten (Abteilungen, Kostenstellen) werden häufig in HR-Systemen oder IDM (Identity Management) gepflegt. Eine Anbindung ermöglicht, z.B. Kostenstellen und Verantwortliche regelmäßig ins CAFM zu importieren, anstatt sie doppelt zu verwalten. So weiß das CAFM stets, welche Abteilung aktuell welche Fläche nutzt oder wer für einen Vertrag verantwortlich ist. Hier ist wichtig zu definieren, welches System für welche Daten führend ist (Master). Oft gilt: Personaldaten werden nur im HR gepflegt und das CAFM übernimmt sie lesend.

Eine der größten Herausforderungen bei Integrationen ist die Konsistenz und Synchronisierung der Daten über Systemgrenzen hinweg. Mangelnde Abstimmung kann zu widersprüchlichen Datenständen führen (z.B. unterschiedliche Flächenzahlen in CAD vs. CAFM). Um dem vorzubeugen, müssen Unternehmen frühzeitig festlegen, wo welche Daten gepflegt werden und wie der Änderungsdienst organisiert ist. So sollte klar definiert sein, welches System als führend für Stammdaten einer bestimmten Art gilt und in welchem Rhythmus ein Abgleich erfolgt. Doppelte Datenpflege – also manuelles Pflegen derselben Information in zwei Systemen – ist möglichst zu vermeiden. Stattdessen setzt man auf automatisierte Schnittstellen (z.B. regelmäßige Importe/Exporte oder Webservices), um Änderungen einmalig zu erfassen und überall bereitzustellen.

Dennoch lassen sich Medienbrüche nicht immer völlig eliminieren. Kleinere FM-Teams arbeiten in der Praxis teilweise noch mit manuellen Exporten (Excel) für bestimmte Zwecke. Wichtig ist dann, diese Brüche so gering wie möglich zu halten und klar zu steuern: Zum Beispiel durch eindeutige Importvorlagen, Mappings und Protokollierung, die sicherstellen, dass beim manuellen Datentransfer keine Informationen verloren gehen.

Neben technischen Schnittstellen sind auch organisatorische Schnittstellen relevant: Verschiedene Abteilungen (IT, FM, Controlling, externe Dienstleister) müssen abgestimmt zusammenarbeiten, um den Datenfluss zu gestalten. Es sollte pro Schnittstelle einen verantwortlichen Owner geben (z.B. CAFM-Manager für die ERP-Schnittstelle) und regelmäßige Abstimmungen, wann welche Daten fließen und wer sie pflegt. Integration ist also nicht nur ein IT-Thema, sondern erfordert bereichsübergreifendes Prozessdenken. Wenn sich Rahmenbedingungen ändern (z.B. ERP-Upgrade, Dienstleisterwechsel), müssen die Schnittstellenprozesse angepasst werden – auch das fällt in den Bereich Datenqualitätsmanagement, da unsauber geregelte Schnittstellen schnell Qualitätsprobleme erzeugen können (z.B. veraltete Daten in einem Teilsystem).

Es erhöht eine gute Integration die Datenqualität enorm: Doppeleingaben werden vermieden, eine gemeinsame Datenbasis entsteht. Allerdings muss hierfür in Technik (offene APIs, Standardformate) und Organisation (Zuständigkeiten, Regelungen) investiert werden. So wird das CAFM-System zum integralen Bestandteil der Unternehmens-IT und pflegt einen konsistenten Informationsfluss mit allen verbundenen Anwendungen.

KPIs zur Messung der Datenqualität

Um den Erfolg von Datenqualitätsinitiativen messbar zu machen, werden Key Performance Indicators (KPIs) definiert, die verschiedene Dimensionen der Datenqualität quantifizieren.

Typische KPIs bzw. Kriterien sind:

  • Vollständigkeit – Anteil der Datenelemente, die vollständig befüllt sind. Beispielsweise kann gemessen werden, welcher Prozentsatz der Räume alle Pflichtattribute (Name, Fläche, Nutzung, etc.) enthält. Ein Vollständigkeits-KPI von 98% bedeutet, dass 98% aller erforderlichen Felder ausgefüllt wurden.

  • Aktualität – misst, wie zeitnah und regelmäßig Daten aktualisiert werden. Man kann etwa die durchschnittliche Alterung von Datensätzen betrachten (z.B. wie viele Tage seit letzter Änderung pro Objekt vergangen sind) oder den Anteil der Daten, der innerhalb eines definierten Zeitfensters (Quartal/Jahr) erneuert wurde. Hohe Aktualität bedeutet, dass kaum veraltete Einträge im System sind.

  • Konsistenz – bewertet, ob Datenelemente untereinander widerspruchsfrei sind. Ein Konsistenz-KPI könnte z.B. die Anzahl der Inkonsistenzen zwischen verknüpften Tabellen zählen (etwa Räume ohne zugeordnetes Gebäude, Anlagen ohne Raumbezug, Diskrepanzen zwischen summierten Flächen und Gesamtfläche). Je niedriger diese Zahl, desto konsistenter der Datenbestand.

  • Genauigkeit/Richtigkeit – schwer direkt messbar, aber indirekt über Fehlerquoten: z.B. Anteil der Datensätze, die bei Prüfungen durchgefallen sind, oder Anzahl manueller Korrekturen pro Monat. Auch Abweichungen gegenüber Realwerten (etwa Abgleich CAD-Fläche vs. vor Ort gemessene Fläche) können als Indikator dienen.

  • Eindeutigkeit – hierunter fällt vor allem die Dublettenfreiheit. Ein KPI kann die Anzahl erkannter Dubletten oder prozentual doppelt erfasster Objekte angeben. Ziel ist 0% Dubletten.

  • Validität – Anteil der Daten, der vordefinierten Wertebereichen oder Formaten entspricht. Beispiel: 100% der Telefonnummern entsprechen dem geforderten Muster, 95% der Anlagen haben einen zulässigen Statuswert usw.

Diese KPIs werden häufig als Datenqualitäts-Score zusammengefasst, um einen Gesamtzustand auszudrücken. In der Praxis bewährt es sich, für jede Datenkategorie (Gebäudedaten, Anlagendaten, Verträge etc.) spezifische Kennzahlen und Ziele zu definieren. So kann man etwa anstreben, die Vollständigkeit der Anlagendaten auf 99% zu bringen oder höchstens 5 offene Inkonsistenzen bei Verträgen zuzulassen. Eine Auswahl an gängigen Dimensionen umfasst Vollständigkeit, Genauigkeit, Konsistenz und Aktualität – diese sollten abgedeckt sein. Insbesondere Vollständigkeit, Konsistenz und Aktualität werden in vielen Projekten als kritische KPIs verfolgt, da sie die Verlässlichkeit der Informationen direkt beeinflussen.

Wichtig ist, dass die KPIs regelmäßig gemessen und ausgewertet werden. Die Werte können in Dashboard-Form visualisiert werden (siehe Monitoring) und dienen dem Data Steward und Owner als Feedback, wo Handlungsbedarf besteht. Zum Beispiel könnte ein Dashboard zeigen, dass die Aktualität der Flächendaten bei 80% liegt (20% wurden seit >1 Jahr nicht aktualisiert) – was ein Anlass wäre, die betreffenden Bereichsverantwortlichen zu kontaktieren. Trendanalysen der KPIs (Steigerung oder Verschlechterung über die Zeit) geben zudem Aufschluss über die Wirksamkeit von Maßnahmen. So lässt sich der Fortschritt der Datenqualitätsinitiative belegen und gegenüber dem Management kommunizieren.

Zusätzlich können KPIs in Service Level Agreements (SLAs) oder interne Ziele eingebunden werden – etwa, dass 100% der kritischen Stammdaten quartalsweise geprüft sein müssen. Insgesamt schaffen Datenqualitäts-KPIs Transparenz und Motivation, die abstrakte Anforderung “gute Daten” in greifbare Ziele zu überführen.

Data Governance: Richtlinien, Strukturen und Dokumentation

Eine nachhaltige Sicherstellung der Datenqualität erfordert Data Governance – also feste Strukturen, Regeln und Dokumentationspraktiken rund um die Daten.

Im Kontext von CAFM/IWMS bedeutet dies:

  • Governance-Strukturen: Etablierung einer Zuständigkeitsstruktur (vgl. Rollenmodell oben). Oft wird ein Data Governance Board oder zumindest ein fester Abstimmkreis eingerichtet, in dem FM-Verantwortliche, IT und ggf. Controlling regelmäßige Treffen abhalten, um Datenbelange zu steuern. Hier werden Richtlinien beschlossen, Verantwortliche benannt und Konflikte gelöst. In großen Organisationen gibt es evtl. einen Chief Data Officer oder Datenmanager, der auch für FM-Daten zuständig ist. Wichtig ist, dass die Führungsverantwortung für Daten klar verankert ist – d.h. auf Leitungsebene unterstützt und eingefordert wird.

  • Regelwerke und Standards: Schriftliche Datenrichtlinien definieren, wie Stammdaten anzulegen und zu pflegen sind. Dazu gehören Namenskonventionen (z.B. einheitliches Schema für Raumnummern oder Anlagenkennzeichnungen), Klassifikationsstandards (etwa Verwendung von DIN/ISO-Klassen für Flächenarten oder Anlagenarten), und Qualitätsstandards (Pflichtfelder, Aktualisierungsintervalle). Ebenso sollten Prozessregeln festgelegt sein: z.B. wer einen neuen Standort im System anlegen darf, wie mit temporären Daten (Baudaten vs. Betriebsdaten) umzugehen ist, oder wie externe Dienstleister Daten liefern müssen. Viele dieser Regeln können sich an Branchenstandards orientieren (GEFMA-Richtlinien, IFC für BIM-Daten, GAEB für Baudaten etc.), um Kompatibilität sicherzustellen.

  • Dokumentation der Daten und Prozesse: Alle relevanten Definitionen und Abläufe sollten dokumentiert und für Beteiligte zugänglich sein. Ein Datenhandbuch oder Data Dictionary im CAFM-Umfeld beschreibt die Felddefinitionen, zulässigen Werte und Datenquellen. Ergänzend bieten Business-Glossare einen Überblick der verwendeten Begriffe (z.B. was genau als “Raum” oder “Asset” gilt, Abgrenzungen, Berechnungslogiken). Diese Dokumente erhöhen die Nachvollziehbarkeit und verhindern Missverständnisse, insbesondere bereichsübergreifend. Zudem sollten Prozesse dokumentiert sein – z.B. in Form von Arbeitsanweisungen oder Ablaufdiagrammen – die festhalten, wann und wie Daten im Lebenszyklus erfasst, geprüft, geändert und archiviert werden. Gerade an Schnittstellen zwischen Abteilungen ist eine gemeinsame Dokumentation wichtig, damit jeder den Gesamtprozess versteht und weiß, wer was wann tut.

  • Schulung und Kommunikation: Governance umfasst auch, die Regeln zu kommunizieren und Anwender zu schulen. Neue Mitarbeiter im FM-Bereich sollten Einweisung in die Datenpflege-Standards erhalten. Regelmäßige Updates (z.B. per Newsletter oder Intranet) können Best Practices und “Tipps des Monats” hervorheben. Eine Kultur, in der Mitarbeiter die Bedeutung der Datenqualität kennen, trägt wesentlich zur Einhaltung der Governance bei.

  • Audit und Compliance: Zur Governance gehört schließlich die Überwachung der Einhaltung. Interne Audits prüfen, ob die Pflegeprozesse gemäß Richtlinie ausgeführt werden. Außerdem müssen ggf. gesetzliche Vorgaben beachtet werden (z.B. DSGVO bei personengebundenen Daten, Aufbewahrungsfristen für Dokumentationen im Rahmen der Betreiberverantwortung). Durch klare Verantwortlichkeiten und Dokumentation kann auch extern (Behörden, Zertifizierer) nachgewiesen werden, dass das Datenmanagement regelkonform ist. Beispielsweise fordert GEFMA 444 als Zertifizierungsstandard gewisse Dokumentationen und Standards im CAFM – ein Hinweis darauf, dass Data Governance Teil von Qualitätsmanagement im FM ist.

In Summe bildet Data Governance den organisatorischen Rahmen, in dem die zuvor genannten Aktivitäten (Pflegeprozesse, Qualitätsprüfungen, Monitoring) stattfinden. Gute Governance zeigt sich etwa daran, dass jeder Datenänderungsschritt geregelt und nachvollziehbar ist, dass bei Problemen klare Eskalationswege bestehen und dass kontinuierlich an der Optimierung gearbeitet wird. Wenn Standards und Verantwortlichkeiten konsequent festgelegt sind und gelebt werden, lassen sich viele Datenqualitätsprobleme bereits im Keim ersticken. Das CAFM-System wird so zu einer verlässlichen “Single Source of Truth” für alle Beteiligten.

Lessons Learned und kontinuierliche Verbesserung

Aus der Praxis der Einführung und Nutzung von CAFM-Systemen lassen sich einige Lessons Learned hinsichtlich Datenqualität ziehen. Erstens zeigt sich immer wieder, dass die Initialbefüllung der Daten oft unterschätzt wird – unvollständige oder fehlerhafte Startdaten wirken noch jahrelang nach und verursachen hohen Nachpflegeaufwand. Daher lohnt es sich, zu Projektbeginn genug Zeit und Budget in die Datenaufbereitung zu investieren und nicht am falschen Ende zu sparen. Zweitens darf man die laufende Pflege nicht dem Zufall überlassen: Ohne definierte Prozesse und Verantwortliche besteht die Gefahr, dass nach dem Go-Live ein schleichender Qualitätsverfall einsetzt (z.B. weil niemand sich explizit zuständig fühlt, Daten zu aktualisieren). Ein häufiger Fehler ist auch, dass Schulungen vernachlässigt werden – Mitarbeiter, die die Bedeutung der Daten nicht verstehen oder mit dem System unsicher sind, machen mehr Eingabefehler. Hier hat es sich bewährt, Key User aufzubauen, die als Multiplikatoren fungieren und Kollegen anleiten.

Eine wichtige Erkenntnis ist zudem, dass Datenqualität ein fortlaufender Prozess und kein einmaliges Projekt ist. Selbst wenn initial alles sauber erfasst wurde, ändern sich im Laufe der Zeit die Realitäten: Gebäude werden umgebaut, neue Anlagen kommen hinzu, Organisationen ändern sich. Daher muss ein Mechanismus der kontinuierlichen Verbesserung etabliert werden. In Anlehnung an Qualitätsmanagement-Methoden bietet sich z.B. der PDCA-Zyklus (Plan – Do – Check – Act) an Man plant Qualitätsziele und Maßnahmen, führt sie durch, überprüft regelmäßig mittels KPIs und Audits den Erfolg und passt Prozesse entsprechend an. Dieses systematische Vorgehen stellt sicher, dass man auf Veränderungen reagieren und die Datenpflege laufend optimieren kann.

Kontinuierliche Verbesserung bedeutet konkret:

Regelmäßige Reviews der Datenqualitäts-KPIs und ggf. Anpassung der Grenzwerte oder Prozesse, falls Ziele nicht erreicht werden. Auch das Einholen von Nutzerfeedback gehört dazu – z.B. können Fachbereichsleiter berichten, wo Daten fehlen oder Berichte unplausibel erscheinen. Solches Feedback hilft, Lücken im Datenmodell zu identifizieren oder Schulungsbedarf aufzudecken. Einige Organisationen richten sog. Datenforen ein, in denen quartalsweise alle Key User zusammenkommen, um Probleme zu besprechen und Best Practices auszutauschen.

Ein weiterer Aspekt ist die Technologie-Weiterentwicklung: Mit fortschreitender Digitalisierung (Stichwort IoT, KI) eröffnen sich neue Möglichkeiten zur Datenerfassung und -prüfung. Ein Lesson Learned ist, offen für solche Technologien zu sein – z.B. mobile Apps für die Vor-Ort-Datenerfassung einzuführen oder KI-Tools zur Anomalieerkennung im Datenbestand zu nutzen – aber sie gleichzeitig kritisch zu evaluieren, ob sie echten Mehrwert bringen.

Schließlich zeigt die Erfahrung, dass Führungskräfte die Kultur der Datenqualität vorleben müssen. Wenn das Management im Reporting falsche Zahlen toleriert oder Datenpflege als lästige Nebensache abtut, werden Mitarbeiter dem keine Priorität beimessen. Ein positiver Gegentrend ist, Datenqualität als festen Bestandteil der Leistungsindikatoren im FM-Bereich zu verankern (z.B. in Monatsreports zu berichten, wie der Datenqualitätsindex aussieht). So wird klar: qualitativ hochwertige Daten sind ein strategischer Erfolgsfaktor. Mit dieser Haltung und einem strukturierten Verbesserungsprozess kann die Datenqualität im CAFM kontinuierlich gesteigert und langfristig auf hohem Niveau gehalten werden – zum Nutzen aller Nutzer und Entscheidungsprozesse im Facility Management.

Anspruch:

Datenqualitätskontrolle und Stammdatenpflege in CAFM-Systemen erfordern eine Mischung aus Technik (Validierungen, Schnittstellen, Tools) und Organisation (Prozesse, Rollen, Governance). Produktneutral lassen sich die genannten Prinzipien überall anwenden. Wer diese ganzheitlich berücksichtigt, wird mit aktuellen, konsistenten und vertrauenswürdigen Daten arbeiten können – eine Grundvoraussetzung, um Facility Management effektiv und effizient zu betreiben