CAFM-System: Importwerkzeuge
Facility Management: FM-Software » Funktionen » Importwerkzeuge
Benutzerfreundliche Importwerkzeuge für die Massendatenübernahme
Um eine strukturierte und prüfbare Übernahme von Massendaten in das CAFM-System sicherzustellen – sowohl bei der Erstbefüllung als auch im laufenden Betrieb – werden im Folgenden die Anforderungen an die Importwerkzeuge definiert. Jede Anforderung ist als Muss, Soll oder Kann klassifiziert und mit einer Abnahmeprüfung versehen, anhand derer die Erfüllung im Rahmen der Systemabnahme verifiziert werden kann.
CAFM Licensing Models for Use and Operation
- Allgemeine Anforderungen an Importfunktionen
- Benutzerfreundlichkeit der Importwerkzeuge
- Qualitätssicherung
- Technische Anforderungen
- Anforderungen im Lebenszyklus
Allgemeine Anforderungen an Importfunktionen
Unterstützung gängiger Datenformate (Muss): Das System muss den Import aller gängigen Austauschformate ermöglichen, mindestens CSV-Textdateien, Microsoft Excel-Arbeitsmappen (*.xls, *.xlsx) und XML-Dateien; optional soll auch das JSON-Format unterstützt werden. Dies gewährleistet, dass Bestandsdaten aus verschiedensten Quellen ohne Konvertierungsaufwand übernommen werden können.
Abnahme: Durch Import vorbereiteter Beispieldateien in den Formaten CSV, XLS/XLSX, XML (und falls angeboten JSON) wird nachgewiesen, dass das System sämtliche Formate fehlerfrei einlesen und verarbeiten kann. Dabei darf es zu keiner Fehlinterpretation der Daten kommen (z.B. korrekte Erkennung von Trennzeichen, Sonderzeichen, Zeichensätzen).
Import von Stammdaten (Muss): Das System muss den Massendatenimport aller relevanten Stammdaten des Facility Management unterstützen. Dazu zählen insbesondere Flächen- und Gebäudegrunddaten, Raumbuch-Daten, Anlagen- und Inventarlisten, Vertrags- und Mietobjektdaten, Personaldaten (Nutzer, Mitarbeiter) sowie Leistungsverzeichnisse. Hierdurch wird sichergestellt, dass die Erstbefüllung des Systems mit allen notwendigen Grunddaten vollständig und strukturiert erfolgen kann.
Abnahme: Es wird eine vollständige Stammdatendatei (z. B. Gebäudeliste mit Hierarchie, Raumlisten, Anlagenverzeichnis) importiert. Anschließend wird überprüft, ob alle Stammdatensätze korrekt im System angelegt wurden (z. B. Gebäude mit zugehörigen Etagen und Räumen, Anlagen den richtigen Standorten zugeordnet, Verträge den Objekten zugewiesen etc.). Die Anzahl importierter Objekte muss mit der Anzahl in der Quelle übereinstimmen und alle Stammdatenfelder müssen gemäß Vorgaben gefüllt sein.
Import von Bewegungsdaten (Muss): Das System muss auch den Import großer Mengen transaktionaler Daten ermöglichen. Darunter fallen beispielsweise historische Wartungs- und Instandhaltungsdaten (Wartungshistorien), Helpdesk-Tickets oder Störmeldungen, Zählerstände und Verbrauchsdaten sowie andere periodisch anfallende Betriebsdaten. Dies stellt sicher, dass bei Systemwechsel auch Verlaufsdaten übernommen werden und im laufenden Betrieb Massendaten (etwa regelmäßige Zählerstand-Updates) eingelesen werden können.
Abnahme: Durch Import einer Testdatei mit Bewegungsdaten (z. B. einer Liste von Wartungstickets oder Zählerständen) wird geprüft, ob das System diese korrekt den vorhandenen Stammdatensätzen zuordnet (etwa Zählerstände den richtigen Zählern/Gebäuden, Tickets den richtigen Objekten) und die Daten vollständig in der Datenbank gespeichert werden. Zudem wird kontrolliert, ob zeitbezogene Daten (z. B. Datum der Wartung) und Beziehungen (z. B. Verknüpfung eines Tickets mit einem Raum oder einer Anlage) erhalten geblieben sind.
Unterstützung strukturierter Hierarchien (Muss): Das Importwerkzeug muss hierarchisch strukturierte Daten einlesen können, damit Objekthierarchien automatisch abgebildet werden (z. B. Liegenschaft > Gebäude > Etage > Raum). Beim Import sollen Eltern-Kind-Beziehungen in den Datensätzen erkannt und im System entsprechend angelegt werden. Dadurch bleibt die logische Struktur der FM-Daten erhalten.
Abnahme: Ein hierarchischer Beispieldatensatz (mit eindeutigen Referenzen für Hierarchieebenen, z. B. Gebäudekennung, Etagen- und Raumnummern) wird importiert. Anschließend wird im System geprüft, ob alle Hierarchieebenen korrekt erzeugt wurden – z. B. ob Räume den richtigen Etagen und Gebäudeobjekten zugeordnet sind und die Gesamtstruktur der importierten Objekte der Quelldaten-Hierarchie entspricht.
Benutzerfreundlichkeit der Importwerkzeuge
GUI-gestützter Import mit Vorschau und Feldzuordnung (Muss): Das System muss eine benutzerfreundliche, grafische Importoberfläche bieten, die den Anwender schrittweise durch den Importvorgang führt (Assistent/Wizard). Vor dem finalen Import soll eine Vorschau der Daten angezeigt werden, und der Benutzer muss die Möglichkeit haben, Quell-Datenfelder zu Ziel-Feldern zuzuordnen (Mapping). Zudem sollen bereits an dieser Stelle grundlegende Plausibilitätsprüfungen stattfinden, um offensichtliche Fehler vor dem Import abzufangen. Dies ermöglicht, Eingabedateien komfortabel aufzubereiten und verhindert Fehleinspielungen.
Abnahme: Der Import einer Beispieldatei wird über die GUI durchgeführt. Dabei wird überprüft, ob der Importassistent alle Schritte bereitstellt: Auswahl der Datei, Konfiguration des Mappings (mit Zuordnung der Spalten zu CAFM-Datenfeldern), Anzeige einer Datenvorschau sowie Durchführung einer Vorab-Prüfung. Es muss demonstriert werden, dass der Nutzer z. B. Feldnamen aus der Datei per Dropdown den entsprechenden Zielfeldern im System zuordnen kann und dass das System vor dem Import etwaige Unstimmigkeiten (z. B. unbekannte Felder) meldet, statt sofort zu importieren.
Plausibilitätsprüfung und Fehlermeldungen (Muss): Das Importwerkzeug muss Eingabedaten vor und während des Imports validieren und dem Anwender verständliche Rückmeldungen geben. Bei Dateninkonsistenzen, fehlenden Pflichtfeldern, Dubletten oder ungültigen Formaten muss der Importvorgang mit einer eindeutigen Fehlermeldung abgebrochen oder die betreffenden Datensätze übersprungen werden. Der Benutzer soll für jeden Fehler einen Hinweis erhalten (z. B. welche Zeile/ID betroffen und welcher Grund vorliegt), um die Quelle korrigieren zu können. Diese Funktion stellt sicher, dass nur qualitativ einwandfreie Daten ins System gelangen.
Abnahme: Es wird eine fehlerhafte Importdatei (mit z. B. einem Datensatz ohne verpflichtende Raumnummer oder einer doppelten Anlagen-ID) eingelesen. Erwartet wird, dass das System die Fehler erkennt und meldet, z. B. in Form eines Protokolls oder Pop-up-Hinweises, und den Import dieser fehlerhaften Datensätze unterbindet. In der Abnahmedokumentation ist festzuhalten, dass die angezeigten Fehlermeldungen den Fehlerursachentext (wie „Pflichtfeld X fehlt“ oder „Dubletten gefunden in Zeile Y“) enthalten und der Import ohne Datenverlust abbricht bzw. nur korrekte Datensätze übernommen wurden.
Wiederholbarkeit, Protokollierung und Rollback (Soll): Wiederkehrende Importvorgänge sollen für den Benutzer effizient durchführbar sein. Insbesondere soll das System Importkonfigurationen (Mappings, Einstellungen) speichern oder als Vorlage exportieren können, damit gleichartige Importe (z. B. monatliche Personaldaten-Updates) ohne erneute Feldzuordnung wiederholt werden können. Jeder Importdurchlauf soll ein Ergebnisprotokoll erzeugen, in dem zusammengefasst ist, welche Datensätze importiert wurden und ob/welche Fehler aufgetreten sind. Außerdem soll das Importwerkzeug transaktional arbeiten: d. h. bei schweren Fehlern wird der gesamte Import rückabgewickelt (Ganz-oder-gar-nicht-Prinzip), sodass keine halbfertigen Datenbestände entstehen. Idealweise wird eine explizite Rollback-Funktion bereitgestellt, um einen abgeschlossenen Import bei Bedarf vollständig rückgängig machen zu können.
Abnahme: Eine Importsession mit mehreren Datensätzen wird durchgeführt, bei der reproduzierbar ein Fehler auftritt (z. B. durch eine fehlerhafte Zeile in der Mitte der Datei). Es wird erwartet, dass kein Teilimport im System verbleibt, sobald der Fehler auftritt (d. h. entweder alle oder keine Datensätze werden übernommen). Anschließend wird die Fehlerursache behoben und der Import erneut ausgeführt, wobei die zuvor gespeicherten Mapping-Einstellungen genutzt werden (ohne erneute manuelle Zuordnung). Weiterhin wird geprüft, ob ein Importprotokoll erstellt wurde, das u.a. Anzahl der importierten Datensätze sowie Fehlerdetails ausweist. Sofern vom Anbieter vorgesehen, wird auch die Rollback-Funktion getestet: Nach einem erfolgreichen Import wird dieser mittels bereitgestellter Funktion wieder entfernt, und es wird verifiziert, dass die zuvor importierten Daten vollständig aus dem System verschwunden sind.
Qualitätssicherung und Governance
Validierung von Pflichtfeldern, Formaten und Referenzen (Muss): Das System muss im Importprozess sicherstellen, dass alle Pflichtfelder befüllt sind und die Daten den vorgegebenen Formaten und Wertebereichen entsprechen. Daten, die diesen Regeln widersprechen (etwa Text in einem Zahlenfeld, ungültige Datumsformate, Werte außerhalb definierter Bereiche), dürfen nicht übernommen werden. Außerdem muss eine Referenzprüfung stattfinden: z. B. darf ein Datensatz für eine Anlage nicht importiert werden, wenn die referenzierte Standort- oder Gebäude-ID im System nicht existiert (Vermeidung „verwaister“ Datensätze). Ebenfalls soll eine Duplikatsprüfung erfolgen, um doppelte Einträge anhand eindeutiger Schlüssel (IDs, Namen o.ä.) zu erkennen. Diese Maßnahmen gewährleisten die Datenkonsistenz und Integrität der importierten Informationen.
Abnahme: Es werden gezielt fehlerhafte Datensätze importiert, u.a. mit fehlenden Pflichtangaben (z. B. kein Raumname), falschem Datentyp (z. B. Text in Zahlfeld) und inkonsistenten Schlüsseln (z. B. Verweis auf nicht vorhandene Oberobjekte oder doppelte Primärschlüssel). Die Abnahme ist bestanden, wenn das System alle diese Fehler abfängt und meldet, d.h. die betreffenden Datensätze nicht importiert und im Protokoll oder in der UI jeweils ausweist, warum (z. B. „Import abgelehnt: Gebäude-ID XYZ existiert nicht“ oder „Datensatz Duplikat von Zeile 10 erkannt“). Es wird außerdem kontrolliert, dass trotz Fehlermeldungen der Importprozess für valide Datensätze weiterläuft bzw. korrekt abbricht, ohne das System in einen inkonsistenten Zustand zu versetzen.
Nutzung vordefinierter Datenmodelle und Mapping-Vorlagen (Soll): Das System soll vordefinierte Importschemata für gängige CAFM-Datenmodelle oder die Möglichkeit zum Laden von Mapping-Vorlagen bereitstellen. Dadurch kann der Import für Standardobjekte (z. B. Flächen nach DIN 277, Personalstammdaten, Gerätekataster) mit minimalem Aufwand eingerichtet werden. Idealerweise liefert das System bereits Vorlagen oder Beispiele mit, wie bestimmte externe Datenquellen abzubilden sind, was die Importdauer reduziert und Fehlzuordnungen vorbeugt. Diese Vorlagen sollten vom Anwender anpassbar sein, um individuelle Felder oder kundenspezifische Erweiterungen zu berücksichtigen.
Abnahme: Der Anbieter stellt eine oder mehrere Mapping-Vorlagen für typische Anwendungsfälle (z. B. Import einer Gebäudestruktur oder Personaldaten) zur Verfügung. Im Test wird eine solche Vorlage ausgewählt und auf einen entsprechenden Beispieldatensatz angewendet. Es wird geprüft, ob alle Felder automatisch korrekt zugeordnet wurden und der Import ohne zusätzliche manuelle Zuordnungsschritte ablaufen konnte. Zusätzlich wird evaluiert, ob eigene Importvorlagen erstellt und gespeichert werden können (z. B. durch Anpassung einer bestehenden Vorlage und anschließenden erneuten Import mit dieser).
Protokollierung aller Importe (Muss): Jede durchgeführte Datenübernahme muss vom System protokolliert werden, um Nachvollziehbarkeit und Accountability zu gewährleisten. Mindestens sind der ausführende Benutzer/Konto, Datum und Uhrzeit, die Art des Imports (welche Datenart/-objekte) sowie das Ergebnis (Anzahl importierter Datensätze, Anzahl Fehler) festzuhalten. Idealerweise wird auch ein Verweis auf die ursprüngliche Importdatei oder ein Abbild der importierten Daten gespeichert, um spätere Analysen zu ermöglichen. Die Protokolle sollten für Administratoren einsehbar und gegen nachträgliche Manipulation geschützt sein (revisionssichere Ablage).
Abnahme: Nach Durchführung mehrerer Importvorgänge wird das Import-Protokoll bzw. der Import-Verlauf im System kontrolliert. Für jeden Import muss ein Eintrag vorhanden sein mit den oben genannten Informationen (Benutzer, Zeitstempel, Kategorie/Objekt des Imports, Anzahl Datensätze, Fehlermenge). Zum Nachweis wird beispielsweise ein Screenshot oder Log-Export der Import-Historie vorgelegt. Zudem wird überprüft, ob die protokollierten Informationen konsistent mit den tatsächlich durchgeführten Imports sind (z. B. stimmt die angegebene Anzahl importierter Datensätze mit der Testdatei überein).
Technische Anforderungen
Performance bei großen Datenmengen (Muss): Die Importfunktion muss auch bei sehr großen Datenbeständen performant und stabil arbeiten. Imports von deutlich über 100.000 Datensätzen sollten in angemessener Zeit durchführbar sein, ohne Fehler durch Zeitüberschreitung oder Speicherengpässe. Dies setzt eine effiziente Verarbeitung (z. B. Streaming-Verarbeitung von Dateien) voraus. Etwaige Limitierungen (Batch-Größen, maximale Dateigrößen) müssen hoch genug angesetzt sein, um praxisübliche Massendaten (z. B. Gebäudedaten großer Portfolios oder mehrere Jahre Historie) in einem Durchlauf zu importieren.
Abnahme: Es wird ein Stresstest durchgeführt, bei dem eine sehr große Importdatei (z. B. 100.000+ Datensätze in CSV) eingelesen wird. Die Abnahme gilt als bestanden, wenn der Import vollständig und in vertretbarer Dauer (z. B. innerhalb weniger Stunden, gemäß vereinbartem Performanceziel) abgeschlossen wird, ohne dass das System instabil wird oder abstürzt. Während des Imports soll das System ansprechbar bleiben und die Auslastung (CPU, Speicher) im erwartbaren Rahmen liegen. Die genaue Dauer und Systemauslastung wird protokolliert, um die Performance-Anforderung nachvollziehbar zu belegen.
Mandantenfähigkeit der Importwerkzeuge (Muss): Die Importfunktion muss in einer mandantenfähigen Umgebung einsetzbar sein. Das bedeutet, dass bei mehreren Mandanten (z. B. Tochtergesellschaften oder externe Kunden in einer gemeinsamen Plattform) Datenimporte mandantenspezifisch erfolgen und keine Mandantenübergreifenden Effekte haben. Importierte Daten müssen eindeutig dem Mandanten zugeordnet werden, unter dessen Kontext sie durchgeführt wurden, und dürfen keine Objekte anderer Mandanten überschreiben oder vermischen.
Abnahme: In einem Test mit zwei Mandanten in derselben Instanz wird für Mandant A und Mandant B jeweils eine Importdatei mit eindeutigen Datensätzen (z. B. gleiche Objektschlüssel in verschiedenen Mandanten) eingelesen. Nach den Imports wird verifiziert, dass jeder Datensatz nur im Ziel-Mandanten vorhanden ist und keine Daten des jeweils anderen Mandanten beeinflusst wurden. Beispielsweise könnten zwei Mandanten je eine Gebäude-Datei mit identischen Gebäudekennungen importieren – in der Abnahme muss ersichtlich sein, dass diese Gebäude getrennt in den jeweiligen Mandantenbereichen existieren.
Automatisierbarkeit und API-Integration (Soll): Das System soll neben dem manuellen GUI-Import auch automatisierte Importmöglichkeiten bieten. Dies kann über eine offene API (z. B. REST/SOAP-Webservice) oder skriptgesteuert durch Stapelverarbeitungen erfolgen. Ziel ist die Anbindung von Drittsystemen für den regelmäßigen Datenaustausch: externe Anwendungen sollen programmatisch Datensätze an das CAFM-System übergeben können, ohne manuelles Zutun. Idealerweise können Importe zeitgesteuert (z. B. nächtlicher Batch) oder eventgesteuert (Trigger bei neuer Datei in definiertem Verzeichnis oder Webhook-Aufruf) angestoßen werden. Dadurch wird eine nahtlose Systemintegration ermöglicht (z. B. fortlaufende Synchronisation mit HR- oder ERP-Systemen).
Abnahme: Es wird getestet, ob ein Importvorgang über externe Schnittstellen ausgelöst werden kann. Beispielsweise ruft ein Scripts oder ein API-Client einen Import-Webservice des CAFM-Systems auf und übergibt eine Datendatei. Die Abnahme ist erfolgreich, wenn der Import über diese Schnittstelle vollständig durchläuft (entsprechend den gleichen Validierungsregeln wie der manuelle Import) und das System die Daten korrekt übernimmt. Weiter wird geprüft, ob eine Dokumentation der API/Schnittstelle vorliegt und ob Scheduling-Funktionen vorhanden sind (z. B. ein geplanter nächtlicher Importjob über einen Scheduler oder Cron-ähnlichen Mechanismus).
Anforderungen im Lebenszyklus
Datenübernahme bei Systemeinführung (Muss): Das System muss Werkzeuge bereitstellen, um bei der Ersteinführung oder beim Wechsel vom Altsystem alle Bestandsdaten zu migrieren. Große Datenmengen aus vorhandenen Quellen (oft Excel-Listen oder externe Datenbanken) müssen effizient importierbar sein. Dazu zählt auch die Konvertierung bzw. Aufbereitung von Altdaten (z. B. Zuordnung alter Schlüssel zu neuen IDs), wofür das Importwerkzeug unterstütztende Funktionen bieten sollte. Ziel ist, dass zum Produktivstart des CAFM sämtliche benötigten Altdaten vollständig und korrekt im System verfügbar sind, ohne manuelle Nacherfassung.
Abnahme: Im Projekt wird ein vollständiger Initialdaten-Import durchgeführt (z. B. Einlesen der Altdaten aus dem Vorgängersystem). Der Anbieter dokumentiert den Importprozess und weist nach, dass alle vereinbarten Datenobjekte übernommen wurden. In der Abnahme wird exemplarisch geprüft, ob stichprobenartig kritische Daten (z. B. Gebäudeflächen, Vertragsdaten, technische Anlagen) aus dem Altsystem im neuen System vorhanden und konsistent sind. Zudem wird bestätigt, dass das Importwerkzeug in der Lage war, große Excel-Exportdateien des Altsystems direkt einzulesen oder mit vertretbarem Aufwand in ein unterstütztes Format zu überführen.
Regelmäßige Importe im Betrieb (Soll): Das System soll unterstützen, dass auch nach der Erstbefüllung laufend Massendatenimporte durchgeführt werden können. Typische Anwendungsfälle sind z. B. monatliche Personaldaten-Updates (Neueintritt/Austritt von Mitarbeitern), regelmäßige Importe von Verbrauchsdaten (Energie, Wasser) oder jährliche Aktualisierungen von Prüfdaten und Inventarlisten. Die Importwerkzeuge sollen hierfür effizient nutzbar sein und die Datenbestände bei jedem Import inkrementell aktualisieren, ohne Duplikate zu erzeugen oder alte Daten ungewollt zu überschreiben.
Abnahme: Es wird eingerichtet, dass ein wiederkehrender Import (z. B. monatlich) mit aktualisierten Daten erfolgt. In der Testabnahme wird zweimal hintereinander eine Importdatei mit leicht veränderten Daten eingelesen (z. B. einmal mit Stand Januar, einmal mit Stand Februar). Danach wird überprüft, ob das System die Änderungen korrekt übernommen hat (z. B. neue Personen hinzugefügt, ausgeschiedene Personen als inaktiv markiert, geänderte Zählerstände aktualisiert) und keine doppelten Datensätze entstanden sind. Auch die Handhabung unveränderter Datensätze wird begutachtet – idealerweise werden diese erkannt und nicht dupliziert, sondern nur neue oder geänderte Daten angepasst.
Versionierung und Vergleichbarkeit von Importständen (Kann): Es kann vorgesehen werden, dass Importvorgänge versionsverwaltet oder historisch archiviert werden. Beispielsweise könnte das System jede importierte Datei mit Zeitstempel speichern oder den Importverlauf so anbieten, dass frühere Importschritte und Datenstände nachvollziehbar bleiben. Dies ermöglicht es, Unterschiede zwischen zwei Importzeitpunkten zu analysieren (was hat sich geändert?) und bei Bedarf einen früheren Stand zu rekonstruieren. Diese Anforderung ist insbesondere für lange laufende Systeme hilfreich, um Datenänderungen über die Zeit transparent zu machen.
Abnahme: Optional wird geprüft, ob das System einen Import-Historienvergleich zulässt. Dazu werden zwei unterschiedlich Versionen einer ähnlichen Datenliste (z. B. Inventarstand 2025 vs. 2026) nacheinander importiert. Wenn die Funktion vorhanden ist, sollte das System z. B. Unterschiede in den Importprotokollen darstellen oder einen Bericht erzeugen können, der geänderte/neue/entfernte Datensätze zwischen den Importläufen ausweist. Ist diese Funktion nicht Bestandteil des Systems, wird die Abnahme der Kann-Anforderung entsprechend vermerkt (keine Ausschlusskriterien, aber potentieller Mehrwert in der Bewertung).
