Fehlerfreie Produktdaten sind kein Zufall
Unsere Checkliste zeigt Ihnen, wie Sie Ihre Datenqualität systematisch verbessern und nachhaltig sichern.
Kevin Mattig
04 / 06 / 25·8 Min Lesen
Product Information Management
PIM-Nutzer landen früher oder später bei einem oft unterschätzten Thema: dem Data-Onboarding. Gemeint ist der Import externer Daten in eigene Systeme – zum Beispiel seine ATAMYA-Instanz. Manchmal nennt man es auch „Daten-Onboarding“ oder „Lieferantendaten-Onboarding“. Der Grund liegt auf der Hand: Händler erhalten ihre Produktdaten meist aus unterschiedlichen Quellen – von Herstellern, Lieferanten oder auch aus Datenpools.
Jeder Datenlieferant pflegt seine Daten unterschiedlich – eben so, wie es für ihn am besten erscheint. Manche Hersteller führen einzelne Excel-Listen, andere wiederum nutzen ein PIM-System. Hinzu kommt die bunte Vielfalt von Austauschformaten wie CSV, XLSX, XML, JSON, oder Datenstandards wie BMEcat, ETIM xChange und mehr.
Was für den einzelnen Datenlieferanten funktioniert, stellt den Datenempfänger aber häufig vor große Herausforderungen. Wie kann er verschiedene Daten einheitlich und passgenau in das ATAMYA-System als seine zentrale Plattform für die strukturierte Verwaltung und Ausspielung von Produktdaten importieren? Die Lösung: Ein strukturiertes, effizientes Data-Onboarding mithilfe eines „Vermittlers“ zwischen Lieferanten und Empfänger.
Dieser Beitrag zeigt, warum Data-Onboarding weit mehr als nur ein technisches Beiwerk ist, wie man es im Rahmen seines Produktdatenmanagements optimieren kann – und warum die Einhaltung von Datenqualität-Grundsätzen dabei eine essenzielle Rolle spielt.
Zugegeben: Data-Onboarding ist nicht der Smalltalk-Renner auf jeder Party. Aber warum wird dieser Teil des Produktdatenmanagements eigentlich manchmal stiefmütterlich behandelt? Ein häufiges Missverständnis ist, dass das Data-Onboarding nur ein beiläufiger Prozess hin zur Produktdatenpflege im PIM-System sei.
Wenn man sich aber den gesamten Weg der Produktdaten von ihrer erstmaligen Anlage bis hin zur finalen Produktpräsentation und -vermarktung vor Augen führt, relativiert sich diese Einschätzung. Schnell wird klar: Dem Data-Onboarding kommt sogar eine wichtige Schlüsselrolle entlang der „Content-Supply-Chain“ zu. Damit ist der vollständige Datenfluss vom Hersteller über den Händler bis hin zum Kunden bzw. Endverbraucher gemeint.
Ein Grund dafür ist die qualitätssichernde Funktion des Data-Onboardings. Es verhindert, dass minderwertige externe Daten überhaupt in eigene Systeme importiert werden und so nachgelagert Probleme verursachen. Zur Wahrheit gehört nämlich: Die Produktdatenmanagement-Prozesse im PIM sind nur so effizient wie die Datenqualität es zulässt.
Deshalb gilt: Wer direkt hochwertige, einheitliche und saubere Daten in sein PIM-System importiert, schafft die Grundlage für automatisierte Abläufe, kanalübergreifende Ausspielung und eine nachhaltig hohe Datenqualität im PIM – und darüber hinaus. Die Sichtbarkeit von Produkten im eigenen Onlineshop, in Suchmaschinen oder auf Marktplätzen hängt nicht zuletzt von der Aktualität, der Vollständigkeit, der Aussagekraft und der allgemein ansprechenden Produktpräsentation ab. Händler senken durch hochwertige Produktdaten nicht zuletzt ihre Retourenquoten und steigern ihre Verkaufschancen.
Die Notwendigkeit einer hochwertigen Datenqualität im Zuge des Data-Onboardings hat nicht zuletzt mit der Natur von PIM-Systemen zu tun. Denn: PIM-Systeme wie ATAYMA fungieren als sogenannter „Single Point of Truth“ (SPOT). Auf Deutsch bedeutet das „zentraler Ort der Wahrheit“. Was kryptisch klingt, ist ein wichtiger Vorteil von PIM-Systemen. Sie sollen nämlich die zentrale Drehscheibe für alle produktbezogenen Informationen in einem Unternehmen sein. Ihre bereichsübergreifende Nutzung verhindert die Entstehung gefährlicher „Datensilos“. Das sind separate, nicht zusammenhängende Datensätze, die z.B. unterschiedliche Daten zu denselben Produkten beinhalten können. Kurzum: Mit Datensilos herrscht Datensalat – und der schmeckt ganz und gar nicht.
Sind die Produktdaten einmal im System angelegt, können sie dort fortlaufend aktualisiert, ausgeleitet und weiterverwendet werden. Alle Abteilungen greifen also auf denselben Datenpool zu – und können sich so auf eine einheitliche Datenbasis verlassen. Produkthersteller können ihre frisch erzeugten Produktdaten zu neuen Produkten direkt im eigenen Hersteller-PIM anlegen. Zum Beispiel nutzen Vertrieb und Marketing die PIM-Produktdaten für die Erstellung von ansprechenden Produktbeschreibungen und Werbekampagnen. Großhändler wiederum beziehen externe Produktdaten von diesen Herstellern – und können sie entsprechend in ihr Händler-PIM importieren. Voraussetzung dafür ist aber ein aktives Datenmanagement: Alle Daten müssen auch immer aktuell gehalten werden sowie vollständig und aussagekräftig sein.
Die entscheidende Frage lautet also: Wie kommen verschiedene externe Produktdaten immer optimiert und passend in mein ATAMYA-System? Hierzu verwenden Unternehmen häufig eine wortwörtlich „vermittelnde Softwarelösung“ – eben eine sogenannte „Middleware“.
Spezialisierte Lieferantenmanagement-Softwarelösungen wie etwa ein Lieferantenportal (englisch auch „Supplier-Portal“ genannt) sorgen dafür, dass der Händler als Datenempfänger klar vorgeben kann, in welcher Form er überhaupt Produktdatenlieferungen akzeptiert. Jeder Datenlieferant kann seine Produktdaten dann an die geforderten Datenstrukturen (etwa gemäß der Felder im ATAMYA-System) anpassen. Das geschieht häufig mithilfe eines Datenmappings der Quelldatenfelder auf die Zielformatstrukturen des Datenempfängers.
Großhändler haben in solchen Data-Onboarding Softwarelösungen oft auch die Möglichkeit festzulegen, ob ein Lieferant sich in der Software selbst verwalten darf, ob er als Händler im Namen der Lieferanten agiert – oder ob eine hybride Rollenverteilung gewünscht ist.
Bevor die Lieferantendaten also über eine Schnittstellen-Anbindung in das ATAMYA-System importiert werden können, stehen Nutzern solcher Middleware-Tools verschiedene Datenmanagement-Prozesse zur Verfügung. Dazu gehören unter anderem:
Auch eine im PIM gepflegte Produktdaten-Klassifikation (eine individuelle Hausklassifikation oder Klassifikationsstandards wie etwa ETIM oder ECLASS) kann so generiert und automatisiert mit ausgeleitet werden.
Der Funktionsumfang solcher Data-Onboarding-Softwarelösungen ist dabei nicht nur praktisch, sondern schlicht notwendig, um eine optimale Produktdatenqualität im PIM-System zu gewährleisten. Wer regelmäßig mit (fremden) Produktdaten arbeitet, kennt vermutlich typische Hindernisse: Excel-Dateien mit frei benannten Spalten treffen auf unvollständige Pflichtfelder, Formatabweichungen oder Medienlinks, die ins Leere führen. Manchmal werden Daten auch nicht häufig genug aktualisiert – oder eine Aktualisierung wird nicht zeitnah an die Datenempfänger weitergeleitet.
Diese Praxisbeispiele zeigen: Neben klaren Regelungen fehlt es Unternehmen häufig schlichtweg an technischen Voraussetzungen für ein reibungsloses Produktdatenmanagement. Besonders bei vielen Produktdaten sind Schnittstellen-Anbindungen (etwa über eine REST-API) an Middleware-Lösungen, fremde und eigene Systeme deshalb unerlässlich.
Bei vielen Data-Onboarding-Workflows zeigt sich außerdem oft, dass es auch an der klaren Definition der Anforderungen mangelt. PIM-Nutzern bzw. Datenempfängern helfen dabei Leitfragen wie:
Die Praxiserfahrung zeigt, dass Datenmanagement-Prozesse vor allem dann funktionieren, wenn sie sowohl technisch durchdacht sind als auch klar vermittelt werden.
Sind die Strukturen einmal definiert, ist der Grundstein für einen automatisierten Data-Onboarding-Prozess gelegt. Eine Automatisierung von Datenimporten beugt manuellen Fehlern vor, spart Zeit – und ist vor allem bei vielen Produktdaten häufig alternativlos.
Ein automatisierter Data-Onboarding-Prozess lebt aber nicht nur von der richtigen Middleware, sondern auch von einer klaren Kommunikation. Nur, wenn beide Seiten – also der Datenlieferant und der Datenempfänger – wissen, worauf es bei der Datenlieferung, der Datentransformation und der Datenausleitung ankommt, lassen sich potenzielle Probleme bereits im Vorfeld vermeiden.
Ein effizienter Data-Onboarding-Workflow beginnt zum Beispiel bei der Benennung von eindeutigen Ansprechpartnern, die den Prozess fachlich durchführen und begleiten. Der eigentliche Prozess basiert seinerseits auf der Etablierung von Nutzerrollen und Rechtevergaben, der Anbindung von Datenquellen (etwa PIM, ERP oder einzelnen Dateien), der Anbindung an das ATAMYA-PIM als Zielort, die Anlage von Datenmapping-Strukturen sowie von individualisierbaren oder standardisierten Datenprüfungen.
Die tägliche Erfahrung aus vielen Data-Onboarding-Projekten zeigt: Ja, der initiale Aufwand zur Aufsetzung dieses Workflows ist einmal erforderlich. Doch er zahlt sich schnell aus – durch bessere Datenqualität, weniger Rückfragen und eine schnellere Time-to-Market. Und langfristig auch durch mehr Sichtbarkeit und bessere Verkaufszahlen dank überzeugender Produktdaten.
Dieser Beitrag zeigt: Ein professionelles Data-Onboarding ist kein Hexenwerk – sondern das Ergebnis eines gut abgestimmten Zusammenspiels aus Technologie, Prozessen und Menschen. Heruntergebrochen haben sich unter anderem diese fünf Punkte in der Praxis bewährt:
Im Zusammenspiel all dieser Facetten zeigt sich das Data-Onboarding auch als das, was es wirklich ist: Ein grundlegender Baustein für den wirtschaftlichen Erfolg im heutigen eBusiness.
Autor:
Kevin Mattig
Sales und Business Development bei nexoma
Fehlerfreie Produktdaten sind kein Zufall
Unsere Checkliste zeigt Ihnen, wie Sie Ihre Datenqualität systematisch verbessern und nachhaltig sichern.
Diese Beiträge könnten Sie auch interessieren