Interview mit Arvato Systems zum Thema B2B E-Commerce

Interview mit Arvato Systems zum Thema B2B E-Commerce

Matthias Weber im Gespräch mit Dr. Angela Bischoff, Vice President bei Arvato Systems,  zum Thema B2B E-Commerce.

Das Interview ist auch in englischer Sprache verfügbar: Interview with Arvato Systems: B2B E-Commerce …

Auf unsere 5 Fragen zum Thema „B2B E-Commerce“ gibt uns Dr. Angela Bischoff, Vice President bei Arvato Systems, Antworten.

5 Fragen an Arvato Systems zum Thema „B2B E-Commerce“

1. Worin unterscheidet sich B2B eCommerce von B2C eCommerce?

Kunden, egal ob B2C oder B2B, erwarten heute durchgängige und konsistente Einkaufserlebnisse. E-Commerce Seiten für Händler können es heute bereits mit den besten Consumer-Websites aufnehmen. Relevante Informationen, Produkte & Services müssen jederzeit und über jeden denkbaren Touchpoint zur Verfügung stehen. Individualisierung & Relevanz sind die entscheidenden Faktoren für das perfekte Shopping-Erlebnis und um Umsatzsteigerungen zu erzielen – das gilt für B2B genauso wie für B2C. Die technischen Anforderungen sind und bleiben jedoch unterschiedlich: Im Geschäftskundenbereich muss die E-Commerce-Lösung zusätzliche Herausforderungen meistern.

Beispiele sind:

  • Die Unterstützung komplexer Preisgefüge und Kataloge
  • Zugriff auf Bestände, kundenspezifische Preise und Zahlungsbedingungen
  • Verarbeitung von Mengenstaffeln und Rabattierungen
  • Vorhalten vielfältiger Lieferadressen + Zahlmethoden
  • Verwaltung verschiedener User-Rollen, komplexer Organisationshierarchien und Workflow-Freigaben

Arvato Tipp: Wählen Sie einen IT-Dienstleister, der sich mit den Anforderungen von E-Commerce in B2C und B2B auskennt – so verbinden Sie das nötige Know-how der B2B Komplexität mit dem perfekten Shopping-Erlebnis aus B2C!

Die Digitalisierung bringt beinahe im Minutentakt neue Trends mit sich – wer behält da den Durchblick und weiß, welche der Trends echte Relevanz haben? Wir betrachten die Trends, die mehr als ein kurzes Strohfeuer sind, sich unserer Meinung nach nachhaltig etablieren werden und einen echten Mehrwert bieten – sowohl für Unternehmen als auch für Kunden. Drei relevante Trends und unsere Einschätzung:

  • Voice Commerce: Zukünftig wird es auch im deutschen Markt deutlich mehr sprachgeführte Assistenzsysteme geben. Warum das so ist? Ganz einfach: Unsere Sprache ist das beste Eingabemedium überhaupt! Wir sprechen einfach drauf los, auch komplexe Sachverhalte formulieren wir problemlos und schnell ohne lästiges Tippen. Zudem prognostizieren es die weltweiten Verkaufszahlen von Amazon, Google & Co. bereits: Conversational Commerce ist mehr als nur die sprichwörtlich „nächste Sau, die durchs Dorf getrieben wird“. Das Fazit: Händler, sowohl B2C als auch B2B, müssen sich auf diese Entwicklungen einstellen.
  • Künstliche Intelligenz & Chatbots: Mit künstlicher Intelligenz (KI) ausstaffierte Chatbots sollen Alltag und Einkauf erleichtern und ein Stück bequemer machen – online und offline – im B2C genauso wie im B2B Business: Warum im Webshop per Filterfunktion nach dem richtigen Produkt suchen, wenn der Bot mit nur wenigen Worten das Produkt auf Anhieb findet? Zukunftsforscher prognostizieren eine folgenreiche Entwicklung und auch wir meinen, dass in Zukunft die rasant wachsende Leistungsfähigkeit künstlicher Intelligenz den Einsatz von Bots im E-Commerce treiben wird.
  • Echtzeit Personalisierung: Relevanz, Relevanz und noch einmal: Relevanz. Wir von Arvato können es eigentlich nicht oft genug sagen. Der Erfolgsfaktor für den Gewinn, aber auch die Bindung bereits vorhandener Kundengruppen, hängt maßgeblich von den Informationen ab, die wir unseren Usern von zur Verfügung stellen. Sind Informationen oder Empfehlung nicht von Relevanz, dann ist ein potenzieller Kunde oder ein Bestandskunde schneller weg, als wir gucken können und kauft im schlechtesten Fall beim Marktbegleiter. Idealerweise kennen Sie deshalb Ihre Kunden, deren Bedürfnisse und Vorlieben im Detail und spielen auf Basis von Echtzeit-Informationen Marketingmaßnahmen aus, die den Kunden zum Auftrag führen

3. Wie wichtig ist die User Experience im B2B eCommerce?

Wir haben es bereits erwähnt: Der User im B2B E-Commerce erwartet B2C ähnliche Einkaufserlebnisse. Auch Geschäftskunden erwarten einen einfachen und intuitiven Umgang mit Systemen, um schnell und komfortabel ans Ziel zu kommen. Im B2B Umfeld besteht die Herausforderung darin, komplexe Anforderungen (Beispiele: Kunden Selfservice-Optionen, Support bei komplexen Produktkonfigurationen oder eine exzellente Such- und Navigationsfunktion) in eine perfekte Customer Experience münden zu lassen. Das Ergebnis: Hohe Kundenzufriedenheit, gesteigerter Umsatz!

4. Worauf sollte man bei der Auswahl von einer B2B eCommerce Plattform achten?

Achten Sie bei der Auswahl einer B2B E-Commerce Plattform darauf, dass diese heute und in Zukunft den Anforderungen Ihres Unternehmens gewachsen ist. Betrachten Sie dabei nicht nur die aktuellen Herausforderungen, sondern denken Sie auch an künftige Geschäftsentwicklungen. Ein wichtiger Aspekt besteht in der Skalierbarkeit – wächst Ihre Webseite, sollte die Commerce-Plattform mit der positiven Entwicklung schritthalten. Bedienen Sie alle möglichen Touchpoints – egal, ob online oder offline – und stellen Sie so die Omnichannel-Fähigkeit sicher. Planen Sie, mehrere globale Websites zu betreiben? Dann kommen viele Anforderungen, von Sprachvarianten über kulturelle Unterschiede, auf Sie zu, die Sie erfolgreich bedienen müssen. Wählen Sie auch eine Plattform, die neben B2B im Fall der Fälle auch B2C bedienen kann. Bleiben Sie so flexibel und gewappnet für neue Geschäftsmodelle! Eine zuverlässige Performance ist das A und O jeder E-Commerce-Plattform – entscheiden Sie sich daher für ein System mit einer modernen Architektur, die sich im Bedarfsfall flexibel erweitern lässt. So sind Sie auch für Innovationen gut gerüstet

5. Welche Schritte sollte man bei der Einführung einer B2B eCommerce Plattform beachten?

Erfolgreiche B2B E-Commerce Projekte sind dadurch gekennzeichnet, dass Geschäftsprozesse im Sinne der Kunden neu gedacht und nicht nur digitalisiert werden. Dabei ist es wichtig zu wissen, was Kunden zukünftig vom Unternehmen erwarten. Wer sich in seine Kunden hineinversetzen und zukünftige Bedürfnisse frühzeitig erkennt, stärkt die Wettbewerbsposition seiner Kunden und damit seine eigene. Design Thinking ist eine innovative Methode, die bei diesem Prozess helfen kann. Vor dem Hintergrund sind alle internen und externen Stakeholder und Meinungsführer einzubinden.

Achtung: Ein B2B E-Commerce Projekt ist kein Software Projekt! Es ist zum Großteil ein Organisationsprojekt, welches fast alle Bereiche des Unternehmens sowie definitiv die gesamte Interaktion mit den Kunden betrifft. Nachdem der Projektscope, Verantwortlichkeiten und Budgets geklärt sind, ist es sinnvoll, einen Geschäftsbereich / Geschäftsprozess zu identifizieren und ihn auf der neuen B2B E-Commerce Plattform abzubilden. Eine Abbildung dicht am Standard mit einer tiefen Integration in den vorhandenen Systemverbund ist oft ratsam. Parallel dazu ist an der Qualität der Stammdaten und der Aufbereitung von wertigem Content zu arbeiten, welche im Digitalgeschäft unabdingbar sind. Erste Erfahrungen aus der Phase helfen in einem agilen Ansatz die Anforderungen an die weiteren Phasen zu validieren und den Scope anzupassen. Ein Rollout in den Dimensionen Ländern, Sortimente, Kundensegmente sowie Funktionalitäten schließt sich dem an.


Das Interview wurde schriftlich, mit Dr. Angela Bischoff, Vice President bei Arvato Systems geführt

Dr. Angela Bischoff ist Vice President bei Arvato Systems und verantwortet das Projektgeschäft sowie die Produktentwicklung im E-Commerce für die Regionen Deutschland, Österreich, Schweiz sowie die USA. Nach dem Technomathematik Studium an der TU Clausthal und der Promotion an der TU Braunschweig hat Frau Dr. Bischoff, mit Beginn der ersten E-Commerce Welle im Jahr 2000, internationale Projekte ganzheitlich (eshop, Customer Service, Logistik, Finanzen) für unterschiedliche Branchen und Kunden architektonisch designed und gesteuert.

Als international agierender IT-Spezialist unterstützt Arvato Systems namhafte Unternehmen bei der Digitalen Transformation. Mehr als 3.000 Mitarbeiter an weltweit über 25 Standorten stehen für hohes technisches Verständnis, Branchen-Know-how und einen klaren Fokus auf Kundenbedürfnisse. Als Team entwickeln wir innovative IT-Lösungen, bringen unsere Kunden in die Cloud, integrieren digitale Prozesse und übernehmen den Betrieb sowie die Betreuung von IT-Systemen. Zudem können wir im Verbund der zum Bertelsmann-Konzern gehörenden Arvato ganze Wertschöpfungsketten abbilden. Unsere Geschäftsbeziehungen gestalten wir persönlich und partnerschaftlich mit unseren Kunden. So erzielen wir gemeinsam nachhaltig Erfolge.

Der Beitrag wurde ursprünglich hier veröffentlicht …

#digitalnormal: So gelingt Unternehmen der digitale Wandel

In vier Schritten zur digitalen Normalität: godesys erläutert, warum es wichtig ist, manche neuen Wege auszuprobieren, aber nicht jedem Hype zu folgen.

#digitalnormal: So gelingt Unternehmen der digitale Wandel

Diskussionsstoff, Herausforderung und Wachstumsmotor: Die Studie „Psychologie der Digitalisierung“ hat jüngst herausgefunden, dass jeder zweite Befragte den digitalen Wandel als großes Wagnis sieht. Doch damit das Potenzial digitaler Geschäftsprozesse wie Effizienz- und Umsatzsteigerungen voll ausgeschöpft werden kann, muss ein Umdenken stattfinden. Die Mainzer ERP-Experten von godesys wollen Unternehmen die Angst vor der Digitalisierung nehmen und fordern daher: Digital muss zur Selbstverständlichkeit werden!

Wie dies gelingen kann, zeigen die folgenden vier Schritte auf dem Weg zur digitalen Normalität:

Schritt 1: Digitalstrategie und Ziele formulieren

Der digitale Wandel steht laut godesys auf vier Eckpfeilern, die Unternehmen mithilfe ihrer ERP-Software vermehrt adressieren sollten: Geschäftsprozessmanagement (BPM), Mobility, Omnichannel und Informationsmanagement. Um diesbezüglich aber durchdacht und erfolgreich agieren zu können, müssen zuallererst klare Chancen und Marktpotenziale der Digitalisierung für das eigene Unternehmen und die Branche identifiziert werden. Hierbei gilt es, den Kunden, seine Anforderungen und Wünsche in den Fokus zu rücken und digitale Angebote wie Onlineshopping oder mobile Applikationen bereitzustellen, beziehungsweise Kunden individuelle Produkte anzubieten. Doch erst wenn die Ziele klar definiert sind, können Technik und Software folgen. Firmen sollten diesbezüglich eine stringente und nachvollziehbare Roadmap aufstellen und darin die wichtigsten Ziele und wie diese erreicht werden können formulieren. Des Weiteren ist es sinnvoll, digitale Wettbewerber zu analysieren: Was muss unternommen werden, um Innovationen und Lieferzeiten zu beschleunigen? Last but not least gilt es, die IT auf den Prüfstand zu stellen. Veraltete Geschäftssoftware bremst Digitalisierungsvorhaben aus. Stattdessen müssen IT und Geschäftsstrategie eine Einheit bilden, Lösungen sollten sich flexibel an neue Anforderungen anpassen lassen. Denn: Wer immer bei Altbewährtem bleibt, sitzt irgendwann auf dem schnelleren Pferd, aber nicht im Rennauto. Daher heißt es Ausprobieren, aber nicht jedem Hype folgen. Zu diesem neuen Denken gehört auch: Kleine Fehler sind okay und miteinkalkuliert, denn das Unternehmen ist gut vorbereitet und kann gegensteuern.

Schritt 2: Von Anfang an alle Mitarbeiter ins Boot holen

Zu Beginn des Digitalisierungsvorhabens müssen sich Entscheidungsträger und Firmenlenker klarmachen, dass alle Rädchen im Firmengetriebe den digitalen Wandel mittragen müssen. Gibt es Zweifel hinsichtlich seines Nutzens, ist dies eine denkbar schlechte Ausgangslage. Daher muss von Anfang an eine klare und ehrliche Botschaft vermittelt werden:

„Nein, die Digitalisierung ist kein Drohszenario. Sie ist aber auch kein Allheilmittel ohne Risiken und Schattenseiten. Stattdessen muss digital zur Normalität werden.“

godesys empfiehlt in diesem Zusammenhang, Unternehmensausrichtung und -ziele stets transparent und kontinuierlich an die Mitarbeiter heranzutragen. Alle Abteilungen und Bereiche – von der Geschäftsführung bis zum Praktikanten – sollten wissen, wofür sie arbeiten und warum digitale Prozesse ihre Arbeit und das Unternehmen als Ganzes voranbringen. Zudem sollten digitale Prozesse mit konkreten Beispielen erläutert und veranschaulicht werden:

„Wenn wir dieses Tool einsetzen, lassen sich Aufwand und Kosten reduzieren. Es bleibt mehr Zeit für diese oder jene Aufgabe.“

Gleichzeitig ist es wichtig, umfassende Schulungen in neuen Prozessen und Tools anzubieten, so dass Mitarbeiter persönlich erfahren, welche Vorteile Anwendungen zur Zielerfüllung #digitalnormal mit sich bringen. Eine intuitive Benutzerführung und ein attraktives Design sind in diesem Zusammenhang wichtiger denn je.

Schritt 3: Priorisieren

Die Digitalisierung ist eine Reise, die aus vielen kleinen Schritten besteht. Zwar sollte das große Ziel stets präsent sein. Jedoch ist es ratsam, immer wieder Teiletappen festzulegen und Abschnitte zu priorisieren. Auf die Geschäftsstrategie angepasste, funktionsstarke Werkzeuge können helfen, diese Herausforderung zu meistern. Um das geeignete Tool zu finden, sollten Firmen Use Cases identifizieren, die sich vergleichsweise einfach und schnell testen lassen. Ein Beispiel ist der Einsatz von mobilen Endgeräten.

Godelef Kühl, Gründer und Vorstandsvorsitzender der godesys AG, führt aus:

„Mithilfe von godesys ERP stellen sich Unternehmen dieser Herausforderung, denn unsere Lösung begleitet das Digitalisierungsvorhaben Schritt für Schritt, ganz nach individueller Vorgabe. Zugleich lassen sich Kunden optimal bedienen. Das Thema Mobilität wird hierbei immer wichtiger, um die Möglichkeiten des digitalen Zeitalters bestmöglich in die Geschäftsstrategie einfließen zu lassen.“

Schritt 4: Erfolge feiern

Um die Bedeutung und Vorteile der Digitalisierung immer wieder vor Augen zu führen, rät godesys, auch kleine Erfolge zu feiern. Firmenlenker und Mitarbeiter müssen sich stets daran erinnern, warum der digitale Wandel sie voranbringt. Ein Beispiel: Zehn Prozent der Kundenbestellungen sind mittlerweile elektronisch. Dieses Resultat wird im Intranet und mit kleinen Aktionen bekannt gemacht und zelebriert. Gleichzeitig muss das große Ganze im Auge behalten und kommuniziert werden. Um die Digitalisierungsstrategie umfassend und effizient umzusetzen, ist es in vielen Fällen hilfreich, auf einen Digitalisierungspartner zu setzen, mit dem sich auf Augenhöhe und Hand in Hand arbeiten lässt. Im Auswahlverfahren sollten sich Firmen zunächst genau informieren und unverbindlich beraten lassen, sozusagen eine Probefahrt vereinbaren.

Kühl resümiert:

„godesys behält seit 25 Jahren die neuesten digitalen Entwicklungen im Auge, um für seine Kunden und Partner Vorreiter zu sein. Wir geben ihnen nicht nur die Lösungen an die Hand, mit der sie digitale Herausforderungen stemmen können. Wir stehen auch für einen gelassenen, gut geplanten Umgang mit der Digitalisierung, denn nur so lassen sich bedacht und angstfrei Chancen erkennen und ergreifen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Smarte Datenanalysen, saubere Schnittstellen – Der Weg zum digitalen Unternehmensalltag

Smarte Datenanalysen, saubere Schnittstellen – Der Weg zum digitalen Unternehmensalltag

Wer Management-Verantwortung trägt, findet in seinem Posteingang jede Woche Angebote zu neuen Datenanalyse-Tools, die die Arbeit effizienter oder die Ergebnisse besser machen sollen. Viele davon sind für sich genommen wirklich gut. Der Versuch, sie zu nutzen, scheitert jedoch oft an der Einbindung in die bestehende IT-Landschaft. Entweder technisch oder menschlich oder sowohl als auch. Die flexible und gleichzeitig sichere, technische Aufstellung eines Unternehmens wird in Zeiten beschleunigter Digitalisierung somit zum Wettbewerbsvorteil. Der Beitrag zeigt den Weg zu smarten Datenanalysen.

Smarte Datenanalysen, saubere Schnittstellen – Der Weg zum digitalen Unternehmensalltag

Egal ob man über Big Data, Data Analytics oder Data Science spricht – wer die Möglichkeiten smarter Datenanalysen zur Steuerung des Unternehmens einsetzen möchte, ist mit Herausforderungen konfrontiert. Bevor wir zeigen, wie smarte Nutzung von Data Analytics funktioniert, benötigt es zunächst ein Bewusstsein, welche Konflikte dabei auftreten können.

Herausforderungen und Konflikte gibt es überall

Der erste Konflikt entsteht häufig schon bei der Frage, wer überhaupt welche Kompetenzen innehat. Fachbereiche sind daran interessiert, die für sich individuell perfekten Angebote herauszusuchen. Dem gegenüber steht eine Unternehmens-IT, die dafür verantwortlich ist, die Anzahl genutzter Systeme, Anwendungen und Programme überschaubar zu halten. Zudem soll sie die Datensicherheit und -integrität gewährleisten sowie im Notfall bei jeder Frage unterstützen können, und die andere Bewertungskriterien anlegt als der Fachbereich.

Der zweite Konflikt ist schlicht technischer Natur. Die bestehenden Basissysteme (ERP, Produktion) wirken häufig als Bremspedal. Denn sie wurden in einer Zeit designt, als Datenanalysen im heutigen Sinne noch unvorstellbar waren. Darüber hinaus sind nicht alle Tools miteinander kompatibel. Daten lassen sich nicht immer ohne Fehler und Verluste von links nach rechts verschieben – schon gar nicht bei gleichzeitiger Prüfung von Zugriffsrechten und Compliance-Konflikten. So wird manche Schnittstelle schnell zur offenen Wunde.

Die Herausforderung ist also, das maximale Potenzial neuer Technologien zu heben, ohne gleichzeitig ein undurchschaubares, unsicheres Anwendungswirrwarr in Kauf zu nehmen oder sich unbeabsichtigt Risiken auszusetzen. Das kann nur gelingen, wenn das Thema Data Analytics ganzheitlich und strukturiert angegangen wird. Viele Unternehmen scheuen den dafür erforderlichen einmaligen Aufwand. Dieser ist unbestritten, rechnet sich aber durch eine langfristig messbar positive Entwicklung von Flexibilität und Geschwindigkeit der IT-gestützten Prozesse. Schnittstellen verursachen dann keine Schmerzen, sondern schaffen Synergien.

Data Analytics anhand der Unternehmensziele neu aufsetzen

Wie sieht das in der praktischen Umsetzung aus? Zunächst muss sich ein Unternehmen als Gesamtheit darüber Gedanken machen, welche Ziele es verfolgt und wie der Einsatz von smarten Datenanalysen helfen kann, sie zu erreichen. Hierfür sollten entlang der Wertschöpfungskette konkrete Use Cases entwickelt werden. Kreative Methoden zur Ideengenerierung, wie etwa Ideation Workshops mit externen Experten, können beim Erstellen des Ziel- und Chancenbildes unterstützen. Auch aus dem eigenen IT-Bereich können wertvolle Impulse kommen.

Auf dieser Basis ist zu überprüfen, welche Tools sich konkret einsetzen lassen und aus welchem Grund. Nur wenn ein tiefes Verständnis dafür entsteht, weshalb welche Software zu bevorzugen ist, lässt sich auch herausarbeiten, welche Bedürfnisse nach Erkenntnisgewinn tatsächlich dahinterstehen.

Erst wenn diese Klarheit gegeben ist, sollte das Wunschbild IT-seitig hinterfragt werden. Mit dem „make IT work“-Ansatz sind Lösungen zu finden, die sich positiv auf das Geschäft auswirken – wobei es in den Händen der IT liegt, Vorschläge zur technischen Umsetzung zu liefern.

Schritt für Schritt den Berg zur smarten Datenanalyse bezwingen

Anders gesagt: Man muss den Berg aus dem Weg räumen. Solange das nicht erfolgt, werden ständig irgendwo im Unternehmen Tunnel gebohrt und seitlich Steine abgetragen, um dann doch wieder von herunterfallendem Geröll erschlagen zu werden. Solange das Schlagwort „Data Science“ als unbezwingbarer Berg zwischen Fachbereichen und IT steht, bleibt der wichtige, strategische Blick nach vorn verbaut.

Der Berg zur smarten Datenanalyse
Quelle: Santiago Advisors

Jedes Unternehmen muss den für sich individuell richtigen Weg finden. Trotzdem lohnt es sich auch hier, aus den Fehlern und Versuchen anderer zu lernen. Folgende Dinge haben sich in vielen Unternehmen als wertstiftend erwiesen:

Zuerst ist die technische Schnittstellenproblematik in Angriff zu nehmen. Hierbei ist es hilfreich, die End-to-end-Verantwortung in einer Person zu etablieren und einen technischen KPI zu definieren, an dem alle Beteiligten messbar sind. Dies schafft Raum für Kooperation und Konfliktlösung. Um das Team zu motivieren, sollten gleich zu Beginn „leichte“ Erfolge eingefahren werden. Dabei ist nicht auf die eine perfekte, universelle Lösung zu warten. Synergien und Effizienz lassen sich auch heben, wenn man gezielt verschiedene, saubere Schnittstellen aufsetzt. Darüber hinaus gilt es, sämtliche Stammdaten zu bereinigen und zu vereinheitlichen, um zugehörige Daten systemübergreifend korrekt zuordnen zu können. Wichtig ist dabei, dass die Datenplattform des Unternehmens ausreichend flexibel ist. So lassen sich auch zukünftige Entwicklungen im Data Analytics-Bereich ohne großen Initialaufwand einbinden.

Data-Science-Kompetenz aufbauen

Als nächstes wären Data-Science-Kompetenz auch inhouse aufzubauen sind. Dies ermöglicht es, interessierte Mitarbeiter on-the-job im Bereich Data Science weiterzubilden, ohne dafür permanent externe Trainer einsetzen zu müssen. Werden doch einmal externe Experten zu Rate gezogen, können diese qualifiziert begleitet werden, sodass deren Wissen auch über die Zusammenarbeit hinaus dauerhaft im Unternehmen nutzbar wird. Außerdem hilft Data Science-Kompetenz dabei, das Verständnis für die Geschäftsanforderungen kontinuierlich aufzubauen und die eigene IT-Landschaft inklusive verfügbarer Schnittstellen immer im Blick zu haben.

In einem nächsten Schritt sind IT-Kompetenz, Management und Fachbereiche gezielt miteinander in Verbindung zu bringen. Dies gelingt zum Beispiel, indem „Points of Contact“ auf Führungsebene und/oder „Buddys“ auf Mitarbeiterebene festgelegt werden. Diese tauschen sich regelmäßig formell und informell aus und beziehen sich gegenseitig in die Entscheidungsprozesse mit ein. Ferner sollte allen Mitarbeitern ein grundlegendes Verständnis von IT und Business nähergebracht werden. Bei Bedarf kann auch ein neutraler Moderator zwischen den einzelnen Bereichen vermitteln.

Quelle: Santiago Advisors

Langfristiges Denken schafft Raum für viel Mehrwert

Dieses ganzheitliche Vorgehen, das sowohl die handelnden Personen als auch die technische Basis im Blick hat, macht datenbasiertes Management nachhaltig möglich. Darüber hinaus reduzieren sich so langfristig die IT-Kosten, weil aufwendige Anpassungen und individuelle Schattenlösungen vermieden werden.

Wer den maximalen Nutzen aus den Möglichkeiten smarter Datenanalysen zieht, schafft sich dadurch einen Wettbewerbsvorteil gegenüber anderen Marktteilnehmern. Egal ob effizientere, kostengünstigere Prozesse, eine flexiblere Supply Chain oder optimierte Vertriebskanäle, eine genauere Planung oder ein bessere Risikovorsorge: mithilfe von Daten sind viele Stellschrauben drehbar, die bislang außer Reichweite der Steuernden lagen.

Von zentraler Bedeutung ist es, dass man sich von Grund auf damit auseinandersetzt, welcher Mehrwert mit Data Analytics geschaffen werden soll und wie. Dazu gehört das Aufsetzen motivierter Teams genauso wie das Schaffen einer zukunftsfähigen, technischen Basis. Ob man den Berg sprengt oder zur Seite schiebt oder einen Weg baut, der für alle bequem begehbar ist, hängt von der Unternehmenskultur ab. Hauptsache, er blockiert den Fortschritt nicht.

Der Beitrag wurde ursprünglich hier veröffentlicht …

eRechnungen im Format ZUGFeRD aus dem ERP heraus versenden: Checkliste zur Umstellung aus Sicht von Experten

Dass die eRechnung mit 60% Einsparpotential und der Chance auf innovative Prozesse viele Vorteile bietet, ist unstrittig. Dennoch ist in Deutschland das gute(?) alte Papier als Zahlungsaufforderung immer noch verbreitet. Doch spätestens, wenn ab Ende 2020 alle Lieferanten der öffentlichen Hand zwingend eRechnungen senden müssen, wird die eRechnung auch hierzulande Rechnungsstandard. Wie Unternehmen am besten umsteigen, erklären Dr. Daniel Burmeister und Dr. Nikolaus Thoma, ERP-Systembetreuer und Entwicklungsleiter eRechnung bei Comarch, im folgenden Fachbeitrag.

eRechnungen im Format ZUGFeRD aus dem ERP heraus versenden: Checkliste zur Umstellung aus Sicht von Experten

Bevorzugen Deutsche die eRechnung oder Papier?

Die Zahlen der Studie „Elektronische Rechnungsabwicklung und Archivierung: Fakten aus der deutschen Unternehmenspraxis 2017“ von der Mittelstand 4.0-Agentur Handel und ibi research sprechen für sich: 46 Prozent der Rechnungsversender und 53 Prozent der Rechnungsempfänger bevorzugen 2017 die digitale gegenüber der gedruckten Rechnung. Die Studie hat damit einen Anstieg um rund 20 Prozentpunkte gegenüber 2015 ermittelt. Mit Blick auf die globale Entwicklung und die Entscheidung der öffentlichen Hand hierzulande – wie in Österreich und der Schweiz – ab 2020 nur noch eRechnungen von ihren Lieferanten zu akzeptieren, dürfte dieser Prozentsatz noch steigen.

Wie ist die Kosten/Nutzen-Bilanz der digitalen Rechnung

Die eRechnung zeichnet sich durch einen beachtlichen Return-on-Investment aus. Den geringen transaktionsorientierten Kosten stehen die Kosteneinsparungen gegenüber. Diese Einsparungen umfassen bei Ausgangsrechnungen Portokosten, Papier-, Druck- und Kuvertierkosten sowie sonstige Arbeiten für den Versand. Bei 1.000 Rechnungen im Monat werden 8.400 Euro allein an Porto im Jahr gespart. Insbesondere bei Eingangsrechnungen ergeben sich beim Einlesen strukturierter Daten deutlich verminderte interne Verarbeitungs- und Prozesskosten, eine effizientere Rechnungsprüfung sowie die korrekte Datenübernahme ins System.

Welche Möglichkeiten gibt es, eRechnungen zu versenden?

Die einfachste Form der digitalen Rechnung stellt ein „bloßes“ PDF dar, das statt an den Drucker in den Anhang einer E-Mail wandert. eRechnungen lassen sich also theoretisch manuell versenden, bei ganz kleinen Start-ups macht dieses Vorgehen am Anfang vermutlich den meisten Sinn. Dieser Prozess ist aber aufwendig, funktioniert nur bei einer kleinen Kundenliste und verzichtet komplett auf Standardisierung sowie die Chancen automatisierter Prozesse. Auch ist hier die Gefahr am größten, nicht gesetzeskonform zu agieren, da beispielsweise nicht revisionssichere und damit nicht archivwürdige PDF-Formate verwendet werden. Bei „wirklichen“ eRechnungs-Lösungen hat man in dieser Hinsicht immer vorgesorgt, alle rechtlichen Änderungen werden umgehend in der Software abgebildet. Deshalb wird der Löwenanteil aller Unternehmen in Deutschland die Elektronischen Rechnungen aus ihrer ERP- oder Buchhaltungssoftware versenden oder via EDI mit automatischem Datenaustausch umsetzen. Grundsätzlich gibt es bei eRechnungen damit zwei grundlegende Vorgehensweisen und Standards, welche je nach Ausgangslage zu empfehlen sind.

Zum einen ist dies der Rechnungsversand und -empfang via EDI E-Invoicing. Er ist vor allem bei Firmen mit einem festen Stamm an Lieferanten sinnvoll, die mit diesen jeweils sehr viele Dokumente austauschen. Eine derartige Comarch EDI-Lösung zur Anbindung der Lieferanten hat Comarch zum Beispiel bei Kunden aus der Lebensmittelbranche wie REWE oder Metro realisiert. Daneben können kleinere Firmen aber auch mit WebEDI EDI-basiert Elektronische Rechnungen versenden.

Die Mehrzahl aller mittelständischen Unternehmen und nicht zuletzt kleinere Firmen werden als zweite Variante eRechnungen eher aus ihrem ERP oder ihrer Faktur- bzw. Financials-Software heraus versenden. Mit dem Standard ZUGFeRD wurden 2014 klare Richtlinien eingeführt, wie sich konforme Rechnungen zwischen Unternehmen sowie zwischen Unternehmen und zukünftig der öffentlichen Verwaltung schnell, komfortabel und einfach elektronisch austauschen lassen. Comarch selbst versendet seit 2017 solche ZUGFeRD-eRechnungen aus dem hauseigenen Comarch ERP heraus an die eigenen Tochtergesellschaften und diverse Kunden. Eine Rechnung im ZUGFeRD-Format besteht aus einem revisionssicheren PDF-A mit einem XML-Datencontainer zum maschinellen Einlesen der Rechnungsdaten.

Wie wird die eRechnung im Format ZUGFeRD im ERP eingeführt?

Zur Einführung der eRechnung im ZUGFeRD-Format eröffnen sich zwei Möglichkeiten. Die einfachere Variante ist die Integration im bestehenden ERP- oder Buchhaltungssystem. Komplexer ist hingegen die Einführung einer komplett neuen Lösung, was jedoch gerade dann Sinn macht, wenn ohnehin der Wechsel auf eine modernere Software angedacht ist.

Erste Option: Der Wechsel als Chance

Wer ohnehin überlegt, auf ein neues ERP bzw. Buchhaltungssystem umzusteigen, sollte auch gleich die Mit-Einführung der eRechnung angehen. Für die Einführung einer neuen Software empfiehlt sich die Erstellung einer individuellen Checkliste mit den bisherigen beizubehaltenden Funktionalitäten und den gewünschten neuen Funktionalitäten. Dabei sollte man am besten auch die gewünschte eRechnungs-Funktionalität gleich mit berücksichtigen und sich dann ein entsprechendes Angebot einholen. Ausführliche Tipps zur Einführung eines Rechnungswesens finden Sie hier: Die drei wichtigsten Fragen bei der Einführung eines Rechnungswesens.

Zweite Option: eRechnung als Add-on in der bestehenden Software einführen

Comarch hat als deutscher mittelständischer Betrieb die eRechnung über Aufschaltung des Add-ons „Comarch eRechnung“ selbst eingeführt. Somit haben alle Kunden nunmehr die Chance, die eRechnung im ZUGFeRD-Format anstatt als Papierrechnung zu erhalten. Dieses Vorgehen erwies sich auch für die Rechnungsempfänger als vorteilhaft, sie profitieren von weniger Papiersalat und klaren Prozessen. Von den rechtlichen Voraussetzungen her darf jedes Unternehmen auf digitale Rechnung umstellen und seinen Kunden nach einer Information bzw. Aufnahme in die AGB‘s diese elektronische Form zusenden. Comarch hat jedoch den Weg gewählt, aktiv zu fragen und für alle die Kunden auf Versand einer eRechnung umzustellen, die dies wünschen. Das macht es für die Rechnungsempfänger am bequemsten, ein Umstieg ist jederzeit möglich – eine einfache Umstellung in den ERP-Kundenstammdaten genügt vollauf.

Da die Software Comarch ERP in der DACH-Region bereits seit geraumer Zeit im produktiven Einsatz ist, war die Einführung des Add-ons „Comarch eRechnung“ bei den Comarch-Tochterfirmen auch problemlos und mit kurzer Vorlaufzeit zu bewerkstelligen. Hat der betreffende Anbieter wie Comarch die Funktionalitäten von eRechungen im Angebot, kann dieser auf Wunsch des Kunden schnell die entsprechenden Ein- oder Umstellungen vornehmen. Somit genügt in der Regel ein Anruf oder eine E-Mail beim Softwareanbieter, dass die Einführung der eRechnung angedacht wird und schon wird die nächste Rechnung als eRechnung versandt. Die Einführung zu Beginn eines neuen Geschäftsjahres erschien Comarch dabei am ratsamsten und hat sich auch bewährt. Die technische Umsetzung ist simpel, die Kosten fallen transaktionsbezogen an. Die als eRechnung eingegangenen Rechnungen sind nach ihrer Bearbeitung im Unternehmen in ein GoBD-konformes Archiv zu überführen, welches die Archivierung in Papierform komplett ersetzt. Entsprechende Unterstützung dazu bietet zum Beispiel ein geeignetes elektronisches Archivsystem.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Wie intelligent ist Prozessautomatisierung wirklich?

Wie intelligent ist Prozessautomatisierung wirklich?

Another Monday wirkt als erster deutscher Anbieter an der Entwicklung des internationalen IEEE-Standards für intelligente Prozessautomatisierung (IPA) mit.

Wie intelligent ist Prozessautomatisierung wirklich?

Wegweisende Innovationen verändern den Wettbewerb. Die Folge: Der globale Markt für Robotic Process Automation (RPA) ist überaus fragmentiert – sowohl im Hinblick auf die Anzahl verfügbarer Lösungen als auch hinsichtlich der Kernbegriffe, die eine einheitliche Definition bislang vielfach vermissen lassen. Another Monday, Experte im Bereich intelligenter Prozessautomatisierung, treibt nun als erster Anbieter aus Deutschland die Entwicklung eines Standards mit voran, der eine einheitliche Taxonomie und Klassifizierung für RPA zum Ziel hat. Die gemeinsame Initiative führender RPA-Anbieter unter der Verbandsorganisation IEEE sorgt für Transparenz und einheitliche Kommunikation im Markt für Prozessautomatisierung. Mithilfe des Standards, der noch im laufenden Jahr veröffentlicht wird, können Unternehmen auf der Suche nach der optimalen RPA-Lösung künftig ihre individuellen Anforderungen mit dem Marktangebot abgleichen.

IEEE ist eine renommierte Organisation von Ingenieuren mit Expertise für technische Standards – darunter auch Intelligent Process Automation. Ein erster Standard, der die wichtigsten Definitionen aus den Bereichen RPA und IPA zusammenfasst und vereinheitlicht, ist bereits 2017 erschienen. Als Mitglied des IEEE-Komitees, das zurzeit an dem zweiten Standard arbeitet, engagiert sich Another Monday auf Basis seiner umfassenden Erfahrung mit KI-gestützten RPA-Ansätzen für das Gemeinschaftsprojekt. Der aktuelle Stand fasst 160 Kriterien für RPA-Lösungen zusammen. Darin werden relevante Aspekte transparent beschrieben und klassifiziert, damit Anwender marktgängige Technologien besser einordnen und vergleichen können. Die Taxonomie der Kriterien erleichtert es Unternehmen, zentrale Aspekte des eigenen Anforderungskatalogs zu bewerten – beispielsweise, wie skalierbar eine Automatisierungslösung ist und wie hoch der Implementierungsaufwand ist.

Mit ganzheitlichem Ansatz zur effizienten Lösung

Hans Martens, Gründer von Another Monday erklärt:

„Nach unserem Verständnis ist Prozessautomatisierung viel mehr als ein Software-Tool. Wir unterstützen Anwender mit der richtigen Kombination aus Methodik und Technologie dabei, die für sie ideale Lösung zu finden und gemäß dem konkreten Anwendungszweck zu skalieren. Um den hohen Wert eines transparenten Leistungsspektrums schon beim Angebotsvergleich erkennbar zu machen, forcieren wir die Entwicklung des neuen IEEE Standards für RPA. Denn wenn Kunden frühzeitig verstehen, was genau eine Lösung leisten kann, ist die Basis für ein partnerschaftliches Verhältnis mit Investitionssicherheit gelegt.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Kosten in der Cloud: Qualität und Wirtschaftlichkeit vereinen

Kosten in der Cloud: Qualität und Wirtschaftlichkeit vereinen

Wenn es um die Entscheidung geht, ob und welche unternehmenskritische Workloads in einer (Public-) Cloud oder On-Premises ausgeführt werden, ist es unverzichtbar, dass sich alle Stakeholder, die Teil des Evaluierungs- und Auswahlprozesses sind, vollumfänglich informieren. Für die Entwicklung einer langfristigen IT-Strategie, die mit dem jeweiligen Geschäftsmodell im Einklang steht, das Unternehmenswachstum sowie die Kosteneffizienz im Blick behält und dabei Sicherheit sowie Compliance nicht vernachlässigt, ist eine sorgsame Abwägung wichtig. Dieser Beitrag gibt Ihnen einen Überblick über die Kosten der Cloud.

In der Cloud: Qualität und Wirtschaftlichkeit vereinen

Insbesondere IT-Entscheider stehen in der Pflicht. Sie müssen sicherstellen, dass der gewählte Ansatz, ob (Single-) Cloud, Multi-Cloud, On-Premises oder Hybrid-Cloud, sowie die tatsächlichen Lösungen selbst den Anforderungen des Unternehmens genügen. Zwar stellen CEOs und CFOs nicht selten betriebswirtschaftliche Aspekte in den Vordergrund, wenn es um die Investition in die Unternehmensinfrastruktur geht. Doch dies muss heutzutage nicht gleich ein KO-Kriterium für eine qualitativ hochwertige IT-Infrastruktur und für eine nachhaltige IT-Strategie sein. Le Hai, Geschäftsführer der FPT Deutschland GmbH und CEO von FPT Europe, erklärt: „Unabhängig von der Cloud-Plattform, für die sich Unternehmenslenker und CIOs entscheiden: Alle großen Anbieter verwenden ein Standardarchitektur-Framework, das aus fünf zentralen Leitsätzen für eine qualitativ hochwertige Cloud-Architektur besteht, die sich für jede Art von Workloads eignet. Zu diesen Grundprinzipien gehören Kostenoptimierung, operative Exzellenz, Leistungseffizienz, Resilienz und Sicherheit.“

Klar ist: Sofern es Datenschutz und Compliance erlauben, sind Cloud-Lösungen ein guter Weg, um Unternehmens-Workloads kosteneffizient, sicher und performant abzubilden. Für IT-Verantwortliche gilt es dabei regelmäßig zu prüfen, ob ihre Cloud-Ressourcen optimal eingesetzt werden, und gegebenenfalls nachzuschärfen.

Folgende Punkte bieten die Möglichkeit zur schnellen Erzielung von Einsparungen zu Kosten in der Cloud:

Regionale Vorteile nutzen

Bei der Umstellung auf ein Cloud-Service-Modell eines weltweit tätigen Partners sollten global agierende Unternehmen im Hinterkopf behalten, dass die Kosten oft regional formuliert sind. Dieselben Dienste lassen sich zwar durchaus in unterschiedlichen Regionen (Kontinenten) buchen, doch müssen Entscheider mit unterschiedlichen Preisen kalkulieren.

Das können Unternehmen auch zum Vorteil nutzen. Bei weniger sensiblen oder weniger geschäftskritischen Workloads, lohnt es sich diese in andere Regionen auszulagern. Unternehmen sollten es in Betracht ziehen, die Workloads in eine Region zu verlagern, in der gleichwertige Ressourcen zu niedrigeren Kosten angeboten werden. Darüber hinaus sollten IT-Entscheider die Dimensionen ihrer Entwicklungsumgebungen reduzieren. Als Teil der Einrichtung eines Application Lifecycle Managements sollten Entwicklungs- und Testumgebungen mit der Produktivumgebung übereinstimmen. Dies gilt ebenso für die Konfiguration. Was nicht angepasst werden sollte, ist der Größenumfang. Eine Kubernetes-basierte Anwendung beispielsweise mit Dutzenden von Nodes wird betrieben, die sich über mehrere Regionen erstrecken. Es gibt keinen Grund, diese nicht auf einige wenige Nodes innerhalb einer einzigen Region für die internen Arbeitsbereiche zu skalieren.

Lizenzen weiterverwenden

Unternehmen und deren IT-Spezialisten sollten die Weiterverwendungsmöglichkeit von vorhandenen On-Premises-Lizenzen prüfen. Alle großen Player und Hyperscaler wie Microsoft, Google, AWS und Oracle geben Kunden diese Möglichkeit. Auf diese Weise können Unternehmen bestehende Verträge und Lizenzen, die sie abgeschlossen haben, mit ihren Cloud-Abonnements verknüpfen. Dies senkt die Cloud-Kosten auf ein überschaubares Maß, da zusätzliche Lizenzgebühren entfallen. Sie können so über andere Vereinbarungen abgedeckt werden.

Die Kosten in der Cloud

Benefits ausschöpfen

Viele Cloud-Plattform-Anbieter geben zudem Vergünstigungen über Benefits und Bonus-Programme, wenn sich ein Unternehmen langfristig bindet. Indem Unternehmen sich auf Einjahres- oder Dreijahrespläne für ihre Dienste festlegen, lassen sich die variablen Kosten (Pay-as-you-go) für die Buchung deutlich reduzieren und über die Benefits zusätzlich, statt der kostenpflichtigen Dienstleistungen, vergünstigt oder sogar kostenfrei aktivieren.

Den passenden Service wählen

Zahlreiche Unternehmen lassen ihre Unternehmenswebsite oder ähnliche webbasierte Anwendungen auf einer virtuellen Maschine (VM) eines Cloud-basierten Servers als IaaS-Workload laufen. Hier kann sich die Umwandlung zu einem PaaS-Modell lohnen. Wenn Unternehmen diese Ressourcen aus den Infrastrukturdiensten wie einer virtuellen Maschine auslagern und durch Plattformdienste wie App Services ersetzen, sinken die Kosten für diese Workloads entsprechend – sowie die Betriebskosten. Denn die Verwaltungskosten für die virtuelle Maschine fallen in diesem Zuge weg.

Die Gretchenfrage: Ist mein Unternehmen auf dem richtigen Weg?

Die Beantwortung zweier Fragen hilft einzuschätzen, wie das eigene Unternehmen seine eingesetzten Cloud-Lösungen unter dem Gesichtspunkt Kosten handhabt und ob es dazu fähig ist, agil zu optimieren:

  • Existiert eine kohärente Methode zur Schätzung der Cloud-Kosten sowie ein Plan dafür, wie etwaige Abweichungen vorhergesehen und behandelt werden können?

    Konkrete Kostenmodellierungen schaffen hier Abhilfe. IT-Experten sollten nach Möglichkeit damit beginnen, nachvollziehbare Kategorien von Cloud-Ressourcen nach Geschäftseinheit oder Abteilung zu erstellen. Im Anschluss werden Ziele, Anforderungen, Einschränkungen, Kompromisse, funktionale Anforderungen und Abrechnungsmodelle aufgestellt. Sobald dieser Prozess abgeschlossen ist, sind die Kostenunter- und -obergrenzen zu ermitteln, sodass das Budget entsprechend festgelegt werden kann.

  • Gibt es eine Governance für die Budgets, die Lebensdauer der Anwendung oder für einen bestimmten Workload?

Dies erreichen Unternehmen durch die Zuweisung von Budgets für bestimmte Services sowie durch regelmäßige Überprüfungen, die sicherzustellen, dass die Nutzung mit dem prognostizierten Budget übereinstimmt. Letztlich auch durch die Festlegung eines Enddatums für bestimmte Umgebungen.

Fazit zu Kosten in der Cloud

Können Unternehmensentscheider diese Fragen positiv beantworten und werden die vorgenannten Möglichkeiten zur schnellen Erzielung von Kosteneinsparungen umgesetzt, ist bereits ein großer Schritt hin zu einer kosteneffizienten Cloud-Nutzung und einer nachhaltigen IT-Strategie getan. 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Omnichannel im Einzelhandel – Diese Trends bestimmen die kommenden Jahre

Omnichannel im Einzelhandel – Diese Trends bestimmen die kommenden Jahre

Dem Omnichannel gehört die Zukunft. Warum? Weil er bedingungslos das bietet, was Kund*innen fordern: Omnichannel kombiniert den Luxus der digitalen Welt mit den Vorzügen des Einkaufens direkt vor Ort in der Einkaufspassage. Egal, ob es darum geht, Produkte online zu finden, sie zurückzulegen und später abzuholen. Oder sie direkt online zu bestellen und umweltschonend noch am selben Tag aus der Filiale in die eigene Stadt geliefert zu bekommen. Der Handel steht davor auch die letzten Grenzen zwischen off- und online aufzubrechen. Wir blicken in die Zukunft und benennen vier Trends, wie Omnichannel im Einzelhandel aussehen wird.

1. Beratung über alle Kanäle hinweg

Auch in Zeiten des Internets legen Kund*innen viel Wert auf eine gute Beratung. Das ergab eine Studie des Marktforschers PwC, an der sich mehr als 1000 deutsche Konsument*innen 2021 beteiligten. Dabei kam heraus, dass sich über 75 Prozent der Befragten freundliche, aufmerksame und präsente Verkäufer*innen wünschen. Doch wie können Händler diesem Wunsch nachkommen – gerade in Zeiten eines oft gesichtslosen Einkaufs im Netz?

Die Antwort darauf ist der Ansatz des Clienteling, der konsequent die Kund*innen in den Mittelpunkt jedes unternehmerischen Handelns stellt. Ziel ist es, die Kund*innen schon vor dem Betreten der Filiale so gut zu kennen, dass Verkäufer*innen auf der Fläche sofort wissen, was zu tun ist. Möglich wird das durch den Einsatz von sogenannten In-Store-Apps, mit dem das Personal Zugriff auf übersichtlich aufbereitete Kundendaten und das eigene Geschäft hat. Gerade in Kombination mit Kundenkonten entsteht so eine barrierefreie Informationsbasis, welche die Grundlage für eine perfekte Beratung bildet.

Doch was heißt das in der Realität? Nun, gehen wir davon aus, dass wir schon länger einen neuen Fernseher ins Auge gefasst haben. Wir haben Testberichte darüber gelesen und uns auch sonst im Internet darüber umfangreich informiert. Auf der Seite unseres lokalen Händlers haben wir gesehen, dass genau das passende Gerät vorrätig ist – und das sogar mit einem großen Rabatt! Schnell markieren wir den Fernseher mit einem Herz im Netz und schwingen uns ins Auto.

In der Filiale erwartet uns bereits ein Kundenberater, der auf seinem Tablet informiert wird, dass wir soeben das Geschäft betreten haben. Und weil er genau weiß, was wir möchten, kann er uns nicht nur sofort zu unserem Wunschgerät führen, sondern hat auch gleich eine kleine Auswahl an Zubehör für uns herausgesucht. Und mal ehrlich, auf so einem tollen Gerät, da wirkt die neue Playstation auch nochmal ganz anders…

In den kommenden Jahren werden wir also die Verschmelzung der digitalen mit der physischen Welt erleben. Ein erster Landepunkt für diese Entwicklung wird die grenzenlose Beratung vor Ort sein. Und diese wird mit darüber entscheiden, welches Unternehmen in der Digitalisierung die Nase vorne hat und wem Omnichannel im Einzelhandel gelingt.

Omnichannel im Einzelhandel - Diese Trends bestimmen die kommenden Jahre

2. Nachhaltigkeit als entscheidendes Verkaufsargument

Wenn Kund*innen online bestellen, entscheiden sehr viele Faktoren über die Kundenzufriedenheit. Und nicht alle Punkte lassen sich von Händlern immer kontrollieren. Ein oft unterschätzter Faktor ist der Versand von Waren. Denn neben Lieferzeiten und -kosten ist hier in den kommenden Jahren ein ganz neuer Mindset entstanden, der heute vor allem bei der jungen Zielgruppe an erster Stelle steht: die Nachhaltigkeit.

So ergab eine Deloitte Studie bereits 2014, dass über 50 Prozent der Jugendlichen Wert darauflegen, dass Waren klimaschonend versandt werden und Unternehmen basierend auf ethischen Grundsätzen agieren. 2021 gaben bereits über 90 Prozent der relevanten Zielgruppe an, diesem Wert besondere Relevanz beizumessen. Die Reduzierung von CO2 ist also nicht nur ein wichtiges Ziel für die Erhaltung unseres Planeten, sondern auch ein realer wirtschaftlicher Faktor.

Daher ist es keine Frage ob, sondern wann sich der Einzelhandel auf seine Stärke besinnt. Denn, während Filialen in den vergangenen Jahren oft als Nachteil für Händler im Kampf gegen Online-Pure-Player gesehen wurden, können Sie jetzt zum größten Argument für den Einzelhandel werden – auch im Online-Geschäft!

Möglich wird das durch Ship from Store, das lokale Filialen in Fulfillment-Hubs verwandelt und Händlern so nicht nur Kosten spart und Warenverfügbarkeiten erhöht, sondern auch lokale Angebote unmittelbar lieferbar für Kund*innen im Umkreis macht. Zeitgleich verbindet Ship from Store alle Filialen in einem Netzwerk, in dem sie die Rolle von Logistikverteilern einnehmen. Ein intelligentes Order-Routing ermöglicht es, anschließend Bestellungen von Kund*innen zusammenzufassen. Das spart Verpackungsmüll, Lieferzeiten und vor allem – durch die Reduktion von zu fahrenden Kilometern auf der Last-Mile – den Ausstoß von CO2.

Nachhaltigkeit wird für Händler mehr als nur ein Buzzword sein. Sie ist eine der größten Verkaufsargumente überhaupt. Und vor allem kurze Lieferwege und lokale Präsenz werden dabei entscheidend sein.

3. Individuelle Apps!

Wie bereits eingangs beschrieben, werden auch Apps weiterhin eine wichtige Rolle im Handel spielen. Nicht nur für die Beratung vor Ort, sondern auch für die Kommunikation mit den eigenen Kund*innen. Gerade im Omnichannel werden die Anwendungen für die Mobilgeräte noch intelligenter und vor allem noch individueller werden.

In den kommenden Jahren wird es zur Realität werden, dass wir Apps nicht nur als digitale Kundenkarten mit Coupon-Funktion nutzen, sondern als Begleiter beim Einkauf. Sie werden uns so nicht nur dank Augmented Reality durch die Filialen direkt zu unseren gewünschten Produkten führen, sondern uns auch proaktiv über Aktionen und Preisveränderungen informieren, die wir dann per Fingerwisch sofort in Anspruch nehmen können.

Möglich wird dies durch die Nutzung vieler verschiedener Daten und der intelligenten Verknüpfung aller Informationen, die Händlern zur Verfügung stehen. Diese Ressource führt, richtig genutzt, zu mehr Kundenzufriedenheit und mehr Service und ist dadurch auch bei Omnichannel im Einzelhandel wichtig.

Omnichannel im Einzelhandel - Diese Trends bestimmen die kommenden Jahre

4. Hyper-Local-Marketing Feeds

Unternehmen werden immer mehr zu lokalen globalen Marken. Das bedeutet, dass jedes Unternehmen weltweit gesehen und lokal bewertet wird. Sichtbarkeit über alle Plattformen hinweg ist bereits heute ein entscheidender Faktor im Omnichannel, doch mit „Near Me“ kommt eine weitere wichtige Entwicklung dazu. Denn immer mehr Menschen suchen schon heute über Google nach Waren und Dienstleistungen in ihrer Nähe. Dabei geht es um Nachhaltigkeit, aber auch Geschwindigkeit. Und Unternehmen müssen mit dieser Entwicklung Schritt halten.

Es geht darum, noch schneller im Netz gefunden zu werden und mit lokalen Angeboten und Services zu überzeugen. Kund*innen, die über Anzeigen in den Sozialen Medien gefunden werden, möchten vor Ort begeistert werden. Warum also diese Pflicht nicht zur Kür machen und mit Hyper-Local-Marketing (HLM) genau die Kund*innen ansprechen, die gerade an der Ladentüre vorbeilaufen und sie mit passenden Angeboten und Produkten in die Ladenflächen ziehen?

Das klingt nach Zukunft? Ja, vielleicht. Aber sie ist näher als wir glauben. Denn schon heute hat der Handel die Möglichkeiten, diese HLM-Feeds abzubilden und zu etablieren. Wie das geht? Sie haben es sicher geahnt: durch die Nutzung der vorhandenen Daten, die uns alle umgeben. Gerade dank Google My Business steht diese Welt zudem nahezu allen Händlern zur Verfügung!

Fazit: Omnichannel im Einzelhandel schlägt Brücken

Unsere Welt verändert sich mit jedem Tag ein bisschen mehr. Die digitale Welt erscheint nicht mehr wie ein ferner Kontinent, sondern wie die Nachbarschaft. Noch nie war es so einfach Brücken zu schlagen zwischen digitalen Einkaufserlebnissen und dem Shopping in der Filiale. Und noch nie wird es so notwendig sein, diese Brücken zu nutzen. Die Digitalisierung wartet auf niemanden und sie wird an Geschwindigkeit weiter zunehmen.

Dennoch wird sie auch in den kommenden Jahren einen gewaltigen Vorteil bringen. Zumindest für diejenigen, die die Zukunft gestalten und mutig an einem perfekten Einkaufserlebnis über alle Plattformen und alle Strukturen hinweg arbeiten. Die Zukunft gehört dem Omnichannel im Einzelhandel und vor allem denen, die nicht in Systemen, sondern in Kundenzufriedenheit denken.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Im Kopf eines Hackers: MFA-Attacken rechtzeitig erkennen

Immer wieder hören und lesen wir über Hackerangriffe und den Schaden, den diese anrichten können. Damit Unternehmen und Privatpersonen sich besser schützen können, sollten sie die von Hackern angewandten Methoden kennen und die Denkweisen eines Angreifers nachvollziehen. Um die eigene Cybersicherheit zu erhöhen, sollten auch die Multi-Faktor-Authentifizierung (MFA) und wie Hacker sie für Angriffe einsetzen, verstanden werden.

Zusätzliche Sicherheit durch MFA

Um sich in Geräte, Firmennetzwerke oder Programme einzuloggen nutzen Mitarbeiter Passwörter – meistens dasselbe oder ein ähnliches für verschiedene Konten, so die Studie „Psychologie der Passwörter“ von LastPass. Mit 92 Prozent wissen zwar fast alle Nutzer, dass so das Risiko für einen Hackerangriff steigt. Es ist jedoch einfacher und bequemer, sich nur ein Passwort und leichte Abwandlungen davon merken zu müssen. Einen zusätzlichen Schutz vor Ransomware-Angriffen oder der Entwendung von Daten bietet ein weiterer Verifizierungsschritt wie die MFA. Dazu zählen die SMS- und E-Mail-Authentifizierung, bei der ein Einmal-Code an die hinterlegte Handynummer oder Mailadresse verschickt wird, die biometrische Authentifizierung per Fingerabdruck oder Face-ID sowie Authentifizierungs-Apps.

Ein integrierter Passwortmanager bietet darüber hinaus die Möglichkeit, die MFA mit adaptiven Authentifizierungstechniken zu kombinieren: Nicht nur das Passwort sowie biometrische Daten oder ein zusätzlicher Code werden genutzt, um Nutzer zu verifizieren, auch weitere Informationen wie geografische Daten oder registrierte Geräte werden abgefragt.

Grenzen der MFA: Wie Hacker angreifen

Fast jedes der monatlich kompromittierten Microsoft-Konten nutzt keine aktive MFA, so eine aktuelle Studie von Microsoft. Hier können Unternehmen also anfangen, ihre Cybersicherheit zu verbessern. Trotzdem reicht das nicht aus: Hacker greifen auch MFA-gesicherte Geräte an und gelangen immer wieder in fremde Systeme.

Bei der beliebten und bequemen SMS-Authentifizierung imitiert ein Hacker durch einen so genannten SIM-Swap-Betrug das Telefon der Zielperson und empfängt dessen Nachrichten. Die Bequemlichkeit hat also ihren Preis: Der Hacker kann unbemerkt auf das gesamte Firmennetzwerk zugreifen. Bei dem Softwareunternehmen SolarWinds haben Angreifer beispielsweise Zugriff auf die Systeme erhalten und der Sofware Malware hinzugefügt, berichtet Gartner. Der zuständige Sicherheitsexperte merkte den Angriff auf die Lieferkette nur, weil die Hacker ein zweites Telefon für die MFA anmelden wollten.

Mit Hilfe von Cookies können User in ihren Konnten eingeloggt bleiben, auch wenn sie die Webseite zwischendurch verlassen. Es ist zwar praktisch, dass Browser und Webseiten Informationen in Form von Cookies speichern – gleichzeitig können Hacker so mit einem sogenannten „Pass-the-Cookie“-Angriff in Unternehmensnetzwerke eindringen. Sie entwenden einfach die gespeicherten Informationen und verwenden die gehackten Anmeldedaten.

So reduzieren Unternehmen Sicherheitslücken

Wenn Unternehmen die bekannten Methoden von Hackern nutzen, um sich zu schützen, erhalten diese weniger Angriffsfläche. Entdecken sie frühzeitig Risiken und mögliche Sicherheitslücken, können sie schneller handeln und sich vor Cyberangriffen schützen. Daher sollten Unternehmen die folgenden Punkte für mehr Sicherheit berücksichtigen:

  • Wachsamkeit als Ergänzung zu Sicherheitstools. Das Beispiel von SolarWinds zeigt, dass Unternehmen sich nicht nur auf Sicherheitstools verlassen sollten. Sie müssen zusätzlich die Augen offenhalten, um verdächtiges Verhalten zu erkennen. Damit Hacker Sicherheitslücken nicht zu ihrem eigenen Vorteil nutzen können, müssen diese rechtzeitig erkannt, geprüft und eliminiert werden.
  • Der richtige Einsatz von MFA. Nur bei einer richtigen MFA-Implementierung kann sie den nötigen Schutz bieten. Die Kombination von MFA mit adaptiven Authentifizierungstechniken minimiert das Risiko eines Angriffs zusätzlich.
  • Verschiedene Verifizierungsmöglichkeiten abdecken. Unternehmen sollten bei der MFA-Implementierung nicht nur an die offensichtlichsten Möglichkeiten – wie beispielsweise die SMS-Authentifizierung – denken, sondern alle möglichen Verifizierungsmöglichkeiten berücksichtigen. Dazu zählen Spracherkennung, Authentifizierungs-Apps oder Face-ID.
  • Regelmäßige Identitätskontrolle. Nach einem erfolgreichen MFA-Angriff denken Hacker, dass sie die Kontrolle über das Firmennetzwerk haben. Daher sollten Unternehmen zusätzlich zur MFA auch eine fortlaufende Verifizierung einführen, bei der Nutzer regelmäßig ihre Identität bestätigen müssen.
  • Sicherheitstrainings durchführen. Damit sowohl Unternehmen als auch Arbeitnehmer die aktuellen Risiken und Sicherheitsvorkehrungen kennen, sollten regelmäßige Schulungen stattfinden. Diese erklären, wie sie auffälliges Verhalten erkennen und potenzielle Angriffe abwehren können und stärken so das Sicherheitsbewusstsein der Mitarbeiter.

Auf dem neuesten Stand bleiben

Hacker finden immer neue Wege, um Nutzer zu täuschen und Unternehmen mit Ransomware-Angriffen zu bedrohen. Wenn Internetnutzer die Technik hinter den Angriffen kennen, können sie sich besser absichern. Wer also versteht, wie ein Hacker denkt, kann größere Fehler vermeiden. Ein Unternehmen muss wissen, wie es sich mithilfe von MFA schützt und die Risiken eines Cyberangriffes reduziert.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Zeit ist Geld: Ladezeit und PageSpeed Insights im Online-Marketing

Zeit ist Geld: Ladezeit und PageSpeed Insights im Online-Marketing

Viele kennen es: Die Website lädt und lädt und lädt. Die meisten Menschen waren es zu Zeiten des 56k-Modems noch gewohnt minutenlang auf das Aufbauen einer Page zu warten,. Heute reißt ihr Geduldsfaden heutzutage immer früher: Sie springen ab und versuchen eine neue Seite zu laden. Das bedeutet, dass Interessenten eventuell zu einem anderen Produkt wechseln, weil sie nicht schnell genug an die nötigen Informationen kommen. Die schnelle Absprungrate bewerten auch Google Crawler als negativ und ranken die Website dementsprechend weiter unten auf der Suchergebnisseite. Eine angemessene PageSpeed stellt sich daher auch aus SEO-Sicht als unermesslich dar. Das erklärt Andreas Karasek, Geschäftsführer der Agentur SEM Berater, und führt aus, wieso gute Ladezeiten entscheidend sind für einen guten Umsatz.

Google-Tool nutzen und deuten

Einige Studien belegen, was viele Unternehmen vermuten: Bereits nach einigen Sekunden Wartezeit verlassen Besucher eine Website wieder, wenn diese sich nicht schnell genug aufbaut. Das bedeutet auch abseits der sinkenden Zahl an potenziellen Interessenten einen Wettbewerbsnachteil für das Unternehmen. Springen viele User zu schnell ab, deutet das Google als negativ – die Seite rutscht in der Ergebnissuche weiter nach unten. Auch wenn die PageSpeed nur ein Faktor von rund 200 für das Ranking in der Suchmaschine ist, sollten Unternehmen sich mit diesem Thema befassen, da es einen wichtigen Aspekt darstellt, den sie zumindest selbst beeinflussen können. Doch zunächst gilt es die Schnelligkeit der Seite zu analysieren. Google selbst bietet dafür beispielsweise das kostenlose Tool PageSpeed Insights an.

Zeit ist Geld: Ladezeit und PageSpeed Insights im Online-Marketing

Hier kann die Ladezeit einer beliebigen URL sowohl für mobile Endgeräte als auch PCs gemessen werden. Sie wird durch einen Score berechnet und analysiert auch das Verbesserungspotenzial. Karasek erklärt: „Der Score wird auf einer Skala von 0 bis 100 angezeigt. Das bildet den gewichteten Durchschnitt verschiedener Metriken ab. Dabei ist eine gute Bewertung nicht nur bei 100 von 100 möglichen Punkten zu sehen.“ Die Aufteilung liegt bei 0 bis 49 Punkten für eine schlechte Bewertung, 50 bis 89 für eine durchschnittliche und 90 bis 100 Punkten für eine gute Gesamtwertung. Die Seite vereint die Daten aus Nutzererfahrungen in Chrome, auch als CrUX abgekürzt, und dem Bericht aus der Direktabfrage der URL mittels des Google-Tools Lighthouse. Dabei führt nicht der eigene Rechner diese Tests aus, sondern ein Google-Server, sodass die eigene Internet- oder Rechner-Geschwindigkeit für das Ergebnis unerheblich ist.

Parameter für optimales Nutzererlebnis

Die Parameter der Nutzerdaten schlüsseln sich in verschiedene Punkte auf.

  • First Contentful Paint (FCP)
  • First Input Delay (FID)
  • Largest Contentful Paint (LCP)
  • Cummulative Layout Shift (CLS).

Der FCP stellt die Zeit dar, die ein Browser braucht, um erste Inhalte der Seite anzuzeigen. Der FID-Wert quantifiziert, wie schnell die Website auf eine Interaktion des Benutzers reagiert. Anhand des Largest Contentful Paint lässt sich ablesen, wie lange es dauert, bis das größte Element einer Seite fertig aufgebaut ist. Der CLS berücksichtigt die Summe aller Layoutverschiebungen.

Wenn ein Nutzer beispielsweise einen Link anklicken möchte, bevor die Seite vollständig geladen ist, kann es passieren, dass das Layout „springt“, da Bilder nachgeladen werden oder Werbung erst später eingeblendet wird, und der Nutzer dadurch aus Versehen ins Leere klickt. „Je länger also das Layout herumspringt, desto ärgerlicher für den User“, so Karasek. Die Labordaten von Lighthouse zeigen neben dem FCP und dem CLS auch noch die Time to Interactive (TTI). Die zeigt an, wie schnell eine Seite interaktiv wird. Das heißt, wann sie also ausreichend Elemente anzeigt, damit der Nutzer auch auf der Seite aktiv werden kann. Hinzu kommt die TBT, die Total Blocking Time, die die Summe aller Zeiträume zwischen FCP und TTI zusammenfasst, wenn die Aufgabendauer 50 Millisekunden überschreitet.

Kleine Stellschrauben verändern vieles

Wer keinen zufriedenstellenden Score erhält, kann an einigen Stellschrauben drehen, um die PageSpeed zu verbessern. Das kann in erster Linie durch die Optimierung der Websiteinhalte passieren. Dazu gehört es, die Bilder zu skalieren, nicht zu große Dateien einzusetzen und beispielsweise datensparsame Formate wie PNG oder WebP zu verwenden. Aber auch mit dem Thema Caching sollten Unternehmen sich für eine verbesserte Ladezeit auseinandersetzen. Hier geht es um Ressourcen der Website in einem Zwischenspeicher, um sie bei Bedarf schnell wieder abrufen zu können.

„Ist das Caching aktiviert, speichert der Browser Elemente einer Website, sodass sie beim nächsten Besuch schneller abgerufen werden können“, weiß Karasek. Durch entsprechende Add-ons oder Plug-ins lässt sich so die Ladezeit für den Nutzer verbessern. Ein weiterer Trick besteht darin, die sogenannte Lazy-Loading-Methode zu verwenden. Hier werden Inhalte erst geladen, wenn sie vom Nutzer tatsächlich benötigt werden. Beispielsweise verlangsamt das gleichzeitige Laden aller Produktbilder in einem Webshop die Page enorm. Durch das Lazy Loading werden die Bilder dementsprechend erst geladen, wenn sie tatsächlich in das Blickfeld des Nutzers geraten. Zuvor verwendet die Seite Platzhalter im gleichen Format, um die Designstruktur nicht zu verändern. Insgesamt kann es auf Dauer nicht nur Potenzial verschenken, sondern sogar Geld kosten, wenn sich ein Unternehmen nicht mit der Optimierung seiner Website auseinandersetzt. Wer jedoch nicht die Zeit dafür aufbringen kann, sollte in jedem Fall einen Experten beauftragen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Interview mit e.bootis zum Thema B2B E-Commerce

Interview mit e.bootis zum Thema B2B E-Commerce

Matthias Weber im Gespräch mit Tim Langenstein, Vorstand Beratung bei e.bootis, zum Thema B2B E-Commerce.

Die e.bootis ag aus Essen ist Hersteller der ERP-Software-Suite e.bootis-ERPII . Das Unternehmen entwickelt, vermarktet und implementiert seit über 35 Jahren leistungsstarke Software-Systeme auf Grundlage betriebswirtschaftlicher Anforderungen. Über 80 Mitarbeiter begleiten an drei Standorten in Deutschland zahlreiche Installationen im In- und Ausland. e.bootis bietet eine zukunftssichere ERPII Software, die sämtliche Prozesse unter den Bedingungen der digitalen Transformation effizient steuert. Der unternehmensübergreifende Datenaustausch wird durch die offene Systemarchitektur optimal unterstützt. e.bootis-ERPII : plattformunabhängig, im Standard individualisierbar, 100 %ig releasefähig und skalierbar.

5 Fragen an e.bootis zum Thema B2B E-Commerce

Auf unsere 5 Fragen zum Thema „B2B E-Commerce“ gibt uns Tim Langenstein, Vorstand Beratung bei e.bootis, Antworten.

Frage 1: Worin unterscheidet sich B2B eCommerce von B2C eCommerce?

Auch wenn die Grenzen zwischen B2B und B2C immer fließender werden, gibt es doch einige wesentliche Unterschiede zwischen diesen beiden Handelsbeziehungen. Das B2B eCommerce wird durch die Sortimentsabbildung des Lieferanten für bereits bestehende Kunden mit oft individuellen Preisfindungsmechanismen, Zahlungs- und Lieferbedingungen bestimmt. Bestellungen können durch hohe Stückzahlen geprägt sein. Im B2C eCommerce hingegen wird der Händler mit einer häufig wechselnden Klientel konfrontiert. Die, gelenkt durch Werbemaßnahmen oder Social Media-Aktivitäten immer auf der Suche nach dem günstigsten Preis, in einen Onlineshop gespült wird. Hieraus lässt sich bereits erkennen, dass den einzelnen Plattformen ganz andere
Systemanforderungen zugrunde liegen müssen:

Die technische Abbildung eines B2C Shops mit überwiegend festen Preisen ist weitaus leichter als die eines B2B Shops. Dort müssen u. U. ausgeprägte Rabattstrukturen und Produkte mit vielen Varianten und Merkmalen, die sich mittels Produktkonfigurator selbständig vom Kunden konfigurieren lassen, berücksichtigt werden.

B2B eCommerce dient heute nicht mehr nur dem reinen Einkauf. Als Stufe im Supply-Chain-Prozess wandelt sich der B2B eCommerce verstärkt zur Kommunikationsplattform. Der Online-Shop als digitaler Berater für erklärungsbedürftige Produkte. Der Kunde kann sich bequem über Produktneuheiten und –veränderungen informieren, sich jederzeit einen Überblick über offene Aufträge, Lieferstatus oder Reklamationen verschaffen und die Einrichtung wiederkehrender Bestellungen anstoßen. Im Sinne von KI können sogar spezielle Angebotsvorschläge gemäß dem Einkaufsverhalten des Kunden zusammengestellt werden.

Die im Idealfall mit dem ERP-System vernetzte Shopsoftware stößt dabei automatisierte Prozesse an, die weitestgehend ohne manuelle Mitarbeitereingriffe auskommen. Diese können sich auf ihr Kerngeschäft konzentrieren und werden von administrativen Aufgaben entlastet. Nicht unberücksichtigt dürfen auch die zunehmend digitalisierten Einkaufsprozesse auf Kundenseite bleiben. Machen sie doch die Unterstützung entsprechender Freigabeprozesse ab einem bestimmten Bestellwert durch Vorgesetzte notwendig, welche auf der B2B Plattform handelbar sein sollte.

Frage 3: Wie wichtig ist die User Experience im B2B eCommerce?

Dem als Privatperson durch B2C geprägtem Geschäftskunden ist das Nutzenerlebnis im Geschäftsalltag natürlich ebenso wichtig. Der Shop sollte so einfach wie möglich zu bedienen sein, verbunden mit einer zielführenden Navigation, einer intelligenten Suche und sich daraus ergebenden wertvollen Produktinformationen. So werden die meisten Kunden zu Wiederholungstätern.
Dieses Nutzererlebnis trägt wiederum zu einer Senkung der Prozesskosten und eine höhere Prozessgeschwindigkeit in der Kunden-Lieferanten-Beziehung bei. Ein gut strukturierter und professioneller Online-Shop stellt aber nicht nur für den Kunden eine immense Arbeitserleichterung dar, sondern unterstützt den Shopbetreiber gleichermaßen in der Optimierung seiner eigenen Geschäftsprozesse.

Frage 4: Worauf sollte man bei der Auswahl von einer B2B eCommerce Plattform achten?

In Zeiten von Google und anderen Suchmaschinen ist eine auf SEO ausgerichtete technische Basis ein K.O. Kriterium. Schließlich möchte ein Händler bei den Suchergebnissen recht weit oben mitspielen. Ebenso wichtig sind die Geschwindigkeiten beim Seitenaufbau und bei der Produktsuche. Gerade die komplexen Produktportfolios eines B2B Shops weisen den zugrundeliegenden Suchmechanismen eine große Rolle zu. Schließlich müssen sehr vielen Datenmengen in kürzester Zeit durchsucht werden.

Autocomplete-Funktionen und die Anzeige von Suchergebnissen bereits während der Eingabe können die Suchdauer immens reduzieren und unterstützen den Kunden gleichzeitig bei der Verfeinerung seiner Suche. Ein weiteres wichtiges Kriterium ist der effiziente Ablauf innerhalb einer eCommerce-Plattform ggf. sogar in Verbindung mit dem vorhandenen ERP-System. Denn nur so erhält der Kunde sowohl bei seinen operativen als auch bei seinen administrativen Prozessen eine merkbare Entlastung. Wenn eine wiederkehrende Bestellung mit wenigen Klicks ausgelöst werden kann, erspart dieses dem Kunden Zeit und Geld. Kostenreduktion und eine damit einhergehende höhere Servicequalität stärken wiederum die Kundenbindung.

Frage 5: Welche Schritte sollte man bei der Einführung einer B2B eCommerce Plattform beachten?

Zunächst muss ein klares Ziel definiert werden: Was soll mit der unternehmenseigenen eCommerce Plattform erreicht werden? Sollen Reichweite und/oder Marktanteile gesteigert werden? Oder soll der Kundschaft ein vereinfachter Zugang beispielsweise zum Ersatzeilgeschäft eingeräumt werden? Ohne Ziel eine passende Lösung zu finden ist schier unmöglich. Danach werden die Anforderungen an die zu betreibende Plattform festgelegt: Welche Prozesse können über den Shop und somit über die digitale Schnittstelle ins Unternehmen angestoßen werden? Welche Funktionen stellen einen Mehrwert für die Kunden dar?

Genauso wichtig sind aber auch Funktionen, die einen Mehrwert für die eigene Prozessoptimierung darstellen. Zu guter Letzt darf die Analyse nicht vergessen werden: Schon vor der Einführung ist zu überlegen, welche Analysemethoden für die Weiterentwicklung des Geschäfts interessant sein könnten und wie tief diese in die Shop-Software integriert werden müssen.


Das Interview wurde schriftlich, mit Tim Langenstein, Vorstand Beratung bei e.bootis, geführt

Mit Tim Langenstein, Vorstand Beratung ist mittlerweile die zweite Generation im Familienunternehmen vertreten. Nach seinem Abschluss als Dipl. Kaufmann mit Fachrichtung internationale Betriebswirtschaft an der Fontys Internationale Hogeschool, Venlo startete der dreifache Familienvater 2007 zunächst in der Beratung e.bootis-ERPII und leitete zahlreiche Projekteinführungen bei namhaften Kunden. Parallel absolvierte er seinen Master in Finance, Banking and Investment an der Technischen Universität in Košice. 2014 rückte der 37jährige Geldener in den Vorstand der e.bootis ag auf. Anfang 2018 legte der passionierte Jäger seinen PhD in Economics an der Technischen Universität Košice ab.

Der Beitrag wurde ursprünglich hier veröffentlicht …