Wie intelligent ist Prozessautomatisierung wirklich?

Wie intelligent ist Prozessautomatisierung wirklich?

Another Monday wirkt als erster deutscher Anbieter an der Entwicklung des internationalen IEEE-Standards für intelligente Prozessautomatisierung (IPA) mit.

Wie intelligent ist Prozessautomatisierung wirklich?

Wegweisende Innovationen verändern den Wettbewerb. Die Folge: Der globale Markt für Robotic Process Automation (RPA) ist überaus fragmentiert – sowohl im Hinblick auf die Anzahl verfügbarer Lösungen als auch hinsichtlich der Kernbegriffe, die eine einheitliche Definition bislang vielfach vermissen lassen. Another Monday, Experte im Bereich intelligenter Prozessautomatisierung, treibt nun als erster Anbieter aus Deutschland die Entwicklung eines Standards mit voran, der eine einheitliche Taxonomie und Klassifizierung für RPA zum Ziel hat. Die gemeinsame Initiative führender RPA-Anbieter unter der Verbandsorganisation IEEE sorgt für Transparenz und einheitliche Kommunikation im Markt für Prozessautomatisierung. Mithilfe des Standards, der noch im laufenden Jahr veröffentlicht wird, können Unternehmen auf der Suche nach der optimalen RPA-Lösung künftig ihre individuellen Anforderungen mit dem Marktangebot abgleichen.

IEEE ist eine renommierte Organisation von Ingenieuren mit Expertise für technische Standards – darunter auch Intelligent Process Automation. Ein erster Standard, der die wichtigsten Definitionen aus den Bereichen RPA und IPA zusammenfasst und vereinheitlicht, ist bereits 2017 erschienen. Als Mitglied des IEEE-Komitees, das zurzeit an dem zweiten Standard arbeitet, engagiert sich Another Monday auf Basis seiner umfassenden Erfahrung mit KI-gestützten RPA-Ansätzen für das Gemeinschaftsprojekt. Der aktuelle Stand fasst 160 Kriterien für RPA-Lösungen zusammen. Darin werden relevante Aspekte transparent beschrieben und klassifiziert, damit Anwender marktgängige Technologien besser einordnen und vergleichen können. Die Taxonomie der Kriterien erleichtert es Unternehmen, zentrale Aspekte des eigenen Anforderungskatalogs zu bewerten – beispielsweise, wie skalierbar eine Automatisierungslösung ist und wie hoch der Implementierungsaufwand ist.

Mit ganzheitlichem Ansatz zur effizienten Lösung

Hans Martens, Gründer von Another Monday erklärt:

„Nach unserem Verständnis ist Prozessautomatisierung viel mehr als ein Software-Tool. Wir unterstützen Anwender mit der richtigen Kombination aus Methodik und Technologie dabei, die für sie ideale Lösung zu finden und gemäß dem konkreten Anwendungszweck zu skalieren. Um den hohen Wert eines transparenten Leistungsspektrums schon beim Angebotsvergleich erkennbar zu machen, forcieren wir die Entwicklung des neuen IEEE Standards für RPA. Denn wenn Kunden frühzeitig verstehen, was genau eine Lösung leisten kann, ist die Basis für ein partnerschaftliches Verhältnis mit Investitionssicherheit gelegt.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Kosten in der Cloud: Qualität und Wirtschaftlichkeit vereinen

Kosten in der Cloud: Qualität und Wirtschaftlichkeit vereinen

Wenn es um die Entscheidung geht, ob und welche unternehmenskritische Workloads in einer (Public-) Cloud oder On-Premises ausgeführt werden, ist es unverzichtbar, dass sich alle Stakeholder, die Teil des Evaluierungs- und Auswahlprozesses sind, vollumfänglich informieren. Für die Entwicklung einer langfristigen IT-Strategie, die mit dem jeweiligen Geschäftsmodell im Einklang steht, das Unternehmenswachstum sowie die Kosteneffizienz im Blick behält und dabei Sicherheit sowie Compliance nicht vernachlässigt, ist eine sorgsame Abwägung wichtig. Dieser Beitrag gibt Ihnen einen Überblick über die Kosten der Cloud.

In der Cloud: Qualität und Wirtschaftlichkeit vereinen

Insbesondere IT-Entscheider stehen in der Pflicht. Sie müssen sicherstellen, dass der gewählte Ansatz, ob (Single-) Cloud, Multi-Cloud, On-Premises oder Hybrid-Cloud, sowie die tatsächlichen Lösungen selbst den Anforderungen des Unternehmens genügen. Zwar stellen CEOs und CFOs nicht selten betriebswirtschaftliche Aspekte in den Vordergrund, wenn es um die Investition in die Unternehmensinfrastruktur geht. Doch dies muss heutzutage nicht gleich ein KO-Kriterium für eine qualitativ hochwertige IT-Infrastruktur und für eine nachhaltige IT-Strategie sein. Le Hai, Geschäftsführer der FPT Deutschland GmbH und CEO von FPT Europe, erklärt: „Unabhängig von der Cloud-Plattform, für die sich Unternehmenslenker und CIOs entscheiden: Alle großen Anbieter verwenden ein Standardarchitektur-Framework, das aus fünf zentralen Leitsätzen für eine qualitativ hochwertige Cloud-Architektur besteht, die sich für jede Art von Workloads eignet. Zu diesen Grundprinzipien gehören Kostenoptimierung, operative Exzellenz, Leistungseffizienz, Resilienz und Sicherheit.“

Klar ist: Sofern es Datenschutz und Compliance erlauben, sind Cloud-Lösungen ein guter Weg, um Unternehmens-Workloads kosteneffizient, sicher und performant abzubilden. Für IT-Verantwortliche gilt es dabei regelmäßig zu prüfen, ob ihre Cloud-Ressourcen optimal eingesetzt werden, und gegebenenfalls nachzuschärfen.

Folgende Punkte bieten die Möglichkeit zur schnellen Erzielung von Einsparungen zu Kosten in der Cloud:

Regionale Vorteile nutzen

Bei der Umstellung auf ein Cloud-Service-Modell eines weltweit tätigen Partners sollten global agierende Unternehmen im Hinterkopf behalten, dass die Kosten oft regional formuliert sind. Dieselben Dienste lassen sich zwar durchaus in unterschiedlichen Regionen (Kontinenten) buchen, doch müssen Entscheider mit unterschiedlichen Preisen kalkulieren.

Das können Unternehmen auch zum Vorteil nutzen. Bei weniger sensiblen oder weniger geschäftskritischen Workloads, lohnt es sich diese in andere Regionen auszulagern. Unternehmen sollten es in Betracht ziehen, die Workloads in eine Region zu verlagern, in der gleichwertige Ressourcen zu niedrigeren Kosten angeboten werden. Darüber hinaus sollten IT-Entscheider die Dimensionen ihrer Entwicklungsumgebungen reduzieren. Als Teil der Einrichtung eines Application Lifecycle Managements sollten Entwicklungs- und Testumgebungen mit der Produktivumgebung übereinstimmen. Dies gilt ebenso für die Konfiguration. Was nicht angepasst werden sollte, ist der Größenumfang. Eine Kubernetes-basierte Anwendung beispielsweise mit Dutzenden von Nodes wird betrieben, die sich über mehrere Regionen erstrecken. Es gibt keinen Grund, diese nicht auf einige wenige Nodes innerhalb einer einzigen Region für die internen Arbeitsbereiche zu skalieren.

Lizenzen weiterverwenden

Unternehmen und deren IT-Spezialisten sollten die Weiterverwendungsmöglichkeit von vorhandenen On-Premises-Lizenzen prüfen. Alle großen Player und Hyperscaler wie Microsoft, Google, AWS und Oracle geben Kunden diese Möglichkeit. Auf diese Weise können Unternehmen bestehende Verträge und Lizenzen, die sie abgeschlossen haben, mit ihren Cloud-Abonnements verknüpfen. Dies senkt die Cloud-Kosten auf ein überschaubares Maß, da zusätzliche Lizenzgebühren entfallen. Sie können so über andere Vereinbarungen abgedeckt werden.

Die Kosten in der Cloud

Benefits ausschöpfen

Viele Cloud-Plattform-Anbieter geben zudem Vergünstigungen über Benefits und Bonus-Programme, wenn sich ein Unternehmen langfristig bindet. Indem Unternehmen sich auf Einjahres- oder Dreijahrespläne für ihre Dienste festlegen, lassen sich die variablen Kosten (Pay-as-you-go) für die Buchung deutlich reduzieren und über die Benefits zusätzlich, statt der kostenpflichtigen Dienstleistungen, vergünstigt oder sogar kostenfrei aktivieren.

Den passenden Service wählen

Zahlreiche Unternehmen lassen ihre Unternehmenswebsite oder ähnliche webbasierte Anwendungen auf einer virtuellen Maschine (VM) eines Cloud-basierten Servers als IaaS-Workload laufen. Hier kann sich die Umwandlung zu einem PaaS-Modell lohnen. Wenn Unternehmen diese Ressourcen aus den Infrastrukturdiensten wie einer virtuellen Maschine auslagern und durch Plattformdienste wie App Services ersetzen, sinken die Kosten für diese Workloads entsprechend – sowie die Betriebskosten. Denn die Verwaltungskosten für die virtuelle Maschine fallen in diesem Zuge weg.

Die Gretchenfrage: Ist mein Unternehmen auf dem richtigen Weg?

Die Beantwortung zweier Fragen hilft einzuschätzen, wie das eigene Unternehmen seine eingesetzten Cloud-Lösungen unter dem Gesichtspunkt Kosten handhabt und ob es dazu fähig ist, agil zu optimieren:

  • Existiert eine kohärente Methode zur Schätzung der Cloud-Kosten sowie ein Plan dafür, wie etwaige Abweichungen vorhergesehen und behandelt werden können?

    Konkrete Kostenmodellierungen schaffen hier Abhilfe. IT-Experten sollten nach Möglichkeit damit beginnen, nachvollziehbare Kategorien von Cloud-Ressourcen nach Geschäftseinheit oder Abteilung zu erstellen. Im Anschluss werden Ziele, Anforderungen, Einschränkungen, Kompromisse, funktionale Anforderungen und Abrechnungsmodelle aufgestellt. Sobald dieser Prozess abgeschlossen ist, sind die Kostenunter- und -obergrenzen zu ermitteln, sodass das Budget entsprechend festgelegt werden kann.

  • Gibt es eine Governance für die Budgets, die Lebensdauer der Anwendung oder für einen bestimmten Workload?

Dies erreichen Unternehmen durch die Zuweisung von Budgets für bestimmte Services sowie durch regelmäßige Überprüfungen, die sicherzustellen, dass die Nutzung mit dem prognostizierten Budget übereinstimmt. Letztlich auch durch die Festlegung eines Enddatums für bestimmte Umgebungen.

Fazit zu Kosten in der Cloud

Können Unternehmensentscheider diese Fragen positiv beantworten und werden die vorgenannten Möglichkeiten zur schnellen Erzielung von Kosteneinsparungen umgesetzt, ist bereits ein großer Schritt hin zu einer kosteneffizienten Cloud-Nutzung und einer nachhaltigen IT-Strategie getan. 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Omnichannel im Einzelhandel – Diese Trends bestimmen die kommenden Jahre

Omnichannel im Einzelhandel – Diese Trends bestimmen die kommenden Jahre

Dem Omnichannel gehört die Zukunft. Warum? Weil er bedingungslos das bietet, was Kund*innen fordern: Omnichannel kombiniert den Luxus der digitalen Welt mit den Vorzügen des Einkaufens direkt vor Ort in der Einkaufspassage. Egal, ob es darum geht, Produkte online zu finden, sie zurückzulegen und später abzuholen. Oder sie direkt online zu bestellen und umweltschonend noch am selben Tag aus der Filiale in die eigene Stadt geliefert zu bekommen. Der Handel steht davor auch die letzten Grenzen zwischen off- und online aufzubrechen. Wir blicken in die Zukunft und benennen vier Trends, wie Omnichannel im Einzelhandel aussehen wird.

1. Beratung über alle Kanäle hinweg

Auch in Zeiten des Internets legen Kund*innen viel Wert auf eine gute Beratung. Das ergab eine Studie des Marktforschers PwC, an der sich mehr als 1000 deutsche Konsument*innen 2021 beteiligten. Dabei kam heraus, dass sich über 75 Prozent der Befragten freundliche, aufmerksame und präsente Verkäufer*innen wünschen. Doch wie können Händler diesem Wunsch nachkommen – gerade in Zeiten eines oft gesichtslosen Einkaufs im Netz?

Die Antwort darauf ist der Ansatz des Clienteling, der konsequent die Kund*innen in den Mittelpunkt jedes unternehmerischen Handelns stellt. Ziel ist es, die Kund*innen schon vor dem Betreten der Filiale so gut zu kennen, dass Verkäufer*innen auf der Fläche sofort wissen, was zu tun ist. Möglich wird das durch den Einsatz von sogenannten In-Store-Apps, mit dem das Personal Zugriff auf übersichtlich aufbereitete Kundendaten und das eigene Geschäft hat. Gerade in Kombination mit Kundenkonten entsteht so eine barrierefreie Informationsbasis, welche die Grundlage für eine perfekte Beratung bildet.

Doch was heißt das in der Realität? Nun, gehen wir davon aus, dass wir schon länger einen neuen Fernseher ins Auge gefasst haben. Wir haben Testberichte darüber gelesen und uns auch sonst im Internet darüber umfangreich informiert. Auf der Seite unseres lokalen Händlers haben wir gesehen, dass genau das passende Gerät vorrätig ist – und das sogar mit einem großen Rabatt! Schnell markieren wir den Fernseher mit einem Herz im Netz und schwingen uns ins Auto.

In der Filiale erwartet uns bereits ein Kundenberater, der auf seinem Tablet informiert wird, dass wir soeben das Geschäft betreten haben. Und weil er genau weiß, was wir möchten, kann er uns nicht nur sofort zu unserem Wunschgerät führen, sondern hat auch gleich eine kleine Auswahl an Zubehör für uns herausgesucht. Und mal ehrlich, auf so einem tollen Gerät, da wirkt die neue Playstation auch nochmal ganz anders…

In den kommenden Jahren werden wir also die Verschmelzung der digitalen mit der physischen Welt erleben. Ein erster Landepunkt für diese Entwicklung wird die grenzenlose Beratung vor Ort sein. Und diese wird mit darüber entscheiden, welches Unternehmen in der Digitalisierung die Nase vorne hat und wem Omnichannel im Einzelhandel gelingt.

Omnichannel im Einzelhandel - Diese Trends bestimmen die kommenden Jahre

2. Nachhaltigkeit als entscheidendes Verkaufsargument

Wenn Kund*innen online bestellen, entscheiden sehr viele Faktoren über die Kundenzufriedenheit. Und nicht alle Punkte lassen sich von Händlern immer kontrollieren. Ein oft unterschätzter Faktor ist der Versand von Waren. Denn neben Lieferzeiten und -kosten ist hier in den kommenden Jahren ein ganz neuer Mindset entstanden, der heute vor allem bei der jungen Zielgruppe an erster Stelle steht: die Nachhaltigkeit.

So ergab eine Deloitte Studie bereits 2014, dass über 50 Prozent der Jugendlichen Wert darauflegen, dass Waren klimaschonend versandt werden und Unternehmen basierend auf ethischen Grundsätzen agieren. 2021 gaben bereits über 90 Prozent der relevanten Zielgruppe an, diesem Wert besondere Relevanz beizumessen. Die Reduzierung von CO2 ist also nicht nur ein wichtiges Ziel für die Erhaltung unseres Planeten, sondern auch ein realer wirtschaftlicher Faktor.

Daher ist es keine Frage ob, sondern wann sich der Einzelhandel auf seine Stärke besinnt. Denn, während Filialen in den vergangenen Jahren oft als Nachteil für Händler im Kampf gegen Online-Pure-Player gesehen wurden, können Sie jetzt zum größten Argument für den Einzelhandel werden – auch im Online-Geschäft!

Möglich wird das durch Ship from Store, das lokale Filialen in Fulfillment-Hubs verwandelt und Händlern so nicht nur Kosten spart und Warenverfügbarkeiten erhöht, sondern auch lokale Angebote unmittelbar lieferbar für Kund*innen im Umkreis macht. Zeitgleich verbindet Ship from Store alle Filialen in einem Netzwerk, in dem sie die Rolle von Logistikverteilern einnehmen. Ein intelligentes Order-Routing ermöglicht es, anschließend Bestellungen von Kund*innen zusammenzufassen. Das spart Verpackungsmüll, Lieferzeiten und vor allem – durch die Reduktion von zu fahrenden Kilometern auf der Last-Mile – den Ausstoß von CO2.

Nachhaltigkeit wird für Händler mehr als nur ein Buzzword sein. Sie ist eine der größten Verkaufsargumente überhaupt. Und vor allem kurze Lieferwege und lokale Präsenz werden dabei entscheidend sein.

3. Individuelle Apps!

Wie bereits eingangs beschrieben, werden auch Apps weiterhin eine wichtige Rolle im Handel spielen. Nicht nur für die Beratung vor Ort, sondern auch für die Kommunikation mit den eigenen Kund*innen. Gerade im Omnichannel werden die Anwendungen für die Mobilgeräte noch intelligenter und vor allem noch individueller werden.

In den kommenden Jahren wird es zur Realität werden, dass wir Apps nicht nur als digitale Kundenkarten mit Coupon-Funktion nutzen, sondern als Begleiter beim Einkauf. Sie werden uns so nicht nur dank Augmented Reality durch die Filialen direkt zu unseren gewünschten Produkten führen, sondern uns auch proaktiv über Aktionen und Preisveränderungen informieren, die wir dann per Fingerwisch sofort in Anspruch nehmen können.

Möglich wird dies durch die Nutzung vieler verschiedener Daten und der intelligenten Verknüpfung aller Informationen, die Händlern zur Verfügung stehen. Diese Ressource führt, richtig genutzt, zu mehr Kundenzufriedenheit und mehr Service und ist dadurch auch bei Omnichannel im Einzelhandel wichtig.

Omnichannel im Einzelhandel - Diese Trends bestimmen die kommenden Jahre

4. Hyper-Local-Marketing Feeds

Unternehmen werden immer mehr zu lokalen globalen Marken. Das bedeutet, dass jedes Unternehmen weltweit gesehen und lokal bewertet wird. Sichtbarkeit über alle Plattformen hinweg ist bereits heute ein entscheidender Faktor im Omnichannel, doch mit „Near Me“ kommt eine weitere wichtige Entwicklung dazu. Denn immer mehr Menschen suchen schon heute über Google nach Waren und Dienstleistungen in ihrer Nähe. Dabei geht es um Nachhaltigkeit, aber auch Geschwindigkeit. Und Unternehmen müssen mit dieser Entwicklung Schritt halten.

Es geht darum, noch schneller im Netz gefunden zu werden und mit lokalen Angeboten und Services zu überzeugen. Kund*innen, die über Anzeigen in den Sozialen Medien gefunden werden, möchten vor Ort begeistert werden. Warum also diese Pflicht nicht zur Kür machen und mit Hyper-Local-Marketing (HLM) genau die Kund*innen ansprechen, die gerade an der Ladentüre vorbeilaufen und sie mit passenden Angeboten und Produkten in die Ladenflächen ziehen?

Das klingt nach Zukunft? Ja, vielleicht. Aber sie ist näher als wir glauben. Denn schon heute hat der Handel die Möglichkeiten, diese HLM-Feeds abzubilden und zu etablieren. Wie das geht? Sie haben es sicher geahnt: durch die Nutzung der vorhandenen Daten, die uns alle umgeben. Gerade dank Google My Business steht diese Welt zudem nahezu allen Händlern zur Verfügung!

Fazit: Omnichannel im Einzelhandel schlägt Brücken

Unsere Welt verändert sich mit jedem Tag ein bisschen mehr. Die digitale Welt erscheint nicht mehr wie ein ferner Kontinent, sondern wie die Nachbarschaft. Noch nie war es so einfach Brücken zu schlagen zwischen digitalen Einkaufserlebnissen und dem Shopping in der Filiale. Und noch nie wird es so notwendig sein, diese Brücken zu nutzen. Die Digitalisierung wartet auf niemanden und sie wird an Geschwindigkeit weiter zunehmen.

Dennoch wird sie auch in den kommenden Jahren einen gewaltigen Vorteil bringen. Zumindest für diejenigen, die die Zukunft gestalten und mutig an einem perfekten Einkaufserlebnis über alle Plattformen und alle Strukturen hinweg arbeiten. Die Zukunft gehört dem Omnichannel im Einzelhandel und vor allem denen, die nicht in Systemen, sondern in Kundenzufriedenheit denken.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Im Kopf eines Hackers: MFA-Attacken rechtzeitig erkennen

Immer wieder hören und lesen wir über Hackerangriffe und den Schaden, den diese anrichten können. Damit Unternehmen und Privatpersonen sich besser schützen können, sollten sie die von Hackern angewandten Methoden kennen und die Denkweisen eines Angreifers nachvollziehen. Um die eigene Cybersicherheit zu erhöhen, sollten auch die Multi-Faktor-Authentifizierung (MFA) und wie Hacker sie für Angriffe einsetzen, verstanden werden.

Zusätzliche Sicherheit durch MFA

Um sich in Geräte, Firmennetzwerke oder Programme einzuloggen nutzen Mitarbeiter Passwörter – meistens dasselbe oder ein ähnliches für verschiedene Konten, so die Studie „Psychologie der Passwörter“ von LastPass. Mit 92 Prozent wissen zwar fast alle Nutzer, dass so das Risiko für einen Hackerangriff steigt. Es ist jedoch einfacher und bequemer, sich nur ein Passwort und leichte Abwandlungen davon merken zu müssen. Einen zusätzlichen Schutz vor Ransomware-Angriffen oder der Entwendung von Daten bietet ein weiterer Verifizierungsschritt wie die MFA. Dazu zählen die SMS- und E-Mail-Authentifizierung, bei der ein Einmal-Code an die hinterlegte Handynummer oder Mailadresse verschickt wird, die biometrische Authentifizierung per Fingerabdruck oder Face-ID sowie Authentifizierungs-Apps.

Ein integrierter Passwortmanager bietet darüber hinaus die Möglichkeit, die MFA mit adaptiven Authentifizierungstechniken zu kombinieren: Nicht nur das Passwort sowie biometrische Daten oder ein zusätzlicher Code werden genutzt, um Nutzer zu verifizieren, auch weitere Informationen wie geografische Daten oder registrierte Geräte werden abgefragt.

Grenzen der MFA: Wie Hacker angreifen

Fast jedes der monatlich kompromittierten Microsoft-Konten nutzt keine aktive MFA, so eine aktuelle Studie von Microsoft. Hier können Unternehmen also anfangen, ihre Cybersicherheit zu verbessern. Trotzdem reicht das nicht aus: Hacker greifen auch MFA-gesicherte Geräte an und gelangen immer wieder in fremde Systeme.

Bei der beliebten und bequemen SMS-Authentifizierung imitiert ein Hacker durch einen so genannten SIM-Swap-Betrug das Telefon der Zielperson und empfängt dessen Nachrichten. Die Bequemlichkeit hat also ihren Preis: Der Hacker kann unbemerkt auf das gesamte Firmennetzwerk zugreifen. Bei dem Softwareunternehmen SolarWinds haben Angreifer beispielsweise Zugriff auf die Systeme erhalten und der Sofware Malware hinzugefügt, berichtet Gartner. Der zuständige Sicherheitsexperte merkte den Angriff auf die Lieferkette nur, weil die Hacker ein zweites Telefon für die MFA anmelden wollten.

Mit Hilfe von Cookies können User in ihren Konnten eingeloggt bleiben, auch wenn sie die Webseite zwischendurch verlassen. Es ist zwar praktisch, dass Browser und Webseiten Informationen in Form von Cookies speichern – gleichzeitig können Hacker so mit einem sogenannten „Pass-the-Cookie“-Angriff in Unternehmensnetzwerke eindringen. Sie entwenden einfach die gespeicherten Informationen und verwenden die gehackten Anmeldedaten.

So reduzieren Unternehmen Sicherheitslücken

Wenn Unternehmen die bekannten Methoden von Hackern nutzen, um sich zu schützen, erhalten diese weniger Angriffsfläche. Entdecken sie frühzeitig Risiken und mögliche Sicherheitslücken, können sie schneller handeln und sich vor Cyberangriffen schützen. Daher sollten Unternehmen die folgenden Punkte für mehr Sicherheit berücksichtigen:

  • Wachsamkeit als Ergänzung zu Sicherheitstools. Das Beispiel von SolarWinds zeigt, dass Unternehmen sich nicht nur auf Sicherheitstools verlassen sollten. Sie müssen zusätzlich die Augen offenhalten, um verdächtiges Verhalten zu erkennen. Damit Hacker Sicherheitslücken nicht zu ihrem eigenen Vorteil nutzen können, müssen diese rechtzeitig erkannt, geprüft und eliminiert werden.
  • Der richtige Einsatz von MFA. Nur bei einer richtigen MFA-Implementierung kann sie den nötigen Schutz bieten. Die Kombination von MFA mit adaptiven Authentifizierungstechniken minimiert das Risiko eines Angriffs zusätzlich.
  • Verschiedene Verifizierungsmöglichkeiten abdecken. Unternehmen sollten bei der MFA-Implementierung nicht nur an die offensichtlichsten Möglichkeiten – wie beispielsweise die SMS-Authentifizierung – denken, sondern alle möglichen Verifizierungsmöglichkeiten berücksichtigen. Dazu zählen Spracherkennung, Authentifizierungs-Apps oder Face-ID.
  • Regelmäßige Identitätskontrolle. Nach einem erfolgreichen MFA-Angriff denken Hacker, dass sie die Kontrolle über das Firmennetzwerk haben. Daher sollten Unternehmen zusätzlich zur MFA auch eine fortlaufende Verifizierung einführen, bei der Nutzer regelmäßig ihre Identität bestätigen müssen.
  • Sicherheitstrainings durchführen. Damit sowohl Unternehmen als auch Arbeitnehmer die aktuellen Risiken und Sicherheitsvorkehrungen kennen, sollten regelmäßige Schulungen stattfinden. Diese erklären, wie sie auffälliges Verhalten erkennen und potenzielle Angriffe abwehren können und stärken so das Sicherheitsbewusstsein der Mitarbeiter.

Auf dem neuesten Stand bleiben

Hacker finden immer neue Wege, um Nutzer zu täuschen und Unternehmen mit Ransomware-Angriffen zu bedrohen. Wenn Internetnutzer die Technik hinter den Angriffen kennen, können sie sich besser absichern. Wer also versteht, wie ein Hacker denkt, kann größere Fehler vermeiden. Ein Unternehmen muss wissen, wie es sich mithilfe von MFA schützt und die Risiken eines Cyberangriffes reduziert.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Zeit ist Geld: Ladezeit und PageSpeed Insights im Online-Marketing

Zeit ist Geld: Ladezeit und PageSpeed Insights im Online-Marketing

Viele kennen es: Die Website lädt und lädt und lädt. Die meisten Menschen waren es zu Zeiten des 56k-Modems noch gewohnt minutenlang auf das Aufbauen einer Page zu warten,. Heute reißt ihr Geduldsfaden heutzutage immer früher: Sie springen ab und versuchen eine neue Seite zu laden. Das bedeutet, dass Interessenten eventuell zu einem anderen Produkt wechseln, weil sie nicht schnell genug an die nötigen Informationen kommen. Die schnelle Absprungrate bewerten auch Google Crawler als negativ und ranken die Website dementsprechend weiter unten auf der Suchergebnisseite. Eine angemessene PageSpeed stellt sich daher auch aus SEO-Sicht als unermesslich dar. Das erklärt Andreas Karasek, Geschäftsführer der Agentur SEM Berater, und führt aus, wieso gute Ladezeiten entscheidend sind für einen guten Umsatz.

Google-Tool nutzen und deuten

Einige Studien belegen, was viele Unternehmen vermuten: Bereits nach einigen Sekunden Wartezeit verlassen Besucher eine Website wieder, wenn diese sich nicht schnell genug aufbaut. Das bedeutet auch abseits der sinkenden Zahl an potenziellen Interessenten einen Wettbewerbsnachteil für das Unternehmen. Springen viele User zu schnell ab, deutet das Google als negativ – die Seite rutscht in der Ergebnissuche weiter nach unten. Auch wenn die PageSpeed nur ein Faktor von rund 200 für das Ranking in der Suchmaschine ist, sollten Unternehmen sich mit diesem Thema befassen, da es einen wichtigen Aspekt darstellt, den sie zumindest selbst beeinflussen können. Doch zunächst gilt es die Schnelligkeit der Seite zu analysieren. Google selbst bietet dafür beispielsweise das kostenlose Tool PageSpeed Insights an.

Zeit ist Geld: Ladezeit und PageSpeed Insights im Online-Marketing

Hier kann die Ladezeit einer beliebigen URL sowohl für mobile Endgeräte als auch PCs gemessen werden. Sie wird durch einen Score berechnet und analysiert auch das Verbesserungspotenzial. Karasek erklärt: „Der Score wird auf einer Skala von 0 bis 100 angezeigt. Das bildet den gewichteten Durchschnitt verschiedener Metriken ab. Dabei ist eine gute Bewertung nicht nur bei 100 von 100 möglichen Punkten zu sehen.“ Die Aufteilung liegt bei 0 bis 49 Punkten für eine schlechte Bewertung, 50 bis 89 für eine durchschnittliche und 90 bis 100 Punkten für eine gute Gesamtwertung. Die Seite vereint die Daten aus Nutzererfahrungen in Chrome, auch als CrUX abgekürzt, und dem Bericht aus der Direktabfrage der URL mittels des Google-Tools Lighthouse. Dabei führt nicht der eigene Rechner diese Tests aus, sondern ein Google-Server, sodass die eigene Internet- oder Rechner-Geschwindigkeit für das Ergebnis unerheblich ist.

Parameter für optimales Nutzererlebnis

Die Parameter der Nutzerdaten schlüsseln sich in verschiedene Punkte auf.

  • First Contentful Paint (FCP)
  • First Input Delay (FID)
  • Largest Contentful Paint (LCP)
  • Cummulative Layout Shift (CLS).

Der FCP stellt die Zeit dar, die ein Browser braucht, um erste Inhalte der Seite anzuzeigen. Der FID-Wert quantifiziert, wie schnell die Website auf eine Interaktion des Benutzers reagiert. Anhand des Largest Contentful Paint lässt sich ablesen, wie lange es dauert, bis das größte Element einer Seite fertig aufgebaut ist. Der CLS berücksichtigt die Summe aller Layoutverschiebungen.

Wenn ein Nutzer beispielsweise einen Link anklicken möchte, bevor die Seite vollständig geladen ist, kann es passieren, dass das Layout „springt“, da Bilder nachgeladen werden oder Werbung erst später eingeblendet wird, und der Nutzer dadurch aus Versehen ins Leere klickt. „Je länger also das Layout herumspringt, desto ärgerlicher für den User“, so Karasek. Die Labordaten von Lighthouse zeigen neben dem FCP und dem CLS auch noch die Time to Interactive (TTI). Die zeigt an, wie schnell eine Seite interaktiv wird. Das heißt, wann sie also ausreichend Elemente anzeigt, damit der Nutzer auch auf der Seite aktiv werden kann. Hinzu kommt die TBT, die Total Blocking Time, die die Summe aller Zeiträume zwischen FCP und TTI zusammenfasst, wenn die Aufgabendauer 50 Millisekunden überschreitet.

Kleine Stellschrauben verändern vieles

Wer keinen zufriedenstellenden Score erhält, kann an einigen Stellschrauben drehen, um die PageSpeed zu verbessern. Das kann in erster Linie durch die Optimierung der Websiteinhalte passieren. Dazu gehört es, die Bilder zu skalieren, nicht zu große Dateien einzusetzen und beispielsweise datensparsame Formate wie PNG oder WebP zu verwenden. Aber auch mit dem Thema Caching sollten Unternehmen sich für eine verbesserte Ladezeit auseinandersetzen. Hier geht es um Ressourcen der Website in einem Zwischenspeicher, um sie bei Bedarf schnell wieder abrufen zu können.

„Ist das Caching aktiviert, speichert der Browser Elemente einer Website, sodass sie beim nächsten Besuch schneller abgerufen werden können“, weiß Karasek. Durch entsprechende Add-ons oder Plug-ins lässt sich so die Ladezeit für den Nutzer verbessern. Ein weiterer Trick besteht darin, die sogenannte Lazy-Loading-Methode zu verwenden. Hier werden Inhalte erst geladen, wenn sie vom Nutzer tatsächlich benötigt werden. Beispielsweise verlangsamt das gleichzeitige Laden aller Produktbilder in einem Webshop die Page enorm. Durch das Lazy Loading werden die Bilder dementsprechend erst geladen, wenn sie tatsächlich in das Blickfeld des Nutzers geraten. Zuvor verwendet die Seite Platzhalter im gleichen Format, um die Designstruktur nicht zu verändern. Insgesamt kann es auf Dauer nicht nur Potenzial verschenken, sondern sogar Geld kosten, wenn sich ein Unternehmen nicht mit der Optimierung seiner Website auseinandersetzt. Wer jedoch nicht die Zeit dafür aufbringen kann, sollte in jedem Fall einen Experten beauftragen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Interview mit e.bootis zum Thema B2B E-Commerce

Interview mit e.bootis zum Thema B2B E-Commerce

Matthias Weber im Gespräch mit Tim Langenstein, Vorstand Beratung bei e.bootis, zum Thema B2B E-Commerce.

Die e.bootis ag aus Essen ist Hersteller der ERP-Software-Suite e.bootis-ERPII . Das Unternehmen entwickelt, vermarktet und implementiert seit über 35 Jahren leistungsstarke Software-Systeme auf Grundlage betriebswirtschaftlicher Anforderungen. Über 80 Mitarbeiter begleiten an drei Standorten in Deutschland zahlreiche Installationen im In- und Ausland. e.bootis bietet eine zukunftssichere ERPII Software, die sämtliche Prozesse unter den Bedingungen der digitalen Transformation effizient steuert. Der unternehmensübergreifende Datenaustausch wird durch die offene Systemarchitektur optimal unterstützt. e.bootis-ERPII : plattformunabhängig, im Standard individualisierbar, 100 %ig releasefähig und skalierbar.

5 Fragen an e.bootis zum Thema B2B E-Commerce

Auf unsere 5 Fragen zum Thema „B2B E-Commerce“ gibt uns Tim Langenstein, Vorstand Beratung bei e.bootis, Antworten.

Frage 1: Worin unterscheidet sich B2B eCommerce von B2C eCommerce?

Auch wenn die Grenzen zwischen B2B und B2C immer fließender werden, gibt es doch einige wesentliche Unterschiede zwischen diesen beiden Handelsbeziehungen. Das B2B eCommerce wird durch die Sortimentsabbildung des Lieferanten für bereits bestehende Kunden mit oft individuellen Preisfindungsmechanismen, Zahlungs- und Lieferbedingungen bestimmt. Bestellungen können durch hohe Stückzahlen geprägt sein. Im B2C eCommerce hingegen wird der Händler mit einer häufig wechselnden Klientel konfrontiert. Die, gelenkt durch Werbemaßnahmen oder Social Media-Aktivitäten immer auf der Suche nach dem günstigsten Preis, in einen Onlineshop gespült wird. Hieraus lässt sich bereits erkennen, dass den einzelnen Plattformen ganz andere
Systemanforderungen zugrunde liegen müssen:

Die technische Abbildung eines B2C Shops mit überwiegend festen Preisen ist weitaus leichter als die eines B2B Shops. Dort müssen u. U. ausgeprägte Rabattstrukturen und Produkte mit vielen Varianten und Merkmalen, die sich mittels Produktkonfigurator selbständig vom Kunden konfigurieren lassen, berücksichtigt werden.

B2B eCommerce dient heute nicht mehr nur dem reinen Einkauf. Als Stufe im Supply-Chain-Prozess wandelt sich der B2B eCommerce verstärkt zur Kommunikationsplattform. Der Online-Shop als digitaler Berater für erklärungsbedürftige Produkte. Der Kunde kann sich bequem über Produktneuheiten und –veränderungen informieren, sich jederzeit einen Überblick über offene Aufträge, Lieferstatus oder Reklamationen verschaffen und die Einrichtung wiederkehrender Bestellungen anstoßen. Im Sinne von KI können sogar spezielle Angebotsvorschläge gemäß dem Einkaufsverhalten des Kunden zusammengestellt werden.

Die im Idealfall mit dem ERP-System vernetzte Shopsoftware stößt dabei automatisierte Prozesse an, die weitestgehend ohne manuelle Mitarbeitereingriffe auskommen. Diese können sich auf ihr Kerngeschäft konzentrieren und werden von administrativen Aufgaben entlastet. Nicht unberücksichtigt dürfen auch die zunehmend digitalisierten Einkaufsprozesse auf Kundenseite bleiben. Machen sie doch die Unterstützung entsprechender Freigabeprozesse ab einem bestimmten Bestellwert durch Vorgesetzte notwendig, welche auf der B2B Plattform handelbar sein sollte.

Frage 3: Wie wichtig ist die User Experience im B2B eCommerce?

Dem als Privatperson durch B2C geprägtem Geschäftskunden ist das Nutzenerlebnis im Geschäftsalltag natürlich ebenso wichtig. Der Shop sollte so einfach wie möglich zu bedienen sein, verbunden mit einer zielführenden Navigation, einer intelligenten Suche und sich daraus ergebenden wertvollen Produktinformationen. So werden die meisten Kunden zu Wiederholungstätern.
Dieses Nutzererlebnis trägt wiederum zu einer Senkung der Prozesskosten und eine höhere Prozessgeschwindigkeit in der Kunden-Lieferanten-Beziehung bei. Ein gut strukturierter und professioneller Online-Shop stellt aber nicht nur für den Kunden eine immense Arbeitserleichterung dar, sondern unterstützt den Shopbetreiber gleichermaßen in der Optimierung seiner eigenen Geschäftsprozesse.

Frage 4: Worauf sollte man bei der Auswahl von einer B2B eCommerce Plattform achten?

In Zeiten von Google und anderen Suchmaschinen ist eine auf SEO ausgerichtete technische Basis ein K.O. Kriterium. Schließlich möchte ein Händler bei den Suchergebnissen recht weit oben mitspielen. Ebenso wichtig sind die Geschwindigkeiten beim Seitenaufbau und bei der Produktsuche. Gerade die komplexen Produktportfolios eines B2B Shops weisen den zugrundeliegenden Suchmechanismen eine große Rolle zu. Schließlich müssen sehr vielen Datenmengen in kürzester Zeit durchsucht werden.

Autocomplete-Funktionen und die Anzeige von Suchergebnissen bereits während der Eingabe können die Suchdauer immens reduzieren und unterstützen den Kunden gleichzeitig bei der Verfeinerung seiner Suche. Ein weiteres wichtiges Kriterium ist der effiziente Ablauf innerhalb einer eCommerce-Plattform ggf. sogar in Verbindung mit dem vorhandenen ERP-System. Denn nur so erhält der Kunde sowohl bei seinen operativen als auch bei seinen administrativen Prozessen eine merkbare Entlastung. Wenn eine wiederkehrende Bestellung mit wenigen Klicks ausgelöst werden kann, erspart dieses dem Kunden Zeit und Geld. Kostenreduktion und eine damit einhergehende höhere Servicequalität stärken wiederum die Kundenbindung.

Frage 5: Welche Schritte sollte man bei der Einführung einer B2B eCommerce Plattform beachten?

Zunächst muss ein klares Ziel definiert werden: Was soll mit der unternehmenseigenen eCommerce Plattform erreicht werden? Sollen Reichweite und/oder Marktanteile gesteigert werden? Oder soll der Kundschaft ein vereinfachter Zugang beispielsweise zum Ersatzeilgeschäft eingeräumt werden? Ohne Ziel eine passende Lösung zu finden ist schier unmöglich. Danach werden die Anforderungen an die zu betreibende Plattform festgelegt: Welche Prozesse können über den Shop und somit über die digitale Schnittstelle ins Unternehmen angestoßen werden? Welche Funktionen stellen einen Mehrwert für die Kunden dar?

Genauso wichtig sind aber auch Funktionen, die einen Mehrwert für die eigene Prozessoptimierung darstellen. Zu guter Letzt darf die Analyse nicht vergessen werden: Schon vor der Einführung ist zu überlegen, welche Analysemethoden für die Weiterentwicklung des Geschäfts interessant sein könnten und wie tief diese in die Shop-Software integriert werden müssen.


Das Interview wurde schriftlich, mit Tim Langenstein, Vorstand Beratung bei e.bootis, geführt

Mit Tim Langenstein, Vorstand Beratung ist mittlerweile die zweite Generation im Familienunternehmen vertreten. Nach seinem Abschluss als Dipl. Kaufmann mit Fachrichtung internationale Betriebswirtschaft an der Fontys Internationale Hogeschool, Venlo startete der dreifache Familienvater 2007 zunächst in der Beratung e.bootis-ERPII und leitete zahlreiche Projekteinführungen bei namhaften Kunden. Parallel absolvierte er seinen Master in Finance, Banking and Investment an der Technischen Universität in Košice. 2014 rückte der 37jährige Geldener in den Vorstand der e.bootis ag auf. Anfang 2018 legte der passionierte Jäger seinen PhD in Economics an der Technischen Universität Košice ab.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Digitalisierung im stationären Handel – die vier größten Hürden

Digitalisierung im stationären Handel – die vier größten Hürden

Mithilfe digitaler Technologien und Omnichannel-Services können Händler ein persönlicheres In-Store Erlebnis für ihre Kunden kreieren. Das bietet dem Einzelhandel enorme Chancen. Gelingt es Retailern, durch die Verbindung von Onlineshop und stationärem Filialgeschäft Mehrwerte für ihre Kunden zu erzeugen, können sie ihre Ladenfrequenz erhöhen, Retouren reduzieren, Lagerumschlagszeiten verringern und Up- und Cross-Selling-Potenziale erschließen. Dabei gilt es bei der Digitalisierung im stationären Handel vier Hürden zu meistern.

Digitalisierung im stationären Handel – die vier größten Hürden

1. Hürde: Zu viel auf einmal wollen

Für die Digitalisierung des stationären Handels gibt es keine Blaupause, an der sich Retailer orientieren können. Stattdessen gibt es Dutzende digitale Angebote, die das Kundenerlebnis im physischen Geschäft verbessern. Sie alle klingen attraktiv – welche davon zu den Bedürfnissen der eigenen Kunden passen, ist vielen Händlern oftmals nicht klar. Es gibt unzählige Möglichkeiten, die digitale Transformation anzugehen. Manche Händler fühlen sich von der Optionsvielfalt überfordert. Dabei muss die Digitalisierung kein Rundumschlag sein, der alle Systeme auf einmal in die interne Prozess- und IT-Landschaft integriert. Sinnvoller ist ein schrittweises Vorgehen. So können Händler – auch ohne Onlineshop – mit einem Pilotprojekt starten, das mit Blick auf die Prozesse und die Bedürfnisse der Kunden am aussichtsreichsten erscheint. Auf diese Weise nähern Händler sich sukzessive ihrem Ziel.

2. Hürde: Zu knappe Ressourcen

Der Einzelhandel steht unter hohem Kostendruck und das nicht erst seit den immer wiederkehrenden Lockdowns. Händler sind von Umsatzeinbußen und sinkenden Besucherzahlen betroffen. Daher agieren manche von ihnen zurückhaltend, wenn es um Investitionen in die digitale Zukunft geht. Sie fürchten sich davor, da ihre Ressourcen knapp sind. Es ist nachvollziehbar, wenn Entscheider jede Ausgabe genauestens überdenken. Der Omnichannel-Handel entwickelt sich aber mehr und mehr zum Standard, der die Kaufgewohnheiten von Kunden bestimmt. Daher ist es notwendig, die Digitalisierung im stationären Handel voranzutreiben. Kunden ist es egal, wie die Prozesse im Hintergrund aussehen. Für sie zählt nur das Einkaufserlebnis in Verbindung mit bestmöglichem Komfort und Service. Deshalb sind Angebote – wie etwa Click & Reserve/Click & Collect oder Ship from Store – empfehlenswert. Kunden profitieren nicht nur von einer schnelleren Verfügbarkeit von Produkten, sondern auch geringeren Lieferkosten.

3. Hürde: Zu aufwendige Prozesse

E-Commerce und das stationäre Filialgeschäft sind in vielen Unternehmen immer noch klar getrennt. Allerdings sind Änderungen im Prozessablauf und Mindset zum erfolgreichen Omnichannel-Handel nötig, begleitet durch sorgfältiges Change Management. Und das bereitet manchen Entscheidern Sorgen. Sie fürchten, dass es schwerfallen könnte, App und mobiles Endgerät im Kundengespräch zu nutzen, weshalb sie auf die Einführung eines neuen Systems verzichten.

Digitalisierung im stationären Handel – die vier größten Hürden

Aber: Die Digitalisierung des stationären Handels bietet Potenzial, Prozesse durch Software zu verbessern. Etwa in den Bereichen Inventory-Management und Lagerumschlagshäufigkeit: Bekommt eine der Filialen eine bestimmte Blusen-Kollektion nicht verkauft, haben sie mit einem geeigneten Tool die Möglichkeit, diese Situation bequem zu lösen. Bestellt ein Kunde eine der Blusen im Onlineshop, kann der Händler den Artikel direkt von der Filiale an den Kunden schicken. Auch die Filialen profitieren: Durch transparente Warenbestände und schnell zugängliche Produkt- und Kundeninformationen in einer Lösung, kann das Team die Kunden besser beraten. Die Voraussetzung: Mitarbeiter sind im Umgang mit solchen Tools zu schulen, wobei es inzwischen intuitiv erlernbare Apps gibt.

4. Hürde: Zu aufwendige Integrationen

Die Digitalisierung des stationären Handels erfordert neue Software, die in bestehende IT-Landschaften zu integrieren ist. Diese Aufgabe wirkt auf manche Entscheider abschreckend. Sie fürchten, dass sich die neuen Systeme negativ auf den IT-Kosmos des Unternehmens auswirken und sie schlimmstenfalls technische Ausfälle verursachen. Das kann schnell teuer werden: Steht der Onlineshop für eine Weile nicht zur Verfügung, führt das zu frustrierten Kunden und Umsatzeinbußen. Bei der Suche nach den passenden Software-Angeboten sollten Retailer berücksichtigen, welche Folgen die Systemeinführung für die IT hat. Dieser Punkt ist im Gespräch mit potenziellen Dienstleistern explizit anzusprechen. Ratsam ist, sich am Ende für die Lösung zu entscheiden, die sich so einfach wie möglich in die bestehende IT-Landschaft integrieren, im schlimmsten Fall aber auch wieder unkompliziert entfernen lässt.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die Roboter kommen: RPA für Versicherungen

Die Roboter kommen: RPA für Versicherungen

Monotone, repetitive Aufgaben gibt es in den meisten Berufen, häufig aber machen sie nur einen geringen Teil des Arbeitsalltags aus. Insbesondere in der Versicherungsbranche sieht dies jedoch oft anders aus. Daten spielen hier eine entscheidende Rolle und müssen von Mitarbeitern manuell (ein-)gepflegt werden. Diese Prozesse sind nicht nur fehleranfällig, sondern auch ineffizient. Fachkundige Mitarbeiter verbringen oft mehr Zeit mit administrativen Arbeiten als mit der Kundenbetreuung. Daher setzen Entscheider in der Branche zunehmend auf Robotic Process Automation (RPA) für Versicherungen, um solche sich ständig wiederholenden Prozesse zu automatisieren und dadurch Ressourcen freizusetzen. Welche Herausforderungen sie bei der Einführung meistern müssen und wie die Skalierung gelingt, weiß Peter Helfenstein. Sie ist Senior Business Development Manager Banking, Financial Services, Insurance bei Endava.

Die Roboter kommen: RPA für Versicherungen

Das Versprechen von RPA klingt verlockend: Mehr Effizienz und niedrigere Kosten durch die schnelle Automatisierung vieler Prozesse. Entsprechend zeigt eine aktuelle IDG-Studie, dass sieben von zehn deutschen Unternehmen bereits mindestens fünf Prozesse mithilfe von Software-Robotern (Bots) automatisiert haben. Zudem erwarten die Befragten, dass der Stellenwert von RPA bis zum Jahr 2025 deutlich steigen wird.

Diese Prognose verwundert nicht, da die Vorteile von RPA in vielen Branchen zum Tragen kommen können. Dazu gehören insbesondere diejenigen, in denen zwar relativ einfache, aber dennoch langwierige und monotone Geschäftsprozesse zum Alltag gehören. Ein Beispiel hierfür ist die Versicherungsbranche. Berater verbringen einen Großteil ihrer Arbeit damit, selbst schon elektronisch eingehende Daten – etwa von Neukunden sowie bei Änderungen von Policen oder Schadensfällen – manuell in verschiedene interne oder Partner-Systeme einzupflegen, anzupassen, zusammenzuführen und sie zu analysieren. Dies kann zum einen dazu führen, dass sich aufgrund von Unaufmerksamkeiten Fehler einschleichen. Gerade bei Versicherungen können vermeintlich kleine Fehler schnell weitreichende Auswirkungen haben. Zum anderen sinkt die Motivation der Mitarbeiter, wenn sie hauptsächlich mit wenig fordernden Routine-Aufgaben beschäftigt sind.

Mehr Effizienz, weniger Fehler dank RPA für Versicherungen

RPA-Software bietet Versicherungen die Möglichkeit, ihre Mitarbeiter und deren Expertise sinnvoller einzusetzen. Dabei können sie gleichzeitig die Datengenauigkeit erhöhen und Arbeitsabläufe effizienter gestalten, um so im Endeffekt die Kundenzufriedenheit zu erhöhen. Die eingesetzten Bots ahmen dabei das menschliche Nutzerverhalten auf Basis konkret festgelegter Regeln oder gezielt unterstützt mit künstlicher Intelligenz und auch auf derselben Ebene wie die Nutzer nach. Damit greifen sie nicht in die zugrundeliegende IT-Infrastruktur ein. So ergeben sich eine Reihe von Anwendungsfällen, wie zum Beispiel:

  • Die Meldung und Bearbeitung von Versicherungsfällen: Bei der Bearbeitung von Schadensfällen müssen Versicherer große Mengen an Daten aus unterschiedlichen Quellen sammeln und zusammenführen. RPA erleichtert dieses Vorgehen, indem Prozesse wie die Datenextraktion, komplexe Fehlerverfolgung, Anspruchsprüfung oder Integration von schadenrelevanten Datenquellen automatisiert und dadurch erheblich beschleunigt werden.
  • Das Underwriting: Auch hierbei werden Informationen aus verschiedenen Quellen zusammengetragen, um das Risiko eines Kunden im Kontext bestimmter Versicherungspolicen einzuschätzen. Durch RPA für Versicherungen lässt sich die Datenerfassung aus internen und externen Quellen automatisieren. Aber auch interne Systeme lassen sich mit den relevanten Informationen befüllen und entsprechende Reports erstellen.
  • Compliance: Der Versicherungssektor muss strenge gesetzliche Vorgaben, beispielsweise bei der Dokumentation, und natürlich auch die DSGVO einhalten. Die Vielzahl manueller und damit fehleranfälliger Prozesse erhöht jedoch das Risiko von Verstößen. Erfolgen diese Prozesse dagegen automatisiert, sinkt die Fehlerquote und damit das Risiko.

Die richtigen Prozesse richtig automatisieren

Doch was müssen Versicherungsgesellschaften beachten, die mithilfe von RPA Geschäftsprozesse automatisieren wollen? Zunächst müssen sie das Automatisierungspotenzial identifizieren. Dafür bieten sich etwa Process-Mining-Lösungen an. Sie können erfassen, welche Prozesse wie innerhalb der Systeme ablaufen und bei welchen Verzögerungen entstehen, Eingaben redundant vorgenommen werden oder regelmäßig Probleme auftauchen. Im Anschluss sollten Versicherer prüfen, ob diese Prozesse für die Automatisierung geeignet sind oder auf anderem Wege besser optimiert werden können. Hochkomplexe Prozesse mit vielen Abhängigkeiten, bei denen Daten in vielen unterschiedlichen Anwendungen verarbeitet werden sollen, kommen beispielsweise für RPA weniger infrage. Denn sie können sehr wartungsintensiv sein.

RPA in Versicherungen

Im nächsten Schritt geht es bei der Umsetzung darum, erste Umgebungen aufzusetzen und Bot-Systeme zu entwickeln. Die Roadmap zur Automatisierung sollte dafür konkrete Beschreibungen der Prozessabläufe beinhalten. Dies schließt die einzelnen Schritte und Regeln, denen der jeweilige Bot folgen soll ein. Nach der Entwicklung eines RPA-Bots ist dieser ausgiebig zu testen. So ist sicherzustellen, dass er alle Funktionen wie gewünscht ausführt und keine Fehler auftreten. Da es RPA-Tools mit vielen unterschiedlichen Eigenschaften und Fähigkeiten gibt, sollten Versicherer zudem darauf achten, dass sie ein Werkzeug wählen, das ihren individuellen Anforderungen gerecht wird. Darüber hinaus ist es wichtig, die Mitarbeiter von Anfang an in das Projekt zu integrieren und ihnen die Vorteile der Automatisierung für ihre Arbeit zu vermitteln. Denn der Erfolg von RPA hängt auch davon ab, dass die Mitarbeiter bereit sind, sich die Software-Roboter im Arbeitsalltag zunutze zu machen.

Maximaler Nutzen dank der passenden Strategie

Wenn nach ersten erfolgreichen Bot-Projekten die unternehmensweite Skalierung ansteht, brauchen Versicherer eine umfassende Gesamtstrategie mit konkreten Zielen, die mithilfe von RPA-Software zu erreichen ist. Andernfalls kann die RPA-Initiative an Fokus, Dynamik und Managementunterstützung verlieren oder gar scheitern. Dazu gehört ebenfalls eine Roadmap. Sie beinhaltet alle Details über die zu automatisierenden Geschäftsprozesse, die notwendigen finanziellen, personellen und organisatorischen Ressourcen sowie ein Change-Management, das dafür sorgt, dass Mitarbeiter den Umgang mit der neuen Technologie lernen und dadurch den Weg aktiv mitgehen.

Die Investition in RPA-Software für Versicherungen lohnt sich. Denn im Arbeitsalltag ihrer Mitarbeiter stehen monotone Routine-Aufgaben immer auf der Tagesordnung. Dies sind beispielsweise die Übertragung der Daten sowie die Prüfung, der Abgleich von Daten oder das Ziehen von und Berichten. Sind solche Prozesse automatisiert, können sie sich nicht nur stärker auf das eigentliche Kundengeschäft konzentrieren. Sie beseitigen auch unnötige Fehler und Ineffizienzen, sodass sie insgesamt intelligenter arbeiten. Dies gelingt nach ersten Erfolgen jedoch mittel- und langfristig nur, wenn die Verantwortlichen bei der Automatisierung von Anfang an einen klaren Plan verfolgen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Social Selling – In die Netzwerke, fertig, los?

Social Selling – In die Netzwerke, fertig, los?

Social Media drängen mit neuen Funktionen ins Shop-Segment. Vorwärts immer, rückwärts nimmer! Nach diesem Motto möchten Social Media immer mehr Funktionen bündeln, um Nutzer länger auf den Plattformen zu beschäftigen und letztendlich die „Währung“ Zeit zu bekommen. Entsprechend versuchen soziale Netzwerke nach Nachrichten und Unterhaltung jetzt auch in den Vertrieb einzusteigen. Social Selling weckt dabei immer höheres Interesse!

In die Netzwerke, fertig, los? Social Media drängen mit neuen Funktionen ins Shop-Segment

Bei Verkäufern generiert dieses Vorgehen unter dem Namen „Social Selling“ seit geraumer Zeit Interesse. Insbesondere Instagram treibt mit neuen eCommerce-Features die Expansion in diesem Segment voran. Vor allem mit der „tap-to-buy“-Funktion bedient das Netzwerk besonders impulsive Käufer und verspricht schnelle Conversions. Großer Nachteil: Unabhängig von klassischen Shopsystemen können die Features nicht agieren.

Schöner Schein 

Bilder erwecken bei Betrachtern schnell Aufmerksamkeit und regen die eigene Phantasie an. Diesen psychologischen Mechanismus versucht Instagram mit der „tap-to-buy“-Funktion zu verwerten, indem abgebildete Waren direkt gekauft werden können. Intuitiv funktioniert die Nutzung des Features allemal. Eine Berührung des Produkts schickt die Nutzer in den Shop-Tab, der dann auf eine digitale Storefront weiterleitet. Jedoch liegt hier bereits der Hase im Pfeffer – das soziale Netzwerk verfügt über kein eigenes eCommerce-Backend. Bilder, Preise und Beschreibungen bezieht die App von der Website. Selbst die Abwicklung des Kaufvorgangs regelt die Software des Shops.

Theoretisch besteht die Möglichkeit, all diese Abläufe mit jedem Kunden über persönliche Nachrichten abzusprechen, dies bedeutet allerdings einen enormen Arbeitsaufwand. Gerade bei größerem Handelsaufkommen droht der Verwaltungsaufwand das Wachstum abzuwürgen. Außerdem stehen sowohl „tap-to-buy“ als auch ein Shop-Tab auf Instagram erst zur Verfügung, wenn eine digitale Warentheke mit dem Kanal verknüpft wird. Selbst für Entrepreneure, die überwiegend auf Instagram verkaufen wollen, führt kein Weg an einer klassischen Website mit Webshop vorbei.

Social Selling drängt ins Shop-Segment

Wer nicht findet, der nicht kauft

Nur wenn Interessierte einen Shop erreichen, können sie dort auch Waren erwerben. Auf Instagram stellt dies jedoch ein Problem dar. Zwar überprüft die Suchfunktion der App den Namen des Profils, bietet jedoch nicht die Möglichkeit, gezielt Produkte zu finden. Nur wer bereits Fan des Channels ist oder zufällig darüber stolpert, bekommt die Angebote aus Posts präsentiert. Beispielsweise führen die beiden Worte „Bohrmaschine kaufen“ auf Instagram zu keinem passenden Anbieter. Im Gegensatz dazu schicken die Algorithmen von Google, Yahoo und Co. Interessierte direkt zur digitalen Ladenzeile. Bereits die Kombination aus SEO und relevantem Produkt führt in der Regel schnell zu Ergebnissen. Insofern besitzt ein typischer Onlineshop gerade bei der Kaltakquise substanzielle Vorteile.

Außerdem lassen Programme wie Google Analytics genaue Auswertungen zu. Welche Produkte verkaufen sich am besten? Auf welchen Seiten bleiben Kunden am längsten? In welchem Schritt springen Interessierte am häufigsten ab? Solche Informationen erlauben Anpassungen im Layout des Shops und der Werbestrategie. Instagram verfügt mit seinen Insights zwar über eine eigene Analyse-Software, diese liefert allerdings nur Aufschluss über die Performance der Posts und des Channels. Eine Auswertung des geschäftigen Treibens bleibt Aufgabe des Onlineshops und zugehöriger Anwendungen.

Noch in Kinderschuhen

Trotz der Bestrebungen, Social Selling voranzutreiben, bleibt die digitale Storefront das Mittel der Wahl im eCommerce. Mangel an Eigenständigkeit, unzureichende Analyse-Tools und schlechte Auffindbarkeit von Produkten stellen klare Probleme dar. Ohne umfassende Erweiterungen der Software bleibt der Trend kommerziell gesehen in den Kinderschuhen. Als crossmediale Promotion erfüllt der Vertrieb über Instagram zwar seinen Zweck, aber für eine große Gruppe sind die Inhalte unzugänglich. Trotzdem ist hier die Entwicklung hin zu einem interaktiven eCommerce-Erlebnis denkbar. Beispielsweise könnte mithilfe von API-Integrationen eine tiefe Verflechtung von Social-Media-Kanälen mit Onlineshops gelingen. Wie erfolgreich der Verkauf in den sozialen Medien läuft und welche endgültige Rolle ihm zukommt, bleibt zum jetzigen Zeitpunkt ungeklärt.

Nimmt Social Selling als Marketing- und Vertriebskanal dauerhaft eine komplementäre Rolle zur digitale Ladenzeile ein? Beginnt hier bereits eine neue Evolutionsstufe des Internethandels? All das wird die Zukunft zeigen müssen. Bis die technische Entwicklung diesen Punkt erreicht hat, bleibt der Onlineshop Platzhirsch im eCommerce. Von Spezialisten nach SEO-Richtlinien aufgebaut, ermöglicht er der breiten Masse Zugang und kann gleichzeitig die erforderliche Infrastruktur mitliefern. Erleichtert eine große Bandbreite an Zahlungsmöglichkeiten und gute Navigation die Verkaufsabschlüsse, steht von technischer Seite dem erfolgreichen Vertrieb im Internet nichts mehr im Wege.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die fünf wichtigsten Vorteile von Edge Computing

Die fünf wichtigsten Vorteile von Edge Computing

Edge Computing entwickelt sich zu einem Megatrend und unverzichtbaren Element moderner IT-Infrastrukturen. Der Datenbank-Spezialist Couchbase nennt die fünf wichtigsten Gründe dafür und zeigt die Vorteile von Edge Computing.

Die fünf wichtigsten Vorteile von Edge Computing

IT geht in die Peripherie: Vernetzte Mini-Datacenter vor Ort ermöglichen eine Vielzahl neuer Anwendungs- und Einsatzszenarien, sei es in Digital Cities, im Realtime-Gaming oder im Internet of Things (IoT). Mit Edge Computing macht IT nach Cloud Computing den nächsten großen Entwicklungsschritt. Couchbase hat die fünf entscheidenden Vorteile analysiert:

1. Verfügbarkeit und Stabilität:

Edge Computing reduziert die Abhängigkeit von ständig verfügbaren Internet-Verbindungen. Am Edge kann auch bei Störungen oder Ausfällen im Netz weitergearbeitet werden, wenn nötig sogar offline. Das erhöht die Stabilität und Verfügbarkeit von Storage- und Compute-Ressourcen. 

2. Geschwindigkeit und Latenztoleranz:

Latenzen sind in vielen Anwendungen, beispielsweise im Internet of Things, ein kritischer Faktor. Auch kurzfristige Verzögerungen können dort zu Störungen oder Ausfällen führen. Bei Edge Computing entfallen latenzkritische Datentransfers zwischen Edge und Datacenter, die Latenzzeiten sinken auf Bruchteile von Millisekunden.

Die fünf wichtigsten Vorteile von Edge Computing

3. Sicherheit:

Unternehmenskritische oder personenbezogene Daten müssen bei Edge Computing nicht mehr in der Cloud prozessiert oder gespeichert werden. Das erleichtert zudem die Einhaltung von Security- und Compliance-Vorgaben. Gleichzeitig lässt Edge Computing die Option zur Nutzung von Cloud-Ressourcen für aggregierte, sicherheitsunkritische Daten offen.

4. Mobilität:

In Verbindung mit 5G eröffnet Edge Computing somit neue Anwendungsoptionen auf Mobilgeräten. Erst die Geschwindigkeit von 5G und die Latenztoleranz und Ausfallsicherheit von Edge Computing machen mobile Szenarien, wie beispielsweise die Nutzung autonomer Fahrzeuge, möglich.

5. Kosten:

Da viele Daten vor Ort prozessiert und gespeichert werden, reduziert Edge Computing drastisch die Netzwerknutzung und damit den Bandbreitenbedarf. Die Kosten dafür sinken entsprechend und werden gleichzeitig besser kalkulierbar.

„Edge Computing verbindet die Skalierbarkeit und On-demand-Fähigkeiten der Cloud mit der Geschwindigkeit und Ausfallsicherheit lokaler Datacenter“, erklärt Paul Salazar, Senior Director Central Europe bei Couchbase. „Diese Kombination stellt hohe Anforderungen an die Steuerungs- und Managementsoftware, eröffnet aber auch eine Fülle neuer Anwendungsmöglichkeiten.“ 

Der Beitrag wurde ursprünglich hier veröffentlicht …