ERP-Trends 2023: Deutsche Produktionen werden nachhaltiger!

ERP-Trends 2023: Deutsche Produktionen werden nachhaltiger!

Der international agierende ERP-Hersteller Monitor hat die ERP-Trends 2023 analysiert und gibt Empfehlungen, worauf insbesondere Produktionsunternehmen in Deutschland kommendes Jahr achten sollten.

ERP-Trends 2023: Deutsche Produktionen werden nachhaltiger!

Das Jahr 2022 stellte die globale Wirtschaft vor enorme Herausforderungen. Die Inflationsrate stieg in Deutschland auf über zehn Prozent an und erreichte damit Werte wie zuletzt im Jahr 1951. Dazu kommen anhaltende Lieferengpässe und signifikant steigende Energiekosten. Neben der Wirtschaftskrise sehen sich Unternehmen auch mit weiteren Krisen konfrontiert. Klimaschützer machen immer eindringlicher auf den Klimawandel aufmerksam, sodass insbesondere Produktionsunternehmen mehr auf Nachhaltigkeit achten müssen. Ein ERP-System kann diese dabei unterstützen, umweltfreundlichere Produktionsmethoden zu entwickeln und umzusetzen. Der international agierende ERP-Hersteller Monitor erklärt die drei wichtigsten ERP-Trends für das Jahr 2023.

Das sind die ERP-Trends 2023

Trend 1: Nachhaltigkeit in der Produktion

Viele Unternehmen verfolgen noch immer das Prinzip der klassischen Linearwirtschaft. Bei diesem auch als Wegwerfwirtschaft bekannten Prinzip gelangt lediglich ein geringer Anteil der Rohstoffe und Produkte in die Wiederverwendung. In Zeiten von Lieferengpässen und steigender Rohstoffpreise sind Alternativen wie die Kreislaufwirtschaft notwendig. Diese hat zum Ziel, Produkte so lange wie möglich zu teilen, wiederzuverwenden, zu reparieren, aufzuarbeiten oder zu recyclen. In einem Produktionsunternehmen beginnt der Herstellungsprozess damit beispielsweise mit der Demontage eines Produkts, das seinen Lebenszyklus bereits erfüllt hat. In den kommenden Jahren wird sich diese ressourcenschonende Produktionsmethode verstärkt etablieren. Denn immer mehr Produktionsunternehmen erkennen die Vorteile der Kreislaufwirtschaft.

Kreislaufwirtschaft bekämpft die Herausforderungen von begrenzt verfügbaren Ressourcen. Viele Rohstoffe werden immer knapper, und die wachsende Weltbevölkerung führt zu einer verstärkten Nachfrage. Außerdem sind viele Staaten hinsichtlich der Rohstoffversorgung von anderen Ländern abhängig, wie die Energiekrise derzeit eindrücklich beweist. Nicht zuletzt sorgen auch die Gewinnung und die Verarbeitung von Rohstoffen für eine erhöhte CO₂-Emission, die es ebenfalls zu senken gilt.

Ein ERP-System kann Unternehmen in der nachhaltigen Produktion unterstützen. So sind ERP-Systeme mit Fokus auf Produktion wie beispielsweise Monitor G5 ERP Fokus in der Lage, auch einen Demontage-Prozess softwareseitig zu unterstützen. Die Lösung hilft bei der Disposition der Rohstoffe für künftige Produktionsprozesse. Eine Produktionsplanung und -steuerung kann dann nachhaltig und ressourcenschonend erfolgen.

Auch die Überwachung der von der Produktion produzierten CO₂-Menge auf Komponentenebene müssen ERP-Systeme künftig messen können. Diese Messung ermöglicht Produktionsunternehmen Aussagen zur CO₂-Emission jeder einzelnen im Produkt enthaltenen Komponente. Dies wirkt sich fortan nicht nur auf die Lieferantenwahl aus, sondern ist zudem für ESG-konforme Auswertungen von Bedeutung. Lieferketten werden in der Zukunft nicht mehr nur auf Basis des besten Preises aufgebaut. Sie müssen auch die geringstmögliche Umweltbelastung aufweisen. Dies wird nur mit den richtigen Daten und Auswertungen möglich sein. Für künftige Ausschreibungen, Lieferantenbewertungen und Lieferantenauswahl ist die möglichst geringe nachgewiesene CO₂-Emission ein Wettbewerbsvorteil.

Trend 2: Lieferkette 4.0

Eine gut funktionierende Supply-Chain ist essenziell für Produktionsunternehmen. Denn eine hohe Liefertreue gilt als Erfolgskriterium. Kunden erwarten, dass Produkte verfügbar sind und kommunizierten Liefertermine eingehalten werden. Unternehmen haben ihre Supply-Chain in den vergangenen Jahren global ausgebaut. Viele haben ihre Rohstoffe beispielsweise aus Asien bezogen. Spätestens mit der Covid-Pandemie hat sich jedoch gezeigt, dass Lieferketten störanfällig sind.

In Unternehmen herrscht derzeit zunehmende Unsicherheit, ob die über Jahre etablierten Zulieferer die Liefertermine für die benötigten Materialien einhalten können. Deswegen sehen sich viele Fertigungsunternehmen dazu gezwungen, sich nach Alternativen umzusehen. Hier bietet sich eine Prüfung lokaler Zulieferer an, um die Lieferkette näher an den Standort oder sogar ins eigene Land zu holen. Für diesen Trend der Lieferkette 4.0 benötigten Produktionsunternehmen im Jahr 2023 ein passendes ERP-System.

ERP-Systeme ermöglichen dem Produktionsunternehmen eine neue Sichtweise auf die Supply-Chain und die Vernetzung von Daten. Durch die Digitalisierung der Informationen lassen sich Lieferanten nach Kriterien wie Liefertreue, Preis und Lieferzeit intelligent bewerten. Dies hilft bei der Lieferantenauswahl künftiger Materialbestellungen und ermöglicht hier bereits eine hohe Automatisierung. 

Ist das Material, welches das Unternehmen benötigt, beim betreffenden Lieferanten verfügbar? Welche Maschinen können für die Produktion eingesetzt werden? Wie kann das Unternehmen den Lagerumschlag erhöhen und damit weniger Kapital ans Lager binden? Welche Möglichkeiten zur Verringerung des Produktionsabfalls bestehen? Der Schlüssel zur Antwort auf diese Fragen ist die Konnektivität und Transparenz der Daten zwischen den Beteiligten. ERP-System liefern diese Daten, aber nur moderne ERP-Systeme sind in der Lage, diese Daten automatisiert auszutauschen. Sind diese miteinander verbunden, ist der Arbeitsablauf automatisierbar. Das spart Zeit sowie Geld und ermöglicht eine Lieferkette 4.0.

Lieferkettenmanagement ist ein ERP Trend 2023

Trend 3: Einfaches Onboarding

Der Fachkräftemangel ist für Unternehmen eine zunehmende Herausforderung. Der demografische Wandel bewirkt, dass die Fachkräftelücke sich stetig vergrößert. Die geburtenstarken Jahrgänge der 1950er- und 1960er-Jahre gehen in den Ruhestand, während gleichzeitig immer weniger Kinder geboren werden. Diese Faktoren tragen zu einem Fachkräftelücke bei, die viele Unternehmen nicht mehr zuverlässig schließen können.

Aufgrund dessen sollten Unternehmen sich zu attraktiven Arbeitgebern entwickeln, um dem Fachkräftemangel entgegenzuwirken. Neben Angeboten zu flexiblen Arbeitszeiten, Remote Working oder auch hybriden Arbeitsmodellen gehört eine entsprechende aufgestellte Enterprise-Application-Software-Architektur (kurz: EAS-Architektur) dazu. Die Herausforderung hierbei liegt oft im Onboarding neuer Mitarbeiter.

Häufig sehen sich diese mit der Tatsache konfrontiert, sich ohne Schulung in ein neues System selbst einarbeiten zu müssen. Deswegen ist es im Jahr 2023 von Bedeutung, die Software so einfach wie möglich zu halten. Die kaufmännische Lösung muss benutzerfreundlich und leicht erlernbar sein. Im besten Fall ist die Software so aufgebaut, dass neue Mitarbeiter sofort damit arbeiten können. Moderne ERP-Lösungen haben eine klare Bedienoberfläche, die intuitiv bedienbar ist. Suchfunktionen helfen den Nutzern, sich im System zurechtzufinden. Zukunftsorientierte ERP-Hersteller bieten ihren Usern außerdem eine eigene Academy an, um tiefergehende Funktionen zu vermitteln. Mit Hilfe einer solchen Lernwelt erfolgt die Schulung neuer Teammitglieder einfach und effizient in deren eigenem Rhythmus. Es ist Aufgabe der ERP-Hersteller, ihre Kundschaft hier an die Hand zu nehmen und einen Lernpfad vorzugeben. Nur gut ausgebildete User schöpfen das volle Potential der ERP-Lösung aus. 

Fazit

2023 wird ein Jahr der großen Herausforderungen und gibt zugleich die Chance, sich als Unternehmen neu für die Zukunft aufzustellen. Die Entscheidung für ein modernes ERP-System, das den aktuellen Trends gerecht wird, darf nicht weiter verschoben werden, findet Jonas Persson, Leiter des Business Development bei Monitor:

„Die ganze Welt ist auf der Suche nach Lösungen für die aktuellen Herausforderungen. Klar ist: Ein gutes und modernes ERP-System bildet die Grundlage für die Veränderungen. Mit unseren Lösungen im Bereich der Nachhaltigkeit konnten wir im September 2022 die Jury bei der Wahl zum ERP-System des Jahres von Monitor überzeugen. Damit haben wir uns den Preis in der Kategorie Einzelfertigung gesichert.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Sieben schlagkräftige Argumente für Cloud-basierte DBaaS-Lösungen

Sieben schlagkräftige Argumente für Cloud-basierte DBaaS-Lösungen

Wer Datenbanken und deren Infrastruktur manuell betreiben möchte, muss sich auf hohe Kosten und enormen Personalaufwand einstellen. Cloud-basierte Database-as-a-Service-Lösungen sind in vielerlei Hinsicht die bessere Wahl. Crate.io, Entwickler der Datenbank CrateDB, hat die sieben schlagkräftigsten Argumente für den Einsatz einer DBaaS evaluiert. 

Niedrigere Kosten, höhere Flexibilität und ein reibungsloser Betrieb: Das wünschen sich im Zusammenhang mit Datenbanken alle Unternehmen. In der Praxis erreichen sie diese Ziele mit herkömmlichen – das heißt manuellen – Methoden jedoch nur vergleichsweise schwer. Eine weniger aufwendige und kosteneffiziente Alternative sind Cloud-basierte Database-as-a-Service-Lösungen. DBaaS-Experte Crate.io untermauert im Folgenden, warum Unternehmen Hosting und Management ihrer Datenbanken auslagern sollten.

Cloud-basierte DBaaS-Lösungen senken den Aufwand

Cloud-basierte DBaaS-Lösungen senken den Aufwand

Der zentrale Vorteil einer Cloud-basierten Database-as-a-Service-Lösung ist der geringere Aufwand, den Unternehmen für deren Betrieb leisten müssen. Die IT-Abteilung braucht sich weder mit dem Aufsetzen noch mit der Verwaltung oder dem Monitoring der Datenbank auseinandersetzen, dafür zeichnet der Service-Provider verantwortlich. Durch diese Entlastung kann sich das Unternehmen voll und ganz auf die Softwareentwicklung konzentrieren. Insbesondere für kleine und mittelständische Unternehmen lohnt sich dieser Weg.

Cloud-basierte DBaaS-Lösungen reduzieren die TCO

Die Total Cost of Ownership (TCO) einer manuell betriebenen Datenbank ist hoch. Cloud-basierte Database-as-a-Service-Lösungen sind in den meisten Fällen kostengünstiger: Zum einen schlagen weniger Personalkosten für den Betrieb der IT-Infrastruktur und die Datenbankverwaltung zu Buche, denn bei Verwendung einiger Datenbanken ist dafür erhebliches Spezial-Know-how nötig. Zum anderen müssen sie überhaupt keine Ausgaben für deren Anschaffung einberechnen, lediglich die laufenden Betriebskosten sind hier zu berücksichtigen. Auch um den Wertverlust ihrer Hardware oder Wartungskosten brauchen sich Unternehmen bei DBaaS-Angeboten keine Gedanken machen.

Cloud-basierte DBaaS-Lösungen skalieren beliebig

Gerade zu Beginn eines Softwareprojekts ist es schwer abzuschätzen, welche Dimensionen es annehmen wird. Entsprechend unvorhersehbar ist daher, welchen Umfang die Datenbank am Ende haben wird – und ob er sich im Lebenszyklus der Anwendung verändert. Cloud-basierte DBaaS-Lösungen bieten unkomplizierte und dynamische Skalierbarkeit. Unternehmen können zum Beispiel mit einem sehr kleinen Cluster oder gar nur einer Single-Node-Instanz starten. Steigen die Leistungsanforderungen und der Ressourcenbedarf im Laufe des Projektes, buchen sie einfach neue Kapazitäten auf Knopfdruck hinzu – mittlerweile ist dieser Vorgang innerhalb von Sekunden möglich.

Cloud-basierte DBaaS-Lösungen erhöhen die Zuverlässigkeit

High Availability ist ein wichtiges Merkmal von Cloud-Umgebungen. Während in eigenen lokalen Datenzentren bereits kleinere Probleme für schmerzhafte Ausfälle sorgen können, laufen Datenbanken in den resilienten Clouds von Amazon, Google oder Microsoft sehr zuverlässig. Verteilte Datenbanken haben zudem den Vorteil, dass es immer gleich mehrere Replikationen gibt, sodass sie auch beim Ausfall eines Knotens zu 100 Prozent leistungsfähig bleiben.

Cloud-basierte DBaaS-Lösungen steigern die Erreichbarkeit

On-premises-Datenbanken für alle Stakeholder zugänglich zu machen, stellt Administratoren immer wieder vor Herausforderungen. Cloud-basierte Database-as-a-Service-Lösungen haben hingegen kein Accessibility-Problem, da sie zentral erreichbar sind. Um das Zugriffsmanagement kümmert sich der Service-Provider, der somit auch an dieser Stelle die IT-Abteilung entlastet. Da durch den Cloud-basierten Ansatz sämtliche Daten an einem zentralen Ort vorliegen, ist die DBaaS-Lösung überdies der Single Point of Truth. So stellen Unternehmen sicher, dass ihre Anwendungen eine verlässliche, einheitliche und aktuelle Datenbasis verwenden.

Cloud-basierte DBaaS-Lösungen erleichtern die Migration

Fast alle DBaaS-Lösungen nutzen AWS, Google Cloud oder Microsoft Azure als Grundlage – einige Service-Provider bieten die freie Auswahl. Entsprechend leicht ist die Migration von einem Hyperscaler zum anderen, die Cloud-Anbieter stellen dafür sogar native Tools zur Verfügung. Die Zeiten, in denen Unternehmen den sogenannten Vendor Lock-in fürchten mussten, sind damit vorbei. Ebenso leicht – oft auf Knopfdruck – ist überdies der Umzug der Datenbank in eine geografisch günstiger gelegene Server-Region, um die Latenz einer Anwendung oder die Kosten für den Betrieb zu verringern.

Cloud-basierte DBaaS-Lösungen vereinfachen den Zugang zu Service-Ökosystemen

Zu guter Letzt bieten Cloud-basierte DBaaS-Lösungen je nach gewünschtem Cloud-Provider Zugang zu einem großen Ökosystem an nativen Services. Diese zusätzlichen Tools können IT-Administratoren oft mit sehr geringem Aufwand mit der Datenbank verbinden. Möchte ein Unternehmen etwa ein bestimmtes Visualisierungsprogramm für die Datenströme ausprobieren, genügen in der Regel wenige Klicks für die Integration.

Der Beitrag wurde ursprünglich hier veröffentlicht …

5 Fähigkeiten und Eigenschaften, dank denen Technologen die Karriereleiter hochklettern

5 Fähigkeiten und Eigenschaften, dank denen Technologen die Karriereleiter hochklettern

Die letzten zwei Jahre haben von IT-Abteilungen viel abverlangt. Einerseits müssen sie die sich ständig verändernden Erwartungen von Kunden an makellose digitale Erfahrungen erfüllen, andererseits müssen sie sicherstellen, dass neue Arbeitsmodelle reibungslos umgesetzt werden können. Aus diesen Herausforderungen ergibt sich für Technologen jedoch auch die Chance, die eigene Karriereleiter hochzuklettern. Fünf Fähigkeiten und Eigenschaften sind entscheidend, um diese Chance zu ergreifen. Tommy Ziegler, Leader Sales Engineering bei AppDynamics erläutert sie:

1. Ergebnisorientiertes Arbeiten

IT-Mitarbeiter verbringen viel Zeit damit, IT-Umgebungen zu implementieren und zu verwalten. Doch um den nächsten Karriereschritt zu gehen, müssen sie auch in der Lage sein, ihren IT-Stack zu überwachen, zu beobachten und vor allem die Performance unmittelbar mit den Geschäftsergebnissen zu verknüpfen. Nur dadurch können sie Maßnahmen auf Grundlage der Auswirkungen auf Kunden und Mitarbeiter priorisieren und das digitale Erlebnis kontinuierlich optimieren.

2. Kritisches Denken

Spitzentechnologen müssen darüber hinaus die Fähigkeit besitzen, Daten richtig zu interpretieren, aus ihnen frühzeitig Trends zu erkennen und insbesondere diese Erkenntnisse für ihr weiteres Vorgehen zu nutzen. Das bedeutet auch, dass sie Wege finden müssen, um mit den überwältigenden Datenmassen umzugehen, die in einer zunehmend fragmentierten und dynamischen IT-Landschaft zur Norm geworden sind.

Whitepaper-Angebot: Digitalisierung im Mittelstand.
Google My Business: Warum sich der Eintrag lohnt
Anzeige: Whitepaper der DIGITAL-WEBER

3. Organisationsübergreifendes Arbeiten

IT-Führungskräfte müssen mehr denn je mit Stakeholdern innerhalb und außerhalb ihres Unternehmens effizient und effektiv zusammenarbeiten. Das heißt, Technologen müssen bereit sein, sich die Zeit zu nehmen, um Kollegen und Teams aus verschiedenen Bereichen des Geschäfts in ihre Arbeit einzubeziehen, ihre Bedürfnisse kennenzulernen und zu verstehen und ihnen neues Wissen und neue Fähigkeiten zu vermitteln. Gleichzeitig müssen sich auch vertrauensvolle Beziehungen zu Partnern und Anbietern aufbauen.

4. Proaktives, agiles Handeln

Technologen, die Agents of Transformation werden möchten, müssen den Übergang zu einer Cloud-first-Strategie nicht nur vorantreiben, sondern anführen. Die Neukonzipierung ihrer Anwendungen und der Umstieg auf Cloud-native Lösungen wird dazu beitragen, Innovationen erheblich zu beschleunigen und die Anforderungen von Kunden und Mitarbeitern an nahtlose digitale Erfahrungen kontinuierlich zu erfüllen.

5. Unternehmerisches Denken

Technologen, die an der Spitze ihrer Profession stehen, verfügen über die Insights, Visionen und Glaubwürdigkeit, die notwendig sind, um die Unternehmensstrategie auf der Grundlage von Geschäftsmetriken in Echtzeit zu gestalten. Die traditionelle Trennung zwischen IT und den weiteren Bereichen des Unternehmens lösen sich zusehends auf. In der aktuellen Studie von AppDynamics Agents of Transformation 2022 sehen sich bereits 82 Prozent der deutschen Technologen als Business Leader.

Karriereleiter

Der Beginn einer neuen Ära

Damit Technologen den nächsten Schritt in ihrer Karriere gehen können, müssen allerdings auch die Rahmenbedingungen stimmen. Das heißt zum einen, dass sie neue Werkzeuge brauchen, damit ihnen etwa Daten zur IT-Verfügbarkeit und -Performance in Echtzeit zur Verfügung stehen. Nur so können sie Probleme und Störungen mit den größten Auswirkungen auf das Geschäft erkennen und priorisieren.

Zum anderen muss sich die Kultur anpassen. Spitzentechnologen brauchen ein Umfeld, in dem sie gefördert und gefordert werden, um zu wachsen. Dieser Kulturwandel ist bereits in vielen Unternehmen im Gange. Immer mehr Technologen sind in der Lage, das ständige Feuerlöschen der letzten Jahre hinter sich zu lassen und einen proaktiveren Ansatz für Innovationen zu verfolgen, um sich und ihre Fähigkeiten weiterzuentwickeln.

Doch sie können sich nicht einfach zurücklehnen und darauf warten, dass dies passiert. Stattdessen ist es für Technologen an der Zeit, sicherzustellen, dass sie über die Fähigkeiten, Eigenschaften, die Unterstützung und die Tools verfügen, die sie benötigen, um Innovationen voranzutreiben und ihre Anwendungen in einer Cloud-first-Umgebung neu zu gestalten. So können sie Agents of Transformation werden und ihr Unternehmen nachhaltig transformieren.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Große Mehrheit findet Bewertungen als Hilfestellung beim Online-Kauf wichtig

Große Mehrheit findet Bewertungen als Hilfestellung beim Online-Kauf wichtig

Eine repräsentative Umfrage von Trusted Shops hat ergeben, dass Bewertungen für Shops und Produkte für die meisten Deutschen eine wichtige Rolle beim Online-Kauf spielen. Drei Viertel befürworten eine zuverlässige Kennzeichnung von echten Bewertungen.

Große Mehrheit findet Bewertungen als Hilfestellung beim Online-Kauf wichtig

In krisenhaften Zeiten wächst der Wunsch nach vertrauenswürdigen und zuverlässigen Orientierungshilfen. Das spiegeln neue Umfrageergebnisse wider: 55 Prozent der Befragten geben an, dass ihnen Bewertungen von Shops und Produkten für den Online-Kauf wichtig sind, um in der aktuellen Situation eine Kaufentscheidung zu treffen.

Wunsch nach Kennzeichnung von echten Bewertungen

Immer wieder machen Verbraucher*innen allerdings Erfahrungen mit gefälschten Shop- und Produktbewertungen. Daher ist für drei Viertel aller Befragten (75 Prozent) die Echtheit von Bewertungen entscheidend. Entsprechend hoch (74 Prozent aller Befragten) ist der Wunsch nach einer zuverlässigen Kennzeichnung echter Shop- und Produktbewertungen: 43 Prozent wünschen sich bei jeder Bewertung des Online-Kaufs eine Kennzeichnung; 31 Prozent sprechen sich dafür aus, wenn es um wichtige oder teure Anschaffungen geht.

Fünf Typische Merkmale von Fake-Bewertungen

Bastian Kolmsee, Head of Trust Products and Services bei Trusted Shops, weiß um das Problem der Fake-Bewertungen und rät dazu, genau hinzuschauen: „Es gibt eine Reihe von Merkmalen, die typisch für Fake-Bewertungen sind. Wer sie erkennt, hat eine gute Chance, nicht hereinzufallen.“ Er nennt folgende fünf typische Merkmale:

Fake-Merkmal 1: Online-Shop wird ausschließlich positiv bewertet

Wer bei einem Produkt oder einer Dienstleistung ausschließlich auf positive Bewertungen stößt, sollte misstrauisch werden. Es ist ziemlich unwahrscheinlich, dass allen Käufer*innen ein Produkt oder Shop gleich gut gefällt.

Fake-Merkmal 2: Bewertungen des Online-Kaufs fallen durch schlechten Schreibstil auf

Manche Shopbetreiber beauftragen Agenturen, die unechte Bewertungen für den Online-Kauf schreiben. Dabei nutzen die Agenturen automatische Übersetzer. Die Texte fallen häufig durch ungewöhnliche Redewendungen und Ausdrücke auf, die im Alltag kaum jemand verwenden würde.

Fake-Merkmal 3: Shopbetreiber*innen reagieren nicht auf Bewertungen

Fake-Shops machen sich in der Regel nicht die Mühe, auf Bewertungen des Online-Kaufs zu reagieren oder Verbraucher*innen Feedback zu geben. Wenn sich ein Online-Shop dafür Zeit nimmt, ist die Wahrscheinlichkeit hoch, dass er echt ist. 

Fake-Merkmal 4: Anzahl der Bewertungen explodiert in kurzer Zeit

Wenn die Anzahl der Bewertungen für ein Produkt plötzlich in die Höhe schnellt, könnte es sich um automatisch erzeugte Bewertungen handeln. Sind die Bewertungen hingegen über einen längeren Zeitraum verteilt, spricht das stärker für ihre Echtheit.

Fake-Merkmal 5: Anonyme Bewertungen des Online-Kaufs

Bei Fake-Bewertungen ist oft kein/e Autor*in angegeben. Bei echten Bewertungen hingegen ist der/die Verfasser*in in der Regel erkennbar, zum Beispiel durch einen Namen und ein Profilbild.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Erfolgsfaktoren beim Aufbau einer agilen IT-Organisation

Erfolgsfaktoren beim Aufbau einer agilen IT-Organisation

Lesen Sie hier die wesentlichen Vorteile einer Ausrichtung der IT-Organisiation auf agile Prozesse.

Erfolgsfaktoren beim Aufbau einer agilen IT-Organisation

Die Konsequenzen der Digitalisierung bekommen auch die IT-Organisationen zu spüren. Sie müssen sich agil aufstellen, um eine höhere Flexibilität zu erlangen und sich enger mit den Business-Abteilungen verzahnen.

1. Ein durchgreifend neues Selbstverständnis der Aufbauorganisation schaffen:

Ein Wandel von der klassischen zur agilen IT-Organisation bedeutet eine grundlegende Neuausrichtung des gesamten Selbstverständnisses, weil es sich dabei um eine neue Organisationskultur handelt. Deshalb reichen keine punktuellen Modifikationen, beispielsweise durch agile Projektmethoden. Vielmehr sind Veränderungen gleich auf mehreren Ebenen notwendig. Dazu gehören die organisatorischen Verhältnisse ebenso wie die Prozesse und die Tools. Erst wenn diese drei Ebenen jeweils den veränderten Anforderungen entsprechen und eng aufeinander abgestimmt sind, entsteht die Basisstruktur einer agilen IT-Organisation. Zu ihren Kernzielen muss gehören, dass die Agilität im gesamten Service-Lebenszyklus gelebt wird.

2. Die Transformation systematisch gestalten:

Es ist zu empfehlen, in einem ersten Schritt organisationsweit ein Verständnis für agile Praktiken und Prinzipien im Management aufzubauen. Hierfür sind geeignete Bereiche auszuwählen, die im Regelfall Projekte darstellen. In der Folgephase gilt es, geeignete Methoden wie Scrum, DevOps etc. auszuwählen. Sie müssen geschult und dann in Pilotprojekten verprobt werden. Eine feste Implementierung erfolgt in einem dritten Schritt. Hier werden Standards definiert und erfolgt eine Ausweitung der agilen Prinzipien auf die Prozesse, Linienorganisation und weiteren Bereiche.

3. Die ITIL-Prozesse agil beleben:

Die Unterstützung der agilen Welt kann nicht mit dem herkömmlichen Prozessdesign abgedeckt werden. So verlieren manche Abläufe ihren bisherigen Fokus oder wandeln sich. Dies gilt z.B. für das Capacity Management, denn wer etwa Cloud-Services nutzt, der muss sich nicht mehr um die notwendigen Kapazitäten, sondern vor allem um die damit verbundenen Kosten kümmern. Auch kann es bei einem Projekt kein starres Service Design Package mehr geben. In der Designphase tritt an dessen Stelle vielmehr das Product Backlog gemäß Scrum, welches sich durch eine an die Projektlage ändernde Priorisierung bzw. Ergänzung auszeichnet.

4. Der Service- bzw. Produktmanager benötigt breite Kompetenzen:

Der Wandel zu einer sehr anpassungsfähigen und kundenfokussierten IT-Organisation benötigt einen Produktmanager, der die Priorisierung der Anforderungen aus dem Backlog anhand des Kundennutzens verantwortet. Er kommt idealerweise aus dem internen Fachbereich oder steht im engen Kontakt mit dem jeweiligen Kunden. Seine Funktion besteht darin, die Serviceerbringung und die Weiterentwicklung der Services sicherzustellen. Hierfür müssen Zuständigkeiten aus der Linie an diese Rollen übergeben werden. Um ausreichend handlungsfähig zu sein, benötigt er zwangsläufig auch die notwendigen Befugnisse. Vorteilhaft ist, wenn ihm hierfür ein Service- bzw. Produktteam entlang der Lieferkette zur Verfügung steht.

5. Die Service Level Agreements neu denken:

Um die Leistungserbringung gezielter steuern zu können, sind Service-spezifische SLAs statt generalistischer Leistungsvereinbarungen notwendig. Sie versetzen den Service Manager in die Lage, mit dem Kunden wesentlich gezielter die Ressourcen priorisieren zu können. Dies etwa bei der Frage, ob eine neue Anforderung oder die Beseitigung einer Störung bevorzugt realisiert werden soll. Eine Überarbeitung der SLA-Strukturen ist aber beispielsweise auch für DevOps-Prozesse bei Nutzung von Cloud-Services notwendig, weil ansonsten sowohl die Rolle des Masters als auch die internen bzw. externen Support-Verantwortlichkeiten an den Prozessschnittstellen unklar sind.

6. Agile Metriken etablieren:

Erstens erzeugt Agilität nicht automatisch bessere Ergebnisse als die herkömmlichen Verfahren und Organisationsverhältnisse, zweitens müssen sich auch die agilen Ansätze einer Erfolgsbewertung stellen. Deshalb bedarf es Metriken, mit denen der Projekterfolg gemessen und verglichen werden kann. Angesichts der zahlreichen Methoden ist im Unternehmen zu definieren, welche Metriken kontextbezogen eingesetzt werden sollen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

NTT: So kommen IT-Teams bei der Cloud-Migration nicht ins Schwitzen

NTT: So kommen IT-Teams bei der Cloud-Migration nicht ins Schwitzen

Eines haben alle Cloud-Projekte gemeinsam: Ohne eine gute Planung und ein erfahrenes Projektmanagement-Team stehen Unternehmen auf verlorenem Posten. NTT Ltd., ein führendes IT-Infrastruktur- und Dienstleistungsunternehmen, zeigt, wie sich die Cloud-Migration so gestalten lässt, dass der Betrieb von Anfang an reibungslos läuft.

NTT: So kommen IT-Teams bei der Cloud-Migration nicht ins Schwitzen

Ein Unternehmen, das agil und effizient sein möchte, fragt sich nicht mehr, ob es in die Cloud geht – sondern nur noch in welche und wie. Falsch angegangen, kann die Cloud-Migration allerdings selbst erfahrene IT-Teams ins Schwitzen bringen. Ohne eine gute Vorbereitung und schrittweise Umstellung auf die neue Umgebung riskieren Unternehmen, mit dem Projekt zu scheitern. Aus Sicht von NTT gilt es, folgende Punkte zu beachten:

Ausgangslage analysieren.

Viele Unternehmen gehen Cloud-Projekte und die Cloud-Migration zu schnell an. Eine schlecht geplante Infrastruktur kann allerdings zu Sicherheitslücken führen und schlichtweg an den eigentlichen Anforderungen des Business vorbeigehen. Unternehmen müssen immer vorab die Anforderungen aus den Abteilungen zusammentragen, den Status quo der IT-Infrastruktur beleuchten und darauf aufbauend ein Zielbild definieren sowie die Roadmap entwickeln. Im Rahmen der Analyse sollten sie unter anderem die folgenden Fragen beantworten: Wie sieht unsere aktuelle IT-Infrastruktur aus? Welche Schnittstellen haben wir? Gibt es veraltete Lösungen, die im Zuge der Migration abgeschaltet werden sollen? Firmen, die diese Punkte im Vorfeld klären und gleichzeitig die notwendige Qualität ihrer Anwendungen und Prozesse sicherstellen, vermeiden bereits die ersten Fallstricke auf dem Weg in die Cloud.

Migrationsarchitektur festlegen.

Zwar beziehen die meisten Unternehmen die Anbindung von Datenbanken oder anderen Hilfssystemen bei ihren Cloud-Projekten in die Planung mit ein – eines wird aber nach wie vor gerne vergessen: die Legacy IT. Unternehmenskritische Altsysteme sind häufig nicht Cloud-fähig und lassen sich deshalb schwer oder gar nicht migrieren. Zudem macht es wenig Sinn, gut laufende Applikationen einfach per Lift-and-Shift zu verschieben. Ohne die richtigen Anpassungen können Unternehmen nicht von den Mehrwerten einer Public Cloud profitieren und der Betrieb wird mittelfristig sogar oftmals teurer. Damit die Cloud-Migration erfolgreich ist, müssen Unternehmen vorab sogenannte Landing Zones definieren und gestalten. Sie müssen Migrationsarchitektur und Blueprint für den Wechsel der Anwendungen festlegen, wobei es verschiedene Möglichkeiten gibt – von der Übertragung der Systeme, die bereits Cloud-ready sind, bis hin zum sogenannten Full Rebuild, bei dem alle Anwendungen Cloud-nativ neu gebaut werden. Unbedingt vermeiden sollten Unternehmen einen Vendor Lock-in, der durch proprietäre Formate, Betriebssysteme oder Programmierschnittstellen schnell passiert. Ein Multi-Cloud-Ansatz verringert die Abhängigkeit von einem einzelnen Anbieter.

Pilot durchführen und Mitarbeiter involvieren.

Es ist sinnvoll, nicht gleich die gesamte IT-Infrastruktur in die Cloud zu verlagern. Ein Pilotprojekt als Einstieg liefert wertvolle Erkenntnisse und Erfahrungen darüber, welche Anpassungen wo notwendig sind. Dadurch entsteht die Basis für weitere Migrationen. Empfehlenswert ist hier eine kleine Auswahl an repräsentativen Anwendungen. Genauso wichtig ist es, für Alignment innerhalb der Organisation zu sorgen. Das heißt, Unternehmen sollten alle für die Cloud-Migration wichtigen Personen ermitteln und einbeziehen. Je früher für Unterstützung gesorgt wird, desto reibungsloser und schneller läuft die Modernisierung ab. Gleichzeitig ist es sinnvoll, teaminterne Qualifikationen aufzubauen. Damit stellen Unternehmen sicher, dass auch wirklich jeder die Vorteile der Cloud komplett nutzt.

Die Cloud-Migration

Sicherheit- und Governance-Aspekte in der Cloud-Migration nicht vergessen.

Beim Thema Cloud-Security gilt das Shared-Responsibility-Modell. Die Verantwortung für die Durchführung der notwendigen Sicherheitsmaßnahmen ist zwischen Unternehmen und Anbieter quasi aufgeteilt. Der Cloud-Provider muss eine sichere Infrastruktur bereitstellen. Die Verantwortung darüber, wie diese betrieben wird und welche Daten in die Cloud gelangen, liegt aber beim Unternehmen selbst. Gerade für Public-Cloud-Netzwerke bietet sich ein Zero-Trust-Sicherheitsmodell an. Bei diesem Ansatz kommen kontextbezogene Richtlinien, eine kontinuierliche Netzwerküberwachung, Mehrfach-Authentifizierung, Identity Access Management sowie erweiterte Endpunktsicherheit zum Einsatz. Genauso sinnvoll ist ein effizientes Cloud-Governance-Maßnahmenpaket. Es ermöglicht eine valide Steuerung von Ressourcen, Services sowie Daten und erlaubt die Kontrolle über sämtliche organisatorischen und technischen Belange.

Transparenz über Kosten und Prozesse gewinnen.

Eine Migration in die Cloud bedeutet nicht, dass die laufenden Kosten automatisch sinken. Das liegt einerseits daran, dass während der Migration vorsichtshalber überprovisioniert wird und Möglichkeiten zur Elastizität nicht genutzt werden. Andererseits fehlt oftmals die Transparenz über grundlegende Prozesse, ohne die aber eine Kostensenkung nicht möglich ist. Mit den entsprechenden Werkzeugen, allen voran einem Managementtool, sind Unternehmen in der Lage, hybride und Multi-Cloud-Services zu verwalten. Dazu gehören laut Gartner Lebenszyklusmanagement, Brokering und Automatisierung für verwaltete Infrastrukturressourcen über alle Bereiche hinweg. Die spätere Kostenkontrolle ist damit inklusive.

Das große Ganze der Cloud-Migration

„Eine schlecht vorbereitete Cloud-Migration kann weitreichende Folgen haben – vom Kontrollverlust über die Daten und Anwendungen bis hin zu Sicherheitsverletzungen und Verstößen gegen die DSGVO und andere regulatorische Vorgaben. Unternehmen sind gut beraten, jeden einzelnen Schritt genau zu planen und das Projekt nicht übereilt voranzutreiben“, erklärt Oliver Harmel, Vice President Managed Services Go-To-Market von NTT Ltd. „Viele Firmen geraten allerdings schnell an ihre Grenzen, es fehlen die internen Kapazitäten und auch die notwendigen Kompetenzen sind nicht vorhanden. Bei einer Cloud-Migration braucht es jemanden, der das große Ganze im Blick behält. Es zahlt sich deshalb aus, einen erfahrenen Partner mit ins Boot zu holen, um nicht später technische Probleme, Sicherheitslücken oder Mehrkosten zu haben, weil die Infrastruktur lückenhaft oder nicht zukunftsfähig aufgestellt ist.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Warum Low-Code-Projekte scheitern – und wie sie gelingen

Warum Low-Code-Projekte scheitern – und wie sie gelingen

38 Prozent der Unternehmen entscheiden sich heute für Low-Code-Plattformen, um schnell IT-Lösungen bereitstellen zu können. Citizen Developer sollen dabei IT-Fachkräfte ersetzen und ohne Programmierkenntnisse selbstständig Anwendungen entwickeln. Warum über die Hälfte dieser Low-Code-Projekte jedoch scheitern und was eine mögliche Alternative zum Citizen Development sein könnte, wissen die Experten von WEBCON.

Warum Low-Code-Projekte scheitern – und wie sie gelingen

Das Modell des Citizen Development mithilfe von Low-Code-Plattformen wird häufig als die Lösung gehandelt, mit der Unternehmen trotz Mangel an IT-Fachkräften die eigene Digitalisierung schnell und einfach vorantreiben können. Über simple Drag-and-Drop-Mechanismen sollen dabei mit Low-Code-/No-Code-Plattformen auch Anwender ohne Fachkenntnisse ausführen können, was früher eine Programmierung erforderte. Das Versprechen laut einer in den Vereinigten Staaten von der CIMI Corporation durchgeführten Untersuchung. Dank Automatisierung Prozesse um bis zu 87 Prozent beschleunigen.

Trotzdem scheitern heute 54 Prozent der Citizen-Development-Projekte innerhalb des ersten Jahres ihrer Laufzeit, weitere 28 Prozent erzielen nur marginale Ergebnisse.

Whitepaper-Angebot: Digitalisierung im Mittelstand.
Google My Business: Warum sich der Eintrag lohnt
Anzeige: Whitepaper der DIGITAL-WEBER

Warum Citizen-Development-Projekte scheitern

Wenn Citizen Developer Anwendungen entwickeln, fehlt ihnen dabei oft sowohl Zeit wie auch das Wissen, dass zur Applikations-Entwicklung nicht nur die eigentliche Konstruktion gehört – sondern beispielsweise auch Anforderungserfassung, Design, Modellierung, Sicherheits-Aspekte, Bereitstellung, Versions- und Änderungsverwaltung, Metriken, Überwachung, Prüfung, die Einhaltung von Vorschriften, Wartungsverfahren, Benutzerakzeptanz und -engagement sowie die Feedbackerfassung. Die Folge: Anwendungen von Citizen Developern müssen aufgrund von Fehlern meist unter der Kontrolle der IT-Abteilungen wieder neu aufgebaut werden.

Sind diese schließlich fertiggestellt, ergeben sich darüber hinaus oft Schwierigkeiten bei der Verwaltung, Kontrolle und Änderung der Applikationen sowie bei Integrationen und Skalierungen in andere Systeme des Unternehmens. Es entstehen Insellösungen, die nur schwer überprüfbar und unternehmensübergreifend nutzbar sind. Verlassen einzelne Citizen Developer das Unternehmen, geht Wissen über die Entwicklung der Anwendung unwiederbringlich verloren.

Letztlich sind es nur die IT-Fachleute, die dieses Wissen gesammelt zusammenführen und den Blick auf das große Ganze haben. Sie sorgen dafür, das Betriebsrisiko bei der Anwendungsentwicklung möglichst klein sowie den Nutzen für das Unternehmen möglichst groß zu halten.

In der Praxis kann man die Umsetzung der Citizen-Development-Idee als solche also kaum als langfristige Lösung betrachten. Besonders beim Handling von geschäftskritischen Anwendungen. Es braucht einen Ansatz, der sich stattdessen auf die effiziente Zusammenarbeit und Kommunikation zwischen Citizen Developern und IT fokussiert.

Eine mögliche Lösung: Citizen-assisted Development

Eine Alternative, die das ermöglicht, ist der Ansatz des Citizen-assisted Development. Dieser geht davon aus, dass Fachanwender Anforderungen sammeln und einen Anwendungsprototyp innerhalb einer No-Code-Plattform erstellen. Das Tool stellt dabei sicher, dass alle Informationen gesammelt werden, um den Prototyp später in die endgültige Anwendung überführen zu können. Der so erstellte Prototyp kann in diesem Stadium zum Testen gestartet und mithilfe des Feedbacks der Citizen Developer schnell und agil verändert werden. Die Aufgabe der IT besteht darin, die Konfiguration des Prototyps nach Übernahme in eine Low-Code Entwicklungsumgebung zu vervollständigen und ihn in eine vollwertige Lösung zu verwandeln – nicht darin, eine Anwendung auf Basis von beschreibenden Dokumenten und Grafiken neu zu entwickeln. Dieser Ansatz entlastet die IT-Teams und ermöglicht es ihnen, bisher unmögliche Größenordnungen von neuen Anwendungen pro Jahr umzusetzen und so langfristig den Back-Log abzubauen.

Applikationen kann man durch das Testen von Prototypen außerdem bereits auf ihre Sinnhaftigkeit überprüfen, bevor man die IT-Abteilung involviert. Letztere kann dann auf Grundlage deutlich definierter und klarer Anforderungen verschiedene Anwendungen entwickeln sowie diese in einer einzigen Technologieplattform bereitstellen. 

Die Klarheit, Einheitlichkeit und deutliche Kommunikation, die das Modell des Citizen-Assisted Development ermöglicht, beschleunigt die Anwendungsentwicklung und verbessert das Endergebnis für einzelne Anwender, die IT-Abteilung und für das gesamte Unternehmen deutlich.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Customer-Data-Plattform (CDP) – das unverzichtbare Werkzeug für erfolgreiches Digitalmarketing

Customer-Data-Plattform (CDP) – das unverzichtbare Werkzeug für erfolgreiches Digitalmarketing

Die letzten zehn Jahre haben die digitale Welt verändert. Die DSGVO-Richtlinien regeln das Einholen der Einwilligung von Nutzern, während Browser wie Safari und Chrome die Third-Party-Cookies allmählich abschaffen. Das Ausspielen von Werbung und das dazugehörige Tracking erweist sich folglich als immer heikler. Außerdem nutzen die Kunden inzwischen mehrere Geräte und Kanäle, um mit einem Unternehmen zu interagieren und fordern individuell auf sie zugeschnittene Erlebnisse.

Diese Entwicklungen haben nicht nur neue Erwartungen an die Unternehmen in Europa geschaffen. Sie wirken sich auch auf die Beständigkeit und Performance von Marketingkampagnen aus. Außerdem steigern sie den Bedarf an leistungsfähigeren und einheitlicheren Technologien und rücken eine optimale Data Governance, Personalisierung und der Schutz von privaten Daten in den Fokus.

Whitepaper-Angebot: Digitalisierung im Mittelstand.
Google My Business: Warum sich der Eintrag lohnt
Anzeige: Whitepaper der DIGITAL-WEBER

„Diese Themen gab es zwar schon vor zehn Jahren, aber sie haben erheblich an Bedeutung gewonnen, vor allem um das Wachstum nach zwei Pandemiejahren wieder anzukurbeln“, erklärt Michael Froment, CEO und Mitbegründer von Commanders Act. „Unternehmen haben an digitaler Reife gewonnen. Wo sich Geschäfts-, IT- und Rechtsteams oftmals aneinander gerieben haben, erkennen sie heute die Notwendigkeit, ihre Ziele, Ansätze und Tools zusammenzuführen.“

Hier kommt die Customer-Data-Plattform (CDP) ins Spiel. Nur sie kann Daten intelligent verknüpfen und Online-Marketern in Anbetracht der neuen Hintergründe ein erfolgreiches, datenschutzkonformes und kundenzentriertes Schaffen ermöglichen.

Diese drei Hauptgründe machen eine CDP unverzichtbar:

Eine CDP erstellt datenschutzkonforme 360-Grad-Profile von Nutzern

Die CDP ist derzeit das einzige Datenmanagementsystem, das intelligente Datenverknüpfungen umsetzen kann. Die vereinheitlichten und segmentierten Daten verschaffen einen Überblick über die Gewohnheiten, Bedürfnisse und Erwartungen der Verbraucher und liefern ein 360-Grad-Profil jedes Besuchers. Die in der CDP erstellten Segmente gelangen beispielsweise in Echtzeit zu einer Personalisierungslösung, wo sie mit einer großen Auswahl an Aktionen verknüpft werden können.

Theoretisch besteht eine CDP aus verschiedenen Komponenten wie der Datensammlung, Zusammenführung von Nutzerprofilen, Segmentierung und Aktivierung von Daten. In der Praxis fließen in eine CDP auch CRM-Elemente (Customer-Relationship-Management) ein. Durch die Zusammenführung der First-Party-Informationen aus einem CRM mit anonymisierten Verhaltensdaten erweist sich eine CDP als Allrounder.

Außerdem erfüllt sie die Anforderungen der DSGVO: Personenbezogene Daten lassen sich gesetzeskonform sammeln und speichern, Nutzerdaten können auf Anfrage gelöscht werden. Ein User kann beispielsweise seine Kundennummer, E-Mail-Adresse oder Telefonnummer angeben; die CDP stellt die entsprechende Kennung dieses Benutzers allen anderen Systemen im Unternehmen zur Verfügung, damit diese die jeweiligen Daten löschen.

Eine CDP ermöglicht kanalübergreifende Personalisierung

Eine CDP ermöglicht kanalübergreifende Personalisierung

Die Verbraucher setzen zunehmend auf verschiedene Kanäle und Endgeräte. Die Kundendaten müssen deshalb nutzerzentriert bereitgestellt werden (kanal- und geräteübergreifend sowie online und offline). Unternehmen sollten daher einfache Verknüpfungen anbieten, um die Daten der Konsumenten von allen gängigen Marketingplattformen zu sammeln oder an diese zu senden.

Hierfür beinhaltet eine CDP ein Identity Management, das auf Basis von Daten Nutzerinformationen zusammenführt: Sobald sich ein User auf einem Gerät in ein Konto einloggt, kann die CDP Daten mehrerer Geräte vereinigen. Das funktioniert auch bei der Fusionierung von Online- und Offline-Daten über Kundenkarten: Da die Karte mit einer E-Mail-Adresse verknüpft ist, laufen alle Touchpoints in einem anonymisierten Nutzerprofil zusammen, sobald sie im stationären Handel zum Einsatz kommt. Nutzen mehrere Personen das gleiche Gerät, leiden die Ergebnisse. Die Herausforderung besteht darin, Verbindungen, die nur einmalig auftreten, nach einer bestimmten Anzahl an Tagen wieder aufzulösen.

Der Schlüssel für eine moderne Personalisierung liegt in der Fusion und Vereinheitlichung von Daten in einem Nutzerprofil(auch Unique Identifier oder deterministischer ID Key genannt): Möchte ein User unbekannt bleiben, setzt er einen anonymen Browser ein. Sobald er sich jedoch einloggt und dadurch sein Opt-in gibt, erhält er personalisierte Ergebnisse.

In einer Zeit des Überflusses hilft eine nutzerzentrierte Personalisierung dabei, den Entscheidungsprozess zu vereinfachen. Das ist ein Mehrwert für Menschen, die wenig Zeit oder Lust haben, sich durch das gesamte Angebot zu klicken. Im Kontext der DSGVO vereinfacht die Zentralisierung sämtlicher Informationen in einer einzigen Customer-Data-Plattform die Einhaltung der Vorschriften. Opt-ins werden systematisch erfasst, ohne vorherige Zustimmung des Nutzers erfolgt keine Datenaktivierung.

Eine CDP richtet das komplette Unternehmen auf kundenzentriertes Denken aus

Für die Einführung einer CDP ist es wichtig, dass alle Beteiligten an einem Strang ziehen; jegliche Abteilungen sollten mit an Bord genommen werden. Nur auf diese Weise können Datensilos aufgebrochen und Kunden optimal angesprochen werden.

So könnte ein Szenario aussehen, wenn eine CDP eingeführt wird. Denn sie schweißt nach und nach alle Bereiche zusammen: Los geht es im Customer-Relationship-Management, die Lösung vereint dieses mit der IT- und BI-Abteilung. Anschließend kommen das Online-Marketing und die für den Datenschutz zuständigen Juristen hinzu. Die Mitarbeiter des Webshops folgen, ein paar Monate später die Beschäftigten im Callcenter. Schließlich werden die Einkaufsabteilung und die Inhaltserstellung integriert. Das stellt sicher, dass alle Abteilungen, die Inhalte, Produkte oder Informationen für Kunden bieten, mit der CDP verknüpft sind. So entsteht ein „perfektes Storytelling“. Selbst die Finanzabteilung steuert Daten wie Mahnstatus oder Zahlungsinformationen zur CDP bei.

Die Organisationsstruktur muss sich folglich von einer kanalorientierten Struktur zu einer kundenorientierten Struktur ändern. Dieser Prozess erfordert ein umfangreiches Change Management innerhalb des Unternehmens.

Fazit

Verstreute, teilweise personenbezogene und zum Teil anonyme Daten, das Ende der Third-Party-Cookies, modernere Browser und neue DSGVO-Richtlinien gestalten das Tracking und die Personalisierung immer schwieriger. Deshalb richtet sich der Blick auf First-Party-Daten, die eine echte Personalisierung ermöglichen. Mithilfe einer Customer-Data-Plattform gelingt es, Daten intelligent zu verknüpfen, um ein 360-Grad-Profil jedes Besuchers zu erstellen – über alle Endgeräte hinweg.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Oracle revolutioniert B2B-Handel durch Kostenreduktion für Geschäftsabschlüsse

Oracle revolutioniert B2B-Handel durch Kostenreduktion für Geschäftsabschlüsse

Um Organisationen beim Senken der Geschäftskosten behilflich zu sein, die Kundenerfahrung zu verbessern und neue Angebote einzuführen, hat Oracle neue Services ins Leben gerufen, die End-to-End-Transaktionen und -Handel zwischen Unternehmen (B2B) integrieren und automatisieren.

Oracle revolutioniert B2B-Handel durch Kostenreduktion für Geschäftsabschlüsse

Durch die direkte Vernetzung von mehr als 40.000 Käufern, Verkäufern und Dienstleistern direkt über Oracle Cloud Enterprise Resource Planning (ERP) kann das neue Oracle B2B Commerce Herausforderungen wie die Nutzung unterschiedlicher Systeme, Prozesse und Datenintegrationen aus dem Weg räumen, die B2B-Transaktionen so komplex machen. So wird Oracle B2B Commerce beispielsweise Integrationen mit dem Zahlungsverkehrsgeschäft von J.P. Morgan bereitstellen, die die Bereiche Finanzverwaltung, Handel, Firmenkreditkarten und Händlerdienstleistungen des Unternehmens umfassen. Dazu gehören sowohl integriertes Banking als auch J.P. Morgan-Reisekarten- und Spesenabrechnungsdienste. Zudem ist eine Integration von Logistikdienstleistungen als Teil des FedEx Compatible-Programms geplant.

Oracle B2B Commerce-Integrationen mit J.P. Morgan Payments und FedEx

„Um einen Deal abzuschließen, müssen Geschäftspartner viele manuelle Interaktionen durcharbeiten. Jeder Schritt im Prozess kostet Zeit, sorgt für Ineffizienzen, führt die Möglichkeit menschlicher Fehler ein und bringt Käufer und Verkäufer von strategischerer Arbeit ab“, sagt Rondy Ng, Executive Vice President of Applications Development bei Oracle. „Die Oracle B2B Commerce-Integrationen mit J.P. Morgan Payments und FedEx können unsere Kunden jetzt Einkauf, Verkauf, Finanzierung, Versand, Rechnungsstellung und Zahlungen automatisieren und somit die Geschäftskosten senken.“

Oracle B2B Commerce wird für gemeinsame Kunden die direkte Konnektivität zwischen Oracle Cloud ERP und Serviceprovidern wie J.P. Morgan Payments und FedEx und anderen Finanzdienstleistern, Versicherungsunternehmen und Lieferdiensten mit einem einheitlichen Datenmodell und sicheren Workflows zur Digitalisierung des gesamten B2B-Commerce-Prozesses kombinieren. Darüber hinaus ermöglicht Oracle B2B Commerce 40.000 Unternehmen, nahtlos Transaktionen durchzuführen und Informationen zwischen allen Handelsparteien auszutauschen. Es hilft den Abschluss von Transaktionen zu beschleunigen und die Kundenerfahrung zu verbessern. Zudem können Organisationen neue Services anbieten, einschließlich neuer Zahlungslösungen sowie differenzierte Logistikservices.

Oracle revolutioniert den B2B-Handel

Vorteile der Integration mit .P. Morgan Payments

Die direkte Integration mit J.P. Morgan Payments wird Kunden, die zugleich Oracle Cloud ERP-Anwender sind, die folgenden Vorteile ermöglichen:

Integrierte Banking-Services

Sie stellen eine schlüsselfertige Konnektivität und Integration mit J.P. Morgan Payments bereit und helfen die Einrichtung, Konfiguration und technische Komplexität von Zahlungen erheblich zu reduzieren. Kunden werden in der Lage sein, Teile des J.P. Morgan Payments-Angebots zu integrieren, und können innerhalb weniger Stunden damit in Oracle Cloud ERP arbeiten, wodurch wochenlange technische Integrationsarbeiten während der Implementierung entfallen. Die vollständig automatisierte End-to-End-Zahlungsverarbeitung maximiert die Effizienz bei Zahlungseingängen, Barauszahlungen und Kreditkartenverarbeitungen. Darüber hinaus ermöglichen Echtzeit-Cash-Positionen zeitnahe und vorausschauende Cashflow-Prognosen.

Integrierte Reisekarten- und Spesenabrechnungsdienste

Diese verbessern die Mitarbeitererfahrung und reduzieren den Rückerstattungszyklus durch eine neue berührungslose mobile Erfahrung. Wenn die verknüpfte J.P. Morgan-Unternehmenskarte eines gemeinsamen Kunden belastet wird, werden die Autorisierungsdaten nahezu in Echtzeit gesendet, so dass die Geschäftsausgaben automatisch erfasst, aufgeschlüsselt und geprüft werden. Dadurch entfällt das mühsame Ausfüllen von Spesenabrechnungen, die Genehmigungsverfahren werden gestrafft und die Erstattung wird beschleunigt.

Hubert J.P. Jolly, Managing Director, J.P. Morgan Payments, sagt: „Unser Ziel ist es, innovative Zahlungslösungen anzubieten, die das Ökosystem der Finanzdienstleistungen verändern. Dazu müssen wir dort sein, wo unsere Kunden ihre Geschäfte tätigen. Wir freuen uns über die Zusammenarbeit mit Oracle, die den Kunden einen nahtlosen Zugang zum Angebot von J.P. Morgan Payments ermöglicht, einschließlich verbesserter Einblicke in den Cashflow und die Beschleunigung von Geschäftstransaktionen.“

Geplante Lösung für FedEx Compatible-Programm

Eine geplante Lösung für das FedEx Compatible-Programm wird es Oracle Cloud ERP-Kunden ermöglichen, von folgenden Vorteilen zu profitieren:

Integrierte Logistikservices

Sie eliminieren benutzerdefinierte Integrationen und bieten dagegen ein natives Onboarding, Tarifangebote in Echtzeit sowie Versand- und Tracking-Funktionen. Darüber hinaus plant Oracle, fortschrittliche Funktionen zur Optimierung von Logistikabläufen bereitzustellen, um die Lieferkosten zu senken und die Leistung zu verbessern.

Neue Geschäftsbereiche im B2B-Bereich mit Oracle erschließen

Organisationen aller Größen nutzen Oracle Cloud Applications für ihre wichtigsten Geschäftsabläufe. Die auf Oracle Cloud Infrastructure, Oracle Fusion Cloud Applications Suite, Oracle NetSuite und dem Portfolio branchenspezifischer Anwendungen von Oracle aufgebaute und ausgeführte Lösung bietet die Skalierbarkeit, Sicherheit und Leistungsfähigkeit, die Unternehmen heute verlangen. Die sich selbst aktualisierende Plattform von Oracle stellt Kunden im vierteljährlichen Turnus die fortschrittlichsten Technologien der Branche zur Verfügung. So können Unternehmen neue Geschäftsmöglichkeiten nach Bedarf aufbauen, innovieren, automatisieren, anpassen und nutzen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Digitale Produktion 4.0 setzt vernetzte Maschinen voraus

Digitale Produktion 4.0 setzt vernetzte Maschinen voraus

Die zukünftig immer bedeutendere Rolle von Industrie 4.0 & Digitalisierung im Maschinen- & Anlagenbau erfordert die Vernetzung unterschiedlicher Maschinentypen sowie von Bestandsmaschinen. Es ist die Voraussetzung, um produktiver zu arbeiten und das Maximum aus den Maschinen herauszuholen.

Digitale Produktion 4.0 setzt vernetzte Maschinen voraus

Die große Bedeutung von Industrie 4.0 haben bereits eine Vielzahl von Maschinenherstellern erkannt und bieten schon lange digitale Serviceprodukte für die Maschinen an. Vor allem produzierende Unternehmen mit vielen Maschinen müssen sich im Servicefall mit verschiedensten Systemen auseinandersetzen und diese auch beherrschen. Dies erfordert einen hohen Schulungsaufwand.

Neuerdings steht nicht mehr das Service Portal an sich im Fokus. Es geht vielmehr um die Vernetzung des gesamten Maschinenparks. Viele Maschinenhersteller, die sich ohnehin im Bereich Digitalisierung erfolgreich aufgestellt haben, zielen darauf ab, nicht nur die Maschinen des einen Maschinenherstellers, sondern auch andere Fabrikate und Maschinenarten zu digitalisieren und deren Daten für ganze Produktionswerke bereitzustellen. Im Ersten Schritt gilt es aber, die Maschinenvernetzung so einfach wie möglich zu gestalten.

In der Praxis wird deutlich, dass kein Produktionsunternehmen sein IT-Personal allein damit beschäftigen möchte, die Maschinen zu vernetzen. Demzufolge ist es wichtig, dass die Vernetzung der Maschinen so einfach wie möglich gestaltet wird und der Digitalisierungsprozess somit weitestgehend einfach und standardisiert werden sollte. Beispielsweise kann jede Neumaschine „ready-to-connect“ ausgeliefert werden, um den Anbindungsprozess beim Maschinenbetreiber zu vereinfachen.

Informationsabfrage aus ERP System

Um eine doppelte Datenpflege zu vermeiden, sollten entsprechende Maschinendaten und Informationen aus bestehenden ERP Systemen abgefragt werden können und auf Knopfdruck lokal im Unternehmen zur Verfügung gestellt werden. Dadurch kann sichergestellt werden, dass die Maschinen mit den richtigen Daten automatisiert im Maschinennetz angelegt und in bestehende vernetzte Produktionsumgebungen integriert werden.

Maschinenanbindung als Retrofit

Um eine produktionsübergreifende Maschinen-Vernetzung zu realisieren, muss die Anbindung aller Maschinen gewährleistet werden. Da die Lebensdauer von Maschinen sehr hoch ist, sind viele ältere Maschinen innerhalb der Produktion aktiv. Trotzdem ist die Connectivity aller Maschinen von grundlegender Bedeutung für den Maschinenbetreiber. Denn nur dann können die ganzen Vorteile der produktionsübergreifenden Maschinen-Vernetzung genutzt werden. Besonders bei diesem Retrofit-Prozess bietet es sich an, einen standardisierten Anbindungsprozess einzuführen und auf eine einfache Einrichtung der Maschine zu achten.

Rolle von einheitlichen Schnittstellen für Connectivity

Um Maschinen miteinander zu vernetzen, müssen diese über Schnittstellen verfügen. Demzufolge ist eine einfache Anbindung von sehr alten Maschinen nicht möglich. In diesem Fall bietet es sich an, die Altmaschinen nachzurüsten, indem man diese zum Beispiel mit spezieller Sensorik ausstattet.

In der Vergangenheit lag der Fokus auf standardisierten Schnittstellen wie OPC UA. Das bedeutet, dass die Daten der Maschinen in einem einheitlichen Format ausgegeben werden, damit die Daten von Fremdmaschinen ebenfalls ausgelesen und weiterverarbeitet werden können. In der Praxis sieht es jedoch anders aus. Andere Maschinenlieferanten stellen die Datencodes ihrer Maschinen oder Anlagen nicht über OPC UA zur Verfügung. In der Regel verwenden sie eigene proprietäre Protokolle. Somit ist eine gewisse Kooperation erforderlich, um ganze Produktionshallen zu digitalisieren.

Sicherheit

Wenn es um Maschinendaten geht, steht die Sicherheit an oberster Stelle. Die Produktionsunternehmen stellen ihre Daten nicht für alle frei zur Verfügung. Demzufolge sollte bei der Vernetzung zwischen Maschinenhersteller und -betreiber die Datenhoheit beim Maschinenbetreiber liegen. Nur der Maschinenbetreiber sollte festlegen, wer welche Daten zu welchem Zeitpunkt und Zweck verwenden darf. Parallel dazu sollte eine lokale Verfügbarkeit der Daten garantiert werden, um den produzierenden Unternehmen die Vorteile aus der Datenerhebung zu liefern.

Datenplattformen für Maschinendatenauswertung

Im Bereich der Maschinen-Vernetzung bekommen Plattformen eine immer größere Bedeutung. Der Vorteil gegenüber klassischen Serveranwendungen ist, dass die Plattformen skalierbar sind und auch große Mengen an Daten weiterverarbeiten können. Dennoch hat sich in der Praxis bewährt, dass eine Mischform wirksamer ist. Das bedeutet, dass die Daten lokal erhoben und gespeichert und Auszüge aus diesen Daten an Plattformdienste geschickt werden.

Wie kann der Maschinenhersteller seine Kunden am besten ins digitale Zeitalter begleiten und die bestehende Connectivity dafür nutzen?

Die erste Voraussetzung, die Kunden ins digitale Zeitalter zu begleiten, ist eine sichere und funktionierende Vernetzungs-Infrastruktur. Bereits mit der Vernetzung zur Maschine, können die Maschinenbetreiber die Vorteile aus den digitalen Services des Maschinenherstellers ziehen. Dadurch ist es beispielsweise möglich, dass der Kunde seine Instandhaltung über ein Tool lokal verwalten und die Live-Statistiken aller angebundenen Maschinen nachverfolgen kann. Der Bereich Monitoring bietet zahlreiche Anwendungsszenarien von vernetzten Maschinen. Beispielsweise kann im Fall einer drohenden Störung ein Alarm ausgelöst werden.

In Zukunft sollte neben der Vernetzung der eigenen Maschinen, die Vernetzung bestehender Maschinen, anderer Maschinentypen sowie Komponenten fokussiert werden, um den maximalen Nutzen aus der Vernetzung eines gesamten Produktionswerkes zu ziehen.

Der Beitrag wurde ursprünglich hier veröffentlicht …