Daten-Demokratisierung = Kontrollverlust?

Daten-Demokratisierung = Kontrollverlust?

Die Demokratisierung von Daten ist in vielen Unternehmen ein erklärtes Ziel. Jeder Mitarbeiter soll eigenständig Daten für seine geschäftlichen Zwecke nutzen und analysieren können. Möglich wird dies beispielsweise durch eine moderne Data Fabric basierend auf Datenvirtualisierung. Denodo nennt 4 Gründe, die gegen einen Kontrollverlust bei Daten-Demokratisierung sprechen.

Daten-Demokratisierung = Kontrollverlust? 4 Gründe, die dagegensprechen

Doch wenn Datensätze für jeden frei verfügbar sind, droht Unternehmen dann nicht, dass sie die Kontrolle über diese verlieren? Nicht unbedingt, meint Otto Neuer, Regional VP and General Manager bei Denodo, und erklärt, wie Unternehmen diesem vermeintlichen Kontrollverlust bei der Datenvirtualisierung begegnen können.

1. Kontrolle mittels Role Based Access

Die Prämisse von Daten-Demokratisierung – jeder Mitarbeiter ist in der Lage, Daten selbstständig zu sammeln, analysieren und nutzen – hört sich zunächst überzeugend an. Schließlich können Unternehmen so beispielsweise Prozesse beschleunigen, weil Mitarbeiter nicht mehr zunächst auf aufbereitete Datensätze warten müssen. Gleichzeitig gibt es aber in jedem Unternehmen Daten, die schlicht nicht für jeden einsehbar sein sollten – Personal- oder Finanzdaten etwa. Auch brauchen Mitarbeiter in höheren Positionen wahrscheinlich Zugang zu anderen Daten als ihre Teammitglieder.

Mit einer Plattform für Datenvirtualisierung können Unternehmen entsprechende Role Based Access Controls (RBAC) in einer zentralen Schicht einrichten. Das heißt, sie können genau festlegen, welche Rollen auf welche Daten zugreifen dürfen. Dies lässt sich je nach Lösung sogar granular für einzelne Spalten oder Zeilen in Datenbanken bestimmen. Unternehmen können so sicherstellen, dass Mitarbeiter nur auf die Daten zugreifen, die ihrer Rolle und ihrem Level entsprechen.

2. Kontrolle darüber, wie Daten genutzt werden

Es geht bei der Daten-Demokratisierung aber nicht nur darum, auf welche Datensätze Mitarbeiter Zugriff erhalten, sondern auch, was sie anschließend mit diesen machen können. Denn Unternehmen sind verpflichtet, den Missbrauch ihrer Daten verhindern. Daher ist ein Monitoring wichtig, um die Übersicht darüber zu haben, wer welche Daten wann und wie nutzt oder verändert. Eine Datenvirtualisierungs-Plattform geht dabei noch einen Schritt weiter: Sie ist in der Lage, Nutzern Datensätze zu empfehlen, die für ihre Zwecke am besten geeignet sind. Außerdem sorgt die semantische Schicht bei der Datenvirtualisierung dafür, dass alle Datensätze einer gemeinsamen Taxonomie und Namenspraxis folgen, und stellt Mitarbeitern diese standardisierten virtuellen Datensätze bereit. Dadurch ist verhindert, dass unterschiedliche Datendefinitionen zu Verwirrung oder gar Chaos führen.

Daten-Demokratisierung = Kontrollverlust?

3. Kontrolle über die Auslastung der Backend-Systeme

Wenn alle Mitarbeiter die Unternehmensdaten nach Belieben verwenden können, kann dies zu einer starken Auslastung oder Überlastung der Backend-Systeme (z.B. ERP) führen. Um dies zu verhindern, bietet eine Plattform für Datenvirtualisierung aber verschiedene Möglichkeiten. So lassen sich die Auswirkungen mithilfe eines Resource Managers kontrollieren, indem hier eine Definition konkreter Einschränkungen für Abfragen erfolgt. Unternehmen können beispielsweise begrenzen, wie viele Querys gleichzeitig durchgeführt werden können, wie lange die Abfrage dauern darf, bevor sie automatisch beendet wird, wie viele Zeilen das Ergebnis haben darf und mehr. Gleichzeitig können Unternehmen auch vorgeben, wann diese Restriktionen greifen. Dies kann zum Beispiel bei bestimmten Rollen der Fall sein, aber etwa auch bei der Zugriffsmethode.

4. Kontrolle darüber, wie Daten abgefragt werden

Unternehmen können mithilfe von einer Datenvirtualisierungs-Plattform aber nicht nur einschränken, wie Querys sich auf die Backend-Systeme auswirken, sondern auch, wie Mitarbeiter diese grundsätzlich durchführen können. Dafür stehen ihnen Filter zur Verfügung, die den abgefragten Bereich einschränken. So werden Mitarbeiter davon abgehalten, (womöglich unbedacht) den gesamten Datenbestand des Unternehmens durchzusuchen, was bei Tausenden Terabyte an Daten sehr viel Zeit und auch Geld kostet. Unternehmen können es ihren Mitarbeitern freistellen, diese Filtermöglichkeiten zu nutzen, oder aber die Plattform so konfigurieren, dass Pflicht zur Verwendung besteht. Da bei der Daten-Demokratisierung auch viele Mitarbeiter ohne technisches Verständnis für etwaige Auswirkungen Querys durchführen, kann dies eine probate Lösung sein, um einerseits den Zugang zu Daten zu gewähren, aber ohne andererseits fürchten zu müssen, dass die Systeme überlastet werden und die Kosten explodieren.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Sage unterstützt KMUs auf ihrem Weg zur Klimaneutralität 

Sage unterstützt KMUs auf ihrem Weg zur Klimaneutralität 

Sage, der führende Anbieter von Lösungen in den Bereichen Buchhaltung, Finanzen, Personal und Gehaltsabrechnung für kleine und mittlere Unternehmen (KMU), hat den Abschluss der Übernahme von Spherics bekannt gegeben, einer Carbon-Accounting-Lösung, die Unternehmen hilft, ihren ökologischen Fußabdruck besser zu verstehen und zu reduzieren und damit Klimaneutralität zu erzielen. 

Sage unterstützt KMUs auf ihrem Weg zur Klimaneutralität 

Die Akquisition unterstreicht das Engagement von Sage für mehr Nachhaltigkeit. Damit entspricht das dem Ziel des Unternehmens, Barrieren abzubauen, damit KMUs unternehmerisch erfolgreich sein und wachsen können. Sage hat sich verpflichtet, den Klimawandel zu bekämpfen und zum Schutz des Planeten beizutragen. Dafür möchte das Unternehmen seine eigenen Emissionen bis 2030 halbieren und bis 2040 auf Null reduzieren. Außerdem unterstützt Sage KMU dabei, auf Null zu kommen, und setzt sich für politische und rechtliche Rahmenbedingungen ein, die den Übergang zu einer kohlenstoffarmen Wirtschaft unterstützen. 

Spherics automatisiert den Prozess der Emissionsberechnung. Das System setzt dabei bei den Buchhaltungsdaten des Kunden an, indem es die Transaktionen mit den Emissionsfaktoren abgleicht und so eine erste Schätzung des CO2-Fußabdrucks erstellt. Im Anschluss bekommt der Anwender systemseitig Hinweise, wie diese Schätzung verfeinert werden kann, indem weitere Daten für eine genauere Berechnung eingegeben werden. Auf diese Weise unterstützt die Software KMUs auf ihrem Weg zur Klimaneutralität.

Mit Spherics können KMUs Kohlenstoffemissionsfaktoren auch auf andere Kategorien wie etwa Beschaffung, die Bewirtschaftung von Firmenimmobilien, Stromverbrauch und Reisetätigkeiten anwenden. Auch hier schätzt das System dann den mit einer bestimmten Transaktion verbundenen CO2-Fußabdruck. Der Berechnungsansatz der Software entspricht dem Greenhouse Gas Protocol, dem weltweit vereinbarten Standard für die Messung von Kohlenstoffemissionen. Mit dieser Herangehensweise können Anwender die Analyse ihrer Ausgaben spürbar differenzierter gestalten.

Whitepaper-Angebot: Digitalisierung im Mittelstand.
Google My Business: Warum sich der Eintrag lohnt
Anzeige: Whitepaper der DIGITAL-WEBER

Klimaneutralität wird für Unternehmen immer wichtiger

„Wir wissen, dass KMUs sich Gedanken über ihre Auswirkungen auf die Umwelt machen. Unsere Untersuchungen zeigen, dass sie mit Lieferanten und Partnern zusammenarbeiten wollen, die ihnen dabei helfen können, diese Auswirkungen besser zu verstehen und anzugehen“, sagte Amaya Souarez, EVP Cloud Operations, Sage. „Die Übernahme von Spherics ist ein wichtiger Meilenstein in unserer Nachhaltigkeitsstrategie. Indem wir die innovative Software von Spherics mit dem digitalen Netzwerk von Sage zusammenbringen und in dieses integrieren, geben wir Unternehmen nicht nur Transparenz über ihre eigenen Emissionsdaten, sondern ermöglichen es auch, diese mit denen ihrer Kunden und Lieferanten in Korrelation zu setzen und sich so gemeinsam mit ihnen für die Reduzierung des ökologischen Fußabdrucks einzusetzen. Auf diese Weise bereiten wir den Weg für kollaborative Klimaschutzmaßnahmen.“

„Unsere Vision und unser Auftrag stimmen sehr gut mit den Grundwerten von Sage überein, und wir freuen uns darauf, diesen neuen Weg gemeinsam mit Sage zu gehen, um KMUs dabei zu helfen, Hindernisse auf dem Weg in eine nachhaltigere Zukunft zu überwinden. Die globalen Emissionen steigen nach wie vor rasant an. Von daher brauchen wir sofortige und sinnvolle Klimaschutzmaßnahmen auf der ganzen Welt“, sagte George Sandilands, CEO und Mitbegründer von Spherics. „Gemeinsam mit Sage können wir dazu beitragen, global Einfluss auf die Treibhausgasemissionen zu nehmen. Dazu unterstützen wir KMUs auf ihrem Weg zur Klimaneutralität.“ 

Nachhaltigkeit als Wachstumsfaktor

„Die Fähigkeit eines Unternehmens, Nachhaltigkeitskennzahlen in seine Wachstumsstrategie zu integrieren und seine Nachhaltigkeitsleistung transparent darzustellen, wird weltweit zu einem starken Unterscheidungsmerkmal“, sagte Mickey North Rizza, Group Vice President, Enterprise Software, IDC. „Unsere Studien zeigen, dass Unternehmen in viele Anwendungsbereiche investieren, die in direktem Zusammenhang mit Nachhaltigkeit und ESG-Initiativen stehen. Insbesondere die Lieferkette, das Finanzwesen und die Warenwirtschaft stehen an der Spitze dieser Investitionen. Einige der größten Vorteile sind höhere Produktivität, mehr Rentabilität und geringere Kosten.“

Spherics mit Hauptsitz in Bristol, Vereinigtes Königreich, wird weiterhin als Marktlösung verfügbar sein, die mit Sage und anderen Anbietern von Buchhaltungssoftware in Großbritannien integriert werden kann.  

Der Beitrag wurde ursprünglich hier veröffentlicht …

ERP-Trends 2023: Deutsche Produktionen werden nachhaltiger!

ERP-Trends 2023: Deutsche Produktionen werden nachhaltiger!

Der international agierende ERP-Hersteller Monitor hat die ERP-Trends 2023 analysiert und gibt Empfehlungen, worauf insbesondere Produktionsunternehmen in Deutschland kommendes Jahr achten sollten.

ERP-Trends 2023: Deutsche Produktionen werden nachhaltiger!

Das Jahr 2022 stellte die globale Wirtschaft vor enorme Herausforderungen. Die Inflationsrate stieg in Deutschland auf über zehn Prozent an und erreichte damit Werte wie zuletzt im Jahr 1951. Dazu kommen anhaltende Lieferengpässe und signifikant steigende Energiekosten. Neben der Wirtschaftskrise sehen sich Unternehmen auch mit weiteren Krisen konfrontiert. Klimaschützer machen immer eindringlicher auf den Klimawandel aufmerksam, sodass insbesondere Produktionsunternehmen mehr auf Nachhaltigkeit achten müssen. Ein ERP-System kann diese dabei unterstützen, umweltfreundlichere Produktionsmethoden zu entwickeln und umzusetzen. Der international agierende ERP-Hersteller Monitor erklärt die drei wichtigsten ERP-Trends für das Jahr 2023.

Das sind die ERP-Trends 2023

Trend 1: Nachhaltigkeit in der Produktion

Viele Unternehmen verfolgen noch immer das Prinzip der klassischen Linearwirtschaft. Bei diesem auch als Wegwerfwirtschaft bekannten Prinzip gelangt lediglich ein geringer Anteil der Rohstoffe und Produkte in die Wiederverwendung. In Zeiten von Lieferengpässen und steigender Rohstoffpreise sind Alternativen wie die Kreislaufwirtschaft notwendig. Diese hat zum Ziel, Produkte so lange wie möglich zu teilen, wiederzuverwenden, zu reparieren, aufzuarbeiten oder zu recyclen. In einem Produktionsunternehmen beginnt der Herstellungsprozess damit beispielsweise mit der Demontage eines Produkts, das seinen Lebenszyklus bereits erfüllt hat. In den kommenden Jahren wird sich diese ressourcenschonende Produktionsmethode verstärkt etablieren. Denn immer mehr Produktionsunternehmen erkennen die Vorteile der Kreislaufwirtschaft.

Kreislaufwirtschaft bekämpft die Herausforderungen von begrenzt verfügbaren Ressourcen. Viele Rohstoffe werden immer knapper, und die wachsende Weltbevölkerung führt zu einer verstärkten Nachfrage. Außerdem sind viele Staaten hinsichtlich der Rohstoffversorgung von anderen Ländern abhängig, wie die Energiekrise derzeit eindrücklich beweist. Nicht zuletzt sorgen auch die Gewinnung und die Verarbeitung von Rohstoffen für eine erhöhte CO₂-Emission, die es ebenfalls zu senken gilt.

Ein ERP-System kann Unternehmen in der nachhaltigen Produktion unterstützen. So sind ERP-Systeme mit Fokus auf Produktion wie beispielsweise Monitor G5 ERP Fokus in der Lage, auch einen Demontage-Prozess softwareseitig zu unterstützen. Die Lösung hilft bei der Disposition der Rohstoffe für künftige Produktionsprozesse. Eine Produktionsplanung und -steuerung kann dann nachhaltig und ressourcenschonend erfolgen.

Auch die Überwachung der von der Produktion produzierten CO₂-Menge auf Komponentenebene müssen ERP-Systeme künftig messen können. Diese Messung ermöglicht Produktionsunternehmen Aussagen zur CO₂-Emission jeder einzelnen im Produkt enthaltenen Komponente. Dies wirkt sich fortan nicht nur auf die Lieferantenwahl aus, sondern ist zudem für ESG-konforme Auswertungen von Bedeutung. Lieferketten werden in der Zukunft nicht mehr nur auf Basis des besten Preises aufgebaut. Sie müssen auch die geringstmögliche Umweltbelastung aufweisen. Dies wird nur mit den richtigen Daten und Auswertungen möglich sein. Für künftige Ausschreibungen, Lieferantenbewertungen und Lieferantenauswahl ist die möglichst geringe nachgewiesene CO₂-Emission ein Wettbewerbsvorteil.

Trend 2: Lieferkette 4.0

Eine gut funktionierende Supply-Chain ist essenziell für Produktionsunternehmen. Denn eine hohe Liefertreue gilt als Erfolgskriterium. Kunden erwarten, dass Produkte verfügbar sind und kommunizierten Liefertermine eingehalten werden. Unternehmen haben ihre Supply-Chain in den vergangenen Jahren global ausgebaut. Viele haben ihre Rohstoffe beispielsweise aus Asien bezogen. Spätestens mit der Covid-Pandemie hat sich jedoch gezeigt, dass Lieferketten störanfällig sind.

In Unternehmen herrscht derzeit zunehmende Unsicherheit, ob die über Jahre etablierten Zulieferer die Liefertermine für die benötigten Materialien einhalten können. Deswegen sehen sich viele Fertigungsunternehmen dazu gezwungen, sich nach Alternativen umzusehen. Hier bietet sich eine Prüfung lokaler Zulieferer an, um die Lieferkette näher an den Standort oder sogar ins eigene Land zu holen. Für diesen Trend der Lieferkette 4.0 benötigten Produktionsunternehmen im Jahr 2023 ein passendes ERP-System.

ERP-Systeme ermöglichen dem Produktionsunternehmen eine neue Sichtweise auf die Supply-Chain und die Vernetzung von Daten. Durch die Digitalisierung der Informationen lassen sich Lieferanten nach Kriterien wie Liefertreue, Preis und Lieferzeit intelligent bewerten. Dies hilft bei der Lieferantenauswahl künftiger Materialbestellungen und ermöglicht hier bereits eine hohe Automatisierung. 

Ist das Material, welches das Unternehmen benötigt, beim betreffenden Lieferanten verfügbar? Welche Maschinen können für die Produktion eingesetzt werden? Wie kann das Unternehmen den Lagerumschlag erhöhen und damit weniger Kapital ans Lager binden? Welche Möglichkeiten zur Verringerung des Produktionsabfalls bestehen? Der Schlüssel zur Antwort auf diese Fragen ist die Konnektivität und Transparenz der Daten zwischen den Beteiligten. ERP-System liefern diese Daten, aber nur moderne ERP-Systeme sind in der Lage, diese Daten automatisiert auszutauschen. Sind diese miteinander verbunden, ist der Arbeitsablauf automatisierbar. Das spart Zeit sowie Geld und ermöglicht eine Lieferkette 4.0.

Lieferkettenmanagement ist ein ERP Trend 2023

Trend 3: Einfaches Onboarding

Der Fachkräftemangel ist für Unternehmen eine zunehmende Herausforderung. Der demografische Wandel bewirkt, dass die Fachkräftelücke sich stetig vergrößert. Die geburtenstarken Jahrgänge der 1950er- und 1960er-Jahre gehen in den Ruhestand, während gleichzeitig immer weniger Kinder geboren werden. Diese Faktoren tragen zu einem Fachkräftelücke bei, die viele Unternehmen nicht mehr zuverlässig schließen können.

Aufgrund dessen sollten Unternehmen sich zu attraktiven Arbeitgebern entwickeln, um dem Fachkräftemangel entgegenzuwirken. Neben Angeboten zu flexiblen Arbeitszeiten, Remote Working oder auch hybriden Arbeitsmodellen gehört eine entsprechende aufgestellte Enterprise-Application-Software-Architektur (kurz: EAS-Architektur) dazu. Die Herausforderung hierbei liegt oft im Onboarding neuer Mitarbeiter.

Häufig sehen sich diese mit der Tatsache konfrontiert, sich ohne Schulung in ein neues System selbst einarbeiten zu müssen. Deswegen ist es im Jahr 2023 von Bedeutung, die Software so einfach wie möglich zu halten. Die kaufmännische Lösung muss benutzerfreundlich und leicht erlernbar sein. Im besten Fall ist die Software so aufgebaut, dass neue Mitarbeiter sofort damit arbeiten können. Moderne ERP-Lösungen haben eine klare Bedienoberfläche, die intuitiv bedienbar ist. Suchfunktionen helfen den Nutzern, sich im System zurechtzufinden. Zukunftsorientierte ERP-Hersteller bieten ihren Usern außerdem eine eigene Academy an, um tiefergehende Funktionen zu vermitteln. Mit Hilfe einer solchen Lernwelt erfolgt die Schulung neuer Teammitglieder einfach und effizient in deren eigenem Rhythmus. Es ist Aufgabe der ERP-Hersteller, ihre Kundschaft hier an die Hand zu nehmen und einen Lernpfad vorzugeben. Nur gut ausgebildete User schöpfen das volle Potential der ERP-Lösung aus. 

Fazit

2023 wird ein Jahr der großen Herausforderungen und gibt zugleich die Chance, sich als Unternehmen neu für die Zukunft aufzustellen. Die Entscheidung für ein modernes ERP-System, das den aktuellen Trends gerecht wird, darf nicht weiter verschoben werden, findet Jonas Persson, Leiter des Business Development bei Monitor:

„Die ganze Welt ist auf der Suche nach Lösungen für die aktuellen Herausforderungen. Klar ist: Ein gutes und modernes ERP-System bildet die Grundlage für die Veränderungen. Mit unseren Lösungen im Bereich der Nachhaltigkeit konnten wir im September 2022 die Jury bei der Wahl zum ERP-System des Jahres von Monitor überzeugen. Damit haben wir uns den Preis in der Kategorie Einzelfertigung gesichert.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Sieben schlagkräftige Argumente für Cloud-basierte DBaaS-Lösungen

Sieben schlagkräftige Argumente für Cloud-basierte DBaaS-Lösungen

Wer Datenbanken und deren Infrastruktur manuell betreiben möchte, muss sich auf hohe Kosten und enormen Personalaufwand einstellen. Cloud-basierte Database-as-a-Service-Lösungen sind in vielerlei Hinsicht die bessere Wahl. Crate.io, Entwickler der Datenbank CrateDB, hat die sieben schlagkräftigsten Argumente für den Einsatz einer DBaaS evaluiert. 

Niedrigere Kosten, höhere Flexibilität und ein reibungsloser Betrieb: Das wünschen sich im Zusammenhang mit Datenbanken alle Unternehmen. In der Praxis erreichen sie diese Ziele mit herkömmlichen – das heißt manuellen – Methoden jedoch nur vergleichsweise schwer. Eine weniger aufwendige und kosteneffiziente Alternative sind Cloud-basierte Database-as-a-Service-Lösungen. DBaaS-Experte Crate.io untermauert im Folgenden, warum Unternehmen Hosting und Management ihrer Datenbanken auslagern sollten.

Cloud-basierte DBaaS-Lösungen senken den Aufwand

Cloud-basierte DBaaS-Lösungen senken den Aufwand

Der zentrale Vorteil einer Cloud-basierten Database-as-a-Service-Lösung ist der geringere Aufwand, den Unternehmen für deren Betrieb leisten müssen. Die IT-Abteilung braucht sich weder mit dem Aufsetzen noch mit der Verwaltung oder dem Monitoring der Datenbank auseinandersetzen, dafür zeichnet der Service-Provider verantwortlich. Durch diese Entlastung kann sich das Unternehmen voll und ganz auf die Softwareentwicklung konzentrieren. Insbesondere für kleine und mittelständische Unternehmen lohnt sich dieser Weg.

Cloud-basierte DBaaS-Lösungen reduzieren die TCO

Die Total Cost of Ownership (TCO) einer manuell betriebenen Datenbank ist hoch. Cloud-basierte Database-as-a-Service-Lösungen sind in den meisten Fällen kostengünstiger: Zum einen schlagen weniger Personalkosten für den Betrieb der IT-Infrastruktur und die Datenbankverwaltung zu Buche, denn bei Verwendung einiger Datenbanken ist dafür erhebliches Spezial-Know-how nötig. Zum anderen müssen sie überhaupt keine Ausgaben für deren Anschaffung einberechnen, lediglich die laufenden Betriebskosten sind hier zu berücksichtigen. Auch um den Wertverlust ihrer Hardware oder Wartungskosten brauchen sich Unternehmen bei DBaaS-Angeboten keine Gedanken machen.

Cloud-basierte DBaaS-Lösungen skalieren beliebig

Gerade zu Beginn eines Softwareprojekts ist es schwer abzuschätzen, welche Dimensionen es annehmen wird. Entsprechend unvorhersehbar ist daher, welchen Umfang die Datenbank am Ende haben wird – und ob er sich im Lebenszyklus der Anwendung verändert. Cloud-basierte DBaaS-Lösungen bieten unkomplizierte und dynamische Skalierbarkeit. Unternehmen können zum Beispiel mit einem sehr kleinen Cluster oder gar nur einer Single-Node-Instanz starten. Steigen die Leistungsanforderungen und der Ressourcenbedarf im Laufe des Projektes, buchen sie einfach neue Kapazitäten auf Knopfdruck hinzu – mittlerweile ist dieser Vorgang innerhalb von Sekunden möglich.

Cloud-basierte DBaaS-Lösungen erhöhen die Zuverlässigkeit

High Availability ist ein wichtiges Merkmal von Cloud-Umgebungen. Während in eigenen lokalen Datenzentren bereits kleinere Probleme für schmerzhafte Ausfälle sorgen können, laufen Datenbanken in den resilienten Clouds von Amazon, Google oder Microsoft sehr zuverlässig. Verteilte Datenbanken haben zudem den Vorteil, dass es immer gleich mehrere Replikationen gibt, sodass sie auch beim Ausfall eines Knotens zu 100 Prozent leistungsfähig bleiben.

Cloud-basierte DBaaS-Lösungen steigern die Erreichbarkeit

On-premises-Datenbanken für alle Stakeholder zugänglich zu machen, stellt Administratoren immer wieder vor Herausforderungen. Cloud-basierte Database-as-a-Service-Lösungen haben hingegen kein Accessibility-Problem, da sie zentral erreichbar sind. Um das Zugriffsmanagement kümmert sich der Service-Provider, der somit auch an dieser Stelle die IT-Abteilung entlastet. Da durch den Cloud-basierten Ansatz sämtliche Daten an einem zentralen Ort vorliegen, ist die DBaaS-Lösung überdies der Single Point of Truth. So stellen Unternehmen sicher, dass ihre Anwendungen eine verlässliche, einheitliche und aktuelle Datenbasis verwenden.

Cloud-basierte DBaaS-Lösungen erleichtern die Migration

Fast alle DBaaS-Lösungen nutzen AWS, Google Cloud oder Microsoft Azure als Grundlage – einige Service-Provider bieten die freie Auswahl. Entsprechend leicht ist die Migration von einem Hyperscaler zum anderen, die Cloud-Anbieter stellen dafür sogar native Tools zur Verfügung. Die Zeiten, in denen Unternehmen den sogenannten Vendor Lock-in fürchten mussten, sind damit vorbei. Ebenso leicht – oft auf Knopfdruck – ist überdies der Umzug der Datenbank in eine geografisch günstiger gelegene Server-Region, um die Latenz einer Anwendung oder die Kosten für den Betrieb zu verringern.

Cloud-basierte DBaaS-Lösungen vereinfachen den Zugang zu Service-Ökosystemen

Zu guter Letzt bieten Cloud-basierte DBaaS-Lösungen je nach gewünschtem Cloud-Provider Zugang zu einem großen Ökosystem an nativen Services. Diese zusätzlichen Tools können IT-Administratoren oft mit sehr geringem Aufwand mit der Datenbank verbinden. Möchte ein Unternehmen etwa ein bestimmtes Visualisierungsprogramm für die Datenströme ausprobieren, genügen in der Regel wenige Klicks für die Integration.

Der Beitrag wurde ursprünglich hier veröffentlicht …

5 Fähigkeiten und Eigenschaften, dank denen Technologen die Karriereleiter hochklettern

5 Fähigkeiten und Eigenschaften, dank denen Technologen die Karriereleiter hochklettern

Die letzten zwei Jahre haben von IT-Abteilungen viel abverlangt. Einerseits müssen sie die sich ständig verändernden Erwartungen von Kunden an makellose digitale Erfahrungen erfüllen, andererseits müssen sie sicherstellen, dass neue Arbeitsmodelle reibungslos umgesetzt werden können. Aus diesen Herausforderungen ergibt sich für Technologen jedoch auch die Chance, die eigene Karriereleiter hochzuklettern. Fünf Fähigkeiten und Eigenschaften sind entscheidend, um diese Chance zu ergreifen. Tommy Ziegler, Leader Sales Engineering bei AppDynamics erläutert sie:

1. Ergebnisorientiertes Arbeiten

IT-Mitarbeiter verbringen viel Zeit damit, IT-Umgebungen zu implementieren und zu verwalten. Doch um den nächsten Karriereschritt zu gehen, müssen sie auch in der Lage sein, ihren IT-Stack zu überwachen, zu beobachten und vor allem die Performance unmittelbar mit den Geschäftsergebnissen zu verknüpfen. Nur dadurch können sie Maßnahmen auf Grundlage der Auswirkungen auf Kunden und Mitarbeiter priorisieren und das digitale Erlebnis kontinuierlich optimieren.

2. Kritisches Denken

Spitzentechnologen müssen darüber hinaus die Fähigkeit besitzen, Daten richtig zu interpretieren, aus ihnen frühzeitig Trends zu erkennen und insbesondere diese Erkenntnisse für ihr weiteres Vorgehen zu nutzen. Das bedeutet auch, dass sie Wege finden müssen, um mit den überwältigenden Datenmassen umzugehen, die in einer zunehmend fragmentierten und dynamischen IT-Landschaft zur Norm geworden sind.

Whitepaper-Angebot: Digitalisierung im Mittelstand.
Google My Business: Warum sich der Eintrag lohnt
Anzeige: Whitepaper der DIGITAL-WEBER

3. Organisationsübergreifendes Arbeiten

IT-Führungskräfte müssen mehr denn je mit Stakeholdern innerhalb und außerhalb ihres Unternehmens effizient und effektiv zusammenarbeiten. Das heißt, Technologen müssen bereit sein, sich die Zeit zu nehmen, um Kollegen und Teams aus verschiedenen Bereichen des Geschäfts in ihre Arbeit einzubeziehen, ihre Bedürfnisse kennenzulernen und zu verstehen und ihnen neues Wissen und neue Fähigkeiten zu vermitteln. Gleichzeitig müssen sich auch vertrauensvolle Beziehungen zu Partnern und Anbietern aufbauen.

4. Proaktives, agiles Handeln

Technologen, die Agents of Transformation werden möchten, müssen den Übergang zu einer Cloud-first-Strategie nicht nur vorantreiben, sondern anführen. Die Neukonzipierung ihrer Anwendungen und der Umstieg auf Cloud-native Lösungen wird dazu beitragen, Innovationen erheblich zu beschleunigen und die Anforderungen von Kunden und Mitarbeitern an nahtlose digitale Erfahrungen kontinuierlich zu erfüllen.

5. Unternehmerisches Denken

Technologen, die an der Spitze ihrer Profession stehen, verfügen über die Insights, Visionen und Glaubwürdigkeit, die notwendig sind, um die Unternehmensstrategie auf der Grundlage von Geschäftsmetriken in Echtzeit zu gestalten. Die traditionelle Trennung zwischen IT und den weiteren Bereichen des Unternehmens lösen sich zusehends auf. In der aktuellen Studie von AppDynamics Agents of Transformation 2022 sehen sich bereits 82 Prozent der deutschen Technologen als Business Leader.

Karriereleiter

Der Beginn einer neuen Ära

Damit Technologen den nächsten Schritt in ihrer Karriere gehen können, müssen allerdings auch die Rahmenbedingungen stimmen. Das heißt zum einen, dass sie neue Werkzeuge brauchen, damit ihnen etwa Daten zur IT-Verfügbarkeit und -Performance in Echtzeit zur Verfügung stehen. Nur so können sie Probleme und Störungen mit den größten Auswirkungen auf das Geschäft erkennen und priorisieren.

Zum anderen muss sich die Kultur anpassen. Spitzentechnologen brauchen ein Umfeld, in dem sie gefördert und gefordert werden, um zu wachsen. Dieser Kulturwandel ist bereits in vielen Unternehmen im Gange. Immer mehr Technologen sind in der Lage, das ständige Feuerlöschen der letzten Jahre hinter sich zu lassen und einen proaktiveren Ansatz für Innovationen zu verfolgen, um sich und ihre Fähigkeiten weiterzuentwickeln.

Doch sie können sich nicht einfach zurücklehnen und darauf warten, dass dies passiert. Stattdessen ist es für Technologen an der Zeit, sicherzustellen, dass sie über die Fähigkeiten, Eigenschaften, die Unterstützung und die Tools verfügen, die sie benötigen, um Innovationen voranzutreiben und ihre Anwendungen in einer Cloud-first-Umgebung neu zu gestalten. So können sie Agents of Transformation werden und ihr Unternehmen nachhaltig transformieren.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Große Mehrheit findet Bewertungen als Hilfestellung beim Online-Kauf wichtig

Große Mehrheit findet Bewertungen als Hilfestellung beim Online-Kauf wichtig

Eine repräsentative Umfrage von Trusted Shops hat ergeben, dass Bewertungen für Shops und Produkte für die meisten Deutschen eine wichtige Rolle beim Online-Kauf spielen. Drei Viertel befürworten eine zuverlässige Kennzeichnung von echten Bewertungen.

Große Mehrheit findet Bewertungen als Hilfestellung beim Online-Kauf wichtig

In krisenhaften Zeiten wächst der Wunsch nach vertrauenswürdigen und zuverlässigen Orientierungshilfen. Das spiegeln neue Umfrageergebnisse wider: 55 Prozent der Befragten geben an, dass ihnen Bewertungen von Shops und Produkten für den Online-Kauf wichtig sind, um in der aktuellen Situation eine Kaufentscheidung zu treffen.

Wunsch nach Kennzeichnung von echten Bewertungen

Immer wieder machen Verbraucher*innen allerdings Erfahrungen mit gefälschten Shop- und Produktbewertungen. Daher ist für drei Viertel aller Befragten (75 Prozent) die Echtheit von Bewertungen entscheidend. Entsprechend hoch (74 Prozent aller Befragten) ist der Wunsch nach einer zuverlässigen Kennzeichnung echter Shop- und Produktbewertungen: 43 Prozent wünschen sich bei jeder Bewertung des Online-Kaufs eine Kennzeichnung; 31 Prozent sprechen sich dafür aus, wenn es um wichtige oder teure Anschaffungen geht.

Fünf Typische Merkmale von Fake-Bewertungen

Bastian Kolmsee, Head of Trust Products and Services bei Trusted Shops, weiß um das Problem der Fake-Bewertungen und rät dazu, genau hinzuschauen: „Es gibt eine Reihe von Merkmalen, die typisch für Fake-Bewertungen sind. Wer sie erkennt, hat eine gute Chance, nicht hereinzufallen.“ Er nennt folgende fünf typische Merkmale:

Fake-Merkmal 1: Online-Shop wird ausschließlich positiv bewertet

Wer bei einem Produkt oder einer Dienstleistung ausschließlich auf positive Bewertungen stößt, sollte misstrauisch werden. Es ist ziemlich unwahrscheinlich, dass allen Käufer*innen ein Produkt oder Shop gleich gut gefällt.

Fake-Merkmal 2: Bewertungen des Online-Kaufs fallen durch schlechten Schreibstil auf

Manche Shopbetreiber beauftragen Agenturen, die unechte Bewertungen für den Online-Kauf schreiben. Dabei nutzen die Agenturen automatische Übersetzer. Die Texte fallen häufig durch ungewöhnliche Redewendungen und Ausdrücke auf, die im Alltag kaum jemand verwenden würde.

Fake-Merkmal 3: Shopbetreiber*innen reagieren nicht auf Bewertungen

Fake-Shops machen sich in der Regel nicht die Mühe, auf Bewertungen des Online-Kaufs zu reagieren oder Verbraucher*innen Feedback zu geben. Wenn sich ein Online-Shop dafür Zeit nimmt, ist die Wahrscheinlichkeit hoch, dass er echt ist. 

Fake-Merkmal 4: Anzahl der Bewertungen explodiert in kurzer Zeit

Wenn die Anzahl der Bewertungen für ein Produkt plötzlich in die Höhe schnellt, könnte es sich um automatisch erzeugte Bewertungen handeln. Sind die Bewertungen hingegen über einen längeren Zeitraum verteilt, spricht das stärker für ihre Echtheit.

Fake-Merkmal 5: Anonyme Bewertungen des Online-Kaufs

Bei Fake-Bewertungen ist oft kein/e Autor*in angegeben. Bei echten Bewertungen hingegen ist der/die Verfasser*in in der Regel erkennbar, zum Beispiel durch einen Namen und ein Profilbild.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Erfolgsfaktoren beim Aufbau einer agilen IT-Organisation

Erfolgsfaktoren beim Aufbau einer agilen IT-Organisation

Lesen Sie hier die wesentlichen Vorteile einer Ausrichtung der IT-Organisiation auf agile Prozesse.

Erfolgsfaktoren beim Aufbau einer agilen IT-Organisation

Die Konsequenzen der Digitalisierung bekommen auch die IT-Organisationen zu spüren. Sie müssen sich agil aufstellen, um eine höhere Flexibilität zu erlangen und sich enger mit den Business-Abteilungen verzahnen.

1. Ein durchgreifend neues Selbstverständnis der Aufbauorganisation schaffen:

Ein Wandel von der klassischen zur agilen IT-Organisation bedeutet eine grundlegende Neuausrichtung des gesamten Selbstverständnisses, weil es sich dabei um eine neue Organisationskultur handelt. Deshalb reichen keine punktuellen Modifikationen, beispielsweise durch agile Projektmethoden. Vielmehr sind Veränderungen gleich auf mehreren Ebenen notwendig. Dazu gehören die organisatorischen Verhältnisse ebenso wie die Prozesse und die Tools. Erst wenn diese drei Ebenen jeweils den veränderten Anforderungen entsprechen und eng aufeinander abgestimmt sind, entsteht die Basisstruktur einer agilen IT-Organisation. Zu ihren Kernzielen muss gehören, dass die Agilität im gesamten Service-Lebenszyklus gelebt wird.

2. Die Transformation systematisch gestalten:

Es ist zu empfehlen, in einem ersten Schritt organisationsweit ein Verständnis für agile Praktiken und Prinzipien im Management aufzubauen. Hierfür sind geeignete Bereiche auszuwählen, die im Regelfall Projekte darstellen. In der Folgephase gilt es, geeignete Methoden wie Scrum, DevOps etc. auszuwählen. Sie müssen geschult und dann in Pilotprojekten verprobt werden. Eine feste Implementierung erfolgt in einem dritten Schritt. Hier werden Standards definiert und erfolgt eine Ausweitung der agilen Prinzipien auf die Prozesse, Linienorganisation und weiteren Bereiche.

3. Die ITIL-Prozesse agil beleben:

Die Unterstützung der agilen Welt kann nicht mit dem herkömmlichen Prozessdesign abgedeckt werden. So verlieren manche Abläufe ihren bisherigen Fokus oder wandeln sich. Dies gilt z.B. für das Capacity Management, denn wer etwa Cloud-Services nutzt, der muss sich nicht mehr um die notwendigen Kapazitäten, sondern vor allem um die damit verbundenen Kosten kümmern. Auch kann es bei einem Projekt kein starres Service Design Package mehr geben. In der Designphase tritt an dessen Stelle vielmehr das Product Backlog gemäß Scrum, welches sich durch eine an die Projektlage ändernde Priorisierung bzw. Ergänzung auszeichnet.

4. Der Service- bzw. Produktmanager benötigt breite Kompetenzen:

Der Wandel zu einer sehr anpassungsfähigen und kundenfokussierten IT-Organisation benötigt einen Produktmanager, der die Priorisierung der Anforderungen aus dem Backlog anhand des Kundennutzens verantwortet. Er kommt idealerweise aus dem internen Fachbereich oder steht im engen Kontakt mit dem jeweiligen Kunden. Seine Funktion besteht darin, die Serviceerbringung und die Weiterentwicklung der Services sicherzustellen. Hierfür müssen Zuständigkeiten aus der Linie an diese Rollen übergeben werden. Um ausreichend handlungsfähig zu sein, benötigt er zwangsläufig auch die notwendigen Befugnisse. Vorteilhaft ist, wenn ihm hierfür ein Service- bzw. Produktteam entlang der Lieferkette zur Verfügung steht.

5. Die Service Level Agreements neu denken:

Um die Leistungserbringung gezielter steuern zu können, sind Service-spezifische SLAs statt generalistischer Leistungsvereinbarungen notwendig. Sie versetzen den Service Manager in die Lage, mit dem Kunden wesentlich gezielter die Ressourcen priorisieren zu können. Dies etwa bei der Frage, ob eine neue Anforderung oder die Beseitigung einer Störung bevorzugt realisiert werden soll. Eine Überarbeitung der SLA-Strukturen ist aber beispielsweise auch für DevOps-Prozesse bei Nutzung von Cloud-Services notwendig, weil ansonsten sowohl die Rolle des Masters als auch die internen bzw. externen Support-Verantwortlichkeiten an den Prozessschnittstellen unklar sind.

6. Agile Metriken etablieren:

Erstens erzeugt Agilität nicht automatisch bessere Ergebnisse als die herkömmlichen Verfahren und Organisationsverhältnisse, zweitens müssen sich auch die agilen Ansätze einer Erfolgsbewertung stellen. Deshalb bedarf es Metriken, mit denen der Projekterfolg gemessen und verglichen werden kann. Angesichts der zahlreichen Methoden ist im Unternehmen zu definieren, welche Metriken kontextbezogen eingesetzt werden sollen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

NTT: So kommen IT-Teams bei der Cloud-Migration nicht ins Schwitzen

NTT: So kommen IT-Teams bei der Cloud-Migration nicht ins Schwitzen

Eines haben alle Cloud-Projekte gemeinsam: Ohne eine gute Planung und ein erfahrenes Projektmanagement-Team stehen Unternehmen auf verlorenem Posten. NTT Ltd., ein führendes IT-Infrastruktur- und Dienstleistungsunternehmen, zeigt, wie sich die Cloud-Migration so gestalten lässt, dass der Betrieb von Anfang an reibungslos läuft.

NTT: So kommen IT-Teams bei der Cloud-Migration nicht ins Schwitzen

Ein Unternehmen, das agil und effizient sein möchte, fragt sich nicht mehr, ob es in die Cloud geht – sondern nur noch in welche und wie. Falsch angegangen, kann die Cloud-Migration allerdings selbst erfahrene IT-Teams ins Schwitzen bringen. Ohne eine gute Vorbereitung und schrittweise Umstellung auf die neue Umgebung riskieren Unternehmen, mit dem Projekt zu scheitern. Aus Sicht von NTT gilt es, folgende Punkte zu beachten:

Ausgangslage analysieren.

Viele Unternehmen gehen Cloud-Projekte und die Cloud-Migration zu schnell an. Eine schlecht geplante Infrastruktur kann allerdings zu Sicherheitslücken führen und schlichtweg an den eigentlichen Anforderungen des Business vorbeigehen. Unternehmen müssen immer vorab die Anforderungen aus den Abteilungen zusammentragen, den Status quo der IT-Infrastruktur beleuchten und darauf aufbauend ein Zielbild definieren sowie die Roadmap entwickeln. Im Rahmen der Analyse sollten sie unter anderem die folgenden Fragen beantworten: Wie sieht unsere aktuelle IT-Infrastruktur aus? Welche Schnittstellen haben wir? Gibt es veraltete Lösungen, die im Zuge der Migration abgeschaltet werden sollen? Firmen, die diese Punkte im Vorfeld klären und gleichzeitig die notwendige Qualität ihrer Anwendungen und Prozesse sicherstellen, vermeiden bereits die ersten Fallstricke auf dem Weg in die Cloud.

Migrationsarchitektur festlegen.

Zwar beziehen die meisten Unternehmen die Anbindung von Datenbanken oder anderen Hilfssystemen bei ihren Cloud-Projekten in die Planung mit ein – eines wird aber nach wie vor gerne vergessen: die Legacy IT. Unternehmenskritische Altsysteme sind häufig nicht Cloud-fähig und lassen sich deshalb schwer oder gar nicht migrieren. Zudem macht es wenig Sinn, gut laufende Applikationen einfach per Lift-and-Shift zu verschieben. Ohne die richtigen Anpassungen können Unternehmen nicht von den Mehrwerten einer Public Cloud profitieren und der Betrieb wird mittelfristig sogar oftmals teurer. Damit die Cloud-Migration erfolgreich ist, müssen Unternehmen vorab sogenannte Landing Zones definieren und gestalten. Sie müssen Migrationsarchitektur und Blueprint für den Wechsel der Anwendungen festlegen, wobei es verschiedene Möglichkeiten gibt – von der Übertragung der Systeme, die bereits Cloud-ready sind, bis hin zum sogenannten Full Rebuild, bei dem alle Anwendungen Cloud-nativ neu gebaut werden. Unbedingt vermeiden sollten Unternehmen einen Vendor Lock-in, der durch proprietäre Formate, Betriebssysteme oder Programmierschnittstellen schnell passiert. Ein Multi-Cloud-Ansatz verringert die Abhängigkeit von einem einzelnen Anbieter.

Pilot durchführen und Mitarbeiter involvieren.

Es ist sinnvoll, nicht gleich die gesamte IT-Infrastruktur in die Cloud zu verlagern. Ein Pilotprojekt als Einstieg liefert wertvolle Erkenntnisse und Erfahrungen darüber, welche Anpassungen wo notwendig sind. Dadurch entsteht die Basis für weitere Migrationen. Empfehlenswert ist hier eine kleine Auswahl an repräsentativen Anwendungen. Genauso wichtig ist es, für Alignment innerhalb der Organisation zu sorgen. Das heißt, Unternehmen sollten alle für die Cloud-Migration wichtigen Personen ermitteln und einbeziehen. Je früher für Unterstützung gesorgt wird, desto reibungsloser und schneller läuft die Modernisierung ab. Gleichzeitig ist es sinnvoll, teaminterne Qualifikationen aufzubauen. Damit stellen Unternehmen sicher, dass auch wirklich jeder die Vorteile der Cloud komplett nutzt.

Die Cloud-Migration

Sicherheit- und Governance-Aspekte in der Cloud-Migration nicht vergessen.

Beim Thema Cloud-Security gilt das Shared-Responsibility-Modell. Die Verantwortung für die Durchführung der notwendigen Sicherheitsmaßnahmen ist zwischen Unternehmen und Anbieter quasi aufgeteilt. Der Cloud-Provider muss eine sichere Infrastruktur bereitstellen. Die Verantwortung darüber, wie diese betrieben wird und welche Daten in die Cloud gelangen, liegt aber beim Unternehmen selbst. Gerade für Public-Cloud-Netzwerke bietet sich ein Zero-Trust-Sicherheitsmodell an. Bei diesem Ansatz kommen kontextbezogene Richtlinien, eine kontinuierliche Netzwerküberwachung, Mehrfach-Authentifizierung, Identity Access Management sowie erweiterte Endpunktsicherheit zum Einsatz. Genauso sinnvoll ist ein effizientes Cloud-Governance-Maßnahmenpaket. Es ermöglicht eine valide Steuerung von Ressourcen, Services sowie Daten und erlaubt die Kontrolle über sämtliche organisatorischen und technischen Belange.

Transparenz über Kosten und Prozesse gewinnen.

Eine Migration in die Cloud bedeutet nicht, dass die laufenden Kosten automatisch sinken. Das liegt einerseits daran, dass während der Migration vorsichtshalber überprovisioniert wird und Möglichkeiten zur Elastizität nicht genutzt werden. Andererseits fehlt oftmals die Transparenz über grundlegende Prozesse, ohne die aber eine Kostensenkung nicht möglich ist. Mit den entsprechenden Werkzeugen, allen voran einem Managementtool, sind Unternehmen in der Lage, hybride und Multi-Cloud-Services zu verwalten. Dazu gehören laut Gartner Lebenszyklusmanagement, Brokering und Automatisierung für verwaltete Infrastrukturressourcen über alle Bereiche hinweg. Die spätere Kostenkontrolle ist damit inklusive.

Das große Ganze der Cloud-Migration

„Eine schlecht vorbereitete Cloud-Migration kann weitreichende Folgen haben – vom Kontrollverlust über die Daten und Anwendungen bis hin zu Sicherheitsverletzungen und Verstößen gegen die DSGVO und andere regulatorische Vorgaben. Unternehmen sind gut beraten, jeden einzelnen Schritt genau zu planen und das Projekt nicht übereilt voranzutreiben“, erklärt Oliver Harmel, Vice President Managed Services Go-To-Market von NTT Ltd. „Viele Firmen geraten allerdings schnell an ihre Grenzen, es fehlen die internen Kapazitäten und auch die notwendigen Kompetenzen sind nicht vorhanden. Bei einer Cloud-Migration braucht es jemanden, der das große Ganze im Blick behält. Es zahlt sich deshalb aus, einen erfahrenen Partner mit ins Boot zu holen, um nicht später technische Probleme, Sicherheitslücken oder Mehrkosten zu haben, weil die Infrastruktur lückenhaft oder nicht zukunftsfähig aufgestellt ist.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Warum Low-Code-Projekte scheitern – und wie sie gelingen

Warum Low-Code-Projekte scheitern – und wie sie gelingen

38 Prozent der Unternehmen entscheiden sich heute für Low-Code-Plattformen, um schnell IT-Lösungen bereitstellen zu können. Citizen Developer sollen dabei IT-Fachkräfte ersetzen und ohne Programmierkenntnisse selbstständig Anwendungen entwickeln. Warum über die Hälfte dieser Low-Code-Projekte jedoch scheitern und was eine mögliche Alternative zum Citizen Development sein könnte, wissen die Experten von WEBCON.

Warum Low-Code-Projekte scheitern – und wie sie gelingen

Das Modell des Citizen Development mithilfe von Low-Code-Plattformen wird häufig als die Lösung gehandelt, mit der Unternehmen trotz Mangel an IT-Fachkräften die eigene Digitalisierung schnell und einfach vorantreiben können. Über simple Drag-and-Drop-Mechanismen sollen dabei mit Low-Code-/No-Code-Plattformen auch Anwender ohne Fachkenntnisse ausführen können, was früher eine Programmierung erforderte. Das Versprechen laut einer in den Vereinigten Staaten von der CIMI Corporation durchgeführten Untersuchung. Dank Automatisierung Prozesse um bis zu 87 Prozent beschleunigen.

Trotzdem scheitern heute 54 Prozent der Citizen-Development-Projekte innerhalb des ersten Jahres ihrer Laufzeit, weitere 28 Prozent erzielen nur marginale Ergebnisse.

Whitepaper-Angebot: Digitalisierung im Mittelstand.
Google My Business: Warum sich der Eintrag lohnt
Anzeige: Whitepaper der DIGITAL-WEBER

Warum Citizen-Development-Projekte scheitern

Wenn Citizen Developer Anwendungen entwickeln, fehlt ihnen dabei oft sowohl Zeit wie auch das Wissen, dass zur Applikations-Entwicklung nicht nur die eigentliche Konstruktion gehört – sondern beispielsweise auch Anforderungserfassung, Design, Modellierung, Sicherheits-Aspekte, Bereitstellung, Versions- und Änderungsverwaltung, Metriken, Überwachung, Prüfung, die Einhaltung von Vorschriften, Wartungsverfahren, Benutzerakzeptanz und -engagement sowie die Feedbackerfassung. Die Folge: Anwendungen von Citizen Developern müssen aufgrund von Fehlern meist unter der Kontrolle der IT-Abteilungen wieder neu aufgebaut werden.

Sind diese schließlich fertiggestellt, ergeben sich darüber hinaus oft Schwierigkeiten bei der Verwaltung, Kontrolle und Änderung der Applikationen sowie bei Integrationen und Skalierungen in andere Systeme des Unternehmens. Es entstehen Insellösungen, die nur schwer überprüfbar und unternehmensübergreifend nutzbar sind. Verlassen einzelne Citizen Developer das Unternehmen, geht Wissen über die Entwicklung der Anwendung unwiederbringlich verloren.

Letztlich sind es nur die IT-Fachleute, die dieses Wissen gesammelt zusammenführen und den Blick auf das große Ganze haben. Sie sorgen dafür, das Betriebsrisiko bei der Anwendungsentwicklung möglichst klein sowie den Nutzen für das Unternehmen möglichst groß zu halten.

In der Praxis kann man die Umsetzung der Citizen-Development-Idee als solche also kaum als langfristige Lösung betrachten. Besonders beim Handling von geschäftskritischen Anwendungen. Es braucht einen Ansatz, der sich stattdessen auf die effiziente Zusammenarbeit und Kommunikation zwischen Citizen Developern und IT fokussiert.

Eine mögliche Lösung: Citizen-assisted Development

Eine Alternative, die das ermöglicht, ist der Ansatz des Citizen-assisted Development. Dieser geht davon aus, dass Fachanwender Anforderungen sammeln und einen Anwendungsprototyp innerhalb einer No-Code-Plattform erstellen. Das Tool stellt dabei sicher, dass alle Informationen gesammelt werden, um den Prototyp später in die endgültige Anwendung überführen zu können. Der so erstellte Prototyp kann in diesem Stadium zum Testen gestartet und mithilfe des Feedbacks der Citizen Developer schnell und agil verändert werden. Die Aufgabe der IT besteht darin, die Konfiguration des Prototyps nach Übernahme in eine Low-Code Entwicklungsumgebung zu vervollständigen und ihn in eine vollwertige Lösung zu verwandeln – nicht darin, eine Anwendung auf Basis von beschreibenden Dokumenten und Grafiken neu zu entwickeln. Dieser Ansatz entlastet die IT-Teams und ermöglicht es ihnen, bisher unmögliche Größenordnungen von neuen Anwendungen pro Jahr umzusetzen und so langfristig den Back-Log abzubauen.

Applikationen kann man durch das Testen von Prototypen außerdem bereits auf ihre Sinnhaftigkeit überprüfen, bevor man die IT-Abteilung involviert. Letztere kann dann auf Grundlage deutlich definierter und klarer Anforderungen verschiedene Anwendungen entwickeln sowie diese in einer einzigen Technologieplattform bereitstellen. 

Die Klarheit, Einheitlichkeit und deutliche Kommunikation, die das Modell des Citizen-Assisted Development ermöglicht, beschleunigt die Anwendungsentwicklung und verbessert das Endergebnis für einzelne Anwender, die IT-Abteilung und für das gesamte Unternehmen deutlich.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Customer-Data-Plattform (CDP) – das unverzichtbare Werkzeug für erfolgreiches Digitalmarketing

Customer-Data-Plattform (CDP) – das unverzichtbare Werkzeug für erfolgreiches Digitalmarketing

Die letzten zehn Jahre haben die digitale Welt verändert. Die DSGVO-Richtlinien regeln das Einholen der Einwilligung von Nutzern, während Browser wie Safari und Chrome die Third-Party-Cookies allmählich abschaffen. Das Ausspielen von Werbung und das dazugehörige Tracking erweist sich folglich als immer heikler. Außerdem nutzen die Kunden inzwischen mehrere Geräte und Kanäle, um mit einem Unternehmen zu interagieren und fordern individuell auf sie zugeschnittene Erlebnisse.

Diese Entwicklungen haben nicht nur neue Erwartungen an die Unternehmen in Europa geschaffen. Sie wirken sich auch auf die Beständigkeit und Performance von Marketingkampagnen aus. Außerdem steigern sie den Bedarf an leistungsfähigeren und einheitlicheren Technologien und rücken eine optimale Data Governance, Personalisierung und der Schutz von privaten Daten in den Fokus.

Whitepaper-Angebot: Digitalisierung im Mittelstand.
Google My Business: Warum sich der Eintrag lohnt
Anzeige: Whitepaper der DIGITAL-WEBER

„Diese Themen gab es zwar schon vor zehn Jahren, aber sie haben erheblich an Bedeutung gewonnen, vor allem um das Wachstum nach zwei Pandemiejahren wieder anzukurbeln“, erklärt Michael Froment, CEO und Mitbegründer von Commanders Act. „Unternehmen haben an digitaler Reife gewonnen. Wo sich Geschäfts-, IT- und Rechtsteams oftmals aneinander gerieben haben, erkennen sie heute die Notwendigkeit, ihre Ziele, Ansätze und Tools zusammenzuführen.“

Hier kommt die Customer-Data-Plattform (CDP) ins Spiel. Nur sie kann Daten intelligent verknüpfen und Online-Marketern in Anbetracht der neuen Hintergründe ein erfolgreiches, datenschutzkonformes und kundenzentriertes Schaffen ermöglichen.

Diese drei Hauptgründe machen eine CDP unverzichtbar:

Eine CDP erstellt datenschutzkonforme 360-Grad-Profile von Nutzern

Die CDP ist derzeit das einzige Datenmanagementsystem, das intelligente Datenverknüpfungen umsetzen kann. Die vereinheitlichten und segmentierten Daten verschaffen einen Überblick über die Gewohnheiten, Bedürfnisse und Erwartungen der Verbraucher und liefern ein 360-Grad-Profil jedes Besuchers. Die in der CDP erstellten Segmente gelangen beispielsweise in Echtzeit zu einer Personalisierungslösung, wo sie mit einer großen Auswahl an Aktionen verknüpft werden können.

Theoretisch besteht eine CDP aus verschiedenen Komponenten wie der Datensammlung, Zusammenführung von Nutzerprofilen, Segmentierung und Aktivierung von Daten. In der Praxis fließen in eine CDP auch CRM-Elemente (Customer-Relationship-Management) ein. Durch die Zusammenführung der First-Party-Informationen aus einem CRM mit anonymisierten Verhaltensdaten erweist sich eine CDP als Allrounder.

Außerdem erfüllt sie die Anforderungen der DSGVO: Personenbezogene Daten lassen sich gesetzeskonform sammeln und speichern, Nutzerdaten können auf Anfrage gelöscht werden. Ein User kann beispielsweise seine Kundennummer, E-Mail-Adresse oder Telefonnummer angeben; die CDP stellt die entsprechende Kennung dieses Benutzers allen anderen Systemen im Unternehmen zur Verfügung, damit diese die jeweiligen Daten löschen.

Eine CDP ermöglicht kanalübergreifende Personalisierung

Eine CDP ermöglicht kanalübergreifende Personalisierung

Die Verbraucher setzen zunehmend auf verschiedene Kanäle und Endgeräte. Die Kundendaten müssen deshalb nutzerzentriert bereitgestellt werden (kanal- und geräteübergreifend sowie online und offline). Unternehmen sollten daher einfache Verknüpfungen anbieten, um die Daten der Konsumenten von allen gängigen Marketingplattformen zu sammeln oder an diese zu senden.

Hierfür beinhaltet eine CDP ein Identity Management, das auf Basis von Daten Nutzerinformationen zusammenführt: Sobald sich ein User auf einem Gerät in ein Konto einloggt, kann die CDP Daten mehrerer Geräte vereinigen. Das funktioniert auch bei der Fusionierung von Online- und Offline-Daten über Kundenkarten: Da die Karte mit einer E-Mail-Adresse verknüpft ist, laufen alle Touchpoints in einem anonymisierten Nutzerprofil zusammen, sobald sie im stationären Handel zum Einsatz kommt. Nutzen mehrere Personen das gleiche Gerät, leiden die Ergebnisse. Die Herausforderung besteht darin, Verbindungen, die nur einmalig auftreten, nach einer bestimmten Anzahl an Tagen wieder aufzulösen.

Der Schlüssel für eine moderne Personalisierung liegt in der Fusion und Vereinheitlichung von Daten in einem Nutzerprofil(auch Unique Identifier oder deterministischer ID Key genannt): Möchte ein User unbekannt bleiben, setzt er einen anonymen Browser ein. Sobald er sich jedoch einloggt und dadurch sein Opt-in gibt, erhält er personalisierte Ergebnisse.

In einer Zeit des Überflusses hilft eine nutzerzentrierte Personalisierung dabei, den Entscheidungsprozess zu vereinfachen. Das ist ein Mehrwert für Menschen, die wenig Zeit oder Lust haben, sich durch das gesamte Angebot zu klicken. Im Kontext der DSGVO vereinfacht die Zentralisierung sämtlicher Informationen in einer einzigen Customer-Data-Plattform die Einhaltung der Vorschriften. Opt-ins werden systematisch erfasst, ohne vorherige Zustimmung des Nutzers erfolgt keine Datenaktivierung.

Eine CDP richtet das komplette Unternehmen auf kundenzentriertes Denken aus

Für die Einführung einer CDP ist es wichtig, dass alle Beteiligten an einem Strang ziehen; jegliche Abteilungen sollten mit an Bord genommen werden. Nur auf diese Weise können Datensilos aufgebrochen und Kunden optimal angesprochen werden.

So könnte ein Szenario aussehen, wenn eine CDP eingeführt wird. Denn sie schweißt nach und nach alle Bereiche zusammen: Los geht es im Customer-Relationship-Management, die Lösung vereint dieses mit der IT- und BI-Abteilung. Anschließend kommen das Online-Marketing und die für den Datenschutz zuständigen Juristen hinzu. Die Mitarbeiter des Webshops folgen, ein paar Monate später die Beschäftigten im Callcenter. Schließlich werden die Einkaufsabteilung und die Inhaltserstellung integriert. Das stellt sicher, dass alle Abteilungen, die Inhalte, Produkte oder Informationen für Kunden bieten, mit der CDP verknüpft sind. So entsteht ein „perfektes Storytelling“. Selbst die Finanzabteilung steuert Daten wie Mahnstatus oder Zahlungsinformationen zur CDP bei.

Die Organisationsstruktur muss sich folglich von einer kanalorientierten Struktur zu einer kundenorientierten Struktur ändern. Dieser Prozess erfordert ein umfangreiches Change Management innerhalb des Unternehmens.

Fazit

Verstreute, teilweise personenbezogene und zum Teil anonyme Daten, das Ende der Third-Party-Cookies, modernere Browser und neue DSGVO-Richtlinien gestalten das Tracking und die Personalisierung immer schwieriger. Deshalb richtet sich der Blick auf First-Party-Daten, die eine echte Personalisierung ermöglichen. Mithilfe einer Customer-Data-Plattform gelingt es, Daten intelligent zu verknüpfen, um ein 360-Grad-Profil jedes Besuchers zu erstellen – über alle Endgeräte hinweg.

Der Beitrag wurde ursprünglich hier veröffentlicht …