ITSM: Quo vadis IT-Service-Management?

ITSM: Quo vadis IT-Service-Management?

Je mehr Geschäftsprozesse auf IT aufbauen, desto stärker rückt das IT-Service-Management (ITSM) in den Vordergrund. Denn die IT muss funktionieren, sonst stoppen die Maschinen. Eine ITSM-Lösung verschafft Überblick über sämtliche vorhandenen Systeme und IT-Prozesse; sie liefert zudem Kennzahlen über einzelne Geschäftsprozesse. So wird ITSM zum zentralen Bestandteil einer erfolgreichen Unternehmensentwicklung. Was können solche Tools genau und worauf muss man bei der Auswahl achten?

Mit einer gut gepflegten ITSM-Software verbessert sich zunächst einmal das Service-Management. Die IT-Abteilung kann darin eine Wissensdatenbank über wiederkehrende Abläufe aufbauen und ist damit in der Lage, schneller und besser auf Vorfälle reagieren zu können. Ist ein ITSM-Tool gut aufgesetzt, lassen sich nachweislich vier Fünftel aller Incidents bereits automatisiert bei der ersten Anfrage lösen, ohne dass das IT-Team dafür einspringen bzw. technisch in die Tiefe gehen müsste. So steigt die Service-Qualität und mit ihr die Kundenzufriedenheit. Ticket-Controllings bringen es regelmäßig zutage: Effizienz und damit auch Produktivität des IT-Teams erhöhen sich mit ITSM deutlich.

ITSM-Tools heben nicht nur nicht nur in puncto Servicequalität Optimierungspotenziale, sie sorgen u.a. auch dafür, dass die IT-Infrastruktur an sich effizienter wird. Potenzielle Überlizensierungen, IT-Altlasten oder unerwünschte Redundanzen lassen sich anhand des Überblicks über sämtliche Lizenzen und Systeme abbauen und somit IT-Kosten einsparen.

Nicht jede Lösung passt auf alles

Wer vor der Anschaffung einer solchen Software steht, sollte sich vorab Gewissheit darüber verschaffen, dass diese zu den eigenen Business Cases passt und die geplante Unternehmensentwicklung optimal unterstützt kann. Im Einzelnen geht es um folgende Punkte:

Zunächst ist zu prüfen, ob die Lösung die Kernkompetenzen des Unternehmens bzw. alle gewünschten Prozesse abzudecken vermag. Nahezu alle ITSM-Tools basieren heutzutage auf den Best-Practice-Prozessen von ITIL (Information Technology Infrastructure Library, aktuelle Version: 4). Deshalb muss kontrolliert werden, wieviel Aufwand es bedeuten würde, die einzelne Prozesse im ITSM-Tool anzupassen, um sie mit der eigenen Unternehmensstruktur und den individuellen Unternehmenszielen abzustimmen.

Ein weiterer wichtiger Punkt ist die Automatisierung: Lassen sich dafür geeignete Prozesse – auch außerhalb der IT – systemübergreifend automatisieren und damit Mitarbeiterressourcen und Zeit einsparen? Nicht zuletzt gilt es einen Blick auf das Reporting zu werfen. Die wichtigsten Reports sowie ausreichend Analytics-Funktionen sollten vordefiniert vorhanden sein. Auch individuelle Reportings sollte die IT-Abteilung hinzufügen können.

Quo vadis ITSM?

Ausbau, Umbau, Anbau

Kann die ausgewählte Lösung mit ihren Prozessen und ihrer Oberfläche individuell angepasst werden? Auch von Nutzerinnen und Nutzern selbst, die nicht über große Programmierkenntnisse verfügen? Wesentlich bei der Produktwahl ist auch die Frage, wie das Tool mit Updates umgeht, wenn sowohl die Standard-basierten ITIL- als auch individuell angepasste Prozesse zu berücksichtigen sind. Außerdem: auf einen modulartigen Aufbau achten, der sich bei Bedarf erweitern lässt.

Das Thema Flexibilität spiegelt sich vor allem in der Integrationsfähigkeit wider, die folglich zu den K.O.-Kriterien eines ITSM-Tools gehört. Das heißt: Alle gewünschten Systeme (CRM-, ERP-, Monitoring-, Scanning- usw.) müssen sich problemlos an die Lösung andocken können. Idealerweise über bereits vordefinierte Schnittstellen, die an die eigenen Bedürfnisse anpassbar sind. Oder aber es gibt die Möglichkeit, Schnittstellen zu implementieren, die den Datenaustausch mit anderen Tools gewährleisten.

User Interface als wichtige Komponente im Gesamtpaket

Unstrukturierte Oberflächen kosten gerade im First-Level-Support viel Zeit und damit Geld. Deshalb ist das User Interface eine wichtige Komponente im Gesamtpaket. Es sollte intuitiv sein, gewünschte Funktionen müssen sich mit möglichst wenigen Mausklicks logisch nachvollziehbar ansteuern lassen. Und wenn doch etwas fehlt oder geändert werden soll: Individuelle Anpassungsfähigkeit (s.o.) ist bei modernen Softwarelösungen heute eine Selbstverständlichkeit, das gilt auch für ITSM.  

Sind Zusatzinvestitionen erforderlich?

Ein ITSM-Tool muss in die eigene Systemlandschaft integrierbar sein, zugleich aber auch den internen IT-Standards genügen. Der Anschaffung sollte stets eine Prüfung vorausgehen, ob und in welcher Höhe möglicherweise Investitionen erforderlich sind, wenn das Tool zum Einsatz kommen soll (z.B. zusätzliche Datenbanken, Betrieb und Update neuer Hardware oder Software).

Und schließlich die Frage: Cloud-Betrieb oder on-premises? Vor- und Nachteile beider Modelle sind altbekannt: Wer sich für die On-Premises-Lösung entscheidet, profitiert davon, alles zu jeder Zeit selbst im Griff zu haben und sämtliche Daten komplett inhouse zu wissen. Bei der Cloud-Variante wiederum muss man sich weder um Installation noch dazu benötigte Infrastruktur und den Betrieb der Lösung kümmern. In jedem Fall ist es wichtig, dass der ausgewählte Hersteller schnellen und umfangreichen Support anbietet.

KI und Automatisierung

Künstliche Intelligenz (KI) und Automatisierung – Wohin führt der Weg beim ITSM? Dass das Thema nicht nur etwas für IT-Unternehmen ist, sondern branchenübergreifend von Mittelstand bis Großkonzern für Geschäfte jeder Art, scheint offensichtlich. Und auch die Einsatzbereiche der Lösungen wachsen kontinuierlich. Nicht zuletzt aufgrund des zunehmenden Einsatzes von KI, die im ITSM genau wie bei vielen anderen Technologien eine immer wichtigere Rolle spielt.

Ein Blick auf den Industry 4.0-Bereich zeigt, wie breit gefächert die Anwendungsbereiche sind: von KI-Unterstützung im Wissensmanagement, Vorhersagen der Stimmungslage von Ticketstellern im Service-Bereich, intelligenter Asset-Bereitstellung bis hin zur präventiven Wartung mit Predictive Maintenance. In all diesen Bereichen können ITSM-Lösungen mithilfe gezielter Analytics und Automatisierungen unternehmensweit stark zur Prozessoptimierung beitragen – und damit dazu, dass die Maschinen weiterlaufen!

Der Beitrag wurde ursprünglich hier veröffentlicht …

Vier Wachstumschancen für deutsche Unternehmen im Jahr 2023

Vier Wachstumschancen für deutsche Unternehmen im Jahr 2023

Die letzten Jahre haben uns gelehrt, dass „Unsicherheit“ zu einem beständigen Geschäftsumfeld geworden ist. 2022 war das nicht anders. Eine Umfrage des Deutschen Industrie- und Handelskammertags zeigt, dass mehr als die Hälfte der deutschen Unternehmen davon ausgehen, dass sich ihre eigenen Geschäfte in den nächsten 12 Monaten sogar noch verschlechtern werden. Diese Jahre haben die Notwendigkeit gezeigt, flexibel zu bleiben und sich an jedes noch so schwerwiegende Szenario anzupassen, und diese Notwendigkeit der Agilität dürfte 2023 ein Schlüsselthema sein. Daher müssen Unternehmen ihre Wachstumschancen 2023 unbedingt nutzen.

Vier Wachstumschancen für deutsche Unternehmen im Jahr 2023

Die Lieferkettenprobleme, geopolitische Spannungen und Krisen bezüglich der Lebenshaltungskosten, die das Jahr 2022 bestimmt haben, werden die Unternehmen weiterhin herausfordern. Angesichts wachsender Bedenken hinsichtlich einer anhaltenden Rezession legen Unternehmen in Deutschland jetzt ein größeres Augenmerk darauf, mit weniger Ressourcen mehr zu erreichen.

Im Gespräch mit Kunden, Interessenten und Partnern wird 2023 immer noch als ein Jahr voller Chancen angekündigt. Trotz der Herausforderungen, die das nächste Jahr für Unternehmen mit sich bringen wird, liegt der Fokus klar darauf, Gewinne als Wachstumstreiber zu nutzen, Wege zu finden, agil zu bleiben und effizienter denn je zu sein. Ein heikler Balanceakt, der jedoch durch effektive Planung und einen laserscharfen Fokus auf Finanzdaten und das Endergebnis erreicht werden kann.

Wie können Unternehmen also Wachstumschancen im Jahr 2023 nutzen? Basierend auf unseren Kundenerkenntnissen und Gesprächen sind hier die Schlüsselbereiche, auf die sich Unternehmen im neuen Jahr konzentrieren sollten:

1. Planung und Strategie müssen flexibel bleiben

Da die Unsicherheit anhält, sollten sich Unternehmen darauf konzentrieren, sich mit ihren digitalen Fähigkeiten vor Risiken zu schützen. So können Sie schnell auf sich verändernde Herausforderungen reagieren und verschiedene Szenarien planen, um die Geschäftskontinuität sicherzustellen.

Bei der Betrachtung ihrer Lieferkette waren Unternehmen beispielsweise gezwungen, schnell auf ständige Produktknappheit und Lieferverzögerungen zu reagieren, die immer noch allgegenwärtig sind. Dies ist nur ein Beispiel, bei dem Unternehmen schnell handeln mussten, um sich über Wasser zu halten, von Just-in-Time zu einem „Mehr Lagerbestand, weniger Lieferungen“-Modell, um die damit verbundenen Kosten für Lagerung und Verwaltung auszugleichen.

Diese Art von kontinuierlichen Änderungen hilft, den Schock neuer Szenarien zu absorbieren. Es kann für Unternehmen aber schwierig sein, Bereiche zu lokalisieren, die ihrer Aufmerksamkeit benötigen. Im Jahr 2023 wird die Sichtbarkeit zuverlässiger Daten in Echtzeit entscheidend sein, um proaktives Handeln zu ermöglichen und Strategien schnell anzupassen. Die Zusammenführung von Daten aus allen Geschäftsfunktionen wie Finanzen, Bestand und Lieferkette zu einer einzigen Ansicht wird entscheidend sein, um die Kapitalrendite zu maximieren und Investitionen in weiteres Wachstum anzuregen.

Wachstumschancen

2. Finanzautomatisierung durchbricht die Komplexität

Die schwierigste Aufgabe für CFOs im Jahr 2023 ist laut Gartner die Einstellung und Bindung von Mitarbeitern. Der Kampf um die Gewinnung von Top-Talenten ist hart, und da Finanzvorstände ihre Teams in Rezessionszeiten schlank halten, müssen sie kreativ werden.

Im Jahr 2023 wird die Automatisierung eine wichtige Investition für Finanzteams sein, nicht nur um mit weniger Menschen mehr zu erreichen, sondern auch um Fachleuten mehr Zeit für wertschöpfende Projekte zu geben. Bei manuellen Aufgaben wie dem Monatsabschluss müssen Finanzteams in der Regel große Mengen unterschiedlicher Daten aggregieren und auswerten. Dies kann eine zeitaufwendige und fehleranfällige Aufgabe sein, da nur eine falsche Zelle Unternehmen Tausende von Euro kosten und ihren hart verdienten Gewinn zunichte machen kann. Daher müssen Unternehmen 2023 auch hier ihre Wachstumschancen ergreifen. Die Zentralisierung von Daten und die Automatisierung von Finanzprozessen mindern Risiken und machen Daten genauer. So können sich Finanzteams auf die Analyse konzentrieren und auf Marktveränderungen reagieren.

Finanzexperten möchten ihre Zeit nicht mit dem Überprüfen und Konsolidieren von Tabellenkalkulationen verschwenden – sie möchten einen Mehrwert schaffen und Input von der Vorstandsebene erhalten. Die Automatisierung im Jahr 2023 wird eine entscheidende Rolle bei der Mitarbeiterbindung spielen und dafür sorgen, dass sich Finanzmitarbeiter wertgeschätzt fühlen.

3. Automatisierte Preisegestaltung minimiert Lieferanten- und Währungsrisiken

Da die Märkte bis ins Jahr 2023 hinein in Bewegung bleiben, wird es entscheidend sein, sich schnell an veränderte Preise anpassen zu können. Budgets und Gewinne können mit geringfügigen Änderungen an den Lieferantenpreisen in Unordnung geraten und es kann schwierig sein, die Differenz zu erkennen, bevor es zu spät ist. Mit zunehmendem internationalen Wachstum und Absatz im Ausland steigt die Komplexität weiter mit sich ständig ändernden Steuer- und Zollvorschriften, die es schwierig machen können, im geplanten Tempo voranzukommen.

Im Jahr 2023 wird die automatisierte Preisgestaltung wachstumsstarken Unternehmen ermöglichen, agil zu bleiben und effektiver zu budgetieren. Mit dieser Technologie können Unternehmen auf schwankende Lieferantenpreise reagieren und genaue Cashflow-Prognosen erstellen. Außerdem werden sie in der Lage sein, die Preisgestaltung zentral zu verwalten, Konsistenz über alle Kanäle hinweg sicherzustellen und Produktpreise an die Margen anzupassen. Die automatische Preisgestaltung bremst Unternehmen effektiv aus, wenn ein Produkt oder eine Komponente teurer wird, bzw. gibt grünes Licht für den Kauf zum richtigen Preis. Ein entscheidender Vorteil besteht darin, dass diese Änderungen in Echtzeit und nicht Wochen später erfolgen, wodurch wichtige Mittel eingespart werden.

Im Hinblick auf den internationalen Handel ermöglicht diese Technologie Unternehmen, die Preisgestaltung zentral zu verwalten und alle länderspezifischen Steuervorschriften oder Verkaufsregeln automatisch zu aktualisieren, um sicherzustellen, dass es nicht zu unerwarteten Strafen oder Einnahmeverlusten kommt. Währungsspezifische Preise und prozentuale Rabatte geben vollständige Kontrolle, sodass Unternehmen Preisniveaus verschiedenen Kanälen und Kunden zuweisen können.

4. Kunden, Mitarbeiter und Investoren erwarten von ihren Marken, dass sie „Gutes tun“

Das ESG-Reporting wird 2023 weiter an Bedeutung gewinnen. Kunden fordern Transparenz und jüngere Generationen, die Arbeitgebern höhere Standards als ihre Vorgänger auferlegen, haben ESG eine entscheidende Rolle bei der Rekrutierung, Bindung und Markentreue eingeräumt. Fast die Hälfte der Investoren ist sogar bereit, sich von Unternehmen zu trennen, die nicht ausreichend Maßnahmen zu ESG-Themen ergreifen, und da Unternehmer zunehmend auf Investitionen angewiesen sind, können sie es sich nicht leisten, dieses Reporting zu vernachlässigen.

Eine bessere Transparenz von Geschäfts- und Personaldaten bedeutet bessere Rechenschaftspflicht und schnellere Compliance. Die Schaffung und Aufrechterhaltung einer robusten ESG-Strategie hängt von der Qualität und dem Umfang der Daten eines Unternehmens ab. Cloudbasierte Lösungen werden hier eine entscheidende Rolle spielen, um Informationen aus allen Teilen des Unternehmens zusammenzufassen, realistische Ziele zu formulieren und Fortschritte zu überwachen, die Kunden, Mitarbeiter und Investoren gleichermaßen zufriedenstellen.

Es hat sich gezeigt, dass bedeutende Fortschritte bei der Erreichung der ESG-Ziele Investitionsmöglichkeiten beeinflussen, den Verbraucherkonsum erhöhen und die Produktivität der Mitarbeiter steigern – dies ist von entscheidender Bedeutung, da wir uns 2023 in eine Zeit noch größerer finanzieller Unsicherheit bewegen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Fünf Tipps für einen herrlich langweiligen Betrieb von Cloud-Anwendungen

Fünf Tipps für einen herrlich langweiligen Betrieb von Cloud-Anwendungen

Nach dem Deployment einer Applikation in der Cloud und deren Live-Gang beginnt die dritte Phase ihres Lebenszyklus: der Regelbetrieb. Je langweiliger er vonstatten geht, desto besser. Doch bis alles reibungslos läuft, haben Entwickler wie Admins noch einiges zu tun. IT-Dienstleister Consol nennt fünf essentielle Aufgaben für den sogenannten „Day after“ und hat Tipps für die Cloud.

Fünf Tipps für einen herrlich langweiligen Betrieb von Cloud-Anwendungen 

Wenn DevOps-Teams von „Day 0“, „Day 1” und „Day 2“ sprechen, geht es weniger um die genaue Zeiteinteilung als vielmehr um die chronologische Abfolge. Mit Day 0 ist das Deployment einer Cloud-Anwendung gemeint, Day 1 markiert deren Live-Gang und am Day 2 beginnt der Regelbetrieb. Während die ersten beiden Phasen eines Cloud-Projekts häufig sehr stressig sind, wünschen sich Entwickler und Admins für den Betrieb der Cloud-Anwendung möglichst Langeweile. Wie sie diesen Zustand erreichen, erklärt IT-Dienstleister Consol – und gibt einen Ausblick, worauf sich DevOps-Teams am Day 3 einstellen müssen.

Tipp 1: Automatisierung ist das A und O

Das Versprechen der Cloud-nativen Entwicklung ist es, neue Features schneller in Produktion zu bringen als zuvor. Das funktioniert allerdings nur, wenn nicht bei jedem Update ein Plattform-Team die Deployments manuell durchführen muss. Der erste von unseren Tipps: Automatisierung ist daher essentiell, um die Vorteile der Cloud maximal zu nutzen. Fortschrittliche DevOps-Teams setzen dafür in der Regel auf Continuous-Integration- und Continuous-Deployment (CI/CD)-Pipelines. Das sind feste Prozesse, die vollständig in Code gegossen sind und die bei Code-Änderungen automatisch ablaufen.

Tipp 2: Observability verbessert die Fehlerprävention

Wissen ist Macht – das gilt auch für die Fehlersuche in IT-Systemen. Leider verhindern auch gute Review-Prozesse und automatisierte Tests in CI/CD-Pipelines nicht sämtliche Fehler. Der Tipp für die Cloud: DevOps-Teams benötigen Observability, die ihnen Informationen aus drei Quellen bereitstellt: Metriken, Logs und Traces. Metriken liefern den Experten Kennzahlen, um Probleme schnell zu erkennen. Logs erlauben ihnen zu sehen, was genau in einer Applikation vor sich geht. Und Traces unterstützen sie schließlich dabei, Aufrufe und eben auch Fehler zwischen verteilten Systemen nachzuvollziehen. Die Korrelation der Daten bringt einen enormen Mehrwert gegenüber dem reinen Monitoring, bei dem DevOps-Teams ihre Systeme nur dahingehend überwachen, ob sie einwandfrei laufen.

Tipps für die Cloud

Tipp 3: Optimierung ist vor allem eine Frage der Architektur

Um Cloud-native Anwendungen so effizient wie möglich zu gestalten, setzen die meisten Entwickler auf eine Microservices-Architektur. Die Aufteilung in kleinere überschaubare Services, die untereinander kommunizieren, erleichtert deren Wartung und Weiterentwicklung. Zudem müssen DevOps-Teams nicht das gesamte System anfassen, nur um einzelne Teile einer Anwendung zu ändern. Setzen sie zudem auf automatisierte CI/CD-Pipelines, können Entwickler und Admins sehr schnell auf sich ändernde Anforderungen reagieren. Microservices-Architekturen sorgen zudem dafür, dass sie einzelne Anwendungsteile unabhängig voneinander skalieren können.

Tipp 4: Sicherheit setzt sich aus vielen Faktoren zusammen

Das Thema Sicherheit lässt sich nicht pauschalisieren. Für die Cloud gibt es dazu unzählige Tipps. Das komplexe Feld umfasst unter anderem das passende Training für Entwickler und Administratoren sowie das Live-Monitoring der Aktivitäten in und um die eigentliche Anwendung herum. Ein gerade für das Cloud-native Umfeld sehr wichtiges Sicherheits-Asset ist IaC, also Infrastructure as Code. Bei dieser Methode ist nicht nur die Applikation selbst, sondern auch die gesamte Konfiguration einer IT-Infrastruktur als Code definiert. Dadurch können DevOps-Teams zu jedem Zeitpunkt den Zustand des Systems prüfen und verifizieren, sodass sich Sicherheitslücken seltener einschleichen. Auch die Möglichkeit, den Code vor dem Deployment zu prüfen, senkt das Sicherheitsrisiko. 

Tipp 5: Die Zukunft gehört der KI

Der letzte von fünf Tipps für die Cloud: Ist alles optimiert, sicher und läuft reibungslos – ist der Betrieb also „langweilig“ – schlägt die Stunde der künstlichen Intelligenz: Mit ihr ist es möglich, die Automatisierung anhand von Algorithmen und Machine-Learning-Verfahren noch weiter voranzutreiben, sodass DevOps-Teams immer weniger Aufgaben tatsächlich manuell erledigen müssen. In Bezug auf den automatisierten Betrieb, Optimierung und Überwachung von IT-Infrastrukturen und Cloud-nativer Anwendungen hat das Verfahren bereits einen Namen: AIOps. 

Fazit zu den Tipps für die Cloud

„Mit dem erfolgreichen Deployment und dem Live-Gang einer Cloud-nativen Anwendung ist die Arbeit für DevOps-Teams noch nicht vorbei – im Gegenteil: Sie hat gerade erst begonnen“, betont Lukas Höfer, Cloud Solutions Architect bei Consol. „Einer unserer Tipps für die Cloud: Jetzt ist es an Entwicklern und Administratoren, den reibungslosen Betrieb der Anwendung sicherzustellen und deren Effizienz zu steigern. So schaffen sie ein Fundament für den Day 3, also die Implementierung weiterführender Technologien.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Projektmanagement-Trends 2023

Projektmanagement-Trends 2023

So drastisch, wie sich die Anforderungen an die Wirtschaft derzeit ändern, unterliegen auch die Strukturen und Methoden innerhalb der Unternehmen großem Wandel. Verstärkt wird auf Projektstrukturen gesetzt, um die notwendige Agilität zu erreichen. Darüber hinaus sieht Holger Zimmermann, Geschäftsführer des Projektmanagement-Beratungsunternehmens Projektmensch, für die Projektarbeit für 2023 folgende Projektmanagement-Trends.

Projektmanagement-Trends 2023

Zuversicht vermitteln

Die Projektverantwortlichen müssen sowohl gegenüber ihrem Team als auch gegenüber den Stakeholdern eines Projekts Optimismus vermitteln. Da das in der aktuellen Situation nicht anhand von Absatzzahlen und Umsätzen festgemacht werden kann, geht es darum, die Widerstandskraft der Mitarbeiter zu stärken und ihre Zuversicht zu wecken. Das kann nur gelingen, wenn die Projektleiter die Stärken und Fähigkeiten jedes Einzelnen soweit unterstützen, dass diese ganz von allein – ohne weiteres Zutun – ein neues Maß an Resilienz und Zuversicht entwickeln. Erst dann kann sich das Gefühl einstellen, Probleme und Herausforderungen in den Griff zu bekommen und die geforderten Aufgaben zu bewältigen. Nur wer auf diese Art und Weise gestärkt ist, kann die notwendige Kraft und Dynamik entwickeln, ein Projekt erfolgreich voranzutreiben.

Projektmanagement-Trends 2023

Projekte schnell starten können

Aufgrund der herrschenden Marktdynamik wird es immer wichtiger, die Vorlaufphase eines Projekts möglichst kurz zu halten. Die Fähigkeit, ein Projekt innerhalb kürzester Zeit starten zu können, entwickelt sich zunehmend zu einer Kernkompetenz erfolgreicher Projektleiter. Sie müssen in der Lage sein, aus dem Stand heraus kooperativ und bereichsübergreifend zu denken, agieren und steuern. Diese Art von Quick-Start-Projekten funktioniert aber unter einer Voraussetzung. Nämlich dann, wenn auch die Teammitglieder vom Projektleiter gleichzeitig dazu ermutigt und ermächtigt werden, extrem selbständig zu arbeiten. Das Zusammenspiel dieser unterschiedlichen Einzelaktionen wiederum muss der Projektleiter orchestrieren und zu einem zielgerichteten Projekt zusammenführen.

Klare Unternehmensstrategie macht handlungsfähig

Um in dynamischen Zeiten schnell reagieren zu können, ist es wichtig, dass sich die einzelnen Projektmitglieder möglichst selbständig organisieren. Grundvoraussetzung dafür ist aber, dass die Vision, Mission sowie die Strategie des Unternehmens und die Ziele klar sind. Denn klar formulierte Strategien machen handlungsfähig. Insbesondere in Krisenzeiten müssen Unternehmen und die Mitarbeiter schnell sein. Selbstorganisierten Handeln ist nur dann möglich, wenn die Richtung bekannt ist, in die sich das Unternehmen bewegen möchte, um dann selbst beurteilen zu können, wie das Projekt gestaltet werden muss, um die Ziele bestmöglich zu erreichen. Dieses selbstständige Handeln erhöht den Durchsatz. Wenn diese Rahmenbedingungen vorhanden sind, können sich Unternehmen und Mitarbeiter sicher sein, dass Projekte besser gelingen und darüber hinaus auch mehr Spaß machen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Künstliche Intelligenz im Online-Marketing

Künstliche Intelligenz im Online-Marketing

Laut einer Publikation des Bundesministeriums für Wirtschaft und Energie setzten 2019 bereits etwa 17.500 Unternehmen künstliche Intelligenz, kurz KI, in Produkten, Dienstleistungen oder internen Prozessen ein. Vor allem die IKT-Branche, aber auch Finanzdienstleister, die Elektro- und Maschinenbauindustrie oder Werbeagenturen nutzen maschinelles Lernen und Automatisierung etwa für die Datenanalyse, Kundenkommunikation und Prozessautomatisierung. Der Beitrag erklärt, wie Künstliche Intelligenz im Online-Marketing zum Einsatz kommt.

Künstliche Intelligenz im Online-Marketing

Auch für den Einsatz im Online-Marketing birgt KI erhebliches Potenzial und kann einen wahren Qualitätsboost bewirken. Zum Beispiel für das Verstehen des Nutzer- und Kundenverhaltens oder für SEO-relevante Analysen“, sagt Andreas Karasek, Geschäftsführer der Agentur SEM Berater.

KI ermöglicht individuelle Kundenansprache

Online-Werbung spielt im Marketing-Mix von Unternehmen eine immer größere Rolle. Wer im Internet nicht sichtbar ist, erreicht heutzutage eine große Anzahl potenzieller Kunden überhaupt nicht mehr. Deshalb gibt es jedoch auch viel Konkurrenz um Aufmerksamkeit und Online-Werbung wird immer teurer. Um SEO und SEA erfolgreich einzusetzen, gilt es deshalb ständig die eigene Website anzupassen. Außerdem ist sie zu verbessern, Social-Media- und Ads-Kampagnen zu optimieren, Neuerungen und Updates verschiedener Marketing-Tools im Blick zu behalten. Ferner ist das Kundenverhalten zu verstehen und zu interpretieren. „Mithilfe von KI-Anwendungen lassen sich datengestützte Entscheidungen noch besser treffen, Zielgruppen analysieren und Kundenerlebnisse verbessern. Vor allem in der Personalisierung des Marketings, der Optimierung des Targetings und der Erstellung sowie Optimierung von Werbeinhalten kann die intelligente Automatisierungstechnik unterstützen“, so Karasek.

Künstliche Intelligenz Online-Marketing

Insbesondere die steigende Nachfrage nach personalisierten Marketing-Erlebnissen steht seit Längerem im Fokus. Im Rahmen personalisierter Produktempfehlungen oder der Zielgruppensegmentierung unterstützt KI bereits bei der Kundenbindung und ermöglicht individuelle Kundenerlebnisse. „Durch die KI, die stetig Daten analysiert und daraus lernt, lassen sich wertvolle Erkenntnisse gewinnen und es kann in Echtzeit auf Ereignisse reagiert werden. Zum Beispiel durch die Analyse der effektivsten Anzeigenplatzierung oder die Kundenansprache zum idealen Zeitpunkt“, erklärt der Online-Marketing-Experte.         

Kein menschlicher Ersatz, aber Unterstützung

Ebenso die KI-gestützte Content-Erstellung ermöglicht die Weiterentwicklung des digitalen Marketings. Zwar lässt sich die menschliche Kreativität nicht ersetzen, allerdings kann die intelligente Technik die Produktivität beschleunigen. Prädiktive Analysen verbessern beispielsweise die Anpassung von Inhalten an Kundenwünsche und Zielgruppen. „Im derzeitigen Entwicklungsstadium unterstützt KI durch Automatisierung und maschinelles Lernen also vor allem dabei, Daten zu analysieren und Erkenntnisse zu gewinnen sowie umzusetzen, zu denen das menschliche Team nicht so schnell oder in so großem Umfang gelangt. Besonders kleine und mittlere Unternehmen oder Selbstständige können davon profitieren und ihre Produktivität sowie Effektivität steigern“, sagt Karasek abschließend.     

Der Beitrag wurde ursprünglich hier veröffentlicht …

Warum machen BPM-Tools nicht glücklich? Optimale Geschäftsprozesse brauchen gute Konzepte, keine Werkzeuge!

Der Begriff BPM steht für Business Process Management und kann mit Prozessmanagement übersetzt werden. Viele kennen diesen Begriff BPM in Kombination mit einem BPM-Tool, welches die Geschäftsprozesse eines Unternehmens überwachen soll.

BPM-Tools liefern noch kein zufriedenstellendes Ergebnis. Optimale Geschäftsprozesse brauchen gute Konzepte, nicht nur Werkzeuge!

Viele Anwender sind mit BPM-Tools und Prozessmanagement-Software nicht zufrieden. Die Anwendungen sind insgesamt zu kompliziert und zu stark auf Werkzeuge fokussiert.

BPM gehört seit Jahren zu den zentralen Themen in der IT. Von der dokumentarischen Erfassung bins hin zur strukturierte Darstellung erwarten sich Unternehmen Effizienz und Transparenz bei BPM. Die BPM-Software soll die Prozesse automatisieren und optimieren, in dem das Programm die  Ausführung selbständig steuert.

Mit der Digitalen Transformation gewinnen diese Anforderungen an Bedeutung. Mit BPM können die Fähigkeiten verbessert werden die Digitalisierung zu realisieren. So die Theorie!

Das Grundkonzept von Business Process Reengineering ist:

  • stetige Verbesserung von Prozessen, um somit dem digitalen Wandel folgen zu können
  • schnellere Reaktion auf Prozessänderungen bei der stetigen digitalen Transformation
  • Reduzierung Prozesskosten um so mit dem Mitbewerber mithalten zu können
  • hohe Transparenz der Prozesse für ein schnelles und agiles Unternehmen

Die IT muss bei der Umsetzung der Ziele helfen. Ein breiter Markt für BPM-Lösungen bietet eine große Auswahl an Programmen, wobei sich kein Marktführer bisher gebildet hat, da auch ERP-Systeme oftmals BPM-Implementierungen anbieten und dort auch meist die operativen Geschäftsprozesse abgewickelt werden. Neben dem üblichen Für und Wider einzelner Systeme in diversen Marktübersichten und Studien ist aber auch eine ganz grundsätzliche Kritik am Konzept des BPM nie verstummt. So ist beispielsweise immer wieder zu hören, BPM sei zu kompliziert, fände zu wenig Akzeptanz unter den Mitarbeitern, verursache zu hohe Kosten und sei überhaupt nicht flexibel genug.

Aus diesem Grunde sollte man sich eher mit dem Konzept des Business Process Management beschäftigen, als sich hinter einem Programm zu verstecken.

Business Process Management

„Wer macht was, wann, wie und womit?“ ist eine zentrale Fragestellung. Zur Verbesserung und Steuerung werden entsprechende Kennzahlen verwendet. Diese Kennzahlen können zum Beispiel in einer Balanced Scorecard oder Dashboard dargestellt werden.

Die Ziele sind:

  • Kennen der eigenen Geschäftsprozesse,
  • Gestalten und Verbessern der Prozesse, Geschäftsprozessoptimierung,
  • Dokumentieren der Abläufe, weil es zum Beispiel das Gesetz vorschreibt,
  • prozessorientierte Kostenkalkulation,
  • Festlegen klarer Schnittstellen zwischen Prozessen, so dass Prozessketten und
  • Verschachtelungen von Prozessen einfach gebildet werden können.

Flexible und anpassbare ERP-Software hilft bei der Umsetzung der Geschäftsprozesse

Wenn Sie Ihre Geschäftsprozesse kennen, dann können Sie diese auch in einem ERP-System prozessorientiert abbilden. Die Kernfrage dabei bleibt:

„Wer macht was, wann, wie und womit?“

Wenn Sie diese Frage vollumfänglich beantworten können, dann kann Ihr ERP-Anbieter diese Prozesse auch im ERP-System optimal umsetzen und überwachen lassen. Fertig ist ihr BPM!

Der Beitrag wurde ursprünglich hier veröffentlicht …

Der entscheidende Tipp zum Thema: Aufgabenteilung 4.0 dank Robotic-Process-Automation

Der entscheidende Tipp zum Thema: Aufgabenteilung 4.0 dank Robotic-Process-Automation

Tipp zur Aufgabenteilung 4.0 dank Robotic-Process-Automation.

Der entscheidende Tipp zum Thema Aufgabenteilung 4.0 dank Robotic-Process-Automation

Unternehmerischer Erfolg misst sich in erster Linie an der Effizienz, mit der Prozesse absolviert werden. Diese so hoch wie möglich zu halten und dabei Zeit und Geld einzusparen, lautet das Gebot der Stunde. Doch branchenübergreifend verlieren Arbeitskräfte täglich wertvolle Zeit für die Ausführung von Routinetätigkeiten. Daher rücken Automatisierungsmöglichkeiten für Geschäftsprozesse vermehrt in den Fokus. Nach ERP– und Business-Process-Management-Systemen stellt Robotic-Process-Automation (RPA) die nächste Innovationsstufe in Richtung automatisierte Workforce dar. Bei dieser Form der Aufgabenteilung übernehmen Software-Roboter wiederkehrende Routinearbeiten, indem sie vom Anwender lernen, wie sie einzelne Bedienungsmasken oder auch ganze Geschäftsprozesse sowie die zugehörigen Benutzerschnittstellen verwenden sollen.

Innovationspotenzial ausschöpfen

Mit der Unterstützung von Software-Robotern gewinnen Unternehmen effizient und kostensparend virtuelle Mitarbeiter hinzu, die skalierbare Geschäftsprozesse zuverlässig und mit einer Fehleranfälligkeit von Null bearbeiten. Durch das Abgeben repetitiver Aufgaben können sich Angestellte auf ihre Kernkompetenz und solche Tätigkeiten konzentrieren, für die emotionales Urteilsvermögen und menschliche Interaktion essenziell sind – etwa den direkten Kundenkontakt. Dabei verwaltet der Nutzer selbst die gesamte digitale Workforce und legt individuell fest, welche Prozesse die RPA-Systemumgebung zu welcher Zeit übernimmt und mit welcher Performance Software-Roboter einzelne Routinen abarbeiten. Die Einsicht in Protokolle und automatisierte Reportings ist zu jeder Zeit gegeben. Zudem lässt sich die digitale Unterstützung bei Bedarf dem Geschäftsvolumen und der Auftragslage anpassen, um auch kurzfristige Auslastungsspitzen zu stemmen. Insgesamt findet mit Prozessautomatisierung eine Entlastung der Mitarbeiter statt, die für mehr Effizienz und Innovationskraft im Unternehmen sorgt. Um sicherzustellen, dass die optimierte Aufgabenverteilung die gewünschten Ergebnisse erzielt, werden die zu automatisierenden Prozessschritte während der RPA-Implementierung im Kontext des gesamten Geschäftsprozesses betrachtet, also sowohl vom Mitarbeiter zum RPA-Tool als auch umgekehrt. Auf diese Weise lassen sich schnittstellenbedingte Reibungsverluste und Medienbrüche gering halten. RPA ermöglicht es, selbst über Jahre optimierte Routinen weitestgehend unverändert zu adaptieren und zu automatisieren. Während der Implementierung, die unabhängig von weiteren Schnittstellen oder zusätzlichen Datenbanken verläuft, wird das Tool den bestehenden IT-Infrastrukturen sowie den individuellen Nutzungsbedürfnissen angepasst.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Drei Tipps für Kostenmanagement in Zeiten externer Schocks

Drei Tipps für Kostenmanagement in Zeiten externer Schocks

Gaspreise, Inflation und Herausforderungen in der Lieferkette – das Kostenmanagement angesichts extrem dynamischer Rahmenbedingungen treibt aktuell nahezu alle Unternehmen um. Laut EZB-Prognose wird die Inflationsrate in der EU weiterhin mehrere Monate auf hohem Niveau verbleiben. Grund genug für Entscheider in Unternehmen, an allen Stellen zu prüfen, wie sie die Kosten im Zaum halten können. Best Practices zeigen, dass sich Prognosen für die Geschäftsentwicklung gerade in einer solchen Situation mit geeigneten Tools kontinuierlich an die Gegebenheiten anpassen lassen. Oracle hat einen Leitfaden erstellt, mit dem Unternehmen in Zeiten externer Schocks drohende Kostenexplosionen effektiv eindämmen können. Drei Aspekte verdienen dabei besondere Beachtung:

1. Vollständiger Überblick über Kosten und Erlöse

Direkte Kosten zu erfassen, die Produkten, Dienstleistungen und Kunden zuzurechnen sind, ist eine weit verbreitete Praxis der Kosten- und Leistungsrechnung. Um allerdings ein vollständiges Bild aller Kosten und der Rahmenbedingungen zu erhalten, müssen auch die indirekten Kosten berücksichtig werden, beispielsweise Gemeinkostenzuschläge, Lieferoptionen und steuerliche Verrechnungspreise. Ziel sollte eine detaillierte Gewinn- und Verlustrechnung nach Kunde, Produkt oder Dienstleistung sein. Viele dieser Kosten werden in verschiedenen Systemen erfasst. Das ist eine potenzielle Quelle für Verzögerungen und Fehler.

Insbesondere für die Rechnungslegung gegenüber Fiskalbehörden müssen Zuordnungen zum Hauptbuch erstellt werden. Diese müssen konsistent, leicht verständlich und nachvollziehbar sein. Der Telekommunikationsanbieter NetCologne hat seine Systeme und Prozesse hin zu Oracle Cloud EPM verlagert. Ein zentrales Ergebnis: Ablösung der bisherigen Excel-basierten Finanzplanung durch den Oracle Planning and Budgeting Cloud Service, um den Arbeitsaufwand zu reduzieren, relevante Daten zu Telekommunikationskunden und -diensten zentral zu erfassen und Entscheidungen durch detaillierte Berichte zu unterstützen.

Kostenmanagement

2. Transparente Basis für Verrechnungen

Mit dem Profitability and Cost Management, einem Element von Oracle Cloud EPM, können Anwender flexible Zuordnungsmodelle erstellen. Diese können die aktuelle Daten aus verschiedenen Systemen an einem Ort zusammenführen. User sind in der Lage, weitere Geschäftsdimensionen hinzuzufügen, die normalerweise nicht im Hauptbuch zu finden sind. Damit können sie Verrechnungen leicht verständlich und nachvollziehbar machen. Die Zuweisungsregeln werden von den Fachabteilungen und nicht von der IT-Abteilung angewandt und können ohne großen Aufwand geändert werden. Das Ergebnis ist eine Berichterstattung, bei der jeder die tatsächlichen Kosten sieht, die von einem Geschäftsbereich, einem Produkt oder einem Kunden verbraucht werden, und wie sich Änderungen bei der Nutzung gemeinsamer Ressourcen oder Aktivitäten auf die Zuordnung auswirken.

Beispiel McDonalds:

McDonald’s Deutschland migrierte seine gesamte Unternehmensplanung auf Oracle Planning and Budgeting Cloud. Damit stellte das Unternehmen sicher, das modernste Planungstools für alle vorhersehbaren Anforderungen zu nutzen. Das Unternehmen erzielte damit Zeit- und Effizienzgewinne bei der Planung und Budgetierung. Zum Beispiel erfolgte eine Reduzierung der Bereitstellungszeiten um bis zu 50 Prozent bei gleichzeitig verbesserter Systemleistung. Der Zeitaufwand für die Überführung neu entwickelter Anwendungen von einer Test- in eine Produktionsumgebung wurde um bis zu 80 Prozent reduziert.

3. Einsatz von Was-wäre-wenn-Modellen

Die massiven Auswirkungen von externen Einflüssen wie Gaspreisen, Inflation und Lieferketten auf Märkte sind Beispiele für sich schnell ändernde Rahmenbedingungen. Die Möglichkeit, Was-wäre-wenn-Szenarien für sich ändernde Bedingungen zu erstellen, hilft Unternehmen, sich effektiver auf viele verschiedene mögliche Ereignisse und ihre Folgen vorzubereiten. Oracle erweitert die Möglichkeiten des Rentabilitäts- und Kostenmanagements durch neue Modelle, Berichte und Dashboards. Die Modelle für das Rentabilitäts- und Kostenmanagement im Unternehmen basieren auf kombinierten Daten aus vielen Quellen. Sie sind regelbasiert und verwenden einfache Sprache, keine Kodierung, und Anwender können Regeln und Annahmen schnell ändern und die möglichen Auswirkungen sehen, ohne das Basismodell zu beeinflussen. Hinzu kommen transparente Reports von Kosten und Leistungen und Tools für die Prozessautomatisierung.

Auch hier erzielte NetCologne gute Resultate: Der Wechsel in die Cloud ermöglichte vergleichende Analysen von Planungsalternativen auf Basis von Simulationen verschiedener Szenarien zur Optimierung der Entscheidungsfindung für das Management mit Oracle Planning and Budgeting Cloud Service.

„In einer komplexen Wirtschaftswelt und auf volatilen Märkten sind Unternehmen gut beraten, ihre Rentabilität und Verantwortlichkeit proaktiv über Produkte, Kunden, Regionen und Kanäle hinweg zu steuern“, erläutert Christoph Kluge, Senior Business Development Manager EPM bei Oracle Deutschland. „Die Entwicklung erfordert immer öfter strukturierte und manchmal komplexe Zuständigkeiten. Das Rentabilitäts- und Kostenmanagement von Oracle Cloud EPM bietet Anwendern genau die Art von Flexibilität, die Administration auch im Fall externer Preisschocks erleichtert.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

In sechs Schritten zum erfolgreichen Customer Experience Management

Wir erläutern, mit welcher Messmethode Unternehmen die Customer Experience ihrer Kunden erfolgreich und wirtschaftlich steuern können.

In sechs Schritten zum erfolgreichen Customer Experience Management

In Zeiten eines immer umkämpfteren Marktumfelds ist die Customer Experience das ausschlaggebende Differenzierungsmerkmal. Wollen Unternehmen Kunden an sich binden und von ihnen weiterempfohlen werden, müssen sie sie mit ihren Services und Angeboten begeistern. Das Customer Experience Management – also die Messung und Steuerung der Kundenerlebnisse – wird damit zu einer entscheidenden Stellgröße für den Unternehmenserfolg.

Herkömmliche Messmethoden zur Kundenbindung und zum Kundenverhalten wie der Net Promoter Score oder das Conversion-Modell greifen dabei zu kurz. So beziehen sie beispielsweise nicht alle relevanten Touchpoints ein und berücksichtigen auch die Perspektive der Kunden und ihre Erwartungshaltung nicht ausreichend. Es empfiehlt sich deshalb einen umfassenden Ansatz, der folgende Parameter berücksichtigt:

Erwartungen

Mit welchen Motiven, Einstellungen und Fragen tritt der Kunde in Kontakt mit dem Unternehmen?

Touchpoints

Welche Kontaktpunkte hat der Kunde mit dem Unternehmen?

Erlebnisse

Welche positiven oder negativen Erlebnisse erfährt der Kunde am Kontaktpunkt?

Relevanz

Welche Bedeutung hat ein Kontaktpunkt in der jeweiligen Situation?

Bindungspotential

Würde der Kunde erneut beim Unternehmen einkaufen und seine Angebote weiterempfehlen?

Eigentümerschaft

Werden die Kontaktpunkte vom Unternehmen selbst oder von Dritten kontrolliert?

In einem sechsstufigen Verfahren lassen sich diese Parameter messen und die Messergebnisse gezielt für eine optimale Customer Experience einsetzen:

1. Zielvorstellung entwickeln

In einem Kundenbeziehungsmodell werden die Zielgruppen und ihre wichtigsten Vernetzungsmuster mit dem Unternehmen analysiert. In einem Kundenwertversprechen wird beschrieben, welchen Mehrwert das Unternehmen seinen Kunden verspricht. So entsteht ein Zielbild, an dem sich die Messverfahren orientieren können.

2. Kundenperspektive einnehmen

In Feldstudien werden Kunden beim Durchlaufen der Customer Journey begleitet. Auf diese Weise können Unternehmen die Perspektive der Kunden einnehmen und ein Verständnis für ihre Fragen, Motive und Erwartungen entwickeln. In Form von Storys werden die Erlebnisse an den Kontaktpunkten festgehalten.

3. Wesentliches fokussieren

Gemeinsam mit Kundenvertretern werden sämtliche Kontaktpunkte entlang der Customer Journey identifiziert und bewertet. Dazu stufen die Kunden jeweils auf einer Skala von Null bis Zehn ein, wie wichtig ihnen ein Kontaktpunkt ist, ob sie an diesem Kontaktpunkt wieder kaufen und ob sie ihn weiterempfehlen würden. So lässt sich ausschließen, dass das Unternehmen in Leistungen investiert, die für den Kunden unerheblich sind.

4. Erlebnisse strukturieren

Die in den Storys festgehaltenen Erlebnisse werden für die einzelnen Kontaktpunkte auf einer mehrstufigen Skala von „begeistert“ bis „unerfüllt“ aufgeschlüsselt. Mit einer so genannten Customer Experience Map lässt sich anhand dieser Skala übersichtlich darstellen, wie die tatsächlichen von den gewünschten Erlebnissen abweichen. Der konkrete Optimierungsbedarf ist dadurch klar ersichtlich.

5. Entscheidungsarchitektur schaffen

In einer Touchpoint Performance Matrix werden sämtliche Ergebnisse zusammengefasst. Die Matrix bildet ab, welche Touchpoints die höchste Relevanz aufweisen, wie die Erlebnisse aktuell dort aussehen und ob das Unternehmen diese Touchpoints derzeit selbst steuern kann. Damit wird eine Entscheidungsarchitektur geschaffen, die priorisierte Handlungsfelder offenlegt.

6. Wirksamkeit überprüfen

Das Verhalten und die Erwartungen der Kunden unterliegen einem permanenten Wandel. Neue Lösungen, die auf Basis der Touchpoint Performance Matrix umgesetzt wurden, müssen deshalb in iterativen Zyklen immer wieder auf ihre Wirksamkeit überprüft werden. Entscheidend ist, dass dabei die Kunden in den Feedbackprozess einbezogen werden.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Daten-Demokratisierung = Kontrollverlust?

Daten-Demokratisierung = Kontrollverlust?

Die Demokratisierung von Daten ist in vielen Unternehmen ein erklärtes Ziel. Jeder Mitarbeiter soll eigenständig Daten für seine geschäftlichen Zwecke nutzen und analysieren können. Möglich wird dies beispielsweise durch eine moderne Data Fabric basierend auf Datenvirtualisierung. Denodo nennt 4 Gründe, die gegen einen Kontrollverlust bei Daten-Demokratisierung sprechen.

Daten-Demokratisierung = Kontrollverlust? 4 Gründe, die dagegensprechen

Doch wenn Datensätze für jeden frei verfügbar sind, droht Unternehmen dann nicht, dass sie die Kontrolle über diese verlieren? Nicht unbedingt, meint Otto Neuer, Regional VP and General Manager bei Denodo, und erklärt, wie Unternehmen diesem vermeintlichen Kontrollverlust bei der Datenvirtualisierung begegnen können.

1. Kontrolle mittels Role Based Access

Die Prämisse von Daten-Demokratisierung – jeder Mitarbeiter ist in der Lage, Daten selbstständig zu sammeln, analysieren und nutzen – hört sich zunächst überzeugend an. Schließlich können Unternehmen so beispielsweise Prozesse beschleunigen, weil Mitarbeiter nicht mehr zunächst auf aufbereitete Datensätze warten müssen. Gleichzeitig gibt es aber in jedem Unternehmen Daten, die schlicht nicht für jeden einsehbar sein sollten – Personal- oder Finanzdaten etwa. Auch brauchen Mitarbeiter in höheren Positionen wahrscheinlich Zugang zu anderen Daten als ihre Teammitglieder.

Mit einer Plattform für Datenvirtualisierung können Unternehmen entsprechende Role Based Access Controls (RBAC) in einer zentralen Schicht einrichten. Das heißt, sie können genau festlegen, welche Rollen auf welche Daten zugreifen dürfen. Dies lässt sich je nach Lösung sogar granular für einzelne Spalten oder Zeilen in Datenbanken bestimmen. Unternehmen können so sicherstellen, dass Mitarbeiter nur auf die Daten zugreifen, die ihrer Rolle und ihrem Level entsprechen.

2. Kontrolle darüber, wie Daten genutzt werden

Es geht bei der Daten-Demokratisierung aber nicht nur darum, auf welche Datensätze Mitarbeiter Zugriff erhalten, sondern auch, was sie anschließend mit diesen machen können. Denn Unternehmen sind verpflichtet, den Missbrauch ihrer Daten verhindern. Daher ist ein Monitoring wichtig, um die Übersicht darüber zu haben, wer welche Daten wann und wie nutzt oder verändert. Eine Datenvirtualisierungs-Plattform geht dabei noch einen Schritt weiter: Sie ist in der Lage, Nutzern Datensätze zu empfehlen, die für ihre Zwecke am besten geeignet sind. Außerdem sorgt die semantische Schicht bei der Datenvirtualisierung dafür, dass alle Datensätze einer gemeinsamen Taxonomie und Namenspraxis folgen, und stellt Mitarbeitern diese standardisierten virtuellen Datensätze bereit. Dadurch ist verhindert, dass unterschiedliche Datendefinitionen zu Verwirrung oder gar Chaos führen.

Daten-Demokratisierung = Kontrollverlust?

3. Kontrolle über die Auslastung der Backend-Systeme

Wenn alle Mitarbeiter die Unternehmensdaten nach Belieben verwenden können, kann dies zu einer starken Auslastung oder Überlastung der Backend-Systeme (z.B. ERP) führen. Um dies zu verhindern, bietet eine Plattform für Datenvirtualisierung aber verschiedene Möglichkeiten. So lassen sich die Auswirkungen mithilfe eines Resource Managers kontrollieren, indem hier eine Definition konkreter Einschränkungen für Abfragen erfolgt. Unternehmen können beispielsweise begrenzen, wie viele Querys gleichzeitig durchgeführt werden können, wie lange die Abfrage dauern darf, bevor sie automatisch beendet wird, wie viele Zeilen das Ergebnis haben darf und mehr. Gleichzeitig können Unternehmen auch vorgeben, wann diese Restriktionen greifen. Dies kann zum Beispiel bei bestimmten Rollen der Fall sein, aber etwa auch bei der Zugriffsmethode.

4. Kontrolle darüber, wie Daten abgefragt werden

Unternehmen können mithilfe von einer Datenvirtualisierungs-Plattform aber nicht nur einschränken, wie Querys sich auf die Backend-Systeme auswirken, sondern auch, wie Mitarbeiter diese grundsätzlich durchführen können. Dafür stehen ihnen Filter zur Verfügung, die den abgefragten Bereich einschränken. So werden Mitarbeiter davon abgehalten, (womöglich unbedacht) den gesamten Datenbestand des Unternehmens durchzusuchen, was bei Tausenden Terabyte an Daten sehr viel Zeit und auch Geld kostet. Unternehmen können es ihren Mitarbeitern freistellen, diese Filtermöglichkeiten zu nutzen, oder aber die Plattform so konfigurieren, dass Pflicht zur Verwendung besteht. Da bei der Daten-Demokratisierung auch viele Mitarbeiter ohne technisches Verständnis für etwaige Auswirkungen Querys durchführen, kann dies eine probate Lösung sein, um einerseits den Zugang zu Daten zu gewähren, aber ohne andererseits fürchten zu müssen, dass die Systeme überlastet werden und die Kosten explodieren.

Der Beitrag wurde ursprünglich hier veröffentlicht …