Hybrides Arbeiten – Die richtige Software zur Unterstützung

Hybrides Arbeiten – Die richtige Software zur Unterstützung

In den Jahren 2020 und 2021 haben viele Büroangestellte erfolgreich auf die Arbeit von zu Hause aus umgestellt. Hybrides Arbeiten ist damit eindeutig zum Trend geworden. Nicht zuletzt der digitale Wandel schafft mehr persönliche Freiheiten für Mitarbeitende, was ihren Arbeitsort betrifft. Mit mobilen Geräten sind wir fast überall arbeitsfähig – zum Beispiel auf Reisen. Es stellt sich nicht mehr die Frage, wo man arbeitet, sondern wie und womit. Doch ohne die passende Software klappt hybrides Arbeiten nicht. Wir geben einen Überblick über passende Lösungen!

Hybrides Arbeiten – Die richtige Software zur Unterstützung

Die Digitalisierung verändert die Arbeitswelt. Die Welt wird nicht nur digitaler, sondern auch mobiler. Home-Office und andere New-Work-Trends verändern immer mehr Arbeitsplätze. In Zukunft werden diese modernen Arbeitsformen an Bedeutung gewinnen und Unternehmen weiterhin mit Herausforderungen konfrontieren, aber auch durch effizientere Geschäftsprozesse und zufriedene Mitarbeitende belohnen. Doch der Einsatz von Home-Office ist oft leichter gesagt als getan: Nicht nur Prozesse müssen angepasst werden, auch die IT-Struktur bedarf einer Umgestaltung, um flexibler zu werden. Cloud-Technologie ist hierbei die stärkste Waffe, sie bildet den Grundstein für effektives mobiles Arbeiten in der Cloud.

Projektmanagement mit Asana

Projekte begegnen uns überall. Abhängig von der Komplexität müssen wir mal mehr, mal weniger organisieren und koordinieren, dabei unterstützt uns das Projektmanagement. Um auch im Home-Office den Überblick über alle Projekte zu behalten, benötigt man eine passende Software-Lösung. Asana gehört zu den beliebtesten Lösungen zur Verwaltung von Teamprojekten und Aufgaben. Das Tool vereint Funktionen für Projektmanagement, Aufgabenverwaltung und Kommunikation unter einer Oberfläche.

Whitepaper-Angebot: Digitalisierung im Mittelstand.
Google My Business: Warum sich der Eintrag lohnt
Anzeige: Whitepaper der DIGITAL-WEBER

Die Software entstammt einer Idee des Facebook-Mitbegründers Dustin Moskovitz und Justin Rosenstein, die 2008 auch das gleichnamige Unternehmen gründeten. Asana sollte ursprünglich die Produktivität der Facebook-Mitarbeiter steigern und entwickelte sich daraufhin zu einer der erfolgreichsten Lösungen für gemeinsames Projektmanagement.

Echtzeit-Kommunikation und Zusammenarbeit mit MS Teams

Microsoft Teams ist eine praktische und intuitive Ergänzung der Office 365-Suite, mit der viele Teams täglich arbeiten. Microsoft Teams hilft Ihnen dabei, durch Videokonferenzen, Chats und Dateispeicherfunktionen effizienter zu arbeiten.

Ein schnelle und unkomplizierte Kommunikation ist das A und O, wenn sich die Mitarbeitenden eines Teams nicht gegenübersitzen. E-Mails sind häufig zu umständlich und das Kosten-Nutzen-Verhältnis ist nicht optimal. Microsoft Teams ist ein Kommunikations- und Kollaborationstool zur Zusammenarbeit in und zwischen Unternehmen. Es basiert auf vorhandenen Microsoft Technologien und kann andere Microsoft 365 Dienste integrieren.

Erfahren Sie mehr über die passenden Lösungen für hybrides Arbeiten!

Der Beitrag wurde ursprünglich hier veröffentlicht …

Vier Gründe, warum Unternehmen ihre Software selbst schreiben sollten

Vier Gründe, warum Unternehmen ihre Software selbst schreiben sollten

Unternehmen sind auf passende Software-Lösungen angewiesen, die ihre spezifischen Probleme lösen. Hier stellt sich schnell die Gretchenfrage: Die Software selbst schreiben oder lieber vorgefertigte Lösungen kaufen? Avision zeigt, warum Unternehmen heute überhaupt noch eigenen Code schreiben und über Jahre hinweg behalten sollten.

Vier Gründe, warum Unternehmen ihre Software selbst schreiben sollten

Zugegeben, zahlreiche Legacy-Anwendungen sind heute nicht mehr State-of-the-Art. Sie verwenden antiquierte Technologien und das Lesen des Codes erinnert an das Entschlüsseln von Hieroglyphen. Dennoch: Es gibt viele Vorteile, warum Unternehmen auch heute auf selbst geschriebene Software setzen und sich den Griff zu externen Standardlösungen zweimal überlegen sollten. Mit der richtigen Wartung lässt sich schließlich Legacy-Software von Anfang an verhindern. IT-Dienstleister Avision nennt die Vorteile von hauseigenen Anwendungen.

Standard-Software löst nur Standard-Probleme

Der Griff zu vorgefertigten Lösungen ist reizvoll und die Angebote auf dem Markt sind vielfältig. Aber auch unter Beachtung der Individualisierungsmöglichkeiten dieser Produkte gilt, dass eine maßgeschneiderte, selbst geschriebene Software auf die Anforderungen eines Unternehmens exakter abgestimmt ist und sich von Standardlösungen deshalb deutlich abhebt.
Eigener Code verhindert Abhängigkeiten. Wer sich bei der Unternehmens-Software auf die Technologien externer Anbieter verlässt, gibt ein Stück weit die Kontrolle darüber ab und ist beispielsweise darauf angewiesen, dass der Betreiber Sicherheitslücken rechtzeitig schließt und das Produkt auch zukünftig noch unterstützt.

Sollten Unternehmen die Software selbst schreiben?

Interne Lösungen beugen Architektur-Puzzle vor

Das problemlose Zusammenspiel zwischen verschiedenen Anwendungen von unterschiedlichen Anbietern ist keine Selbstverständlichkeit. Die Verknüpfung mehrerer Technologien und Applikationen erfordert zudem eine offene Umgebung mit passenden Schnittstellen, was schnell zu Problemen führt. Selbst geschriebene Software verhindert einen Architektur-Flickenteppich und Unternehmen können sie von Grund auf mit den passenden Schnittstellen versehen.

Die richtige Strategie verhindert Legacy-Software

Das Bild der verstaubten Alt-Anwendungen, die im Hintergrund ihren Dienst verrichten, ist allgegenwärtig. Unternehmen, die ihre eigene Software allerdings up to date halten, lückenlos dokumentieren und Sicherheitslücken schließen, verhindern bereits von Anfang an die Entstehung von Legacy-Software.

Software selbst schreiben – unschlagbare Vorteile

„Die Vielzahl an vorgebauten Lösungen auf dem Markt versprechen Abhilfe für alle Arten von Problemen und Anforderungen im IT-Bereich, aber deswegen sollten Unternehmen nicht blind auf Einkaufstour gehen“, erläutert Nadine Riederer, CEO von Avision. „Wenn die Option besteht, die eigene Software schreiben zu können, will der Kauf externer Programme unbedingt überdacht sein – denn die Vorteile von individuellen, hauseigenen Lösungen sind unschlagbar.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Monitor G5 erhält Auszeichnung zum „ERP-System des Jahres 2022“

Monitor G5 wurde für das ERP-System des Jahres 2022 ausgezeichnet und ist damit das beste System in der Kategorie Einzelfertigung. Der Award ist die größte und renommierteste Auszeichnung für ERP-Systeme in Deutschland und findet seit 2006 jährlich in Potsdam statt. Die unabhängige Expertenjury überzeugten vor allem die Zukunftsstrategien von Monitor im Bereich der Nachhaltigkeit, das System weiterzuentwickeln und für eine umweltfreundlichere Produktion anzupassen.

Monitor G5 erhält Auszeichnung zum „ERP-System des Jahres 2022“

Einfach zusammengefasst, tritt jedes ERP-System für eine bestimmte Kategorie an und wird anhand verschiedener Kriterien bewertet. Nur wenige Systeme schaffen es in die prestigeträchtige Endrunde und können ihre Systeme einer Jury aus unabhängigen Beratern, Forschern und Medienvertretern aus der ERP-Branche präsentieren.

Besonders beeindruckt war die Jury davon, wie gut das schwedische System an den deutschen Markt angepasst ist (mit der Softwarezertifizierung nach IDW PS 880), sowie von der Arbeit des Unternehmens im Bereich Nachhaltigkeit. Dort entwickelt Monitor neue Wege für Fertigungsunternehmen, um umweltfreundlichere Produktionsmethoden einzuführen.

Nachhaltigkeit als ausschlaggebender Faktor

Monitor verfolgt beim Thema Nachhaltigkeit einen doppelten Ansatz. Zum einen geht es darum, Unternehmen in die Lage zu versetzen, die von ihnen produzierte CO2-Menge auf Komponentenebene zu messen. Also für jedes einzelne Teil, das in einem Produkt enthalten ist. So können Sie beispielsweise einen Lieferanten auswählen, der für ein bestimmtes Teil die geringsten Umweltbelastungen aufweist. Unternehmen können somit auch die Umweltauswirkungen messen und vergleichen, die für die Herstellung und Logistik verwendet werden.

Zweitens geht es darum, die Produktion unter dem Gesichtspunkt der Kreislaufwirtschaft zu planen. Das bedeutet, dass der Herstellungsprozess für ein bestimmtes Produkt beispielweise mit der Demontage eines anderen Produkts beginnt, welches seinen Lebenszyklus bereits erfüllt hat. Diese Produktionsmethode wird sich mehr und mehr etablieren, da immer häufiger Hersteller ihre Produktion auf Recycling und Upcycling ausrichten.

„Die ganze Welt ist auf der Suche nach Lösungen für den Klimawandel. Wir wissen, dass ein ERP-System über die Infrastruktur verfügt, die erforderlich ist, um die Auswirkungen der Produktion auf die Umwelt effektiv zu messen“, fügte Jonas Persson hinzu.

Hohe Relevanz für den deutschen Markt

Im deutschsprachigen Markt sind messbare Ergebnisse ein wichtiger Indikator für ein herausragendes System. Persson ist daher der Meinung, dass dieser Award eine Demonstration der Stärke ist, die einen großen Eindruck hinterlässt.

Erfahren Sie hier mehr über die Auszeichnung für Monitor G5 ERP.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Der Weg zur erfolgreichen Hyperautomatisierung

Der Weg zur erfolgreichen Hyperautomatisierung

Hyperautomatisierung ist die konsequente Weiterentwicklung der laufenden Prozessautomatisierungsinitiativen vieler Unternehmen. Aus teil- oder vollautomatisierten Prozessen werden – unterstützt durch künstliche Intelligenz – sich selbst optimierende Abläufe oder wichtige digitale Ratgeber für Prozessverantwortliche. Hyperautomation steht damit für die nächste Evolutionsstufe bei der Automatisierung von Geschäftsprozessen, den nächsten Schritt bei der Digitalisierung von Unternehmen. Durch Hyperautomatisierung möchten Unternehmen nachhaltiges Wachstum gewährleisten, ihre Effizienz steigern, die Folgen des Fachkräftemangels mildern, ein attraktiverer Arbeitgeber sein und sich Wettbewerbsvorteile verschaffen. Nur: Der Weg dorthin ist alles andere als trivial. Ein strukturiertes Vorgehen und eine sorgfältige Auswahl der relevanten Prozesse sind für den Erfolg einer Hyperautomationsstrategie unverzichtbar.

KI als zentraler Bestandteil

Eine tragende Rolle als Enabler für Hyperautomatisierung kommt der künstlichen Intelligenz (KI) zu. Mit KI lassen sich heute bereits Aufgaben automatisieren, bei denen dies vor einigen Jahren noch undenkbar gewesen wäre. So ist es beispielweise möglich, Unterschriften einer Person vollautomatisch abzugleichen, was es erlaubt, diese Person mit hoher Wahrscheinlichkeit zu authentifizieren. Solche und ähnliche neue KI-Services ermöglichen es, unterschiedlichste repetitive Tätigkeiten auf allen Unternehmensebenen zu automatisieren. In der Vergangenheit wurde KI so unter anderem bei der Auswahl von Bewerbern und Bewerberinnen eingesetzt. Wenngleich gerade hier Vorsicht geboten ist. So hatte eine KI-Lösung zur Bewerbervorauswahl aufgrund von „Noise“ in den Trainingsdaten das weibliche Geschlecht diskriminiert. Im Sinne einer ethischen KI ist es darum wichtig, die Ergebnisse zu monitoren und das KI-Modell bei systematischen Irrtümern anzupassen.

Chatbots liefern ein weiters Beispiel für KI-gestützte Automatisierung. Nicht selten sind sie heute bereits gut trainiert. So dass es einem mitunter schwerfällt, zu identifizieren, ob es sich bei dem Partner im digitalen Chat um eine echte Person oder doch um einen Robot handelt. Das Prinzip von Hyperautomatisierung ist, dass sie diese technischen Features in einen Businesskontext rückt. So gelingt es ihr, im Rahmen von kundenzentrierten Prozessen Mehrwerte zu schaffen – für interne und externe Kunden eines Unternehmens. Weitere Dynamik erfährt das Thema durch den mittlerweile etablierten Ansatz, über Low- bzw. No-Code-Plattformen die Hürde für die Automatisierung deutlich zu senken.

Whitepaper-Angebot der Digital-Weber: Conversational Marketing mit CHatbots

Der grundsätzliche Business Case

Der Business Case hinter der Automatisierung eines Geschäftsprozesses ist relativ einfach zu berechnen. Das Investment in den Geschäftsprozess muss durch die Einsparungen, die dadurch über die Zeit entstehen, gedeckt sein. Deswegen empfiehlt es sich meist, Prozesse mit hohem Durchsatz zu priorisieren. Dies können beispielsweise Kontoeröffnungen in der Finanzindustrie, Kundenanfragen im Servicebereich oder Prozesse in Feldern wie Datenstrukturierung und Governance sein. Mitunter können geeignete Softwarelösungen – unter Einsatz von Self-Services mit KI-basiertem Dokumenten-, E-Mail-, Telefonie- und Chat-Routing – einen fast vollständig hyperautomatisierten Geschäftszweig schaffen, zum Beispiel indem basierend auf Prozessdurchsätzen automatisch Werbung geschaltet wird oder Cloud-Ressourcen hinzugebucht oder verringert werden. Nicht zuletzt in Branchen wie Finanzdienstleistung, Hotellerie und Tourismus sowie im öffentlichen Sektor ist das Nutzenpotenzial grundsätzlich groß, da Entscheidungen hier nach klaren Regeln und Mustern getroffen werden.

Hyperautomatisierung in der Praxis

Das Nutzenversprechen von Hyperautomatisierung ist in vielen Fällen hoch, aber der Weg zu einer erfolgreichen Einführung ist alles andere als trivial. Marketingtexte der beteiligten Akteure preisen Hyperautomatisierung gern als direkt verfügbares Allheilmittel für ineffiziente Prozesse und gegen die Überlastung der Mitarbeiter und Mitarbeiterinnen an. In der Praxis wird jedoch schnell klar, dass Unternehmen, die keine digitale DNA mitbringen, vor einer enormen Transformationsaufgabe stünden, bis sie Hyperautomatisierung flächendeckend und wirtschaftlich einsetzen könnten. Oft bietet es sich an, zunächst nur bestimmte Prozesse mit überschaubarem Aufwand weiterzuentwickeln. Wer ein Hyperautomationsprojekt zum Erfolg führen will, sollte es also sorgfältig auswählen und bei der Umsetzung klar strukturiert vorgehen. Sonst ist die Gefahr zu scheitern erheblich.

So konstatiert etwa eine Studie von McKinsey (Driving impact at scale from automation and AI | McKinsey Digital | McKinsey & Company), dass die Verantwortlichen in mehr als der Hälfte ihrer Automatisierungsprojekte mit deren Resultaten nicht zufrieden sind. Dies hat schon damit zu tun, dass die Projekte deutlich länger dauern als zu Beginn geplant. Dafür gibt es Gründe: Entweder priorisiert die Hyperautomationsstrategie die falschen Geschäftsprozesse, oder die Anforderungen der Fachbereiche haben nicht den Detailgrad, der nötig wäre, um Automatisierungsprojekte anzustoßen. Zudem verlangt Hyperautomatisierung von der Organisation die Bereitschaft, Unternehmensprozesse komplett umzubauen. Auch muss die Datenbasis eines Unternehmens über den Reifegrad verfügen, der für eine auf KI-Analysen gestützte Hyperautomatisierung unabdingbar ist. Herkömmliche Reportingstandards sind da unzureichend.

Das Beispiel Callcenter-Prozess

Eine gute Hyperautomationsstrategie beginnt also damit, zu priorisieren, welche Prozesse relevant sind. In der Regel empfiehlt es sich, zunächst den Backbone des Geschäftsmodells zu bauen. Denn Automatisierung ist dann besonders lohnend, wenn sie Funktionalitäten adressiert, die in zahlreichen Prozessen des Unternehmens wiederverwendet werden. So entsteht der erforderliche Impact auf die Projektziele. Wählen wir Callcenter-Prozesse als Beispiel, wären in deren Umfeld, im Bereich der Telefonie, vor allem das Telefonrouting (IVR) und die stabile Anbindung an den Telefonprovider mögliche Einsatzfelder. Erst im nächsten Schritt wird die Hyperautomationsstrategie dann Services betrachten, die einen höheren Grad an Komplexität aufweisen, stärker fachspezifisch sind und einen signifikanten Impact auf die Projektziele haben.

Um im Callcenter-Beispiel zu bleiben: Hier wäre ein lohnendes nächstes Projekt etwa die KI-gestützte, automatische und eindeutige Identifikation eines Kunden oder einer Kundin bereits anhand der Stimme. Diese automatische Stimmerkennung ermöglicht es, im Folgenden noch weitere Services zu implementieren: beispielsweise die Visualisierung der Kontakthistorie und die KI-gestützte Bestimmung der Next Best Action (NBA). Das Resultat dieser Automatisierung: Die Callcenter-Agenten und -Agentinnen könnten ihre First Resolution Rate steigern. Hyperautomation in diesem Zusammenhang wäre dann die komplette Vermeidung des Anrufs durch proaktives Anbieten von Self-Services mithilfe von Mustererkennung oder eben eine komplett automatisierte Next Best Action mit entsprechendem Abschluss.

Anforderungen an die digitale Reife

Nicht nur eine falsche Priorisierung kann sich als Show-Stopper bei der Hyperautomatisierung von Geschäftsprozessen erweisen, sondern auch die Unkenntnis über die digitalen Reifegrade von Prozessen und Anforderungen. So ist es wichtig, im Detail zu beschreiben, welche Schritte die automatisierte Software bzw. der Roboter sequenziell, parallel oder rekursiv abarbeiten muss. Zur digitalen Reife sind noch etliche weitere Fragen zu stellen: Welche Umsysteme sind an den Prozessen beteiligt, und was ist die Aufgabe der Systeme in den Prozessabschnitten? In welchem Teil des Produktlebenszyklus befindet sich das System, und wird es zukünftig eventuell abgelöst? Welchen Einfluss haben fachliche und technische Anpassungen auf Vorgänger- und Folgeprozesse? Gegebenenfalls ist auch noch wichtig, welche regulatorischen Anforderungen an einen Prozess bestehen.

Hyperautomatisierung

Der Neukundenprozess beim Krankenversicherer

Ein Beispiel aus dem Bereich Krankenversicherung: Wenn es um den Wechsel von Kunden und Kundinnen aus einer gesetzlichen Krankenversicherung in eine private geht, könnte die operative Einheit des privaten Versicherers Automatisierungsanforderungen wie etwa diese formulieren: „Wir möchten unsere Zielkunden in kürzester Zeit über eine KI-gestützte, vollautomatische Prüfung anlegen können und die Versicherungskarten an die geeigneten Versandadressen bereitstellen.“

Die Erfahrung zeigt: Nach den Rückfragen zur Definition eines Zielkunden oder einer Zielkunden und den Anforderungen an die Modifizierbarkeit der technischen Beschreibung von Kunde oder Kundin ist bereits wenigstens eine weitere Abteilung des Krankenversicherers involviert – beispielsweise der Vertrieb. Der Vertrieb beschreibt die Neukunden aus fachlicher Sicht, etwa indem er festlegt, über welche Merkmale Zielkunden und -kundinnen idealtypisch verfügen und welche Schwankungsbreiten es gibt. Unser Beispiel zeigt, wie wichtig es für Hyperautomationsprojekte ist, auf ein ganzheitliches Wissen über den Prozess zurückzugreifen. Dies bedeutet: Der zu automatisierende Prozess und die darin verarbeiteten Business-Objekte müssen hervorragend dokumentiert sein.

Minimal Viable Product und Business Case

Eine andere Hürde für die Hyperautomatisierung kann sein, dass es im Unternehmen an der Bereitschaft zum Reengineering von Geschäftsprozessen mangelt. Bleiben wir beim Beispiel der privaten Krankenversicherung. Für die vollautomatische Ausgestaltung des Prozesses sind unter anderem Anpassungen im Vertrieb erforderlich, im Risikomanagement, in der zentralen Datenverwaltung sowie eventuell Neuschnitte in der Organisation. All diese Bereiche müssen sich bereiterklären, ihre – mitunter hohen und detaillierten – Anforderungen an die Projekt- und Unternehmensziele anzupassen. Dem Ansatz des Minimal Viable Product (MVP) entsprechend ist es sinnvoll, zunächst nur die unbedingt nötigen funktionalen Anforderungen umzusetzen. Hier hat es sich bewährt, die Wichtigkeit von Anforderungen anhand eines Business Cases für die technische Umsetzung zu bewerten. Gut zu automatisieren, heißt weniger zu tun – und das Richtige.

Machine Learning und Deep Learning

Bei unserem Beispiel der Auswahl der gewünschten Kunden und Kundinnen eröffnet die KI-gestützte Hyperautomatisierung noch eine weitere Möglichkeit, diese Kunden zu identifizieren. Wenn Unternehmen KI in Form von Machine Learning oder sogar Deep Learning einsetzen, können sie ihre Systeme dadurch zu einer automatisierten Klassifizierung befähigen. Das maschinelle Lernen (ML) würde in unserem Beispiel auf den Bestandsdaten der Krankenversicherung aufbauen. Auf Basis der Daten über bereits gewonnene und abgelehnte Kunden und Kundinnen lassen sich ML-Modelle trainieren, die zukünftig zu jedem Fall eine positive oder negative Empfehlung zur Geschäftsbeziehung geben können. Wie bereits erwähnt, ist es allerdings essenziell, dass die Bestandsdaten, die dem Training des ML-Modells dienen, nicht nur die Vergangenheit widerspiegeln, sondern auch zur zukünftigen Unternehmensstrategie passen.

Will man beispielsweise bei der KI-gestützten Vorauswahl von Bewerbern und Bewerberinnen im Human Resources-Bereich Verzerrungen vermeiden, die sich durch Bestandsdaten ergeben können – etwa in Gestalt von Vorurteilen –, ließe sich auch Deep Learning anwenden. Denn Deep Learning (DL) arbeitet mit neuronalen Netzen. Dadurch können Business-Anwender und -Anwenderinnen komplexe Entscheidungskriterien über mehrere Stufen implementieren, die in der Lage sind, auch zukünftige Produktspezifikationen zu bedienen. Die Voraussetzung für einen DL-Ansatz ist allerdings, dass die Business-Anforderungen bereits eine hohe Reife aufweisen und schon ein tiefes Prozessverständnis über die Regeln und die Produktspezifikationen im Geschäftsmodell existiert.

Fazit

Auf dem Weg zur Hyperautomatisierung ist es entscheidend, dass Unternehmen die richtigen Dinge mit der richtigen Priorität angehen und klein anfangen. Es ist wichtig, zunächst die Reifegrade von Business-Anforderungen, Daten, IT-Architektur und Organisation zu bestimmen, um festlegen zu können, bei welchen Prozessen eine Hyperautomatisierung bereits möglich, sinnvoll und erfolgversprechend ist. In den meisten Fällen und Branchen wird die Transformation zum hyperautomatisierten Unternehmen nur Schritt für Schritt erfolgen. Denn letztlich ist Hyperautomatisierung nicht bloß ein Werkzeug, sondern eine strategische Vision von der Zukunft des Unternehmens. Sie ist die nächste Stufe in der fortschreitenden digitalen Evolution von Unternehmen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

So wichtig ist Vertragsmanagement bei ERP-Software!

Verträge und damit auch das Vertragsmanagement gehören praktisch in allen Unternehmen zum Alltag. Ob mit Lieferanten, Kunden, Dienstleistern oder Mitarbeitern: Nahezu alle Aspekte einer Zusammenarbeit werden in der Geschäftswelt auf Basis von Verträgen geregelt. Produzierende Unternehmen müssen sich dabei besonders mit Verträgen befassen, um beispielsweise die notwendigen Rohstoffe oder Erzeugnissen für die Produktion sicherzustellen. Bei den vielen Verträgen in einem Unternehmen kann man jedoch auch schnell einmal den Überblick verlieren. An dieser Stelle kommt das Vertragsmanagement in Spiel. Dessen Bedeutung nimmt immer mehr zu, weshalb Unternehmen verstärkt auf ein digitales Vertragsmanagement setzen. Gerade ERP-Systeme spielen dabei eine immer wichtigere Rolle.

Bestandteile von Vertragsmanagement

Innerhalb des Vertragsmanagements wird noch einmal zwischen verschiedenen Teilgebieten unterschieden. Beim Vertragscontrolling steht das Sammeln von Informationen im Mittelpunkt, wobei hier besonders die Risikobewertung eine wichtige Rolle spielt. Die Aspekte im Vertragscontrolling beschäftigen sich daher stark mit Fragen danach, wie lukrativ bestimmte Partnerschaften für ein Unternehmen sein können, welche Vertragspartner dabei helfen, die Umsätze zu steigern aber auch welche Risiken bestimmte Verträge mit sich bringen können. Oft werden dabei Statistiken zu Hand gezogen, um anhand von konkreten Daten Abschätzungen treffen zu können.

Ein weiterer wichtiger Aspekt beim Thema Vertragsmanagement ist der Zugriff auf die relevanten Vertragsdaten. Hier kommt die Vertragsverwaltung in Spiel. Zu den Aufgaben der Vertragsverwaltung gehört nicht nur die Archivierung von Verträgen, sondern auch der Umstand, dass notwendige Vertragsinformationen möglichst schnell und unkompliziert gefunden werden können. Wichtig dafür ist eine einheitliche Struktur im System. Darüber hinaus gehört zur Vertragsverwaltung auch das Prüfen von Angeboten und Vertragsdaten beziehungsweise Dokumenten, die Entwicklung Vertragsentwürfen und die Überprüfung der Einhaltung von gesetzlichen Vorgaben.

Professionelles Vertragsmanagement sollte für alle Unternehmen mittlerweile ein Standard sein. Es hilft nicht nur dabei, Zeit, sondern auch Geld zu sparen. In vielen Unternehmen entstehen oft unnötige Kosten, wenn man beispielsweise Fristen übersieht. Auch Vertragsdetails können schon einmal durchrutschen und dann dazu führen, dass Vertragsstrafen gezahlt werden müssen. Noch problematischer wird die Sache, wenn gesetzliche Vorschriften nicht eingehalten werden. Auch helfen die Informationen, die durch das Vertragsmanagement gewonnen werden, dabei, zukünftige betriebswirtschaftliche Entscheidungen zu treffen. Je besser die Informationen desto geringer ist das Risiko, eine potenzielle Fehlentscheidung zu treffen.

Verträge managen mit ERP-Software

Für ein effektives Vertragsmanagement sind allerdings auch die richtigen Werkzeuge notwendig. In der heutigen Zeit alle Verträge noch per Hand zu bearbeiten und zu archivieren, ist nicht nur unpraktisch, sondern birgt auch Gefahren. Ein Flüchtigkeitsfehler ist schnell passiert und kann dann teuer werden. Gerade Unternehmen, welche sehr viele Verträge schließen, verlieren schnell einmal den Überblick. Fehlende Übersicht kann beispielsweise dazu führen, dass mehrere Abteilungen sich mit derselben Angelegenheit beschäftigen, was unnötige Ressourcen bindet und Geld kostet.

Selbst in Unternehmen, in denen eher antiquiertes Vertragsmanagement scheinbar funktioniert, kann eine kleine Veränderung zu plötzlichen Problemen führen. Fällt beispielsweise die bisherige verantwortliche Person langfristig aus, dann muss sich plötzlich ein neuer Mitarbeiter in ihr genutztes System einarbeiten, was wiederum Zeit kostet. Zudem steigt während der Einarbeitung ebenfalls die Gefahr, kostspielige Fehler zu machen. Um dies zu verhindern, setzen immer mehr Unternehmen beim Vertragsmanagement auf Softwarelösungen. Diese haben den Vorteil, dass sie sich ganz individuell an die Anforderungen eines Unternehmens anpassen lassen. Selbst kleine Unternehmen profitieren von Softwarelösungen immens, während sie bei großen Firmen praktisch Pflicht sind. Wichtig ist dabei vor allem, die richtige Software für das eigene Unternehmen zu finden. Ein System, das zu komplex ist oder sich nur beschränkt für den vorgesehenen Zweck eignet, richtet oft mehr Schaden als Nutzen an.

Manuelle Vertragsverwaltung generiert kostspielige Fehler

Die Bedeutung der Vertragsverwaltung in einem Unternehmen sollte nicht unterschätzt werden. Wichtig ist dabei vor allem, ein passendes digitales System zu nutzen. Manuelle Vertragsverwaltung ist zu fehleranfällig. Da schon kleine Fehler bei Verträgen ein teures Nachspiel haben können, empfiehlt es sich für Unternehmen für die Vertragsverwaltung eine Software zu nutzen. Hier haben sich besonders ERP-Systeme als sehr effektiv erwiesen, da diese sehr gut skalierbar sind und zudem viele weitere nützliche Verwaltungsfunktionen bieten.

Erfahren Sie hier mehr zum Thema Vertragsmanagement und ERP.

Der Beitrag wurde ursprünglich hier veröffentlicht …

So messen Sie den Erfolg Ihrer ERP-Einführung!

So messen Sie den Erfolg Ihrer ERP-Einführung!

Die Einführung eines ERP-Systems muss in der heutigen Zeit kein kompliziertes und zeitaufwändiges Unterfangen sein. Manche ERP-Systeme, wie MONITOR G5 ERP kann beispielsweise in wenigen Monaten eingeführt werden. Es ist jedoch auch wichtig, den Erfolg Ihrer ERP-Einführung zu messen. Es gibt verschiedene KPIs, die Sie messen können.

1. Verbesserte Kundenerfahrung

Ein ERP-System organisiert, konsolidiert und rationalisiert Unternehmensressourcen, was zu einer Verbesserung der gesamten Unternehmensfunktionen führt. Genaue Daten, synchronisierte Kommunikation zwischen Abteilungen, Lieferanten und Kunden führen zu einer reibungslosen Bearbeitung von Fertigungs-, Einkaufs– und Verkaufsaufträgen. Wenn Sie in der Lage sind, Kundenaufträge pünktlich auszuliefern, verbessern Sie die Kundenerfahrung. Beständigkeit ist für die Kundenzufriedenheit von entscheidender Bedeutung, da Sie einen Kunden leicht verlieren können, wenn seine Bestellung nicht rechtzeitig geliefert wird und Ihr Team nicht effektiv mit der Situation umgeht.

So messen Sie den Erfolg Ihrer ERP-Einführung!

2. Mehr Umsatz und höhere Gewinnspannen

ERP-Systeme automatisieren Prozesse, was wiederum die Arbeitskosten senkt. Da die Arbeitseffizienz steigt, können Ihre Mitarbeiter in der gleichen Zeit mehr leisten. Stellen Sie sich vor, Sie könnten Ihre Produktionsrate mit den gleichen Mitteln und in der gleichen Zeit steigern. ERP-Systeme machen nicht nur die Produktion und die Geschäftsprozesse effizienter, sondern helfen Ihnen auch, bessere Entscheidungen zu treffen. Mit einer zentralen Lieferantendatenbank ist es ein Leichtes, die Leistung jedes einzelnen Lieferanten auf der Grundlage seiner Liefertreue und Kostenrechnung zu verfolgen. So können die Einkäufer die richtigen Lieferanten auswählen und bessere Preise aushandeln.

3. Echtzeit-Daten

Die Implementierung eines ERP-Systems kann Ihnen dabei helfen, abteilungsübergreifend zu kommunizieren und sicherzustellen, dass alle Beteiligten auf dem gleichen Stand sind und Entscheidungen auf der Grundlage einer einzigen Datenquelle getroffen werden. Genaue Daten sind entscheidend, um fundierte Entscheidungen zu treffen, und sind nur der erste Schritt zur Digitalisierung und Automatisierung, um mit der Industrie 4.0-Revolution Schritt zu halten.

Wollen Sie mehr erfahren?

Es spielt keine Rolle, ob Sie gerade dabei sind, das richtige ERP-System für Ihr Unternehmen auszuwählen oder ob Sie bereits eines eingeführt haben. Die Frage bleibt, ob es die Zeit und das Geld wert war, die Sie investiert haben (oder noch investieren werden)? Sehen Sie Verbesserungen bei Ihren Geschäftsprozessen oder verwandeln sich Ihre Bücher von roten in schwarze Zahlen?

Erfahren Sie in diesem Beitrag mehr über die wichtigen KPIs für Ihre ERP-Einführung!

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die Kombination von KI und physikalischen Modellen eröffnet neue Optimierungspotenziale

Die Kombination von KI und physikalischen Modellen eröffnet neue Optimierungspotenziale

Die Kombination von physikalischen Modellen und Künstlicher Intelligenz vereinfacht und beschleunigt die Entwicklung komplexer Produkte und Prozesse. Die Kombination von KI und physikalischen Modellen eröffnet damit neue Optimierungspotenziale. LeanBI, Spezialist für Data-Science-Anwendungen zeigt fünf typische Anwendungsszenarien auf.

Die Kombination von KI und physikalischen Modellen eröffnet neue Optimierungspotenziale

Flugzeugflügel sind ein aerodynamisches Wunderwerk. Sie sollen den notwendigen Auftrieb liefern und für Stabilität und Manövrierfähigkeit sorgen. Gleichzeitig sollen sie so geformt sein, dass sie der Luft möglichst wenig Widerstand bieten, um den Kerosin-Verbrauch zu senken. Für die Berechnung der optimalen Strömungseigenschaften mit physikalischen Simulationen sind Unmengen an Daten notwendig. Mit Hilfe von Künstlicher Intelligenz und Machine Learning ist es möglich, Simulationen zu prognostizieren und damit schneller und effizienter optimale Strömungsformen zu finden. Gleichzeitig vereinfacht umgekehrt die Anwendung physikalischer Modelle die Entwicklung von KI-Algorithmen. Generell sind drei Kombinationen möglich. Die physikalischen Modelle speisen die KI, die KI speist die physikalischen Modelle oder beide laufen sich ergänzend parallel (hybride Modelle). LeanBI skizziert mögliche Einsatzszenarien.

Die möglichen Szenarien zur Kombination von KI und physikalischen Modellen

Produktionsplanung

Die optimale Auslastung einer Produktionsstraße und deren Teilstrecken, etwa einer Lackieranlage in der Automobilproduktion, ist angesichts der Variantenvielfalt ein komplexer Prozess. Bei der Durchlaufoptimierung erfolgt vorab eine Simulation verschiedener Situationen. Darauf ist die Produktionsplanung, auch mit Hilfe von Künstlicher Intelligenz, tagesweise aufzusetzen.

Predictive Maintenance von Bauteilen

Kritische Bauteile, wie etwa ein Wälzlager, werden mit Hilfe von Sensoren überwacht. Dabei ist es wichtig, bei der Detektion verschiedener Schadenstypen verfälschende Umwelteinflüsse auszuschließen. Für entsprechende Lösungen werden deswegen KI/ML-Modelle eingesetzt, die wiederum mit physikalischen Algorithmen gefüttert wurden.

Die Kombination von KI und physikalischen Modellen eröffnet neue Optimierungspotenziale

Schadenserkennung an Bauwerken

Die Strukturanalyse, also etwa die Identifizierung der Spannungsverteilungen innerhalb von Turm- oder Brückenkonstruktionen, erfolgt nach der Finite-Elemente-Methode (FEM). Bei einer laufenden Überwachung direkt an der Konstruktion oder mit optischen Verfahren wie Drohnenkameras werden KI-Modelle eingesetzt. Die Kombination von Strukturanalyse und KI hilft, den Risikograd von Schäden zu erkennen und falls notwendig vorsorgliche Reparatur- oder Renovierungsmaßnahmen daraus abzuleiten.

Präsenzkontrolle in Innenräumen

Durch den Einsatz kostengünstiger Sensoren können die CO2-Profile in Innenräumen aufgenommen werden. Das macht die Erfassung der Präsenz von Personen unter Beibehaltung des Datenschutzes möglich. Die Innenräume weisen jedoch unterschiedlichste Durchlüftungscharakteristiken auf. Um trotzdem aussagekräftige Ergebnisse zu erzielen, wird die KI-Analytik einmalig automatisiert mit physikalischen Modellen auf die Spezifika des jeweiligen Innenraums kalibriert.

Training von Roboterarmen

Mit Hilfe von Reinforcement Learning werden nach dem Prinzip von Belohnung und Bestrafung Strategien des Greifens erlernt. So können Roboterarme lernen, Objekte unterschiedlichster Formen in undefinierter Lage zu greifen. Für das Training dieser KI-Modelle sind die Daten sehr viel einfacher durch Simulation der Roboterbewegungen zu erstellen, als durch kostspielige echte Testläufe.
„Die Kombination von physischen Modellen und Künstlicher Intelligenz ist auf eine Vielzahl ganz unterschiedlicher Prozesse anwendbar“, erklärt Marc Tesch, Inhaber und CEO des Schweizer Data-Science-Spezialisten LeanBI. „Sie ist breit nutzbar und eröffnet damit ganz neue praktische Optionen zur Anwendung von KI und ML.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

5 Faktoren für die Auswahl einer Enterprise Low-Code-Application-Plattform zur Anwendungsentwicklung

5 Faktoren für die Auswahl einer Enterprise Low-Code-Application-Plattform zur Anwendungsentwicklung

Geschäftsanwendungen in Low-Code-Umgebungen zu entwickeln ist kein neuer Ansatz mehr. Viele Unternehmen sind sich der Vorteile bewusst. In enger Absprache mit der IT ausgelieferte Lösungen aus Low-Code-Projekten benötigen weniger zeitliche sowie personelle Ressourcen. Die fertigen Applikationen erfüllen passgenau die Anforderungen der Anwender, fügen sich in die Geschäftsumgebung ein und lassen sich individuell skalieren. Doch die Auswahl an Low-Code-Plattformen ist groß – nach welchen Funktionen sollten Anwender daher ihre Enterprise Low-Code-Application-Plattform am besten auswählen?

1. Zusammengesetzt vs. integriert

Zusammengesetzte Plattformen verknüpfen eine Gruppe unterschiedlicher Ressourcen miteinander. Ein spezielles Formular-Werkzeug kann dann zum Beispiel mit mehreren Datenquellen verbunden sein. Ein Workflow kann die APIs (Application Programming Interfaces, Programmierschnittstellen) einer Vielzahl von in der Cloud gehosteten Webdiensten aufrufen und eine weitere Komponente könnte für die Datenpräsentation und die Metriken zuständig sein. Mit solchen Plattformen können Anwender entsprechend aus bereits vorhandenen, ansonsten unverbundenen Ressourcen neuen Mehrwert schöpfen. Oft müssen diese Assets jedoch erst gesucht, individuell entwickelt oder einzeln angepasst werden. Hat man diese dann doch erfolgreich zu einer Anwendung verknüpft, steht man häufig vor der nächsten Herausforderung – dem Deployment. Denn die Bereitstellung dieser verknüpften einzelnen Assets aus einer Entwicklungs- in eine Produktionsumgebung kann sehr komplex und aufwendig sein.

In integrierten Plattformen hingegen erstellen Anwender Formulare, Workflows, Datenschemata und Berichte ganzheitlich. Auch, wenn die Anwendung mit externen Daten verbunden ist, enthält sie zum Großteil die eigenen Komponenten. Integrierte Plattformen machen die Versionierung und Bereitstellung von Anwendungen leichter, da diese als kohärentes Ganzes erstellt werden. Zudem bieten sie alle Komponenten einer Low-Code-Plattform unter einem Dach und in einem einzigen Tool. Entwickler müssen die Umgebung und die Tools nicht wechseln, um Daten zu modellieren oder Benutzeroberflächen und Prozesse zu erstellen.

Im Ernstfall müssen Anwender die erstellten Applikationen außerdem wiederherstellen können. Eine Enterprise Low-Code-Application-Plattform sollte entsprechend nahtlose Backups, Migrationen und Aktualisierungen der zugrunde liegenden Technologie zulassen.

5 Faktoren für die Auswahl einer Enterprise Low-Code-Application-Plattform zur Anwendungsentwicklung

2. Application Lifecycle Management (ALM)

Eine gute Low-Code-Lösung ist in der Lage, Anwendungen in einer einzigen Umgebung zu erstellen, sie in einer anderen zu testen und in einer weiteren Umgebung für die Produktion einzusetzen. Ist das nicht möglich, muss man Anwendungen während der Nutzung bearbeiten. Das birgt hohe Risiken aufgrund der temporären Instabilität der Applikationen.

Auch hier bieten integrierte Lösungen Vorteile. Anwendungen, deren Komponenten man als Set erstellt, lassen sich leichter implementieren als solche, die vollständig aus externen Abhängigkeiten bestehen.

Doch auch integrierte Plattformen können externe Abhängigkeiten enthalten. Idealerweise kann die Enterprise Low-Code-Plattform Schnittstellen und Verbindungen also verwalten und automatisch anpassen, sobald eine Anwendung von einer Umgebung in eine andere übernommen wird. So wird beispielsweise während der Entwicklungs- und Testphase einer Anwendung in der Low-Code-Plattform die API zur Testinstanz eines Drittsystems angesprochen oder eine Verbindung zu einer Datenbank mit Testdaten genutzt. Mit Auslieferung der Anwendung in die Produktivumgebung werden diese Verbindungen dann „scharf geschalten“, indem sie automatisch auf die Produktivinstanz des Drittsystems bzw. die Datenbank mit Echtdaten wechselt. Manuelle „Bereinigungen“ nach der Bereitstellung lassen sich so vermeiden.

3. Prozess-Engine

Ob diese nun als Skript, Workflow, Automatisierung, Prozess oder Orchestrierung bezeichnet wird – nahezu jede Plattform verfügt über eine Art von Ausführungs-Engine, die Aufgaben automatisieren kann. Vor allem im Enterprise-Umfeld sind folgende funktionale Unterschiede zwischen den Engines zu beachten, welche die Spreu vom Weizen trennen, also unausgereifte von ausgereiften Low-Code-Plattformen unterscheiden. Die Workflow-Engines von Enterprise-fähigen Low-Code-Plattformen können:

  • Berechtigungen, Zuständigkeiten und Aufgaben zuweisen und bei Bedarf neu vergeben;
  • auf eine Vielzahl von Ereignissen und Aktivitäten reagieren und geeignete Maßnahmen ergreifen,
  • Prozesse zulassen, die vorwärts, rückwärts oder seitwärts verlaufen können
  • sowie diese effektiv an die Stakeholder des Unternehmens kommunizieren;
  • sich durch benutzerdefinierten Code und/oder Anbindung an externe Dienste und automatisierte Logiken erweitern lassen.

4. Change Management

Darüber hinaus sollte eine Low-Code-Plattform die einfache Durchführung von Aktualisierungen und Rollbacks unterstützen. Denn jede Anwendung muss im Laufe der Zeit aktualisiert werden, um mit den Anforderungen im Geschäftsalltag mithalten zu können. Diese Änderungen sollten nicht nur schnell und sicher durchführbar sein, sondern auch den operativen Betrieb geringstmöglich stören. Dabei ist es egal, ob es sich dabei um die Änderung oder das Hinzufügen eines Formularfelds handelt, die Prozesslogik angepasst oder eine neue Funktion oder Schnittstelle hinzugefügt wird. 

Es dürfen also keine langen Unterbrechungen durch die aufwendige Wiederherstellung von Daten auftreten oder gar Daten verloren gehen, die zu den in der Anwendung laufenden Geschäftsprozessen gehören. Genauso sollten Nutzer die Applikation nicht von Anfang an neu starten oder nochmals abarbeiten müssen. Vielmehr sollten die Anwender in ihrer Arbeit nicht unterbrochen werden, sondern sich einfach über neue Funktionen freuen, die ihnen den Arbeitsalltag erleichtern. Technisch ausgereifte Low-Code-Plattformen ermöglichen die sofortige und einfache Umsetzung von Änderungen, ohne dabei den operativen Betrieb zu stören.

Eine Enterprise Low-Code-Application-Plattform sollte also nicht nur auf die Produktivität während der Entwicklungsphase ausgelegt sein, sondern während des gesamten Anwendungs-Lebenszyklus.

5. Cloud, on-premise – oder beides?

Beim Cloud-first-Ansatz sollten Anwender bedenken, dass aufgrund von gesetzlichen Bestimmungen und Zertifizierungskriterien oder auch internen Richtlinien manche Daten und Prozesse auch heute nicht in die Cloud verlagert werden können. Im Idealfall lässt eine Low-Code-Plattform das Hosting entsprechend sowohl vor Ort als auch in der Public Cloud zu – steht also als vollständig isolierte Plattform in einem separaten Tenant oder als Software-as-a-Service-Plattform in einer öffentlichen Cloud zur Verfügung.

Anwender müssen dann prüfen, ob eine Plattform sowohl von lokalen als auch von Cloud-Umgebungen auf die entsprechenden Ressourcen zugreifen kann. Sie müssen Berechtigungen sowie Sicherheitsaspekte bei den jeweiligen Lösungen bedenken.

Ist eine Plattform sowohl in der Cloud (entweder als Cloud-gehostete Lösung oder als Software-as-a-Service-Angebot) als auch on-premise verfügbar, müssen ebenfalls Funktionsparität und Plattformkompatibilität bestimmt werden. Können also Lösungen, Daten und Prozesse zwischen Servern on-premise und einer oder mehreren Cloud-Umgebungen verschoben oder migriert werden?

Fazit

Wie bei den meisten Entscheidungsprozessen gibt es auch bei der Auswahl einer Enterprise Low-Code-Application-Plattform zur Anwendungsentwicklung- und Bereitstellung nicht die eine richtige Antwort. Entscheidend ist, sich an den wichtigsten Aspekten der Funktionalitäten zu orientieren. Man muss darauf achten, dass die Plattform auf sich ändernde Anforderungen flexibel reagieren kann. Wichtig: Die Plattform sollte die Nutzer während des gesamten Lebenszyklus der damit ausgelieferten Anwendungen unterstützen und nicht nur während der Entwicklungsphase die Produktivität steigern. Denn diese verursacht gerade einmal 15 bis 20 Prozent des Gesamtaufwands. Nur so lässt sich das volle Potenzial von Low-Code-Anwendungsentwicklung im Unternehmen ausschöpfen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Vier Tipps für eine erfolgreiche Migration zu einer neuen digitalen Analyselösung

Vier Tipps für eine erfolgreiche Migration zu einer neuen digitalen Analyselösung

Der Wechsel zu einer neuen Analyselösung bedeutet, dass ein klassisches „Fortsetzen“ einer ähnlich gestalteten Analyse meist nicht möglich ist. Denn die Systeme funktionieren unterschiedlich, meist ändert sich die komplette Struktur der erfassten Daten. Das heißt, für eine erfolgreiche Migration benötigen Sie zunächst einmal die richtige Analyselösung. Um mit den aktuellen Datenschutzanforderungen Schritt zu halten, sollten Sie auf einen Anbieter achten, für den Datenschutz an erster Stelle steht. Dieser sollte dieselbe Definition verwenden und zum Beispiel Cookie-IDs und IP-Adressen als personenbezogene Daten einschließen. Zudem sollte er die privaten Daten der europäischen Nutzer in Europa speichern und nur dort verwenden.

Um die neue Lösung schnell zu implementieren, ohne die Daten Ihrer User zu gefährden, müssen Sie einem bewährten Prozess folgen. Diese vier Schritte können dabei helfen:

1. Datenmodellierung, Tagging und Dokumentation

Auf Basis der ermittelten Geschäftsanforderungen sowie der bereits vorhandenen Berichte, Website-Strukturen, Datenströme und Event-Definitionen sollten Sie das Datenmodell festlegen, das sich für Ihr Unternehmen am besten eignet. Je flexibler, umso besser können Sie die notwendigen Anpassungen vornehmen, wenn sich Ihre Bedürfnisse und Anforderungen im Laufe der Zeit weiterentwickeln. Beziehen Sie sowohl Technikexperten als auch Geschäftspartner in Ihre Analysegespräche ein, dann erhalten Sie einen ganzheitlichen Überblick darüber, wonach Sie suchen und wie Analysen und Erkenntnisse in Ihrer gesamten Firma genutzt werden.

Erstellen Sie auf der Grundlage des Datenmodells, für das Sie sich entschieden haben, einen Tagging-Plan. So erkennen Sie alle Elemente, die Sie zum Erreichen Ihrer Messgrößen benötigen. Um schnell loslegen zu können, können Sie eine schrittweise Implementierung in Betracht ziehen. Ereignisse wie Seitenaufrufe und Klicks können in wenigen Stunden implementiert werden und Ergebnisse liefern. Technisch und konzeptionell komplexere Tags können hingegen erst im Laufe der Zeit hinzukommen, wenn Ihre Analyseanforderungen anspruchsvoller werden. Mit diesem Ansatz erzielen Sie sofort einen Nutzen und im Laufe der Zeit können Sie auf dieser Grundlage aufbauen.

Sobald Sie Ihr Datenmodell eingerichtet haben, stellen Sie sicher, dass Ihre Dokumentation benutzerfreundliche Beschreibungen der einzelnen Metriken enthält. In diesen soll stehen, welche Informationen ein bestimmter Datensatz enthält. Oft wird übersehen, dass nicht nur spezialisierte Analysten mit einer Analyselösung arbeiten, sondern Mitarbeiter aus verschiedenen Abteilungen wie Marketing und Vertrieb, und die Geschäftsführung: Sie brauchen eine stärkere Einordnung der Daten in den Kontext mit weiteren Erklärungen, um diese effektiv interpretieren zu können.

Vier Tipps für eine erfolgreiche Migration zu einer neuen digitalen Analyselösung

2. Implementierung

Zu den wichtigsten Komponenten Ihrer Implementierung zählt die Verbindung Ihrer bisherigen Ressourcen (wie Metriken und Taxonomien) mit Ihrem neuen System. Dies ermöglicht einen nahtlosen Übergang für Ihre Endbenutzer, indem sie das neue System auf demselben Niveau bewegt, wie das alte. Um dies zu erreichen, sollten Sie ein paar Dinge beachten:

  • Der gleichzeitige Austausch aller Tools kann zu Verwirrung in den Teams führen und die Kontinuität der Berichterstattung beeinträchtigen. Falls Sie bereits Business-Intelligence-Tools verwenden, können Sie sich für eine Analyselösung entscheiden, die sich in diese Plattformen integrieren lässt. Eine Integration dieser Art ermöglicht einen schnelleren Beginn der Arbeit, indem Sie Daten aus dem neuen System in bestehende Berichte, Dashboards und Visualisierungen einspeisen, die den Anforderungen Ihrer Teams entsprechen.
  • Unabhängig von den von Ihnen verwendeten Business-Intelligence-Tools sollten Sie auch alle Reports berücksichtigen, die in Ihrem bisherigen Analysetool enthalten sind und ersetzt werden müssen. Wenn Sie sich für ein neues Tool mit leistungsstarken, sofort einsetzbaren Berichts- und Datenvisualisierungsfunktionen entscheiden, können Sie direkt loslegen, ohne kostbare Zeit mit dem Aufbau und der Anpassung neuer Schnittstellen zu vergeuden.

Falls Ihr neuer Analytics-Anbieter über einen Onboarding- oder Implementierungs-Support verfügt, ist das in dieser Phase von unschätzbarem Wert für Sie: So ist spezifisches Fachwissen verfügbar, wenn es nötig ist und die Implementierung entspricht den gesetzlichen Vorschriften. So können oft langwierige Korrekturen vermieden werden und die Dauer der Migration und des Onboardings drastisch verkürzt werden – was eigene Ressourcen bindet, die sonst für die Optimierung der Unternehmensziele verwendet werden könnten.

3. Qualitätssicherung und Prüfungen

Nach der Implementierung sollten Sie eine Reihe von Tests durchführen. So stellen Sie sicher, dass die Tags korrekt implementiert sind und Ihr Datenmodell so funktioniert, wie konzeptioniert. Oft ist das die Phase in der Konzeptfehler auftauchen, da man bestimmte Anforderungen übersehen hat und man bestimmte Analysen nicht abbilden kann können.

Bei den meisten Implementierungsprojekten gibt es eine Überschneidungsphase, in der Sie Zugriff auf die Analysen sowohl Ihrer alten als auch Ihrer neuen Lösung haben. Nutzen Sie diese Zeitspanne, um identische Datensätze in beiden Lösungen zu testen. So verstehen Sie, wie sie sich vergleichen lassen und ob die Ergebnisse korrekt sind. Auftretende Probleme lassen sich anschließend beheben.

Je nachdem, zwischen welchen Systemen Sie wechseln, kann es zu Diskrepanzen zwischen Ihren Datensätzen kommen. Ihr neuer Anbieter sollte jedoch in der Lage sein, Ihnen zu vermitteln, wie diese aussehen könnten.

4. Schulung und Onboarding

Da alle Beschäftigten – von Webanalysten und Produktmanagern bis hin zu Marketingteams, Vertriebsmitarbeitern und Unternehmensleitern – das digitale Analysetool nutzen, zählen Schulungen zum Pflichtprogramm. Jeder, der die Plattform nutzt, sollte verstehen, wie sie funktioniert. Alle sollten Zugang zu den Informationen haben, damit sie Entscheidungen treffen können.

An dieser Stelle kommt auch Ihre Dokumentation ins Spiel. Wenn Sie Ihre Definitionen in ein zentral verwaltetes Datenmodell einbetten, erleichtern Sie Ihrem Team den Verständnisprozess, und zwar in einer sinnvollen Sprache.

Sobald die digitale Analyse erst einmal eingerichtet ist, gehört sie zum Tagesgeschäft. Sie entwickeln spezifischen Berichte, Dashboards und Visualisierungen, die den Anforderungen Ihrer Geschäftsanwender entsprechen. Ihr Analytik-Anbieter, sowie alle externen Experten oder Berater, die Sie beschäftigen, sollte Ihnen dabei helfen können, über neue Entwicklungen und Möglichkeiten auf dem Laufenden zu bleiben. Das stellt sicher, dass Sie weiterhin das Beste aus Ihren Daten herausholen und gleichzeitig die gesetzlichen Anforderungen erfüllen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Guter Service gelingt ganz leicht: Fokus auf Kundenwünsche und digitalisierte Leistungen legen

Wie Maschinen- und Anlagenhersteller die wichtigsten Voraussetzungen für einen exzellenten Kundendienst erfüllen, lesen Sie hier:

Guter Service gelingt ganz leicht: Fokus auf Kundenwünsche und digitalisierte Leistungen legen

Auf dem Weltmarkt tummeln sich zahllose Hersteller hochwertiger Maschinen und Anlagen. Um sich im hart umkämpften Wettbewerb gegenüber der Konkurrenz zu profilieren, kommt professionellen Services für die Kunden eine immer wichtigere Bedeutung zu. Wer die folgenden Voraussetzungen erfüllt, stellt die entscheidenden Weichen für volle Auftragsbücher, hochwertige Leistungen für Kunden und vollen Einsatz für den Geschäftserfolg.

In erster Instanz sollten Maschinenhersteller ihre Geschäftsmodelle und Dienstleistungen an den individuellen Gegebenheiten und Unternehmenszielen ihrer Kunden ausrichten. Setzen diese beispielsweise auf präventive Wartungsarbeiten in individuell optimierten Turnussen, müssen auch Serviceleistungen entsprechend angeboten werden. Darüber hinaus empfiehlt es sich, vordefinierte Vorgehensweisen und Checklisten je Kunde zu erarbeiten und dem Serviceeinsatz zugrunde zu legen. Denn je passgenauer Serviceeinsätze auf die konkreten Anforderungen vor Ort ausgelegt sind, desto leichter fällt es, Kapazitäten so einzusetzen, dass sie ihren maximalen Nutzen zur Zufriedenheit des Auftraggebers entfalten – lösungsorientiert, zeit- und kosteneffizient.

Mit Digitalisierung und Datenanalyse zu Prozessexzellenz

Die Digitalisierung des Leistungsportfolios trägt ebenfalls nachhaltig dazu bei, die Effizienz und Qualität des eigenen Servicegeschäfts zu verbessern. Als zuverlässige Tools bewähren sich in immer mehr Unternehmen moderne Software-Lösungen für das Field Service Management und smarte Apps für den Außendienst. Mit ihrer Hilfe gelingt es, Prozesse zu verschlanken, Fehlerquellen zu minimieren sowie Zeitbedarf und Aufwand der Technikereinsätze insgesamt zu reduzieren.

Der Außendienst bildet zudem eine einträgliche Quelle für Daten, die als Anleitung für zukünftige Geschäftsentscheidungen zugrunde gelegt werden können – vorausgesetzt, die Hersteller werten sie methodisch und entsprechend der Datenschutzgrundverordnung (DSGVO) aus. Wer aus seinem Datenschatz aussagekräftige Schlüsse zieht, treibt die Verbesserung aller Geschäftsbereiche von Forschung und Entwicklung über Wartung und Service bis hin zu Marketing und Vertrieb aktiv voran.

Servicetechniker leisten Support für den Vertrieb

Wichtigstes Kriterium für einen exzellenten Service ist und bleibt aber der direkte Kundenkontakt. Hersteller sind gut beraten, ihre Servicemitarbeiter kontinuierlich weiterzubilden, um die versprochene hohe Qualität zu bieten. Als hervorragende Techniker werden sie gleichzeitig zu Markenbotschaftern, die den Kunden im persönlichen Kontakt wertvolle Empfehlungen, Ratschläge und Hinweise hinsichtlich geeigneter Neu- oder Erweiterungsinvestitionen geben. So lassen sich bestehende Geschäftsbeziehungen intensivieren und die Zufriedenheit des Kunden in weitere Verkaufserfolge ummünzen.

Der Beitrag wurde ursprünglich hier veröffentlicht …