Kommunikationslösungen sicher hosten – aber wie?

Kommunikationslösungen sicher hosten – aber wie?

Der Anbietermarkt von SaaS-Lösungen wächst und die Nachfrage nach flexiblen und skalierbaren Infrastrukturen nimmt zu. Parallel steigen die Anforderungen an Datenschutz und -sicherheit

. Leider auch die Anzahl von Hackerangriffen und Vorfällen, welche die Cybersicherheit gefährden, vervielfacht sich – wie der aktuelle BSI-Lagebericht zudem bestätigt. Dabei ist vielen Organisationen nicht bewusst, dass sie mit ihren IT-Lösungen ins Visier von Cyberkriminellen geraten können oder sich rechtlich auf sehr dünnes Eis begeben. Worauf kommt es bei der Wahl einer Kommunikationslösung also an und welche Rolle spielt dabei das Hosting von Kommunikationslösungen?

Kommunikationslösungen sicher hosten – aber wie?

Viele Tools und Kommunikationslösungen, die hierzulande im Unternehmensalltag zum Einsatz kommen, basieren auf Lösungen großer US-amerikanischer Cloud-Provider. Das Problem hierbei ist, dass es keine Rechtsgrundlage gibt, um personenbezogene Daten – beispielsweise Name, Standort und Kontaktinformationen der kommunizierenden Personen – in den USA oder von US-Unternehmen verarbeiten zu lassen. Der sogenannte transatlantische Datentransfer wäre nur zulässig, wenn die USA als Drittland ein angemessenes Datenschutz-Niveau vorweisen könnten (Artikel 44 DSGVO) – oder ein sogenannter Angemessenheitsbeschluss (Artikel 45 DSGVO) vorläge. Beides ist nicht mehr gegeben, seit der Europäische Gerichtshof (EuGH) auch das Privacy Shield-Abkommen 2020 für ungültig erklärte.

Dringender Handlungsbedarf für Unternehmen

Doch es geht nicht nur um den Schutz personenbezogener und unternehmenskritischer Daten, sondern auch um die Gewährleistung des Organisationsbetriebs und der Kommunikation – insbesondere in Krisen- und Notfallsituationen. Laufen bestimmte Dienste einer Organisation in der Cloud großer US-Konzerne, sind Alternativen als eine Art Sicherheitsnetz nötig, um bei einem Ausfall dieser Cloud-Strukturen – ganz gleich ob durch höhere Gewalt, menschliches Fehlverhalten oder gezielte Attacken – wichtige Prozesse wie die interne Kommunikation aufrechterhalten zu können. Hier geht es gezielt darum, digital resilient und souverän zu sein. Denn dann kann auch in Krisensituationen oder im Fall von Cyberattacken im eigenen Unternehmen die volle Funktionsfähigkeit der Software-Lösungen gewährleistet werden. So ist der interne Informationsfluss zu keiner Zeit unterbrochen und die Organisation bleibt weiter handlungsfähig.

Zero Trust: Mit Netz und doppeltem Boden

Ein Plus an Sicherheit gewinnen Unternehmen, wenn Sie mit dem Zero-Trust-Modell zusätzliche Sicherheit in ihre IT-Infrastruktur integrieren. Die Prämisse des Modells ist: Kein Tool, keine Plattform, kein User ist sicher. Deshalb werden jede Anforderung, jeder Zugriff und jede Anfrage an das System so geprüft, als käme sie aus einem offen zugänglichen Netzwerk. Bevor also ein Zugriff gewährt wird, gilt es diesen vollständig zu authentifizieren, zu autorisieren und zu verschlüsseln sowie die Identität und den Zustand des Endgeräts zu überprüfen. Umfassende Business Intelligence (BI) und Analytics erkennen zudem Anomalien in Echtzeit und wehren sie ab. Dies macht es Cyberkriminellen erheblich schwerer, die Kommunikationslösung als Einfallstor zu nutzen.

Checkliste: Eine sichere Kommunikationslösung auswählen

Mit dem Ziel die eigenen Daten bestmöglich zu schützen und die Kommunikation auch im Krisenfall sicherzustellen, müssen Unternehmen ihre bestehende (wie auch jede neu in Erwägung gezogene) Kommunikationslösung und deren Hosting-Anbieter hinsichtlich Datenschutz und -sicherheit überprüfen und sich folgende Fragen stellen.

Im Hinblick auf das Hosting:

  • Bietet der Dienstleister für seine Kommunikationslösung verschiedene Hosting-Modelle an (Public Cloud, Private Cloud, On-Premises)?
  • Findet bei Public-Cloud-Lösungen kein Datentransfer in die USA oder andere Drittländer ohne angemessenes Datenschutzniveau statt?
  • Liegen Sitz des Software-Anbieters und des Cloud-Providers innerhalb der EU?
  • Basiert die Kommunikationslösung auf einer ausfallsicheren Serverinfrastruktur in ISO 27001-zertifizierten Rechenzentren?

Bezüglich Datenschutz und -sicherheit:

  • Lässt sich das Zero-Trust-Modell damit umsetzen?
  • Werden alle Anforderungen der DSGVO und ggf. anderer rechtlicher Vorschriften, umgesetzt? Dazu gehören beispielsweise
    • Dokumentations- und Archivierungspflichtenkeine Analyse von MetadatenAnonymisierung von personenbezogenen Daten
    • Mehrfachauthentifizierung u.v.m.
  • Folgt der Software-Anbieter den Grundsätzen von Privacy by Design und Privacy by Default?
  • Garantiert der Dienstleister dem Anwender die volle Kontrolle und Datenhoheit?
  • Bringt der Anbieter der Kommunikationslösung entsprechende Erfahrung im Umgang mit Datenschutz und Datensicherheit mit?
  • Kann die Kommunikationslösung mit detaillierten Referenzen überzeugen?

Lassen sich diese Fragen für eine konkrete Kommunikationslösung bejahen, besteht aus datenschutzrechtlicher Sicht und im Hinblick auf Datensicherheit und -souveränität eine gute Grundlage. Natürlich muss anschließend auch die Funktionalität der Lösung überzeugen, darunter Standard-Funktionen wie beispielsweise Echtzeit-Messaging, Videotelefonie und die Einbindung mehrerer Endgeräte. Aber auch business-relevante Aspekte – etwa eine einfache Administrationsoberfläche und Nutzerverwaltung, Alarmierungen und Status-Nachrichten sowie die Möglichkeit, organisationsübergreifend zu kommunizieren und auch Drittsysteme anzubinden. Schließlich ist es auch die Qualität von Kommunikationsprozessen, welche die digitale Resilienz und Souveränität fördert.

Anzeige: Testen Sie jetzt myfactory Cloud ERP – Die All-In-One-Lösung für den deutschen Mittelstand.

Fazit: Datensouveränität ist das A und O

Nicht allen Unternehmen ist aktuell bewusst, auf welcher rechtlichen und technologischen Grundlage sie ihre Kommunikationslösungen betreiben. Nicht selten fehlt die Transparenz seitens der Lösungsanbieter, auch hinsichtlich der Erklärungen zu Datenschutz und Sicherheitsstandards. Dies sorgt für eine bedenkliche Abhängigkeit der Unternehmen von diesen Anbietern. Dabei trägt jedes Unternehmen rein rechtlich selbst die Verantwortung für die Datenverarbeitung. Folglich sollte es souverän steuern können, dass die Verarbeitung von personenbezogenen und unternehmenskritischen Daten den gesetzlichen Anforderungen und eigenen Ansprüchen genügt. Wenn es um Datensouveränität geht, gibt es keine Kompromisse

Der Beitrag wurde ursprünglich hier veröffentlicht …

Vier RPA-Mythen auf den Zahn gefühlt: So entfesseln Unternehmen die Magie der intelligenten Prozessautomatisierung

Vier RPA-Mythen auf den Zahn gefühlt: So entfesseln Unternehmen die Magie der intelligenten Prozessautomatisierung

RPA-Chancen und -Risiken, Handlungsempfehlungen und Skalierungstipps einfach erklärt:

Vier RPA-Mythen auf den Zahn gefühlt: So entfesseln Unternehmen die Magie der intelligenten Prozessautomatisierung

Robotic Process Automation (RPA) ist keine Zauberei, aber dennoch magisch. Die RPA-Experten von Another Monday wollen die Vorteile und Möglichkeiten intelligenter Prozessautomatisierung nun besser greif- und umsetzbar machen. Daher hat der Anbieter mit „The Magic of RPA“ eine Kampagne ins Leben gerufen, die mit Thesenpapieren, Videos und Expertenmeinungen Schluss mit gängigen RPA-Mythen und Unsicherheiten machen will. Den Start macht das Paper „RPA – Von der Illusion zur Magie“. Weitere Beiträge beschäftigen sich mit detaillierten Erläuterungen, Starttipps für das eigene RPA-Projekt, Ratschlägen zur Anbieterauswahl, Business Cases und Skalierungshinweisen. Im Fokus: Vorurteile und falsche Annahmen der vielschichtigen RPA-Thematik widerlegen.

Eine aktuelle YouGov-Umfrage im Auftrag von Another Monday hat in diesem Zusammenhang herausgefunden, dass zwar rund die Hälfte der befragten Mitarbeiter von deutschen Großunternehmen das Thema RPA kennt. Allerdings haben erst zwölf Prozent bereits Geschäftsprozesse durch Software-Roboter umgesetzt. Laut „ISG Automation Index“ wollen bis 2019 rund 72 Prozent der befragten Unternehmen aus den USA, Großbritannien, Frankreich und Deutschland RPA im laufenden Betrieb oder als Test in Pilotprojekten nutzen. Um hier erfolgreich sein zu können, lohnt es sich, die folgenden Vorurteile aus dem Weg zu räumen.

Das sind die häufigsten RPA-Irrtümer:

1. RPA reduziert Prozesskosten, ansonsten gibt es kaum Vorteile

Robotic Process Automation (RPA) ist eine Technologie, die menschliche Handlungen nachahmt und wiederkehrende Aufgaben in zahlreichen Geschäftsanwendungen in der IT-Infrastruktur automatisiert. Aufgrund falscher Erwartungen wird jedoch so manches RPA-Projekt oftmals unbedacht und zu einseitig angegangen, was zum Scheitern führt. So denkt so mancher Firmenentscheider beispielsweise, dass der einzige signifikante Vorteil der Prozessautomatisierung durch Software-Roboter darin bestehe, Kosten zu sparen. Das ist falsch, denn RPA hat – sofern durchdacht geplant und ausgeführt – das Potenzial, einen positiven Beitrag für Kostenstruktur, Kundenbeziehungen und Risikomanagement zu leisten. Erst wenn RPA als eine ganzheitliche Lösung und nicht als reines Technologie-Tool gesehen wird, kann die Magie von RPA wirklich zum Tragen kommt.

2. Jeder Prozess lässt sich durch RPA automatisieren

Mithilfe einer angemessenen Prozessanalyse und -identifizierung lässt sich feststellen, dass die Hälfte der Prozesse mit sich wiederholenden Aufgaben für die Automatisierung geeignet ist. Technisch gesehen, lassen sich fast alle administrativen Geschäftsprozesse automatisieren, allerdings ist nicht jeder einzelne Prozess geeignet. Oftmals sind lediglich die zeitaufwändigsten Arbeitnehmertätigkeiten lohnenswerte RPA-Projekte. Zur Bestimmung der besten Prozesse ist eine ganzheitliche Sichtweise auf die gesamte Geschäftsprozesskette einer Organisation erforderlich. Hierbei ist es sinnvoll, erfahrene Experten ins Boot zu holen.

3. Virtuelle Mitarbeiter nehmen Menschen die Arbeit weg

Nein, denn RPA ist lediglich eine Methode, die bestimmte menschliche Aufgaben überflüssig macht oder vereinfacht. Da Roboter allein auf Grundlage ihrer Programmierung handeln, führen sie Aufgaben effizienter und konsistenter durch als der Mensch. Gleichzeitig ermöglicht RPA Arbeitnehmern, sich auf Aufgaben zu fokussieren, die der menschlichen Aufmerksamkeit bedürfen. Beispiele sind die Behandlung von Ausnahmefällen, die Erschließung kreativen Potenzials und die Verbesserung der Zusammenarbeit. Oftmals optimiert RPA also Services, die Arbeitnehmer ihren Kunden anbieten, anstatt diese Aufgaben wegzunehmen.

4. RPA lässt sich sofort betriebsintern und ohne Fachkenntnisse umsetzen

Robotic Process Automation sollte in erster Linie als Methodik und nicht als Technologie betrachtet werden. Für die Implementierung ist der ganzheitliche Ansatz eines erfahrenen Anbieters erforderlich. Das Fundament eines RPA-Projekts ist ein robuster Governance-Rahmen. Innerhalb dieses Rahmens gilt es, alle Änderungen sorgfältig zu planen, klar zu kommunizieren und gründlich zu testen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Monitor gründet eigene Niederlassung in Deutschland

Monitor gründet eigene Niederlassung in Deutschland

Die Wirtschaftslage ist ernst. Deutsche Produktionsunternehmen stehen vor Herausforderungen wie der Umsetzung des neuen Lieferkettengesetzes, einer hohen Inflation und Rohstoffknappheit. Monitor, ein internationaler ERP-Hersteller, sieht dies als Chance. Nach dem Motto „Go Big or Go Home“ kommt der Software-Hersteller mit einer eigenen Gesellschaft nach Deutschland. Mit diesem Engagement will das Unternehmen die Zukunft von produzierenden Unternehmen verändern. Die moderne ERP-Software stellt dafür die passenden Lösungen für die aktuellen Herausforderungen bereit und überzeugt mit einfachen, automatisierten und digitalen Prozessen.

Die Erfolgsgeschichte geht weiter

Monitor blickt auf mehr als 40 Jahre Erfahrung in der Digitalisierung der schwedischen Produktionsunternehmen zurück. Dort ist der ERP-Hersteller mit einem Anteil von 40 Prozent (*) der Marktführer im produzierenden Mittelstand. Bekannte Unternehmen wie HANZA, Koenigsegg Automotive AB, AQ Group oder die LEAX Group vertrauen auf das inhabergeführte Unternehmen. Seit einigen Jahren ist Monitor zudem weltweit vertreten und beschäftigt um die 400 Mitarbeiter auf der ganzen Welt, unter anderem auch in Norwegen, Polen, Malaysia und China. Auch in Deutschland konnte sich der schwedische Software-Anbieter in Zusammenarbeit mit einem Partner einen beachtlichen Kundenstamm in der Produktionsbranche aufbauen. Zu den Kunden zählt beispielsweise die Anderson Europe GmbH. Nun geht Monitor ERP System den nächsten Schritt auf seiner Reise in der globalen Entwicklung und startet im Jahr 2023 mit einer eigenen Niederlassung in Düsseldorf, Deutschland.

(*) Monitor überprüft jährlich zusammen mit dem Unternehmen Publikator die Marktführerschaft.

Global aufgestellt und lokal angepasst – Monitor ERP ist optimal für den deutschen Markt

Monitor G5 ist eine weltweit einsatzfähige Software, die für den deutschen Markt optimal vorbereitet ist. So ist das ERP-System bereits seit 2019 nach IDW PS880 zertifiziert. Um die deutsche Marktreife zu bestätigen, wurde im September 2022 die Software mit dem Award ERP-System des Jahres 2022 ausgezeichnet, nachdem es sich im Vorjahr bereits den zweiten Platz sichern konnte. Damit ist Monitor G5 das beste System in der Kategorie Einzelfertigung und beweist, dass es Unternehmen in Deutschland langfristig und kompetent unterstützen kann.

Johan Holmsten, Vertriebs- und Marketingdirektor von Monitor:

„Monitor G5 ist hervorragend an den deutschen Markt angepasst. Es ist gemäß IDW PS880 zertifiziert und verfügt über ein für den deutschen Markt angepasstes Länderpaket. Wir sind davon überzeugt, dass unser System produzierenden Unternehmen helfen kann, profitabler und effizienter zu werden. Dies haben wir in unserer langen und umfangreichen Erfahrung in der nordischen Produktionsindustrie bewiesen. Die Investition in unser System kann deutschen Produktionsunternehmen dabei helfen, für die Zukunft gerüstet sein und noch schlummerndes Potenzial im Unternehmen auszuschöpfen.“

Go Big or Go Home!

Monitor sieht den Zeitpunkt seines Markteintritts als Chance. Denn gerade jetzt müssen produzierende Unternehmen in Deutschland ihr volles Potenzial ausschöpfen. Es ist Zeit jetzt zu investieren und digitalisieren. Monitor G5 bietet einfache, automatisierte und digitale Prozesse für die aktuelle Herausforderungen und setzt auf aktuelle Trendthemen wie Nachhaltigkeit, Kreislaufwirtschaft oder veränderte Lieferketten. Eine vorausschauende Planung bietet einen Blick in die Zukunft. So können Unternehmen schnell reagieren und ihre Prozesse anpassen. Das macht sie zukunftssicher und stark für die aktuellen Krisen. Damit ist Monitor der perfekte Partner für Wachstum, ganz nach der Devise: Go Big Or Go Home!

Monitor gründet eine Niederlassung in Deutschland
Thomas Blomberg, CEO der MERP Monitor Enterprise Resource Planning System GmbH und Morgan Persson, CEO Monitor ERP System AB (© MERP Monitor Enterprise Resource Planning System GmbH / Monitor ERP System AB)

Tomas Blomberg wird Geschäftsführer in Deutschland

Die MERP Monitor Enterprise Resource Planning System GmbH geht mit einem fokussierten Team und einem Büro in Düsseldorf-Heerdt an den Start. Dies markiert den Beginn eines deutschen Kernteams bestehend aus Vertrieb, Beratern und lokalem Support. Damit wird Monitor künftig Unternehmen in ganz Deutschland den bestmöglichen Kundenservice gewährleisten. Unterstützt wird Monitor Deutschland dabei von anerkannten, offiziellen Partnern. Der ERP-Anbieter 5CUBE.digital GmbH in Hamburg vertreibt und implementiert bereits seit mehreren Jahren die ERP-Software Monitor G5 und wird diese auch in Zukunft tun.

Den Kopf des neuen Teams in Deutschland bildet Tomas Blomberg. Er ist der neue Geschäftsführer in Deutschland und bringt eine umfangreiche und internationale Erfahrung in Produktion und Fertigung mit. So unterstütze er unter anderem Unternehmen wie Norrlandsfonden, ZEPRO oder Cargotec beim Wachstum. Um nah am Markt zu sein, zieht der gebürtige Schwede für seine neue Rolle nach Düsseldorf und wird den Ausbau des Standorts vor Ort forcieren. 

Thomas Blomberg, CEO der MERP Monitor Enterprise Resource Planning System GmbH: 

„Ich freue mich sehr, Teil der Reise von Monitor in Deutschland zu sein. Mit meinem Hintergrund in industriellen Abläufen und verschiedenen Geschäftssystemen kenne ich die Anforderungen unserer Kundschaft nur zu gut und kann unseren Interessenten auf Augenhöhe begegnen. Ich bin überzeugt, dass wir vielen produzierenden Unternehmen in Deutschland helfen können, ihre Abläufe und ihre Rentabilität mit dem ERP-System von Monitor zu verbessern.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Sieben Fehler bei der Einführung von KI

KI liegt im Trend, aber beim Einsatz dieser Technologie können sich Unternehmen leicht vertun.

Sieben Fehler bei der Einführung von KI

Künstliche Intelligenz (KI) wird mehr und mehr zu einer Standard-Tech­nologie. Von der industriellen Fertigung über Büroanwendungen bis zu komplexen CRM-Lösungen, überall ermöglicht KI die Automatisierung von Prozessen. Allerdings verfügen die meisten Unternehmen noch über wenig Erfahrung im Umgang mit KI. Hier lesen Sie welche Fehler bei der Implementierung von KI häufig gemacht werden.

1. Kein echter Mehrwert

Viele Unternehmen planen den Einsatz von KI, nur weil KI ein Hype ist, nicht weil sie einen klaren Mehrwert realisieren können, beispielsweise durch höhere Kundenzufriedenheit, Cross- oder Upselling-Möglichkeiten, Prozessoptimierung oder Qualitätssteigerung.

2. Fehlende Kommunikation

Wird der Einsatz von KI den Anwendern nicht kommuniziert, erfahren sie zum Beispiel gar nicht, dass sie mit einem KI-gestützten System interagieren. Das kann später zu Vertrauensverlust und zur Ablehnung führen.

3. Unzureichende Datengrundlage

In der Regel ermitteln KI-Systeme aus großen Datenmengen wiederkehrende Muster; ist dabei die Datenbasis nicht ausreichend, haben die Ergebnisse keine Relevanz.

4. Blindes Vertrauen

Auch wenn IT-Systeme in manchen Anwendungsfällen erstaunliche “Intelligenz” aufweisen, eignen sich nicht alle Anwendungsfälle für KI; etwa wenn keine hinreichend operationalisierbaren Daten bereitgestellt werden können.

5. Fehlende Transparenz

Aufgrund der großen Anzahl von Einflussfaktoren und Methoden für die Ermittlung von KI-Ergeb­nissen kann es schwierig bis unmöglich sein, ex post nachzuvollziehen, wie ein bestimmtes Ergebnis zustande gekommen ist. Je nach Anwendungsfall kann es jedoch notwendig sein, eine entsprechende Transparenz sicherzustellen, zum Beispiel bei Therapieempfehlungen.

6. Mangelnde Flexibilität

KI wird so konzipiert, dass die Fachabteilungen keine ausreichenden Möglichkeiten zur Anpassung haben; die Mitarbeiter der Fachabteilungen müssen jedoch in der Lage sein, KI-Lösun­gen selbständig zu parametrisieren, um agil mit verschiedenen Szenarien experimentieren zu können.

7. Fehlende Praxistauglichkeit

Unternehmen realisieren häufig KI-Lösungen, die zwar in Pilot-Projekten gut funktionieren, die aber in der Praxis nicht gut skalieren; die verwendeten KI-Verfahren müssen in großen Anwendungen mit zahlreichen Nutzern – beispielsweise in Web-Infrastrukturen – in kurzer Zeit Antworten liefern; als Richtwert sollten Antwortzeiten von weniger als 50 Millisekunden möglich sein.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Eine automatisierte Fertigung braucht stabile Netzwerke

Eine automatisierte Fertigung braucht stabile Netzwerke

Viele Produktionsanlagen laufen heute bereits vollkommen automatisiert. Selten muss der Mensch in der Fertigung noch selbst Hand anlegen. Die Vorteile dieser Entwicklung sind zahlreich, aber genießen können Unternehmen sie nur, wenn auch das Netzwerk mitspielt. Dirk Schuma, Sales Manager Europe bei Opengear, erklärt, warum stabile Netzwerke wichtig sind.

Eine automatisierte Fertigung braucht stabile Netzwerke

Viele Faktoren haben in den letzten Jahren die Fertigungsindustrie grundlegend verändert: Die Anzahl der Wettbewerber wächst, sodass Kunden sich mit ihren ebenfalls immer höheren Ansprüchen im Zweifel an einen anderen Anbieter wenden. Auf Produktionsseite sorgt dieser Umstand wiederum für kleinere Gewinnmargen. Überdies führt die Pandemie auch weiterhin zu personellen Ausfällen. Der Druck auf das produzierende Gewerbe war dementsprechend nie höher als jetzt, auf Automatisierung zu setzen und damit die betriebliche Effizienz zu steigern.

Die gute Nachricht: Die vierte industrielle Revolution hat durch die umfassende Vernetzung und Computerisierung alle nötigen Voraussetzungen geschaffen, das Problem anzugehen. Technologien und Verfahren wie Künstliche Intelligenz, das Internet of Things (IoT), selbstlernende Algorithmen und Big Data bestimmen mittlerweile den Alltag der Branche. Die Basis für die erfolgreiche digitale Transformation und Automatisierung in der Fertigungsindustrie ist allerdings ein resilientes und stabiles Netzwerk.

Automatisierung im Fertigungskontext

Unternehmen erhalten durch automatisierte und rationalisierte Fertigungsprozesse eine höhere Kontrolle über ihren Betrieb, können die Produktion steigern und die Kosten senken. In den sehr komplexen Abläufen gibt es viele Stellen, die Fertigungsbetriebe automatisieren können, beispielsweise mit passendem Equipment oder eben Softwareanwendungen. Wo und wie genau Unternehmen diese Technologien sinnvoll einsetzen können, unterscheidet sich von Betrieb zu Betrieb. Grundsätzlich unterscheiden Experten zwischen zwei Arten der Automatisierung: die „fixe Automatisierung“ und die „flexible Automatisierung“.

Die fixe Automatisierung, die auch als „harte Automatisierung“ bekannt ist, eignet sich für die Massenherstellung eines Produktes. Sie enthält – wie der Name impliziert – ein Set fester Sequenzen, beispielsweise für den Zusammenbau oder die Verarbeitung eines Produkts. Ein typischer Einsatzort sind Montagestraßen. Eine flexible Automatisierung hingegen ermöglicht Unternehmen Systeme zu unterhalten, die sie schnell bei notwendigen Änderungen im Produktionsprozess anpassen können. Das Personal nutzt dafür ein sogenanntes Human Machine Interface. Das ist heutzutage in der Regel eine Software mit intuitiver Benutzeroberfläche, die eine schnelle und unkomplizierte Neuprogrammierung der Fertigungsmaschinen ermöglicht. 

Stabile Netzwerke sind wichtig

Die Rolle des stabilen Netzwerks

All die neuen Hardware- und Software-Technologien, die Fertigungsbetriebe in ihre Produktionsstraßen implementieren, belasten das Unternehmensnetzwerk enorm. Die Gefahr eines Ausfalls nimmt mit der steigenden Last zu. Gerade Fertigungsbetriebe, deren Produktion und IT-Verwaltung nicht am gleichen Standort stattfindet, stehen dann vor einem großen Problem, denn die Fehleranalyse und Wiederherstellung der Netzwerkverbindung kann in diesem Fall nur vor Ort stattfinden. Dazu müssen die Netzwerkadministratoren allerdings zunächst einmal anreisen, was zu einer längeren Ausfallzeit und damit horrenden Kosten führen kann.

Smart-Out-of-Band-Lösungen (Smart OOB) bieten Administratoren von überall her Zugriff auf sämtliche Netzwerkgeräte am Produktionsstandort. Die Installation eines Smart-OOB-Konsolenservers bildet die Grundlage für ein paralleles Netzwerk, das bei einem Ausfall des primären Netzes die Problembehebung ermöglicht. In der Regel geschieht das über den 4G- oder LTE-Mobilfunk. In Verbindung mit Monitoring-Tools, die Administratoren direkt auf den Konsolenservern installieren können, reduzieren Unternehmen die Dauer für eine Wiederinstandsetzung ihres Netzwerks.

Eine Smart-OOB-Lösung hat allerdings noch weitere Vorteile, zum Beispiel die automatisierte Bereitstellung und Provisionierung von Equipment. Sobald die Mitarbeiter am Zielstandort die neuen Geräte mit dem Netzwerk verbunden und am Strom angeschlossen haben, laden die in der IT-Abteilung vorkonfigurierten Geräte alle nötigen Updates und Softwarekomponenten automatisch von zentraler Stelle herunter. Die Zeit bis zur Einsatzbereitschaft und der Personalaufwand sinken dadurch drastisch.

Fazit

„Stabile und resiliente Netzwerke bilden das Rückgrat sämtlicher Digitalisierungs- und Automatisierungsbemühungen von Unternehmen“, betont Dirk Schuma, Sales Manager Europe bei Opengear. „Da Netzwerkausfälle horrende Kosten verursachen, zählt gerade in der hochgradig technologisierten und vernetzten Fertigungsindustrie jede Sekunde. Smart-Out-of-Band-Lösungen verringern den Zeitaufwand für die Fehlersuche bei Problemen im Netzwerk, sodass die Produktion schnell wieder anlaufen kann.“ 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Sieben Dinge, die jeder CEO über seine Patente wissen sollte

In der Geschäftswelt von heute würden Unternehmen einen deutlich höheren Wert besitzen, wenn sie eine bessere Kontrolle über ihr geistiges Eigentum hätten. Je mehr immaterielle Vermögenswerte ein Unternehmen besitzt, desto profitabler wird es.

Sieben Dinge, die jeder CEO über seine Patente wissen sollte

Heutzutage versäumen es viele Unternehmen, den Wert ihres geistigen Eigentums zu erfassen – häufig, weil sie es Investoren nicht mitteilen. Dieses konkrete Beispiel aus dem Mai 2012, als Google Motorola übernahm, zeigt, wie schwierig es ist, den Wert von „immateriellen Vermögenswerten“ zu kommunizieren (wenn Patente in der Bilanz stehen):

Bilanz von Google, immaterielle Vermögenswerte (in Millionen):

  • Ende 2013: 6.066 US-Dollar
  • Ende 2012: 7.473 US-Dollar
  • Ende 2011: 1.578 US-Dollar

Bilanz von Motorola, immaterielle Vermögenswerte (in Millionen):

  • Ende 2012: 109 US-Dollar
  • Ende 2011: 48 US-Dollar (nach Abzug der kumulierten Abschreibungen von 1.114 US-Dollar)

Am 22. Mai 2012 hat Google die Übernahme von Motorola für einen Gesamtkaufpreis von ca. 12,4 Milliarden US-Dollar abgeschlossen (2,9 Milliarden US-Dollar für Barmittel, 5,5 Milliarden US-Dollar für Patente und entwickelte Technologie, 2,5 Milliarden US-Dollar für den Firmenwert, 0,7 Milliarden US-Dollar für Kundenbeziehungen und 0,8 Milliarden US-Dollar für sonstige erworbene Nettovermögenswerte).

Es ist ziemlich offensichtlich, was dies für die Bilanz für Google bedeutet hat. Die Auswirkungen für Motorola sind hingegen nicht so deutlich. Ist es wirklich glaubhaft, dass die gesamten immateriellen Vermögenswerte von Google durch die Übernahme von Motorola um 400 Prozent angestiegen sind? Der Großteil der immateriellen Vermögenswerte von Google taucht vor der Transaktion auf der Bilanz einfach gar nicht auf!

In der Tat wird geistiges Eigentum gemäß US-GAAP (United States Generally Accepted Accounting Principles, Allgemein anerkannte Rechnungslegungsgrundsätze der Vereinigten Staaten) in der Bilanz nicht richtig widergespiegelt und häufig sogar weggelassen. Nur wenn es im Rahmen einer Übernahme erworben wird, wird es ausgewiesen. Das heißt: Intern generierte immaterielle Vermögenswerte haben aus bilanzieller Sicht absolut keinen Wert. Dies entspricht internationalen Standards. Das Unternehmen kann also nicht wirklich etwas dagegen tun.

Dennoch liegt es in der Verantwortlichkeit des Vorstands und des CEO, diese Vermögenswerte genau zu kennen und zu verstehen. Nachfolgend finden Sie die sieben wichtigsten Fragen, die alle CEOs beantworten können sollten, um den Überblick über das geistige Eigentum Ihres Unternehmens zu behalten:

1. Investieren wir genug in F&E und die Entwicklung von geistigem Eigentum, um jetzt und in Zukunft wettbewerbsfähig zu sein?

Unternehmen sollten in F&E investieren, um durch das Entwickeln neuer Produkte zu wachsen. Es ist schwer für ein Unternehmen, wettbewerbsfähig zu bleiben, wenn es nicht der technologischen Entwicklung voraus ist.

2. Kennen wir den Wert unseres geistigen Eigentums und wissen wir, welche Auswirkungen es auf unsere Gewinn- und Verlustrechnung hat (GuV)?

Sie sollten das Management Ihres geistigen Eigentums als fortlaufende Aufgabe betrachten, die einen wesentlichen Bestandteil Ihrer Geschäftsplanung und -strategie darstellt und mit dieser abgestimmt werden muss.

3. Verfügen wir über eine starke IP-Strategie, um global wettbewerbsfähig zu sein, und können wir dies an unsere Aktionäre und den gesamten Markt kommunizieren, um einen Mehrwert zu schaffen?

Mit einer organisierten IP-Strategie stellen Sie sicher, dass es durchgängige Prozesse zum Erfassen, Schützen und Verwalten Ihres geistigen Eigentums gibt.

4. Wird vor dem Hintergrund, dass die immateriellen Vermögenswerte nicht in der Bilanz erfasst werden, von den Investoren erwartet, dass sie diese Vermögenswerte in den Aktienkurs einbeziehen? Oder sollen sie annehmen, dass sie bereits in der GuV berücksichtigt werden?

Da immaterielle Vermögenswerte einen so großen Anteil am Wert eines Unternehmens ausmachen, ist es wichtig, dass ein Unternehmen die Bedeutung und den Wert von geistigem Eigentum an Analysten, Aktionäre und potenzielle Investoren kommuniziert.

5. Sind wir dazu in der Lage, die Chancen und Risiken der immer komplexer werdenden Welt des geistigen Eigentums zu nutzen, schnell auf Veränderungen zu reagieren (und unseren entsprechenden Plan zu kommunizieren)?

IP-Tools und -Technologie entwickeln sich stetig weiter. Sie erfordern, dass Sie Ihren IP-Plan und Ihre Prioritäten Jahr für Jahr überprüfen.

6. Wie bewerten wir geistiges Eigentum, wenn wir unsere eigene Akquisitionsstrategie betrachten?

Bedenken Sie: Auch wenn IP-Assets eine zentrale Rolle in der Geschäftsstrategie eines Unternehmens spielen, reichen das Erwerben und Besitzen von geistigem Eigentum nicht aus, um einer schlechten Geschäftsstrategie entgegenzuwirken und ein Unternehmen erfolgreich zu machen.

7. Umfasst unsere Produkt-Roadmap eine IP-Roadmap sowie Implikationen für Finanzprognosen?

Prognosen der Kosten für das IP-Portfolio einer Organisation während des IP-Lebenszyklus sind sehr wichtig, um den Wert von IP-Assets bestimmen zu können und die Effizienz des Managements voranzutreiben.

Der Beitrag wurde ursprünglich hier veröffentlicht …

7 Management-Initiativen, um künftig von Künstlicher Intelligenz zu profitieren

Der Siegeszug von Künstlicher Intelligenz (KI) hat längst begonnen. Automatisierung, Erhöhen der Effizienz und Heben von Kosteneffekten tragen bereits in vielen Unternehmen zur Wertschöpfung bei. Künftig wird KI in immer stärkeren Maße nicht nur Kostenvorteile generieren, sondern zum strategischen Faktor werden, der alle Teile der Wertschöpfungskette umfasst. Vielfach gilt das datengetriebene Unternehmen noch als Ideal eines agilen und anpassungsfähigen Systems.

Der strategische Einsatz von KI, der künstliche und menschliche Intelligenz im richtigen Maße miteinander verbindet, kann zur nächsten Stufe der Unternehmensentwicklung führen, dem evidenzbasierten Management. Menschen und Maschinen bilden darin gemeinsam eine hoch adaptive und schnell lernende Einheit, die vorrausschauend und effektiv die Zukunft gestaltet. Big Data ist der Rohstoff, Analytik und KI sind das Werkzeug, aber erst der gekonnte Umgang mit beidem und Handeln führen zu strategischen Vorteilen für Unternehmen.

7 Management-Initiativen, um künftig von Künstlicher Intelligenz zu profitieren

Was können Manager heute tun, um von den Entwicklungen im Bereich Artificial Intelligence zu profitieren? Die Ausgangsvoraussetzungen für einen Start sind günstig. KI-Systeme sind soweit entwickelt, dass sie mit überschaubarem Aufwand und zu vertretbaren Kosten genutzt werden können, und die Entwicklung ist noch nicht soweit fortgeschritten, dass jedes Anwendungsfeld mit KI besetzt wäre. Wer jetzt startet, gehört zwar nicht mehr zu den Pionieren, muss aber auch nicht mehr alle Kinderkrankheiten der Technologie bewältigen und hat immer noch gute Chancen, in einem Anwendungsfeld bahnbrechende Lösungen auf den Markt zu bringen. Diese sieben Initiativen können heute helfen, das Geschäft von morgen aufzubauen.

1. Raum für Experimente schaffen

In der Regel findet die Nutzung von KI über Webservices und nicht über lokal installierte Systeme statt. Das hat viele Vorteile: vernachlässigbare Investitionskosten, kein Aufwand für Systempflege, kein Eingriff in die interne IT. Auf dieser Basis kann jedes Unternehmen damit beginnen, eigene Experimente mit KI zu starten. Am besten ist es, ein kleines Team aufzusetzen. Daraus können langfristig interne Servicebereiche entstehen, die für Fachabteilungen den Einsatz von KI mit kleinen Anwendungen testen und bei positivem Ausgang der Experimente den Weg zur Produktivlösung bahnen.

2. Routinetätigkeiten identifizieren und KI testen

Routinetätigkeiten sind oft ungeliebt und viele tragen noch nicht einmal zu Wertschöpfung bei. Sie durch KI-Routinen zu ersetzen, ist ein immenser Effizienzgewinn. Diese Entwicklung läuft im Bereich der Produktionsautomatisierung bereits seit Jahren. KI bietet aber noch weitaus mehr Möglichkeiten, nämlich die Entlastung von Routinetätigkeiten im hochqualifizierten Bereich, die bisher oftmals gar nicht als automatisierbar angesehen wurden, zum Beispiel die die Beantwortung von Kundenanfragen, die Auswertung von Gesetzestexten, Begutachtung Bildgebenden Diagnoseverfahren etc. Die Kunst besteht darin, erst einmal zu identifizieren, welche Tätigkeiten für diesen Sprung geeignet sind. Eine gute Zusammenarbeit des KI-Experimentierteams mit den Fachabteilungen kann zu schnellen und oft erstaunlichen Lösungen führen. Das vernichtet keine Arbeitsplätze und wertet die Rolle des Menschen deutlich auf: vom Abarbeiter zum Experten und Kreativen.

3. Softwareentwicklung auf KI umstellen

Für gestandene Entwickler mag es brutal klingen, aber der Weg ist klar: Systementwicklung auf Basis von Algorithmen wird in Zukunft eher die Ausnahme sein. In den meisten Fällen wird es besser sein, ein KI-System aufzusetzen und via Maschinellem Lernen zu trainieren. Das geht erheblich schneller, kostet weniger, liefert – zumindest, wenn ausreichend Trainingsdatensätze in guter Qualität vorliegen –bessere Ergebnisse und passt sich leichter künftigen Entwicklungen an. Es ist der nächste Schritt von agiler hin zu evidenzbasierter Entwicklung.

4. Trainings-, Bewertungs- und Entscheidungskompetenz aufbauen

Der Vorteil von KI ist, große und komplexe Datenmengen sehr schnell zu analysieren, Muster zu erkennen und Ähnlichkeiten zu finden. Im Allgemeinen geht ein drastischer Reduktionsprozess der Analyse voraus, der im ungünstigsten Fall zu Fehleinschätzungen durch KI führt. Das kann dramatische Konsequenzen haben, wie die Unfälle mit Tesla-Autopiloten gezeigt haben. Daher sollte sich jedes Unternehmen ein Regelwerk geben, in dem folgende Punkte festgelegt werden

  • Anwendungs- und Ausschlussszenarien für KI
  • Qualitätskriterien für Training und Trainingsdaten für KI-Anwendungen
  • Differenzierung, in welchen Fällen KI welche Tätigkeiten übernimmt: nur Analyse; Analyse und Bewertung; Analyse, Bewertung und Entscheidung; Analyse, Bewertung, Entscheidung und Handlung

Daneben sollte es Qualifikationsangebote für den Einsatz und den Umgang mit KI geben, nicht nur für operative Mitarbeiter, sondern gerade auch für Manager bis zur Unternehmensspitze. Nur, wer versteht, was KI leisten kann und welche Begrenzungen und Fehlermöglichkeiten existieren, kann sie konsequent zum Vorteil des Unternehmens einsetzen.

5. Das Geschäftsmodell auf Chancen für prädiktive Ansätze prüfen

KI schafft die Grundlage Ereignisse vorauszusagen und darauf vorbeugend oder zumindest frühzeitig zu reagieren. Predictive Maintenance ist das zurzeit am meisten diskutierte Konzept. Darüber hinaus gibt es viele weiter Ansatzpunkte, wie Erkennen von und Reagieren auf Markttrends, Produktionsüberwachung und vieles mehr. Es ist spannend, das eigene Geschäftsmodell dahingehend zu überprüfen, inwieweit Analytik und Vorausschau einen eigenen Wertbeitrag leisten können. Manchmal gibt es Daten, die vorhanden sind, die aufbereitet als eigener Service verkauft werden können. Manchmal sind die Verfahren vorhanden, die Daten aber nicht oder nicht ausreichend. Dann können Datenpartnerschaften helfen.

6. Neue Geschäftsmodelle entwickeln

KI bietet eine unüberschaubare Möglichkeit, ganz neue Geschäftsmodelle zu entwickeln. Dort wo sie in das Geschäftsmodellportfolio eines Unternehmens passen, lohnt es sich, sie auszuprobieren. Das ist mit überschaubarem Aufwand möglich. Hier ein paar Anregungen. Die Liste kann beliebig fortgesetzt werden

  • Persönliche Assistenten für bestimmte Aufgaben
    Alexa, Siri und Co sind erst die Vorläufer. Es wird in den nächsten Jahren eine ganze Reihe neuer Assistenten mit sehr unterschiedlichem Fertigkeitenspektrum geben.
  • Cyber Behaviour Design
    Wie humanoid darf oder muss ein System sein? Je mehr Menschen mit intelligenten Maschinen interagieren, desto wichtiger ist es, dass das Verhalten der Maschinen designt wird. Schnelligkeit und Perfektion von KI-Systemen schreckt oftmals ab. Sie müssen lernen, sich menschenähnlicher zu verhalten. Auf der anderen Seite ist zu menschliches Verhalten auch nicht immer sinnvoll. Es kann Angst machen. Um das zu designen, wird es Spezialisten geben.
  • Data Trust Center / Data Broker
    Eigene Daten zu analysieren ist gut. Viele Daten aus vielen Quellen zu analysieren bringt erheblich mehr Vorteile, wie zum Beispiel Vernetztes Maschinelles Lernen. Die Bereitschaft Daten zu teilen ist jedoch – aus gutem Grund – begrenzt. Sie ist aber gerade in Feldern wie der Gesundheitsversorgung erfolgsentscheidend. Gelingen können Austausch und Zusammenarbeit auf Datenbasis nur, wenn sich Data Trust Center und Data Broker mit sehr hohem Vertrauensniveau etablieren, die Zugänge, Anonymisierungsgrade und die Verwendung von Daten kontrollieren.
  • Anbieter Intelligenter Autonomer Systeme
    Der Markt ist noch längst nicht gesättigt. Wer heute einen Service im Bereich Komplexe (Prädiktive) Analytik, Cognitive Computing, Affective Computing, Entscheidungsunterstützung, personalisiert Nutzererlebnisse oder ähnlichem entwickelt, der Anwendern einen echten Nutzen liefert, wird gute Marktchancen vorfinden. Es kann ein Markt mit ähnlicher Dynamik wie der der mobilen Apps entstehen.

7. Kontinuierlich messen

Alle genannten Punkte sind Experimente, die evaluiert werden müssen. Schnelle Zyklen von Experimenten, Auswertungen und Anpassungen der Idee sollten zum Standard im Unternehmen werden, wo es darum geht, KI zu testen. Die Aufgabe, Resultate kontinuierlich zu überprüfen, kann dem Experimentier-Team unter Punkt 1 übertragen werden.

Grenzen und Herausforderungen: Intransparenz und mangelndes Vertrauen

Natürlich ist die Entwicklung noch nicht abgeschlossen und es sind noch viele Hürden zu nehmen und Hindernisse zu beseitigen, bis KI in jedem Anwendungsfall reibungslos funktioniert. Zwei aktuelle Herausforderungen, die nicht technischer Natur sind, aber über das Gelingen von KI entscheiden, möchte ich besonders herausstellen.

Das ist erstens die Intransparenz Künstlicher Intelligenz. Es ist eine Standardszene in vielen Krimis. Die geniale Ermittlerin überführt den Täter und legt noch einmal feingliedrig dar, wie es ihr durch geschickte Kombination der einzelnen Indizien, durch Profiling und Schlussfolgerungen gelungen ist, ihn zu überführen. Das kann KI nicht. Derzeit funktioniert sie als Black Box. Sie wird mit Daten trainiert und liefert anschließend Ergebnisse, die oftmals erstaunlich sind. Sie kann aber nichts dazu sagen, wie und warum sie zu den Ergebnissen gekommen ist. Nachvollziehbarkeit kann KI heutzutage nicht bieten. Je strategischer KI eingesetzt wird, desto größer ist jedoch die Notwendigkeit, Entscheidungen oder Entscheidungsempfehlungen begründen zu können. Hier ist Nacharbeit der KI-Entwickler gefordert.

Der zweite kritische Faktor ist mangelndes Vertrauen. Die letzten Datenskandale haben das Vertrauen in Datenverarbeitung und insbesondere Datensammler und -verarbeiter weiter untergraben. Es werden sicher nicht die letzten Skandale gewesen sein. Dabei ist nicht nur ein Vertrauen von Bürgern und Kunden in datenverarbeitende Unternehmen wichtig, sondern auch ein Grundvertrauensverhältnis zwischen Unternehmen, um Daten teilen und gemeinsam nutzen zu können. Daran müssen Unternehmen selbst arbeiten und Maßnahmen entwickeln, die sie zu vertrauenswürdigen Geschäftspartnern machen. Auch eine Professionalisierung und Externalisierung der Vertrauensfunktion wie oben im Geschäftsmodellbeispiel „Data Trust Center / Data Broker“ dargestellt, kann dabei helfen.


Fazit

Die Zukunft wird durch Künstliche Intelligenz geprägt sein und sie hat gerade erst angefangen. KI zu nutzen ist keine Hexerei und kostet kein Vermögen mehr. Es ist Zeit, mit Experimenten zu starten, schnell zu lernen und mit dem Trend zu wachsen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Warum Industriebetriebe 2023 verstärkt auf Machine-Learning-Systeme setzen werden

Warum Industriebetriebe 2023 verstärkt auf Machine-Learning-Systeme setzen werden

Große Unsicherheiten, kleinere Chargen, demografischer Wandel: Der Schweizer Data-Science-Spezialist LeanBI erläutert, warum sich Industrieunternehmen immer ernsthafter für Machine-Learning-Systeme interessieren.

Machine Learning erfuhr in der Industrie in der Vergangenheit einen regelrechten Hype. Die Realität ist aber bislang hinter den Erwartungen zurückgeblieben. Die Technologie kommt zwar in der Produktion durchaus zum Einsatz, verbreitet sich dort aber nur stark verzögert. Nach Ansicht von LeanBI wird sich das nun ändern. Vor allem aus vier Gründen, so der Schweizer Data-Science-Spezialist, werden Industrieunternehmen im Jahr 2023 verstärkt auf Machine Learning setzen.

Volatile Umweltfaktoren

Die weltweiten Krisen führen zu Lieferverzögerungen bei Eingangsmaterialien und erschweren Absatzprognosen. Wenn Industriebetriebe alle Einflussfaktoren berücksichtigen möchten, wird ihre Unternehmensplanung hochkomplex. Diese Komplexität lässt sich nur noch mit Hilfe von Machine-Learning-Systemen beherrschen. Sie können Unternehmen maßgeblich dabei helfen, Entwicklungen zu prognostizieren und dabei verschiedenste Szenarien zu berücksichtigen – und so eine zuverlässige Lieferung an die Endkunden zu gewährleisten.

Individualisierte Produktion

Die Chargen von Industrieunternehmen werden immer kleiner, weil ihre Kunden zunehmend individuelle Produktlösungen erwarten. Um dieser Entwicklung gerecht zu werden, müssen sie die Leistungsfähigkeit ihrer Herstellungsprozesse erhöhen. Deshalb werden Industriebetriebe verstärkt Predictive-Maintenance- und Predictive-Quality-Anwendungen implementieren. Sie ermöglichen es, durch rechtzeitiges Eingreifen ungeplante Stillstände und die Entstehung von Ausschuss zu vermeiden und dadurch die Gesamtanlageneffektivität (Overall Equipment Effectiveness) zu optimieren.

Machine-Learning-Systeme

Energieknappheit und ESG

Die derzeitige Energieknappheit wird auf absehbare Zeit der Normalzustand bleiben. Industriebetriebe sind deshalb gezwungen, ihre Produktionen so energieeffizient wie möglich zu gestalten. Mit Machine-Learning-Systemen können sie den Energieverbrauch online messen, analysieren und bei der Produktionsplanung berücksichtigen. Die Erfassung der Energiedaten ermöglicht es ihnen zudem, die steigenden ESG-Anforderungen (Environment, Social, Governance) zu erfüllen. Sie können etwa ihre Produkte mit Umwelt- und Energielabels ausstatten oder durch die Historisierung der Daten eine ESG-Konformität jederzeit rückverfolgbar nachweisen.

Demografischer Wandel

Die Belegschaften altern, viele Mitarbeiter gehen demnächst in Rente und können wegen des Fachkräftemangels nicht adäquat ersetzt werden. Industriebetrieben geht damit wertvolles Know-how für Maschinenführung verloren. Bei vielen Herstellungsprozessen unterliegen Einflussfaktoren wie Materialien starken Schwankungen, die sich nicht durch eine Rezeptur abfangen lassen. Deshalb nivellieren die Maschinenführer diese Schwankungen durch Prozesseingriffe, die auf jahrelanger Erfahrung basieren. Damit dieses Know-how nicht verloren geht, werden Unternehmen versuchen, es direkt auf die Maschinen zu bringen. Dafür eignen sich am besten spezielle Machine-Learning-Ansätze auf Basis von Ontologien wie etwa Bayes’sche Netze.

Fazit zu Machine-Learning-Systemen

„Auf viele Herausforderungen von Industriebetrieben können Machine-Learning-Systeme die beste Antwort geben“, erklärt Marc Tesch, Inhaber und CEO des Schweizer Data-Science-Spezialisten LeanBI. „Die Voraussetzungen dafür sind günstig, denn in den vergangenen Jahren haben viele Unternehmen bereits daran gearbeitet, ihre Maschinen durch digitalen Retrofit mit Sensoren zur Datenerfassung auszustatten, die Maschinen zu vernetzen und die Daten in die Cloud zu bringen. Jetzt können sie den nächsten Schritt gehen und ihre Daten mit Machine-Learning-Algorithmen gewinnbringend analysieren.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Handfeste XLA-Kennzahlen aus subjektivem IT-Erlebnis

Handfeste XLA-Kennzahlen aus subjektivem IT-Erlebnis

Worauf kommt es letztlich an – auf technische Performance-Kennzahlen oder das subjektive IT-Erlebnis? Mit steigender Digitalisierung und hybriden Arbeitsumgebungen rücken mehr und mehr Experience Level Agreements, kurz XLAs, in den Blick. Scheinbar schwer zu fassen. Denn es gibt probate Wege, um die ‚gefühlte‘ Anwenderperspektive in greifbare Ansatzpunkte für die IT zu übersetzen. Nexthink erklärt XLA-Kennzahlen.

Für Qualitätskriterien von IT-Services und -Support sind traditionell Service Level Agreements (SLAs) das Maß der Dinge. Unbeantwortet bleibt dabei: Ist der Mitarbeiter am digitalen Arbeitsplatz mit dem, was bei ihm ankommt, zufrieden und produktiv, oder genervt und ausgebremst? Eine Frage, die für Unternehmen immer wichtiger wird, wie auch eine aktuelle Nexthink-Studie, erhoben von Vanson Bourne, zeigt.

Doch im Backend scheinbar proper funktionierende IT-Infrastrukturen bedeuten nicht automatisch, dass für Endanwender störungsfreies und effizientes Arbeiten gewährleistet ist.

SLA und XLA sind wie gemessene & gefühlte Temperatur

Service Level Agreements (SLAs) und Experience Level Agreements (XLAs) verhalten sich ähnlich wie beim Wetter die gemessene und gefühlte Temperatur. Vermeintlich angenehme 17 Grad können bei Wind und Nieselregen durchaus ungemütlich sein.

Wie ein IT-Service, die Nutzung von Applikationen, Endgeräten oder eine Netzverbindung „empfunden“ wird, braucht von der Endanwenderseite systematisch erfasste Messwerte und Kontext, um für die IT greifbare Ansatzpunkte für Maßnahmen zu liefern.

Das heißt, objektive Messwerte der Arbeitsumgebung müssen zeitnah in Zusammenhang gebracht werden mit dem subjektiven IT-Erlebnis aus Sicht des Anwenders (Sentiment-Analysen). Diese liefern DEX-Plattformen, die auf der Endgeräte-Seite Leistungskennzahlen auf Hardware-, Applikations- und Netzebene erfassen, im Idealfall kombiniert mit dediziertem Anwender-Feedback.

Aus diesen Daten lassen sich Kennzahlen – XLAs – ableiten, die für eine produktive Arbeitsumgebung wesentlich sind.

Welche XLAs für ein Unternehmen entscheidend sind, lässt sich am besten anhand von konkreten Use Cases definieren. Aus der Projekterfahrung von Nexthink vereinfacht dies eine veränderte Sicht darauf zu entwickeln, was erfolgreiche IT bis hin zum digitalen Arbeitsplatz ausmacht.

Das „Warum“ der eigenen XLA-Strategie klären

Dieser Schritt schärft zum einen das Problembewusstsein zum Unterschied zwischen technischer und gefühlter Qualität digitaler Arbeitsplätze. Zum anderen hilft es, die Optimierung digitaler Arbeitsplätze mit Geschäftszielen abzugleichen.

Nur ein Signal für die Notwendigkeit einer XLA-Strategie ist, wenn die Anzahl der Tickets im IT-Support hoch ist, obwohl im IT-Backend kaum Auffälligkeiten zu verzeichnen sind. Auch die Menge an Schatten-IT und inoffizieller Workarounds an digitalen Arbeitsplätzen zeigt, dass Endanwender mit zu vielen Kompromissen bzw. DYI-Lösungen agieren.

So können mögliche Ansatzpunkte für das „Warum“ sein: bei Digitalisierungsinitiativen maximal die Anforderungen der Mitarbeiter einbeziehen, bei Cloud-First-Strategien die Auswirkungen auf digitale Arbeitsumgebungen besser berücksichtigen, die Umstellung auf hybrides Arbeiten optimieren oder die Evaluation und Anpassung von geschäftskritischer Software verbessern.

Ziele gehören zu XLA

Konkrete Ziele setzen

Bei diesem Schritt wird sichergestellt, dass XLA-Messungen auch zu konkreten, nachweisbaren Verbesserungen bei Endanwendern führen. Das heißt, dass aus XLA- und Sentiment-Analysen in Korrelation mit SLAs die richtigen Maßnahmen abgeleitet und umgesetzt werden. Dies kann Anforderungen betreffen wie:

  • Anzahl und Dauer von IT-Störungen reduzieren.
  • Anzahl der von Endanwendern selbstverursachten IT-Störungen reduzieren.
  • Vermeidung erhöhten Ticket-Aufkommens bei der Einführung neuer Software-Lösungen.
  • Ausrichtung des IT-Supports auf unterschiedliche Levels an IT-Kompetenzen, so dass Mitarbeiter mit viel und wenig IT-Erfahrung geeignete Unterstützung erhalten.
  • Umsetzung strikter IT-Security- und Compliance-Policies ohne Beeinträchtigung der Produktivität und Erhalt eines positiven IT-Erlebnis.

Übersetzung der Ziele in korrelierte SLA-XLA-Maßnahmen und -Messungen

Je klarer die Ziele formuliert sind, um so besser können sie in messbare SLA- und XLA-Kennzahlen übersetzt werden – drei Beispiele:

Rückgang der Tickets im IT-Support insgesamt:

  • bei gleichzeitig verbessertem Anwenderfeedback zur beschleunigten Problemlösung und höheren Nutzungsraten der Self-Service-Angebote.
  • aufgrund verbesserter proaktiver und kontextbezogener Kommunikation der IT mit Endanwendern (etwa über direkte Nachrichten am Bildschirm), verifiziert durch Feedbackanalysen.
  • durch den Einsatz von Predictive Tools zur proaktiven Vermeidung von IT-Störungen, verifiziert durch entsprechende Telemetriedaten aus Endgeräten und Feedback-Analysen.

Bereits an diesen Beispielen wird klar, dass direktes, zeitnahes und kontextbezogenes Feedback von Endanwendern entscheidend ist, um Maßnahmen bewerten und anpassen zu können – denn: Die Zahl der Tickets sinkt auch, wenn der IT-Support sich als wenig hilfreich erweist.

Erfahren die Anwender, dass ihr Feedback spürbar etwas bewirkt, sind sie auch bereit, sich für einen kontinuierlichen Verbesserungsprozess zu engagieren. Statt still zu resignieren bis hin zur Kündigung.

Einführung einer XLA-Kultur

Die Use Cases helfen zu verstehen, wie und welche XLAs für bestimmte Ziele gemessen und operativ durch entsprechende SLAs unterstützt werden müssen. Dies führt zu einem grundlegenden Verständnis dazu, warum es zu einer Diskrepanz zwischen technischen Parametern und dem tatsächlichen IT-Erlebnis kommt. In der Folge wird es für die IT einfacher, die für ihr Unternehmen individuellen Wege für eine XLA-Kultur zu definieren und umzusetzen. Dies betrifft grundsätzlich vier Anforderungen:

Digitalen Arbeitsplatz als Ganzes analysieren und nicht nur einzelne Services

Ursachen für langsame Anwendungen oder Programmabstürze können an Cloud-Services, lokalen Servern, Netzverbindungen oder schlicht an überlasteten CPUs beim Desktop-PC liegen. Vieles davon ist weitgehend vorhersehbar, durch entsprechendes Enduser-Experience-Management vermeidbar.

Doch die herkömmliche verteilte Sicht auf das Unternehmensnetz lässt zu viel Raum für Interpretationen zu, wo die Ursachen für ein schlechtes IT-Erlebnis liegen und wie diese zu beheben sind. Neben einer integrierten Analyse von IT-Ereignissen macht es daher Sinn, mit Predictive-Tools Ausfälle von vornherein zu verhindern oder betroffene Anwender frühzeitig zu warnen, gepaart mit Workaround-Hinweisen als Überbrückungshilfe während einer Störung.

Kommunikation mit Relevanz

Statt E-Mails oder kryptischer Support-Tickets haben Anwender in den meisten Fällen mehr davon, wenn sie über Pop-up-Meldungen auf dem Bildschirm gezielt die für sie relevanten IT-Informationen erhalten.

Das beginnt bereits bei vermeintlichen Kleinigkeiten. Eine Vorwarnung, wenn Störungen drohen, eine Meldung zur Dauer einer Störung, ein Hinweis, was bei instabilen Internetverbindungen am besten zu tun ist oder proaktiver Terminvorschläge, um das Laptop beim IT-Support aufrüsten zu lassen.

Ähnlich ist es mit Feedback-Fragen. Je klarer sie für Anwender im Kontext zu ihrer aktuellen Situation am digitalen Arbeitsplatz stehen, umso höher sind die Antwortquoten und die Aussagekraft der Angaben.

Korrelation von technischen mit Sentiment-Daten:

Die Gegenüberstellung von Daten aus dem IT-Performance-Management mit Feedback- und Sentiment-Daten aus Anwenderbefragungen zeigt, inwieweit die Sicht der IT ein realistisches Bild zum tatsächlichen IT-Erlebnis am Arbeitsplatz darstellt. Diskrepanzen sind ein wichtiger Ansatzpunkt für die IT, zum einen mögliche Ursachen von Beeinträchtigungen grundlegend zu beheben. Zum anderen hilft es, Muster von IT-Ereignissen zu interpretieren und proaktiv Störungen zu verhindern.

Anwender und ihre Anforderungen differenzieren:

Zwischen IT-affinen Power-Usern und reinen Nutzern von Standardapplikationen ist ein weites Feld – was die einen langweilt und ausbremst, überfordert die anderen. Dies in der IT-Kommunikation, bei Schulungen, Freiheitsgraden individueller Systemeinstellungen oder bei Verfahren zur Störungsbehebung zu berücksichtigen, ist wesentlich für ein positives IT-Erlebnis am Arbeitsplatz. Hier können XLA-Analysen einen wichtigen Beitrag leisten, um digitale Arbeitsplätze nach individuellen Bedürfnissen bereitzustellen und zu unterstützen.

Fazit

Aus vermeintlich schwammigen XLAs werden handfeste Kennzahlen, wenn sie aus Telemetriedaten der Endgeräte und systematischem, bidirektionalem Anwender-Feedback abgeleitet werden. Dann haben sie auch die nötige Aussagekraft, um durch eine direkte Korrelation mit SLAs aus dem IT-Backend eine ganzheitliche Sicht auf digitale Arbeitsumgebungen zu gewährleisten. Das Ergebnis sind Antworten darauf, wie es wirklich um die Qualität der Technologie am Arbeitsplatz bestellt ist und wo Prioritäten zur Verbesserung gesetzt werden sollten.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Darum gehört E-Mail-Archivierung zu einer guten Cyber-Resilienz-Strategie

Darum gehört E-Mail-Archivierung zu einer guten Cyber-Resilienz-Strategie

Beabsichtigtes oder irrtümliches Löschen, ein Cyber-Angriff oder ein durch ausgefallene Server oder eine ungeplante Downtime im (Cloud-)Rechenzentrum hervorgerufener Systemausfall. Die Ursachen für den Verlust von E-Mail-Daten können unterschiedlich sein. Was für viele Mitarbeiter in erster Linie ärgerlich ist, kann ein Unternehmen nicht nur unter Umständen Bußgelder und Reputation, sondern im schlimmsten Fall auch die Existenz kosten. Die Cyber-Resilienz lässt sich durch E-Mail-Archivierung stärken.

E-Mails enthalten heute zahlreiche geschäftskritische Informationen wie Personaldaten, Rechnungen und Verträge, die häufig nur in dieser Form vorliegen. Umso wichtiger ist es, dass Unternehmen auch im Falle einer Störung Zugriff auf diese Daten haben.

Wie können sich Unternehmen auf den Ernstfall vorbereiten? Kristina Waldhecker, Manager Product Marketing von der MailStore Software GmbH, gibt dazu diese relevanten Tipps, um die Cyber-Resilienz zu stärken:

E-Mail-Archivierung im Zusammenspiel mit Backups

Im Rahmen des Business Continuity Managements definieren Unternehmen Prozesse, die im Ernstfall sowohl das Ausmaß der Unterbrechung eindämmen. Sie sollen aber auch eine schnelle Wiederaufnahme der Betriebsabläufe gewährleisten – einschließlich der Wiederherstellung betroffener Systeme und Daten. Darum kümmert sich die Disaster Recovery – einer der Teilbereich der Business Continuity

Damit die Disaster Recovery erfolgreich ist, müssen Unternehmen Kopien ihrer Datenbestände – mitsamt ein- und ausgehender E-Mail-Korrespondenzen – anlegen, aus denen im Falle eines Datenverlustes die Wiederherstellung erfolgt. Dafür greifen Unternehmen häufig lediglich auf herkömmliche Backups zurück. Diese haben jedoch einen entscheidenden Nachteil: Backup-Prozesse werden zumeist nur in festgelegten Intervallen durchgeführt und erfassen nur jenen Bestand, der zum Erstellungszeitpunkt vorhanden ist (sogenannte „Snapshots“). Eine Berücksichtigung sämtlicher Änderungen, die zwischen den Snapshots erfolgen, erfolgt demnach nicht.

E-Mail-Archivierung verstärkt Cyber-Resilienz

Es ist sinnvoll, Backup-Systeme um eine professionelle E-Mail-Archivierungslösung zu ergänzt, um den gesamten E-Mail-Datenbestand vor einem Verlust zu schützen. Diese kopiert den kompletten E-Mail-Datenbestand vollständig, manipulationssicher und  möglichst datenschutzkonform in ein zentrales Archiv. Sollten die E-Mail-Server aufgrund einer Störung nicht verfügbar sein, können Mitarbeiter trotzdem mithilfe von Such- und Wiederherstellungsfunktionen weiterhin auf die aktuellste Version des Bestandes zugreifen. Ein kombinierter Ansatz aus Backup-System und E-Mail-Archivierung stellt einen wichtigen Faktor der Cyber-Resilienz-Strategie eines Unternehmens dar. Während im idealen Fall das Backup sich darauf konzentriert den E-Mail-Server mit möglichst geringer Downtime wiederherzustellen, werden die E-Mails sicher im zentralen und unabhängigen Archiv vorgehalten.

Nicht nur förderlich für das Business Continuity Management

Der Mehrwert einer E-Mail-Archivierungslösung geht jedoch weit über das Business Continuity Management hinaus. Die meisten Unternehmen in Deutschland, Österreich und der Schweiz unterliegen Aufbewahrungspflichten, die vor allem steuer- und handelsrechtlich relevante Korrespondenzen in elektronischer Form mit einbezieht. Auch wenn Dokumente nur in Form von E-Mails vorliegen, müssen sie sicherstellen, dass diese revisionssicher und im Rahmen des festgelegten Aufbewahrungszeitraums dauerhaft aufbewahrt und stets verfügbar sind.
 

Die gesetzlichen Anforderungen können sich je Branche und Land unterscheiden. Über die Revisionssicherheit hinaus, sollten E-Mails datenschutzkonform nach Maßgaben der EU-DSGVO (in der Schweiz: DSG) verarbeitet und gespeichert werden. Eine professionelle E-Mail-Archivierung kann zudem helfen, diese Anforderungen im Rahmen der E-Mail-Governance auch praktisch umzusetzen.
 

Fazit

E-Mail-Archivierung ist kein „nice-to-have“ für Unternehmen – sondern Teil der IT-Strategie, da sie gleich auf zweierlei Weise Sicherheit bieten kann. Sowohl vor Datenverlusten als auch hinsichtlich Revisionssicherheit und Datenschutzkonformität.

Der Beitrag wurde ursprünglich hier veröffentlicht …