Datenanalyse: 6 Tipps für die Zusammenarbeit zwischen Datenexperten und Entscheidern 

Datenanalyse: 6 Tipps für die Zusammenarbeit zwischen Datenexperten und Entscheidern 

Datenanalyse ist und darf kein Selbstzweck im Unternehmen sein, sondern soll das Geschäft verbessern und so zum Umsatzmotor werden. Langfristig leisten sich Unternehmen nur dann eine Datenanalyse, wenn der ROI (Return on Investment) stimmt. Oft sind Algorithmen und Software nicht das Problem, wenn die Ergebnisse nicht stimmen, sondern die Umsetzung der Analysen.

Datenanalyse: 6 Tipps für die Zusammenarbeit zwischen Datenexperten und Entscheidern 

Um Datenanalysen erfolgreich umzusetzen, ist eine enge Zusammenarbeit zwischen Business-Entscheidern und Datenwissenschaftlern entscheidend. Mit den folgenden Tipps lässt sich die Teamarbeit deutlich verbessern.

Tipp 1: Gegenseitiges Verständnis in der Datenanalyse fördern und vermitteln

Der Wert von Datenanalysen ist heute in vielen Unternehmen angekommen. Die Datenanalyse ist ein hervorragender Wegweiser, der Unternehmen ein tieferes Verständnis geben kann, was sie exakt tun müssen, um Ziele – unter anderem eine höhere Kundenzufriedenheit – zu erreichen. Die Technologie ebnet den Weg dorthin: Mehr Daten, Möglichkeiten zur Datenspeicherung, Rechenleistung, komplexe Algorithmen, fortgeschrittene Analysesoftware, kombiniert mit Künstlicher Intelligenz und Machine Learning eröffnen eine Fülle neuer Chancen für jedes Unternehmen.

Auf dem Weg dorthin zeigt sich aber oft eine Hürde, die auftritt, wenn zwei unterschiedliche Welten aufeinanderprallen. Sowohl bei Business-Entscheidern als auch Datenwissenschaftlern gibt es Wissenslücken im Hinblick auf die jeweils andere Seite. So legen Data Scientists naturgemäß einen starken Fokus auf Algorithmen und vernachlässigen den Bezug zum Business. Zudem sprechen sie eine andere Sprache als die Mitarbeiter der Marketing-, HR- und Logistik-Abteilungen.

Die Wissenslücke zu schließen, ist beim Zusammenrücken weder Ziel noch realistisch, aber schon einige Grundlagen können das Verständnis für die „andere Seite“ enorm fördern. Datenwissenschaftler können zum Beispiel mehr Verständnis dafür entwickeln, welche Auswirkungen die Analysen und die Empfehlungen auf das Unternehmen haben werden. Grundwissen in Marketingkonzepten wie Personalisierung oder Storytelling kann helfen, die Ergebnisse der Analysen den Entscheidern verständlicher zu vermitteln. Umgekehrt helfen Grundlagen der Datenanalyse bei einem Verständnis für Daten allgemein und um Methoden, Aufwand und Ergebnisse zu verstehen – genauer gesagt, sich daran zu gewöhnen, Entscheidungen mit oder auf der Basis von Daten zu fällen.

Tipp 2: Kollaboration in der Datenanalyse fördern

In der Praxis hilft es, sofort mit gemischten Teams zu starten und zu arbeiten, statt die Teams in ihren Disziplinen zu trennen und dann später zusammenzubringen. Ziel ist eher die Zusammenarbeit ab Tag 1 des Projekts oder am Anfang eines agilen Sprints. Das gelingt am besten mit Tandem-Teams aus IT und Business. 

Digitale Tools wie Dokumente in der Cloud wie Google Docs, Zugriff auf visualisierte Ergebnisse der Datenanalyse, etwa Torten- und Balkendiagramme, und Kommunikationstools wie Slack fördern die Kommunikation. Definierte Prozesse für Abstimmungen, zum Beispiel wann ein Review-Prozess stattfinden soll, fördern den Austausch. Ein kontinuierlicher Review-Prozess ist bei der Datenanalyse unerlässlich. Denn hier kann schon ein falsch gesetztes Komma enorme Auswirkungen haben und sogar falsche Prognosen nach sich ziehen.

Tipp 3: Fehler erlauben und lernen

Die Arbeit mit Daten geht mit einem gewissen Umdenken bis zu einem Kulturwandel im Unternehmen einher, der wichtig für den Erfolg, aber in der Umsetzung schwierig ist. Die Arbeit mit Daten bedeutet oft Neues auszuprobieren. Und umgekehrt aus dem, was nicht funktioniert, zu lernen und den Kurs mit diesem Wissen zu korrigieren. Wichtig ist ein konstruktiver Umgang mit Fehlern. Fehler sollten nicht als etwas Negatives angesehen werden, sondern als Grundlage, um daraus zu lernen. Datenbasiert zu arbeiten bedeutet also auch, eine gesunde Fehlerkultur im Unternehmen zu etablieren.

Datenanalyse

Tipp 4: Die Grundlagen zur Datenanalyse schaffen

Zu den eher ungeliebten Aufgaben der Datenwissenschaftler gehört, sich mit Problemen wie Datensilos oder unsauberen Daten beschäftigen zu müssen. Nicht nur für die Business-Entscheider, sondern für viele Abteilungen im Unternehmen ist es daher wichtig, möglichst saubere Daten zu liefern und sie zu pflegen. Eine hohe Datenqualität fördert die Arbeit der Datenwissenschaftler. Dazu gehören Aufgaben wie: Daten aktuell halten, von Redundanzen befreien und nicht mehr benötigte Daten regelmäßig löschen. Das mag im Alltag lästig sein – etwa dem Vertrieb als ein Mehraufwand erscheinen. Aber es ist wichtig, solche Prozesse zu verankern, um sich später die Arbeit zu erleichtern.

Auch der Umstieg von veralteten Systemen, die problematische Daten erzeugen, ist oft ein wichtiger Schritt hin zu mehr Datenqualität. Der Umstieg bedeutet ebenfalls etwas Mehraufwand, der sich aber später auszahlen wird.

Tipp 5: Den Kunden in den Mittelpunkt stellen

Bei Analysen und Businessentscheidungen ist es nützlich, immer wieder zu erinnern, worum es eigentlich geht: den Kunden. Datenanalyse und die Arbeit mit Daten darf nie zum Selbstzweck werden, sondern soll am Ende immer das Kundenerlebnis insgesamt, also etwa einen bestimmten Abschnitt vor oder beim Kauf verbessern. Bei der Planung von Marketing-Maßnahmen gilt es daher auch zu testen, ob die Kunden darauf überhaupt Wert legen. Auch bei der Umsetzung von Aktionen lohnt sich der vorherige Blick in die KPIs (Key Performance Indicators).

Tipp 6: Datenzentriertes Denken schrittweise fördern

Der Weg von der Arbeit mit Daten hin zum datenzentrierten Unternehmen ist lang, und die Transformation geschieht nicht von heute auf morgen. Hilfreich auf dem Weg zum Ziel ist es, die Akzeptanz von Daten im Unternehmen in allen Abteilungen zu fördern. Das fällt oft gerade dann schwer, wenn Daten ungeliebte Wahrheiten zutage bringen – etwa was in einer Abteilung nicht funktioniert. 

Oliver Rozić, Vice President Product Engineering bei Sage, kommentiert: „Eine erfolgreiche Datenarbeit setzt voraus, eingefahrene Denkweisen und Hierarchien aufzubrechen. Denn bei bestimmten Themen hat der Datenexperte einfach mehr Wissen als andere – auch als der CEO. Solche Veränderungen lassen sich aber nicht von heute auf morgen umsetzen. Ein schrittweises Vorgehen die beste Erfolgsstrategie.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Effiziente Prozesse ohne Programmierkenntnisse

Effiziente Prozesse ohne Programmierkenntnisse

Mitarbeitende vieler Unternehmen kennen diese Herausforderung. Ohne fundierte IT-Kenntnisse und Programmierkenntnisse können Änderungen in Arbeitsprozessen nur langsam und weniger agil angepasst werden, da sie oft von den IT-Abteilungen und Entwicklern abhängen, um umgesetzt zu werden. Wie können Unternehmen also alle Mitarbeiter:innen unabhängig von ihren Programmierfähigkeiten dabei unterstützen, unabhängiger und effizienter zu arbeiten? Durch die Wahl einer Arbeitssoftware, die sowohl No-Code- als auch Low-Code-Funktionen bietet.

Shirley Baumer, Director of Product Management und Head of Building Blocks & Collaboration bei monday.com, erklärt im Interview, warum Low Code/No Code für technisches Empowerment essentiell ist.

Wie können Unternehmen ihre Mitarbeitenden ohne Programmierkenntnisse unterstützen, ihre Arbeitsprozesse effizienter zu gestalten?

Innerhalb traditioneller Softwarebranchen übernehmen meistens noch immer die IT-Abteilungen die Erstellung unterschiedlicher Arbeitsabläufe und diktieren den täglichen Umgang mit den technischen Hilfsmitteln am Arbeitsplatz. Die Studie „The Role & Influence of the Technology Decision-Maker“ aus dem Jahr 2022 hat gezeigt, dass die durchschnittliche Anzahl der IT-Entscheidungsträger in Unternehmen bei 20 Personen liegt. Mittlerweile erkennen jedoch immer mehr Unternehmen, dass jedes Team anders arbeitet und erlauben die Entwicklung einer neuen Realität mittels “demokratisierter Software”, die sich an die jeweiligen Mitarbeitenden anpasst und nicht umgekehrt. Laut einer Gartner-Studie aus dem Jahr 2021 passen durchschnittlich 41 % der Mitarbeiter außerhalb der IT-Abteilung Daten- oder Technologielösungen an oder entwickeln sie selbst.

Die letzten zwei Jahre haben uns gezeigt, dass die Realität von unerwarteten Umständen beeinflusst wird, beispielsweise durch die Pandemie oder die Finanzkrise. Die Arbeitswelt muss darauf agil und flexibel reagieren. Programmieren ist dabei zwar eine wichtige Fähigkeit, die aber nicht bei allen Mitarbeitenden vorhanden ist. Umso entscheidender ist es, seinen Arbeitnehmer:innen Tools zur Verfügung zu stellen, mit denen sie ihren eigenen Arbeitsablauf gestalten können. Es ist nicht nötig, Menschen zur Nutzung unterschiedlicher Technologien zu “erziehen.” Sie wünschen sich, dass ihre Tools einfach zu bedienen und intuitiv sind, ähnlich wie in ihrem Privatleben. Wir stellen fest, dass die Generation Z, die nun in die Arbeitswelt eintritt, andere Vorlieben hat als etwa frühere Generationen. Technik umgibt uns in allen Aspekten unseres Lebens. Deshalb ist die Wahl einer Low-Code/No-Code Plattform eine gute Entscheidung, um die Entfaltung verschiedener Arbeitsstile auf allen Ebenen zu ermöglichen, von der Gesamtheit des Unternehmens bis zum einzelnen Mitarbeitenden.

Whitepaper-Angebot: Digitalisierung im Mittelstand.
Google My Business: Warum sich der Eintrag lohnt
Anzeige: Whitepaper der DIGITAL-WEBER

Welche Rolle spielt Low Code/No Code für das technische Empowerment innerhalb der Unternehmen?

Low-Code/No-Code integriert technische Fähigkeiten in alle Aspekte eines Unternehmens. Es erlaubt Mitarbeitenden mit ohne Programmierkenntnisse, sich intensiver mit den Tools am Arbeitsplatz zu befassen. Durch die Demokratisierung von Software ist die Entwicklung von Arbeitsabläufen und die Gestaltung von Technologie-Tools nicht länger eine Fähigkeit, die denjenigen vorbehalten ist, die über ausgiebiges technisches Hintergrundwissen verfügen. Zusätzlich schafft LCNC Transparenz und eine freiere Kommunikation zwischen allen Bereichen eines Unternehmens. Sie eliminiert Silos und erzeugt gleichzeitig ein dynamisches und agiles Umfeld. Ein weiterer klarer Vorteil der Befähigung von Mitarbeitern durch Low-Code/No-Code-Plattformen besteht darin, dass sie die Möglichkeit haben, technische Probleme selbst zu lösen, denn: Wer ein Problem hat, hat auch die Lösung.

Wie genau verhilft monday.com Mitarbeitenden ohne technisches Fachwissen zu mehr Autonomie am Arbeitsplatz?

Wir haben elementare Funktionen in ihre Hauptbausteine zerlegt, wie z.B. Automatisierungen, Integrationen, Visualisierungen und mit verschiedenen Arten von Dateninfrastrukturen, wodurch wir eine Plattform (work OS) aufbauen konnten, die es den Benutzer:innen ermöglicht, ein einfach zu bedienendes und intuitives Werkzeug zu erstellen. Das wird am Beispiel der Erstellung von komplexen zu programmierenden Automatisierungen deutlich. Das monday.com work OS verwandelt diese Fähigkeiten in einen einfachen, umfassenden Satz. Damit erleichtert esdie Erstellung von Automatisierungen für Benutzer:innen aller Kenntnisstufen.

Welche Zukunft prognostizieren Sie für Low Code/No Code Plattformen?

So wie sich die Welt der Softwareentwicklung weiterentwickelt, so entwickelt sich auch der Weg der Unternehmen in Richtung digitale Transformation. Die zunehmende Beliebtheit von LCNC-Plattformen erweitert die Chancen, Prozesse in traditionellen Branchen zu digitalisieren. Dieser Wandel bietet Teams die Möglichkeit, weitaus vielfältigere Herausforderungen zu bewältigen. Er erweitert die Fähigkeit, diese zu lösen – für eine zunehmende Anzahl von Personen in jedem Unternehmen und in allen Branchen. LCNC ist nicht nur die nächste Phase in der Evolution der Software, sondern verfügt auch über das Potenzial, klassische Arbeitsmittel wie Stift und Papier in vielen Branchen zu ersetzen. Dass mehr als 70 Prozent unserer Kunden aus nichttechnischen Bereichen kommen, zeugt von dem umfassenden Interesse an LCNC Plattformen.

Was müssen Unternehmen beachten, wenn sie sich für Low Code/No Code entscheiden?

Unternehmen sollten sich darauf konzentrieren, die richtige Plattform zu finde. Diese sollte es allen Teams ermöglichen, sie entsprechend ihren spezifischen und sich ändernden Bedürfnissen zu nutzen. Gleichzeitig sollte sie in der Lage sein, mit dem Wachstum des Unternehmens einherzugehen, ohne dass zusätzliche Implementierungskosten anfallen. Dies sollte eine Plattform sein, die verschiedene Geschäftsbereiche wie F&E, Finanzen oder Marketing zentralisiert und Silos beseitigt, indem sie die Kommunikation und Zusammenarbeit auf der Grundlage umfassender Daten fördert.

Eine Plattform, die einfach zu bedienen ist und gleichzeitig Spaß macht, motiviert Mitarbeitende, sie aktiv zu nutzen. Dies ist wichtig, um einen datengetriebenen Ansatz für das Unternehmen mit der jeweiligen Low-Code-Plattform zu schaffen. Weiterhin sollte die Fähigkeit zur Skalierung entsprechend dem jeweiligen Geschäftswachstum geprüft werden. Grundsätzlich ist es immer eine gute Idee, die Plattform von den Mitarbeitenden selbst ausprobieren zu lassen und sie in den Entscheidungsprozess einzubeziehen. So stellen Unternehmen die Förderung der Produktivität sicher, da komplexe Arbeitsabläufe vereinfacht werden können und für alle zugänglich gemacht werden können.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Kommunikationslösungen sicher hosten – aber wie?

Kommunikationslösungen sicher hosten – aber wie?

Der Anbietermarkt von SaaS-Lösungen wächst und die Nachfrage nach flexiblen und skalierbaren Infrastrukturen nimmt zu. Parallel steigen die Anforderungen an Datenschutz und -sicherheit

. Leider auch die Anzahl von Hackerangriffen und Vorfällen, welche die Cybersicherheit gefährden, vervielfacht sich – wie der aktuelle BSI-Lagebericht zudem bestätigt. Dabei ist vielen Organisationen nicht bewusst, dass sie mit ihren IT-Lösungen ins Visier von Cyberkriminellen geraten können oder sich rechtlich auf sehr dünnes Eis begeben. Worauf kommt es bei der Wahl einer Kommunikationslösung also an und welche Rolle spielt dabei das Hosting von Kommunikationslösungen?

Kommunikationslösungen sicher hosten – aber wie?

Viele Tools und Kommunikationslösungen, die hierzulande im Unternehmensalltag zum Einsatz kommen, basieren auf Lösungen großer US-amerikanischer Cloud-Provider. Das Problem hierbei ist, dass es keine Rechtsgrundlage gibt, um personenbezogene Daten – beispielsweise Name, Standort und Kontaktinformationen der kommunizierenden Personen – in den USA oder von US-Unternehmen verarbeiten zu lassen. Der sogenannte transatlantische Datentransfer wäre nur zulässig, wenn die USA als Drittland ein angemessenes Datenschutz-Niveau vorweisen könnten (Artikel 44 DSGVO) – oder ein sogenannter Angemessenheitsbeschluss (Artikel 45 DSGVO) vorläge. Beides ist nicht mehr gegeben, seit der Europäische Gerichtshof (EuGH) auch das Privacy Shield-Abkommen 2020 für ungültig erklärte.

Dringender Handlungsbedarf für Unternehmen

Doch es geht nicht nur um den Schutz personenbezogener und unternehmenskritischer Daten, sondern auch um die Gewährleistung des Organisationsbetriebs und der Kommunikation – insbesondere in Krisen- und Notfallsituationen. Laufen bestimmte Dienste einer Organisation in der Cloud großer US-Konzerne, sind Alternativen als eine Art Sicherheitsnetz nötig, um bei einem Ausfall dieser Cloud-Strukturen – ganz gleich ob durch höhere Gewalt, menschliches Fehlverhalten oder gezielte Attacken – wichtige Prozesse wie die interne Kommunikation aufrechterhalten zu können. Hier geht es gezielt darum, digital resilient und souverän zu sein. Denn dann kann auch in Krisensituationen oder im Fall von Cyberattacken im eigenen Unternehmen die volle Funktionsfähigkeit der Software-Lösungen gewährleistet werden. So ist der interne Informationsfluss zu keiner Zeit unterbrochen und die Organisation bleibt weiter handlungsfähig.

Zero Trust: Mit Netz und doppeltem Boden

Ein Plus an Sicherheit gewinnen Unternehmen, wenn Sie mit dem Zero-Trust-Modell zusätzliche Sicherheit in ihre IT-Infrastruktur integrieren. Die Prämisse des Modells ist: Kein Tool, keine Plattform, kein User ist sicher. Deshalb werden jede Anforderung, jeder Zugriff und jede Anfrage an das System so geprüft, als käme sie aus einem offen zugänglichen Netzwerk. Bevor also ein Zugriff gewährt wird, gilt es diesen vollständig zu authentifizieren, zu autorisieren und zu verschlüsseln sowie die Identität und den Zustand des Endgeräts zu überprüfen. Umfassende Business Intelligence (BI) und Analytics erkennen zudem Anomalien in Echtzeit und wehren sie ab. Dies macht es Cyberkriminellen erheblich schwerer, die Kommunikationslösung als Einfallstor zu nutzen.

Checkliste: Eine sichere Kommunikationslösung auswählen

Mit dem Ziel die eigenen Daten bestmöglich zu schützen und die Kommunikation auch im Krisenfall sicherzustellen, müssen Unternehmen ihre bestehende (wie auch jede neu in Erwägung gezogene) Kommunikationslösung und deren Hosting-Anbieter hinsichtlich Datenschutz und -sicherheit überprüfen und sich folgende Fragen stellen.

Im Hinblick auf das Hosting:

  • Bietet der Dienstleister für seine Kommunikationslösung verschiedene Hosting-Modelle an (Public Cloud, Private Cloud, On-Premises)?
  • Findet bei Public-Cloud-Lösungen kein Datentransfer in die USA oder andere Drittländer ohne angemessenes Datenschutzniveau statt?
  • Liegen Sitz des Software-Anbieters und des Cloud-Providers innerhalb der EU?
  • Basiert die Kommunikationslösung auf einer ausfallsicheren Serverinfrastruktur in ISO 27001-zertifizierten Rechenzentren?

Bezüglich Datenschutz und -sicherheit:

  • Lässt sich das Zero-Trust-Modell damit umsetzen?
  • Werden alle Anforderungen der DSGVO und ggf. anderer rechtlicher Vorschriften, umgesetzt? Dazu gehören beispielsweise
    • Dokumentations- und Archivierungspflichtenkeine Analyse von MetadatenAnonymisierung von personenbezogenen Daten
    • Mehrfachauthentifizierung u.v.m.
  • Folgt der Software-Anbieter den Grundsätzen von Privacy by Design und Privacy by Default?
  • Garantiert der Dienstleister dem Anwender die volle Kontrolle und Datenhoheit?
  • Bringt der Anbieter der Kommunikationslösung entsprechende Erfahrung im Umgang mit Datenschutz und Datensicherheit mit?
  • Kann die Kommunikationslösung mit detaillierten Referenzen überzeugen?

Lassen sich diese Fragen für eine konkrete Kommunikationslösung bejahen, besteht aus datenschutzrechtlicher Sicht und im Hinblick auf Datensicherheit und -souveränität eine gute Grundlage. Natürlich muss anschließend auch die Funktionalität der Lösung überzeugen, darunter Standard-Funktionen wie beispielsweise Echtzeit-Messaging, Videotelefonie und die Einbindung mehrerer Endgeräte. Aber auch business-relevante Aspekte – etwa eine einfache Administrationsoberfläche und Nutzerverwaltung, Alarmierungen und Status-Nachrichten sowie die Möglichkeit, organisationsübergreifend zu kommunizieren und auch Drittsysteme anzubinden. Schließlich ist es auch die Qualität von Kommunikationsprozessen, welche die digitale Resilienz und Souveränität fördert.

Anzeige: Testen Sie jetzt myfactory Cloud ERP – Die All-In-One-Lösung für den deutschen Mittelstand.

Fazit: Datensouveränität ist das A und O

Nicht allen Unternehmen ist aktuell bewusst, auf welcher rechtlichen und technologischen Grundlage sie ihre Kommunikationslösungen betreiben. Nicht selten fehlt die Transparenz seitens der Lösungsanbieter, auch hinsichtlich der Erklärungen zu Datenschutz und Sicherheitsstandards. Dies sorgt für eine bedenkliche Abhängigkeit der Unternehmen von diesen Anbietern. Dabei trägt jedes Unternehmen rein rechtlich selbst die Verantwortung für die Datenverarbeitung. Folglich sollte es souverän steuern können, dass die Verarbeitung von personenbezogenen und unternehmenskritischen Daten den gesetzlichen Anforderungen und eigenen Ansprüchen genügt. Wenn es um Datensouveränität geht, gibt es keine Kompromisse

Der Beitrag wurde ursprünglich hier veröffentlicht …

Vier RPA-Mythen auf den Zahn gefühlt: So entfesseln Unternehmen die Magie der intelligenten Prozessautomatisierung

Vier RPA-Mythen auf den Zahn gefühlt: So entfesseln Unternehmen die Magie der intelligenten Prozessautomatisierung

RPA-Chancen und -Risiken, Handlungsempfehlungen und Skalierungstipps einfach erklärt:

Vier RPA-Mythen auf den Zahn gefühlt: So entfesseln Unternehmen die Magie der intelligenten Prozessautomatisierung

Robotic Process Automation (RPA) ist keine Zauberei, aber dennoch magisch. Die RPA-Experten von Another Monday wollen die Vorteile und Möglichkeiten intelligenter Prozessautomatisierung nun besser greif- und umsetzbar machen. Daher hat der Anbieter mit „The Magic of RPA“ eine Kampagne ins Leben gerufen, die mit Thesenpapieren, Videos und Expertenmeinungen Schluss mit gängigen RPA-Mythen und Unsicherheiten machen will. Den Start macht das Paper „RPA – Von der Illusion zur Magie“. Weitere Beiträge beschäftigen sich mit detaillierten Erläuterungen, Starttipps für das eigene RPA-Projekt, Ratschlägen zur Anbieterauswahl, Business Cases und Skalierungshinweisen. Im Fokus: Vorurteile und falsche Annahmen der vielschichtigen RPA-Thematik widerlegen.

Eine aktuelle YouGov-Umfrage im Auftrag von Another Monday hat in diesem Zusammenhang herausgefunden, dass zwar rund die Hälfte der befragten Mitarbeiter von deutschen Großunternehmen das Thema RPA kennt. Allerdings haben erst zwölf Prozent bereits Geschäftsprozesse durch Software-Roboter umgesetzt. Laut „ISG Automation Index“ wollen bis 2019 rund 72 Prozent der befragten Unternehmen aus den USA, Großbritannien, Frankreich und Deutschland RPA im laufenden Betrieb oder als Test in Pilotprojekten nutzen. Um hier erfolgreich sein zu können, lohnt es sich, die folgenden Vorurteile aus dem Weg zu räumen.

Das sind die häufigsten RPA-Irrtümer:

1. RPA reduziert Prozesskosten, ansonsten gibt es kaum Vorteile

Robotic Process Automation (RPA) ist eine Technologie, die menschliche Handlungen nachahmt und wiederkehrende Aufgaben in zahlreichen Geschäftsanwendungen in der IT-Infrastruktur automatisiert. Aufgrund falscher Erwartungen wird jedoch so manches RPA-Projekt oftmals unbedacht und zu einseitig angegangen, was zum Scheitern führt. So denkt so mancher Firmenentscheider beispielsweise, dass der einzige signifikante Vorteil der Prozessautomatisierung durch Software-Roboter darin bestehe, Kosten zu sparen. Das ist falsch, denn RPA hat – sofern durchdacht geplant und ausgeführt – das Potenzial, einen positiven Beitrag für Kostenstruktur, Kundenbeziehungen und Risikomanagement zu leisten. Erst wenn RPA als eine ganzheitliche Lösung und nicht als reines Technologie-Tool gesehen wird, kann die Magie von RPA wirklich zum Tragen kommt.

2. Jeder Prozess lässt sich durch RPA automatisieren

Mithilfe einer angemessenen Prozessanalyse und -identifizierung lässt sich feststellen, dass die Hälfte der Prozesse mit sich wiederholenden Aufgaben für die Automatisierung geeignet ist. Technisch gesehen, lassen sich fast alle administrativen Geschäftsprozesse automatisieren, allerdings ist nicht jeder einzelne Prozess geeignet. Oftmals sind lediglich die zeitaufwändigsten Arbeitnehmertätigkeiten lohnenswerte RPA-Projekte. Zur Bestimmung der besten Prozesse ist eine ganzheitliche Sichtweise auf die gesamte Geschäftsprozesskette einer Organisation erforderlich. Hierbei ist es sinnvoll, erfahrene Experten ins Boot zu holen.

3. Virtuelle Mitarbeiter nehmen Menschen die Arbeit weg

Nein, denn RPA ist lediglich eine Methode, die bestimmte menschliche Aufgaben überflüssig macht oder vereinfacht. Da Roboter allein auf Grundlage ihrer Programmierung handeln, führen sie Aufgaben effizienter und konsistenter durch als der Mensch. Gleichzeitig ermöglicht RPA Arbeitnehmern, sich auf Aufgaben zu fokussieren, die der menschlichen Aufmerksamkeit bedürfen. Beispiele sind die Behandlung von Ausnahmefällen, die Erschließung kreativen Potenzials und die Verbesserung der Zusammenarbeit. Oftmals optimiert RPA also Services, die Arbeitnehmer ihren Kunden anbieten, anstatt diese Aufgaben wegzunehmen.

4. RPA lässt sich sofort betriebsintern und ohne Fachkenntnisse umsetzen

Robotic Process Automation sollte in erster Linie als Methodik und nicht als Technologie betrachtet werden. Für die Implementierung ist der ganzheitliche Ansatz eines erfahrenen Anbieters erforderlich. Das Fundament eines RPA-Projekts ist ein robuster Governance-Rahmen. Innerhalb dieses Rahmens gilt es, alle Änderungen sorgfältig zu planen, klar zu kommunizieren und gründlich zu testen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Monitor gründet eigene Niederlassung in Deutschland

Monitor gründet eigene Niederlassung in Deutschland

Die Wirtschaftslage ist ernst. Deutsche Produktionsunternehmen stehen vor Herausforderungen wie der Umsetzung des neuen Lieferkettengesetzes, einer hohen Inflation und Rohstoffknappheit. Monitor, ein internationaler ERP-Hersteller, sieht dies als Chance. Nach dem Motto „Go Big or Go Home“ kommt der Software-Hersteller mit einer eigenen Gesellschaft nach Deutschland. Mit diesem Engagement will das Unternehmen die Zukunft von produzierenden Unternehmen verändern. Die moderne ERP-Software stellt dafür die passenden Lösungen für die aktuellen Herausforderungen bereit und überzeugt mit einfachen, automatisierten und digitalen Prozessen.

Die Erfolgsgeschichte geht weiter

Monitor blickt auf mehr als 40 Jahre Erfahrung in der Digitalisierung der schwedischen Produktionsunternehmen zurück. Dort ist der ERP-Hersteller mit einem Anteil von 40 Prozent (*) der Marktführer im produzierenden Mittelstand. Bekannte Unternehmen wie HANZA, Koenigsegg Automotive AB, AQ Group oder die LEAX Group vertrauen auf das inhabergeführte Unternehmen. Seit einigen Jahren ist Monitor zudem weltweit vertreten und beschäftigt um die 400 Mitarbeiter auf der ganzen Welt, unter anderem auch in Norwegen, Polen, Malaysia und China. Auch in Deutschland konnte sich der schwedische Software-Anbieter in Zusammenarbeit mit einem Partner einen beachtlichen Kundenstamm in der Produktionsbranche aufbauen. Zu den Kunden zählt beispielsweise die Anderson Europe GmbH. Nun geht Monitor ERP System den nächsten Schritt auf seiner Reise in der globalen Entwicklung und startet im Jahr 2023 mit einer eigenen Niederlassung in Düsseldorf, Deutschland.

(*) Monitor überprüft jährlich zusammen mit dem Unternehmen Publikator die Marktführerschaft.

Global aufgestellt und lokal angepasst – Monitor ERP ist optimal für den deutschen Markt

Monitor G5 ist eine weltweit einsatzfähige Software, die für den deutschen Markt optimal vorbereitet ist. So ist das ERP-System bereits seit 2019 nach IDW PS880 zertifiziert. Um die deutsche Marktreife zu bestätigen, wurde im September 2022 die Software mit dem Award ERP-System des Jahres 2022 ausgezeichnet, nachdem es sich im Vorjahr bereits den zweiten Platz sichern konnte. Damit ist Monitor G5 das beste System in der Kategorie Einzelfertigung und beweist, dass es Unternehmen in Deutschland langfristig und kompetent unterstützen kann.

Johan Holmsten, Vertriebs- und Marketingdirektor von Monitor:

„Monitor G5 ist hervorragend an den deutschen Markt angepasst. Es ist gemäß IDW PS880 zertifiziert und verfügt über ein für den deutschen Markt angepasstes Länderpaket. Wir sind davon überzeugt, dass unser System produzierenden Unternehmen helfen kann, profitabler und effizienter zu werden. Dies haben wir in unserer langen und umfangreichen Erfahrung in der nordischen Produktionsindustrie bewiesen. Die Investition in unser System kann deutschen Produktionsunternehmen dabei helfen, für die Zukunft gerüstet sein und noch schlummerndes Potenzial im Unternehmen auszuschöpfen.“

Go Big or Go Home!

Monitor sieht den Zeitpunkt seines Markteintritts als Chance. Denn gerade jetzt müssen produzierende Unternehmen in Deutschland ihr volles Potenzial ausschöpfen. Es ist Zeit jetzt zu investieren und digitalisieren. Monitor G5 bietet einfache, automatisierte und digitale Prozesse für die aktuelle Herausforderungen und setzt auf aktuelle Trendthemen wie Nachhaltigkeit, Kreislaufwirtschaft oder veränderte Lieferketten. Eine vorausschauende Planung bietet einen Blick in die Zukunft. So können Unternehmen schnell reagieren und ihre Prozesse anpassen. Das macht sie zukunftssicher und stark für die aktuellen Krisen. Damit ist Monitor der perfekte Partner für Wachstum, ganz nach der Devise: Go Big Or Go Home!

Monitor gründet eine Niederlassung in Deutschland
Thomas Blomberg, CEO der MERP Monitor Enterprise Resource Planning System GmbH und Morgan Persson, CEO Monitor ERP System AB (© MERP Monitor Enterprise Resource Planning System GmbH / Monitor ERP System AB)

Tomas Blomberg wird Geschäftsführer in Deutschland

Die MERP Monitor Enterprise Resource Planning System GmbH geht mit einem fokussierten Team und einem Büro in Düsseldorf-Heerdt an den Start. Dies markiert den Beginn eines deutschen Kernteams bestehend aus Vertrieb, Beratern und lokalem Support. Damit wird Monitor künftig Unternehmen in ganz Deutschland den bestmöglichen Kundenservice gewährleisten. Unterstützt wird Monitor Deutschland dabei von anerkannten, offiziellen Partnern. Der ERP-Anbieter 5CUBE.digital GmbH in Hamburg vertreibt und implementiert bereits seit mehreren Jahren die ERP-Software Monitor G5 und wird diese auch in Zukunft tun.

Den Kopf des neuen Teams in Deutschland bildet Tomas Blomberg. Er ist der neue Geschäftsführer in Deutschland und bringt eine umfangreiche und internationale Erfahrung in Produktion und Fertigung mit. So unterstütze er unter anderem Unternehmen wie Norrlandsfonden, ZEPRO oder Cargotec beim Wachstum. Um nah am Markt zu sein, zieht der gebürtige Schwede für seine neue Rolle nach Düsseldorf und wird den Ausbau des Standorts vor Ort forcieren. 

Thomas Blomberg, CEO der MERP Monitor Enterprise Resource Planning System GmbH: 

„Ich freue mich sehr, Teil der Reise von Monitor in Deutschland zu sein. Mit meinem Hintergrund in industriellen Abläufen und verschiedenen Geschäftssystemen kenne ich die Anforderungen unserer Kundschaft nur zu gut und kann unseren Interessenten auf Augenhöhe begegnen. Ich bin überzeugt, dass wir vielen produzierenden Unternehmen in Deutschland helfen können, ihre Abläufe und ihre Rentabilität mit dem ERP-System von Monitor zu verbessern.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Sieben Fehler bei der Einführung von KI

KI liegt im Trend, aber beim Einsatz dieser Technologie können sich Unternehmen leicht vertun.

Sieben Fehler bei der Einführung von KI

Künstliche Intelligenz (KI) wird mehr und mehr zu einer Standard-Tech­nologie. Von der industriellen Fertigung über Büroanwendungen bis zu komplexen CRM-Lösungen, überall ermöglicht KI die Automatisierung von Prozessen. Allerdings verfügen die meisten Unternehmen noch über wenig Erfahrung im Umgang mit KI. Hier lesen Sie welche Fehler bei der Implementierung von KI häufig gemacht werden.

1. Kein echter Mehrwert

Viele Unternehmen planen den Einsatz von KI, nur weil KI ein Hype ist, nicht weil sie einen klaren Mehrwert realisieren können, beispielsweise durch höhere Kundenzufriedenheit, Cross- oder Upselling-Möglichkeiten, Prozessoptimierung oder Qualitätssteigerung.

2. Fehlende Kommunikation

Wird der Einsatz von KI den Anwendern nicht kommuniziert, erfahren sie zum Beispiel gar nicht, dass sie mit einem KI-gestützten System interagieren. Das kann später zu Vertrauensverlust und zur Ablehnung führen.

3. Unzureichende Datengrundlage

In der Regel ermitteln KI-Systeme aus großen Datenmengen wiederkehrende Muster; ist dabei die Datenbasis nicht ausreichend, haben die Ergebnisse keine Relevanz.

4. Blindes Vertrauen

Auch wenn IT-Systeme in manchen Anwendungsfällen erstaunliche “Intelligenz” aufweisen, eignen sich nicht alle Anwendungsfälle für KI; etwa wenn keine hinreichend operationalisierbaren Daten bereitgestellt werden können.

5. Fehlende Transparenz

Aufgrund der großen Anzahl von Einflussfaktoren und Methoden für die Ermittlung von KI-Ergeb­nissen kann es schwierig bis unmöglich sein, ex post nachzuvollziehen, wie ein bestimmtes Ergebnis zustande gekommen ist. Je nach Anwendungsfall kann es jedoch notwendig sein, eine entsprechende Transparenz sicherzustellen, zum Beispiel bei Therapieempfehlungen.

6. Mangelnde Flexibilität

KI wird so konzipiert, dass die Fachabteilungen keine ausreichenden Möglichkeiten zur Anpassung haben; die Mitarbeiter der Fachabteilungen müssen jedoch in der Lage sein, KI-Lösun­gen selbständig zu parametrisieren, um agil mit verschiedenen Szenarien experimentieren zu können.

7. Fehlende Praxistauglichkeit

Unternehmen realisieren häufig KI-Lösungen, die zwar in Pilot-Projekten gut funktionieren, die aber in der Praxis nicht gut skalieren; die verwendeten KI-Verfahren müssen in großen Anwendungen mit zahlreichen Nutzern – beispielsweise in Web-Infrastrukturen – in kurzer Zeit Antworten liefern; als Richtwert sollten Antwortzeiten von weniger als 50 Millisekunden möglich sein.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Eine automatisierte Fertigung braucht stabile Netzwerke

Eine automatisierte Fertigung braucht stabile Netzwerke

Viele Produktionsanlagen laufen heute bereits vollkommen automatisiert. Selten muss der Mensch in der Fertigung noch selbst Hand anlegen. Die Vorteile dieser Entwicklung sind zahlreich, aber genießen können Unternehmen sie nur, wenn auch das Netzwerk mitspielt. Dirk Schuma, Sales Manager Europe bei Opengear, erklärt, warum stabile Netzwerke wichtig sind.

Eine automatisierte Fertigung braucht stabile Netzwerke

Viele Faktoren haben in den letzten Jahren die Fertigungsindustrie grundlegend verändert: Die Anzahl der Wettbewerber wächst, sodass Kunden sich mit ihren ebenfalls immer höheren Ansprüchen im Zweifel an einen anderen Anbieter wenden. Auf Produktionsseite sorgt dieser Umstand wiederum für kleinere Gewinnmargen. Überdies führt die Pandemie auch weiterhin zu personellen Ausfällen. Der Druck auf das produzierende Gewerbe war dementsprechend nie höher als jetzt, auf Automatisierung zu setzen und damit die betriebliche Effizienz zu steigern.

Die gute Nachricht: Die vierte industrielle Revolution hat durch die umfassende Vernetzung und Computerisierung alle nötigen Voraussetzungen geschaffen, das Problem anzugehen. Technologien und Verfahren wie Künstliche Intelligenz, das Internet of Things (IoT), selbstlernende Algorithmen und Big Data bestimmen mittlerweile den Alltag der Branche. Die Basis für die erfolgreiche digitale Transformation und Automatisierung in der Fertigungsindustrie ist allerdings ein resilientes und stabiles Netzwerk.

Automatisierung im Fertigungskontext

Unternehmen erhalten durch automatisierte und rationalisierte Fertigungsprozesse eine höhere Kontrolle über ihren Betrieb, können die Produktion steigern und die Kosten senken. In den sehr komplexen Abläufen gibt es viele Stellen, die Fertigungsbetriebe automatisieren können, beispielsweise mit passendem Equipment oder eben Softwareanwendungen. Wo und wie genau Unternehmen diese Technologien sinnvoll einsetzen können, unterscheidet sich von Betrieb zu Betrieb. Grundsätzlich unterscheiden Experten zwischen zwei Arten der Automatisierung: die „fixe Automatisierung“ und die „flexible Automatisierung“.

Die fixe Automatisierung, die auch als „harte Automatisierung“ bekannt ist, eignet sich für die Massenherstellung eines Produktes. Sie enthält – wie der Name impliziert – ein Set fester Sequenzen, beispielsweise für den Zusammenbau oder die Verarbeitung eines Produkts. Ein typischer Einsatzort sind Montagestraßen. Eine flexible Automatisierung hingegen ermöglicht Unternehmen Systeme zu unterhalten, die sie schnell bei notwendigen Änderungen im Produktionsprozess anpassen können. Das Personal nutzt dafür ein sogenanntes Human Machine Interface. Das ist heutzutage in der Regel eine Software mit intuitiver Benutzeroberfläche, die eine schnelle und unkomplizierte Neuprogrammierung der Fertigungsmaschinen ermöglicht. 

Stabile Netzwerke sind wichtig

Die Rolle des stabilen Netzwerks

All die neuen Hardware- und Software-Technologien, die Fertigungsbetriebe in ihre Produktionsstraßen implementieren, belasten das Unternehmensnetzwerk enorm. Die Gefahr eines Ausfalls nimmt mit der steigenden Last zu. Gerade Fertigungsbetriebe, deren Produktion und IT-Verwaltung nicht am gleichen Standort stattfindet, stehen dann vor einem großen Problem, denn die Fehleranalyse und Wiederherstellung der Netzwerkverbindung kann in diesem Fall nur vor Ort stattfinden. Dazu müssen die Netzwerkadministratoren allerdings zunächst einmal anreisen, was zu einer längeren Ausfallzeit und damit horrenden Kosten führen kann.

Smart-Out-of-Band-Lösungen (Smart OOB) bieten Administratoren von überall her Zugriff auf sämtliche Netzwerkgeräte am Produktionsstandort. Die Installation eines Smart-OOB-Konsolenservers bildet die Grundlage für ein paralleles Netzwerk, das bei einem Ausfall des primären Netzes die Problembehebung ermöglicht. In der Regel geschieht das über den 4G- oder LTE-Mobilfunk. In Verbindung mit Monitoring-Tools, die Administratoren direkt auf den Konsolenservern installieren können, reduzieren Unternehmen die Dauer für eine Wiederinstandsetzung ihres Netzwerks.

Eine Smart-OOB-Lösung hat allerdings noch weitere Vorteile, zum Beispiel die automatisierte Bereitstellung und Provisionierung von Equipment. Sobald die Mitarbeiter am Zielstandort die neuen Geräte mit dem Netzwerk verbunden und am Strom angeschlossen haben, laden die in der IT-Abteilung vorkonfigurierten Geräte alle nötigen Updates und Softwarekomponenten automatisch von zentraler Stelle herunter. Die Zeit bis zur Einsatzbereitschaft und der Personalaufwand sinken dadurch drastisch.

Fazit

„Stabile und resiliente Netzwerke bilden das Rückgrat sämtlicher Digitalisierungs- und Automatisierungsbemühungen von Unternehmen“, betont Dirk Schuma, Sales Manager Europe bei Opengear. „Da Netzwerkausfälle horrende Kosten verursachen, zählt gerade in der hochgradig technologisierten und vernetzten Fertigungsindustrie jede Sekunde. Smart-Out-of-Band-Lösungen verringern den Zeitaufwand für die Fehlersuche bei Problemen im Netzwerk, sodass die Produktion schnell wieder anlaufen kann.“ 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Sieben Dinge, die jeder CEO über seine Patente wissen sollte

In der Geschäftswelt von heute würden Unternehmen einen deutlich höheren Wert besitzen, wenn sie eine bessere Kontrolle über ihr geistiges Eigentum hätten. Je mehr immaterielle Vermögenswerte ein Unternehmen besitzt, desto profitabler wird es.

Sieben Dinge, die jeder CEO über seine Patente wissen sollte

Heutzutage versäumen es viele Unternehmen, den Wert ihres geistigen Eigentums zu erfassen – häufig, weil sie es Investoren nicht mitteilen. Dieses konkrete Beispiel aus dem Mai 2012, als Google Motorola übernahm, zeigt, wie schwierig es ist, den Wert von „immateriellen Vermögenswerten“ zu kommunizieren (wenn Patente in der Bilanz stehen):

Bilanz von Google, immaterielle Vermögenswerte (in Millionen):

  • Ende 2013: 6.066 US-Dollar
  • Ende 2012: 7.473 US-Dollar
  • Ende 2011: 1.578 US-Dollar

Bilanz von Motorola, immaterielle Vermögenswerte (in Millionen):

  • Ende 2012: 109 US-Dollar
  • Ende 2011: 48 US-Dollar (nach Abzug der kumulierten Abschreibungen von 1.114 US-Dollar)

Am 22. Mai 2012 hat Google die Übernahme von Motorola für einen Gesamtkaufpreis von ca. 12,4 Milliarden US-Dollar abgeschlossen (2,9 Milliarden US-Dollar für Barmittel, 5,5 Milliarden US-Dollar für Patente und entwickelte Technologie, 2,5 Milliarden US-Dollar für den Firmenwert, 0,7 Milliarden US-Dollar für Kundenbeziehungen und 0,8 Milliarden US-Dollar für sonstige erworbene Nettovermögenswerte).

Es ist ziemlich offensichtlich, was dies für die Bilanz für Google bedeutet hat. Die Auswirkungen für Motorola sind hingegen nicht so deutlich. Ist es wirklich glaubhaft, dass die gesamten immateriellen Vermögenswerte von Google durch die Übernahme von Motorola um 400 Prozent angestiegen sind? Der Großteil der immateriellen Vermögenswerte von Google taucht vor der Transaktion auf der Bilanz einfach gar nicht auf!

In der Tat wird geistiges Eigentum gemäß US-GAAP (United States Generally Accepted Accounting Principles, Allgemein anerkannte Rechnungslegungsgrundsätze der Vereinigten Staaten) in der Bilanz nicht richtig widergespiegelt und häufig sogar weggelassen. Nur wenn es im Rahmen einer Übernahme erworben wird, wird es ausgewiesen. Das heißt: Intern generierte immaterielle Vermögenswerte haben aus bilanzieller Sicht absolut keinen Wert. Dies entspricht internationalen Standards. Das Unternehmen kann also nicht wirklich etwas dagegen tun.

Dennoch liegt es in der Verantwortlichkeit des Vorstands und des CEO, diese Vermögenswerte genau zu kennen und zu verstehen. Nachfolgend finden Sie die sieben wichtigsten Fragen, die alle CEOs beantworten können sollten, um den Überblick über das geistige Eigentum Ihres Unternehmens zu behalten:

1. Investieren wir genug in F&E und die Entwicklung von geistigem Eigentum, um jetzt und in Zukunft wettbewerbsfähig zu sein?

Unternehmen sollten in F&E investieren, um durch das Entwickeln neuer Produkte zu wachsen. Es ist schwer für ein Unternehmen, wettbewerbsfähig zu bleiben, wenn es nicht der technologischen Entwicklung voraus ist.

2. Kennen wir den Wert unseres geistigen Eigentums und wissen wir, welche Auswirkungen es auf unsere Gewinn- und Verlustrechnung hat (GuV)?

Sie sollten das Management Ihres geistigen Eigentums als fortlaufende Aufgabe betrachten, die einen wesentlichen Bestandteil Ihrer Geschäftsplanung und -strategie darstellt und mit dieser abgestimmt werden muss.

3. Verfügen wir über eine starke IP-Strategie, um global wettbewerbsfähig zu sein, und können wir dies an unsere Aktionäre und den gesamten Markt kommunizieren, um einen Mehrwert zu schaffen?

Mit einer organisierten IP-Strategie stellen Sie sicher, dass es durchgängige Prozesse zum Erfassen, Schützen und Verwalten Ihres geistigen Eigentums gibt.

4. Wird vor dem Hintergrund, dass die immateriellen Vermögenswerte nicht in der Bilanz erfasst werden, von den Investoren erwartet, dass sie diese Vermögenswerte in den Aktienkurs einbeziehen? Oder sollen sie annehmen, dass sie bereits in der GuV berücksichtigt werden?

Da immaterielle Vermögenswerte einen so großen Anteil am Wert eines Unternehmens ausmachen, ist es wichtig, dass ein Unternehmen die Bedeutung und den Wert von geistigem Eigentum an Analysten, Aktionäre und potenzielle Investoren kommuniziert.

5. Sind wir dazu in der Lage, die Chancen und Risiken der immer komplexer werdenden Welt des geistigen Eigentums zu nutzen, schnell auf Veränderungen zu reagieren (und unseren entsprechenden Plan zu kommunizieren)?

IP-Tools und -Technologie entwickeln sich stetig weiter. Sie erfordern, dass Sie Ihren IP-Plan und Ihre Prioritäten Jahr für Jahr überprüfen.

6. Wie bewerten wir geistiges Eigentum, wenn wir unsere eigene Akquisitionsstrategie betrachten?

Bedenken Sie: Auch wenn IP-Assets eine zentrale Rolle in der Geschäftsstrategie eines Unternehmens spielen, reichen das Erwerben und Besitzen von geistigem Eigentum nicht aus, um einer schlechten Geschäftsstrategie entgegenzuwirken und ein Unternehmen erfolgreich zu machen.

7. Umfasst unsere Produkt-Roadmap eine IP-Roadmap sowie Implikationen für Finanzprognosen?

Prognosen der Kosten für das IP-Portfolio einer Organisation während des IP-Lebenszyklus sind sehr wichtig, um den Wert von IP-Assets bestimmen zu können und die Effizienz des Managements voranzutreiben.

Der Beitrag wurde ursprünglich hier veröffentlicht …

7 Management-Initiativen, um künftig von Künstlicher Intelligenz zu profitieren

Der Siegeszug von Künstlicher Intelligenz (KI) hat längst begonnen. Automatisierung, Erhöhen der Effizienz und Heben von Kosteneffekten tragen bereits in vielen Unternehmen zur Wertschöpfung bei. Künftig wird KI in immer stärkeren Maße nicht nur Kostenvorteile generieren, sondern zum strategischen Faktor werden, der alle Teile der Wertschöpfungskette umfasst. Vielfach gilt das datengetriebene Unternehmen noch als Ideal eines agilen und anpassungsfähigen Systems.

Der strategische Einsatz von KI, der künstliche und menschliche Intelligenz im richtigen Maße miteinander verbindet, kann zur nächsten Stufe der Unternehmensentwicklung führen, dem evidenzbasierten Management. Menschen und Maschinen bilden darin gemeinsam eine hoch adaptive und schnell lernende Einheit, die vorrausschauend und effektiv die Zukunft gestaltet. Big Data ist der Rohstoff, Analytik und KI sind das Werkzeug, aber erst der gekonnte Umgang mit beidem und Handeln führen zu strategischen Vorteilen für Unternehmen.

7 Management-Initiativen, um künftig von Künstlicher Intelligenz zu profitieren

Was können Manager heute tun, um von den Entwicklungen im Bereich Artificial Intelligence zu profitieren? Die Ausgangsvoraussetzungen für einen Start sind günstig. KI-Systeme sind soweit entwickelt, dass sie mit überschaubarem Aufwand und zu vertretbaren Kosten genutzt werden können, und die Entwicklung ist noch nicht soweit fortgeschritten, dass jedes Anwendungsfeld mit KI besetzt wäre. Wer jetzt startet, gehört zwar nicht mehr zu den Pionieren, muss aber auch nicht mehr alle Kinderkrankheiten der Technologie bewältigen und hat immer noch gute Chancen, in einem Anwendungsfeld bahnbrechende Lösungen auf den Markt zu bringen. Diese sieben Initiativen können heute helfen, das Geschäft von morgen aufzubauen.

1. Raum für Experimente schaffen

In der Regel findet die Nutzung von KI über Webservices und nicht über lokal installierte Systeme statt. Das hat viele Vorteile: vernachlässigbare Investitionskosten, kein Aufwand für Systempflege, kein Eingriff in die interne IT. Auf dieser Basis kann jedes Unternehmen damit beginnen, eigene Experimente mit KI zu starten. Am besten ist es, ein kleines Team aufzusetzen. Daraus können langfristig interne Servicebereiche entstehen, die für Fachabteilungen den Einsatz von KI mit kleinen Anwendungen testen und bei positivem Ausgang der Experimente den Weg zur Produktivlösung bahnen.

2. Routinetätigkeiten identifizieren und KI testen

Routinetätigkeiten sind oft ungeliebt und viele tragen noch nicht einmal zu Wertschöpfung bei. Sie durch KI-Routinen zu ersetzen, ist ein immenser Effizienzgewinn. Diese Entwicklung läuft im Bereich der Produktionsautomatisierung bereits seit Jahren. KI bietet aber noch weitaus mehr Möglichkeiten, nämlich die Entlastung von Routinetätigkeiten im hochqualifizierten Bereich, die bisher oftmals gar nicht als automatisierbar angesehen wurden, zum Beispiel die die Beantwortung von Kundenanfragen, die Auswertung von Gesetzestexten, Begutachtung Bildgebenden Diagnoseverfahren etc. Die Kunst besteht darin, erst einmal zu identifizieren, welche Tätigkeiten für diesen Sprung geeignet sind. Eine gute Zusammenarbeit des KI-Experimentierteams mit den Fachabteilungen kann zu schnellen und oft erstaunlichen Lösungen führen. Das vernichtet keine Arbeitsplätze und wertet die Rolle des Menschen deutlich auf: vom Abarbeiter zum Experten und Kreativen.

3. Softwareentwicklung auf KI umstellen

Für gestandene Entwickler mag es brutal klingen, aber der Weg ist klar: Systementwicklung auf Basis von Algorithmen wird in Zukunft eher die Ausnahme sein. In den meisten Fällen wird es besser sein, ein KI-System aufzusetzen und via Maschinellem Lernen zu trainieren. Das geht erheblich schneller, kostet weniger, liefert – zumindest, wenn ausreichend Trainingsdatensätze in guter Qualität vorliegen –bessere Ergebnisse und passt sich leichter künftigen Entwicklungen an. Es ist der nächste Schritt von agiler hin zu evidenzbasierter Entwicklung.

4. Trainings-, Bewertungs- und Entscheidungskompetenz aufbauen

Der Vorteil von KI ist, große und komplexe Datenmengen sehr schnell zu analysieren, Muster zu erkennen und Ähnlichkeiten zu finden. Im Allgemeinen geht ein drastischer Reduktionsprozess der Analyse voraus, der im ungünstigsten Fall zu Fehleinschätzungen durch KI führt. Das kann dramatische Konsequenzen haben, wie die Unfälle mit Tesla-Autopiloten gezeigt haben. Daher sollte sich jedes Unternehmen ein Regelwerk geben, in dem folgende Punkte festgelegt werden

  • Anwendungs- und Ausschlussszenarien für KI
  • Qualitätskriterien für Training und Trainingsdaten für KI-Anwendungen
  • Differenzierung, in welchen Fällen KI welche Tätigkeiten übernimmt: nur Analyse; Analyse und Bewertung; Analyse, Bewertung und Entscheidung; Analyse, Bewertung, Entscheidung und Handlung

Daneben sollte es Qualifikationsangebote für den Einsatz und den Umgang mit KI geben, nicht nur für operative Mitarbeiter, sondern gerade auch für Manager bis zur Unternehmensspitze. Nur, wer versteht, was KI leisten kann und welche Begrenzungen und Fehlermöglichkeiten existieren, kann sie konsequent zum Vorteil des Unternehmens einsetzen.

5. Das Geschäftsmodell auf Chancen für prädiktive Ansätze prüfen

KI schafft die Grundlage Ereignisse vorauszusagen und darauf vorbeugend oder zumindest frühzeitig zu reagieren. Predictive Maintenance ist das zurzeit am meisten diskutierte Konzept. Darüber hinaus gibt es viele weiter Ansatzpunkte, wie Erkennen von und Reagieren auf Markttrends, Produktionsüberwachung und vieles mehr. Es ist spannend, das eigene Geschäftsmodell dahingehend zu überprüfen, inwieweit Analytik und Vorausschau einen eigenen Wertbeitrag leisten können. Manchmal gibt es Daten, die vorhanden sind, die aufbereitet als eigener Service verkauft werden können. Manchmal sind die Verfahren vorhanden, die Daten aber nicht oder nicht ausreichend. Dann können Datenpartnerschaften helfen.

6. Neue Geschäftsmodelle entwickeln

KI bietet eine unüberschaubare Möglichkeit, ganz neue Geschäftsmodelle zu entwickeln. Dort wo sie in das Geschäftsmodellportfolio eines Unternehmens passen, lohnt es sich, sie auszuprobieren. Das ist mit überschaubarem Aufwand möglich. Hier ein paar Anregungen. Die Liste kann beliebig fortgesetzt werden

  • Persönliche Assistenten für bestimmte Aufgaben
    Alexa, Siri und Co sind erst die Vorläufer. Es wird in den nächsten Jahren eine ganze Reihe neuer Assistenten mit sehr unterschiedlichem Fertigkeitenspektrum geben.
  • Cyber Behaviour Design
    Wie humanoid darf oder muss ein System sein? Je mehr Menschen mit intelligenten Maschinen interagieren, desto wichtiger ist es, dass das Verhalten der Maschinen designt wird. Schnelligkeit und Perfektion von KI-Systemen schreckt oftmals ab. Sie müssen lernen, sich menschenähnlicher zu verhalten. Auf der anderen Seite ist zu menschliches Verhalten auch nicht immer sinnvoll. Es kann Angst machen. Um das zu designen, wird es Spezialisten geben.
  • Data Trust Center / Data Broker
    Eigene Daten zu analysieren ist gut. Viele Daten aus vielen Quellen zu analysieren bringt erheblich mehr Vorteile, wie zum Beispiel Vernetztes Maschinelles Lernen. Die Bereitschaft Daten zu teilen ist jedoch – aus gutem Grund – begrenzt. Sie ist aber gerade in Feldern wie der Gesundheitsversorgung erfolgsentscheidend. Gelingen können Austausch und Zusammenarbeit auf Datenbasis nur, wenn sich Data Trust Center und Data Broker mit sehr hohem Vertrauensniveau etablieren, die Zugänge, Anonymisierungsgrade und die Verwendung von Daten kontrollieren.
  • Anbieter Intelligenter Autonomer Systeme
    Der Markt ist noch längst nicht gesättigt. Wer heute einen Service im Bereich Komplexe (Prädiktive) Analytik, Cognitive Computing, Affective Computing, Entscheidungsunterstützung, personalisiert Nutzererlebnisse oder ähnlichem entwickelt, der Anwendern einen echten Nutzen liefert, wird gute Marktchancen vorfinden. Es kann ein Markt mit ähnlicher Dynamik wie der der mobilen Apps entstehen.

7. Kontinuierlich messen

Alle genannten Punkte sind Experimente, die evaluiert werden müssen. Schnelle Zyklen von Experimenten, Auswertungen und Anpassungen der Idee sollten zum Standard im Unternehmen werden, wo es darum geht, KI zu testen. Die Aufgabe, Resultate kontinuierlich zu überprüfen, kann dem Experimentier-Team unter Punkt 1 übertragen werden.

Grenzen und Herausforderungen: Intransparenz und mangelndes Vertrauen

Natürlich ist die Entwicklung noch nicht abgeschlossen und es sind noch viele Hürden zu nehmen und Hindernisse zu beseitigen, bis KI in jedem Anwendungsfall reibungslos funktioniert. Zwei aktuelle Herausforderungen, die nicht technischer Natur sind, aber über das Gelingen von KI entscheiden, möchte ich besonders herausstellen.

Das ist erstens die Intransparenz Künstlicher Intelligenz. Es ist eine Standardszene in vielen Krimis. Die geniale Ermittlerin überführt den Täter und legt noch einmal feingliedrig dar, wie es ihr durch geschickte Kombination der einzelnen Indizien, durch Profiling und Schlussfolgerungen gelungen ist, ihn zu überführen. Das kann KI nicht. Derzeit funktioniert sie als Black Box. Sie wird mit Daten trainiert und liefert anschließend Ergebnisse, die oftmals erstaunlich sind. Sie kann aber nichts dazu sagen, wie und warum sie zu den Ergebnissen gekommen ist. Nachvollziehbarkeit kann KI heutzutage nicht bieten. Je strategischer KI eingesetzt wird, desto größer ist jedoch die Notwendigkeit, Entscheidungen oder Entscheidungsempfehlungen begründen zu können. Hier ist Nacharbeit der KI-Entwickler gefordert.

Der zweite kritische Faktor ist mangelndes Vertrauen. Die letzten Datenskandale haben das Vertrauen in Datenverarbeitung und insbesondere Datensammler und -verarbeiter weiter untergraben. Es werden sicher nicht die letzten Skandale gewesen sein. Dabei ist nicht nur ein Vertrauen von Bürgern und Kunden in datenverarbeitende Unternehmen wichtig, sondern auch ein Grundvertrauensverhältnis zwischen Unternehmen, um Daten teilen und gemeinsam nutzen zu können. Daran müssen Unternehmen selbst arbeiten und Maßnahmen entwickeln, die sie zu vertrauenswürdigen Geschäftspartnern machen. Auch eine Professionalisierung und Externalisierung der Vertrauensfunktion wie oben im Geschäftsmodellbeispiel „Data Trust Center / Data Broker“ dargestellt, kann dabei helfen.


Fazit

Die Zukunft wird durch Künstliche Intelligenz geprägt sein und sie hat gerade erst angefangen. KI zu nutzen ist keine Hexerei und kostet kein Vermögen mehr. Es ist Zeit, mit Experimenten zu starten, schnell zu lernen und mit dem Trend zu wachsen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Warum Industriebetriebe 2023 verstärkt auf Machine-Learning-Systeme setzen werden

Warum Industriebetriebe 2023 verstärkt auf Machine-Learning-Systeme setzen werden

Große Unsicherheiten, kleinere Chargen, demografischer Wandel: Der Schweizer Data-Science-Spezialist LeanBI erläutert, warum sich Industrieunternehmen immer ernsthafter für Machine-Learning-Systeme interessieren.

Machine Learning erfuhr in der Industrie in der Vergangenheit einen regelrechten Hype. Die Realität ist aber bislang hinter den Erwartungen zurückgeblieben. Die Technologie kommt zwar in der Produktion durchaus zum Einsatz, verbreitet sich dort aber nur stark verzögert. Nach Ansicht von LeanBI wird sich das nun ändern. Vor allem aus vier Gründen, so der Schweizer Data-Science-Spezialist, werden Industrieunternehmen im Jahr 2023 verstärkt auf Machine Learning setzen.

Volatile Umweltfaktoren

Die weltweiten Krisen führen zu Lieferverzögerungen bei Eingangsmaterialien und erschweren Absatzprognosen. Wenn Industriebetriebe alle Einflussfaktoren berücksichtigen möchten, wird ihre Unternehmensplanung hochkomplex. Diese Komplexität lässt sich nur noch mit Hilfe von Machine-Learning-Systemen beherrschen. Sie können Unternehmen maßgeblich dabei helfen, Entwicklungen zu prognostizieren und dabei verschiedenste Szenarien zu berücksichtigen – und so eine zuverlässige Lieferung an die Endkunden zu gewährleisten.

Individualisierte Produktion

Die Chargen von Industrieunternehmen werden immer kleiner, weil ihre Kunden zunehmend individuelle Produktlösungen erwarten. Um dieser Entwicklung gerecht zu werden, müssen sie die Leistungsfähigkeit ihrer Herstellungsprozesse erhöhen. Deshalb werden Industriebetriebe verstärkt Predictive-Maintenance- und Predictive-Quality-Anwendungen implementieren. Sie ermöglichen es, durch rechtzeitiges Eingreifen ungeplante Stillstände und die Entstehung von Ausschuss zu vermeiden und dadurch die Gesamtanlageneffektivität (Overall Equipment Effectiveness) zu optimieren.

Machine-Learning-Systeme

Energieknappheit und ESG

Die derzeitige Energieknappheit wird auf absehbare Zeit der Normalzustand bleiben. Industriebetriebe sind deshalb gezwungen, ihre Produktionen so energieeffizient wie möglich zu gestalten. Mit Machine-Learning-Systemen können sie den Energieverbrauch online messen, analysieren und bei der Produktionsplanung berücksichtigen. Die Erfassung der Energiedaten ermöglicht es ihnen zudem, die steigenden ESG-Anforderungen (Environment, Social, Governance) zu erfüllen. Sie können etwa ihre Produkte mit Umwelt- und Energielabels ausstatten oder durch die Historisierung der Daten eine ESG-Konformität jederzeit rückverfolgbar nachweisen.

Demografischer Wandel

Die Belegschaften altern, viele Mitarbeiter gehen demnächst in Rente und können wegen des Fachkräftemangels nicht adäquat ersetzt werden. Industriebetrieben geht damit wertvolles Know-how für Maschinenführung verloren. Bei vielen Herstellungsprozessen unterliegen Einflussfaktoren wie Materialien starken Schwankungen, die sich nicht durch eine Rezeptur abfangen lassen. Deshalb nivellieren die Maschinenführer diese Schwankungen durch Prozesseingriffe, die auf jahrelanger Erfahrung basieren. Damit dieses Know-how nicht verloren geht, werden Unternehmen versuchen, es direkt auf die Maschinen zu bringen. Dafür eignen sich am besten spezielle Machine-Learning-Ansätze auf Basis von Ontologien wie etwa Bayes’sche Netze.

Fazit zu Machine-Learning-Systemen

„Auf viele Herausforderungen von Industriebetrieben können Machine-Learning-Systeme die beste Antwort geben“, erklärt Marc Tesch, Inhaber und CEO des Schweizer Data-Science-Spezialisten LeanBI. „Die Voraussetzungen dafür sind günstig, denn in den vergangenen Jahren haben viele Unternehmen bereits daran gearbeitet, ihre Maschinen durch digitalen Retrofit mit Sensoren zur Datenerfassung auszustatten, die Maschinen zu vernetzen und die Daten in die Cloud zu bringen. Jetzt können sie den nächsten Schritt gehen und ihre Daten mit Machine-Learning-Algorithmen gewinnbringend analysieren.“

Der Beitrag wurde ursprünglich hier veröffentlicht …