Sieben Fehler bei der Einführung von KI

KI liegt im Trend, aber beim Einsatz dieser Technologie können sich Unternehmen leicht vertun.

Sieben Fehler bei der Einführung von KI

Künstliche Intelligenz (KI) wird mehr und mehr zu einer Standard-Tech­nologie. Von der industriellen Fertigung über Büroanwendungen bis zu komplexen CRM-Lösungen, überall ermöglicht KI die Automatisierung von Prozessen. Allerdings verfügen die meisten Unternehmen noch über wenig Erfahrung im Umgang mit KI. Hier lesen Sie welche Fehler bei der Implementierung von KI häufig gemacht werden.

1. Kein echter Mehrwert

Viele Unternehmen planen den Einsatz von KI, nur weil KI ein Hype ist, nicht weil sie einen klaren Mehrwert realisieren können, beispielsweise durch höhere Kundenzufriedenheit, Cross- oder Upselling-Möglichkeiten, Prozessoptimierung oder Qualitätssteigerung.

2. Fehlende Kommunikation

Wird der Einsatz von KI den Anwendern nicht kommuniziert, erfahren sie zum Beispiel gar nicht, dass sie mit einem KI-gestützten System interagieren. Das kann später zu Vertrauensverlust und zur Ablehnung führen.

3. Unzureichende Datengrundlage

In der Regel ermitteln KI-Systeme aus großen Datenmengen wiederkehrende Muster; ist dabei die Datenbasis nicht ausreichend, haben die Ergebnisse keine Relevanz.

4. Blindes Vertrauen

Auch wenn IT-Systeme in manchen Anwendungsfällen erstaunliche “Intelligenz” aufweisen, eignen sich nicht alle Anwendungsfälle für KI; etwa wenn keine hinreichend operationalisierbaren Daten bereitgestellt werden können.

5. Fehlende Transparenz

Aufgrund der großen Anzahl von Einflussfaktoren und Methoden für die Ermittlung von KI-Ergeb­nissen kann es schwierig bis unmöglich sein, ex post nachzuvollziehen, wie ein bestimmtes Ergebnis zustande gekommen ist. Je nach Anwendungsfall kann es jedoch notwendig sein, eine entsprechende Transparenz sicherzustellen, zum Beispiel bei Therapieempfehlungen.

6. Mangelnde Flexibilität

KI wird so konzipiert, dass die Fachabteilungen keine ausreichenden Möglichkeiten zur Anpassung haben; die Mitarbeiter der Fachabteilungen müssen jedoch in der Lage sein, KI-Lösun­gen selbständig zu parametrisieren, um agil mit verschiedenen Szenarien experimentieren zu können.

7. Fehlende Praxistauglichkeit

Unternehmen realisieren häufig KI-Lösungen, die zwar in Pilot-Projekten gut funktionieren, die aber in der Praxis nicht gut skalieren; die verwendeten KI-Verfahren müssen in großen Anwendungen mit zahlreichen Nutzern – beispielsweise in Web-Infrastrukturen – in kurzer Zeit Antworten liefern; als Richtwert sollten Antwortzeiten von weniger als 50 Millisekunden möglich sein.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Eine automatisierte Fertigung braucht stabile Netzwerke

Eine automatisierte Fertigung braucht stabile Netzwerke

Viele Produktionsanlagen laufen heute bereits vollkommen automatisiert. Selten muss der Mensch in der Fertigung noch selbst Hand anlegen. Die Vorteile dieser Entwicklung sind zahlreich, aber genießen können Unternehmen sie nur, wenn auch das Netzwerk mitspielt. Dirk Schuma, Sales Manager Europe bei Opengear, erklärt, warum stabile Netzwerke wichtig sind.

Eine automatisierte Fertigung braucht stabile Netzwerke

Viele Faktoren haben in den letzten Jahren die Fertigungsindustrie grundlegend verändert: Die Anzahl der Wettbewerber wächst, sodass Kunden sich mit ihren ebenfalls immer höheren Ansprüchen im Zweifel an einen anderen Anbieter wenden. Auf Produktionsseite sorgt dieser Umstand wiederum für kleinere Gewinnmargen. Überdies führt die Pandemie auch weiterhin zu personellen Ausfällen. Der Druck auf das produzierende Gewerbe war dementsprechend nie höher als jetzt, auf Automatisierung zu setzen und damit die betriebliche Effizienz zu steigern.

Die gute Nachricht: Die vierte industrielle Revolution hat durch die umfassende Vernetzung und Computerisierung alle nötigen Voraussetzungen geschaffen, das Problem anzugehen. Technologien und Verfahren wie Künstliche Intelligenz, das Internet of Things (IoT), selbstlernende Algorithmen und Big Data bestimmen mittlerweile den Alltag der Branche. Die Basis für die erfolgreiche digitale Transformation und Automatisierung in der Fertigungsindustrie ist allerdings ein resilientes und stabiles Netzwerk.

Automatisierung im Fertigungskontext

Unternehmen erhalten durch automatisierte und rationalisierte Fertigungsprozesse eine höhere Kontrolle über ihren Betrieb, können die Produktion steigern und die Kosten senken. In den sehr komplexen Abläufen gibt es viele Stellen, die Fertigungsbetriebe automatisieren können, beispielsweise mit passendem Equipment oder eben Softwareanwendungen. Wo und wie genau Unternehmen diese Technologien sinnvoll einsetzen können, unterscheidet sich von Betrieb zu Betrieb. Grundsätzlich unterscheiden Experten zwischen zwei Arten der Automatisierung: die „fixe Automatisierung“ und die „flexible Automatisierung“.

Die fixe Automatisierung, die auch als „harte Automatisierung“ bekannt ist, eignet sich für die Massenherstellung eines Produktes. Sie enthält – wie der Name impliziert – ein Set fester Sequenzen, beispielsweise für den Zusammenbau oder die Verarbeitung eines Produkts. Ein typischer Einsatzort sind Montagestraßen. Eine flexible Automatisierung hingegen ermöglicht Unternehmen Systeme zu unterhalten, die sie schnell bei notwendigen Änderungen im Produktionsprozess anpassen können. Das Personal nutzt dafür ein sogenanntes Human Machine Interface. Das ist heutzutage in der Regel eine Software mit intuitiver Benutzeroberfläche, die eine schnelle und unkomplizierte Neuprogrammierung der Fertigungsmaschinen ermöglicht. 

Stabile Netzwerke sind wichtig

Die Rolle des stabilen Netzwerks

All die neuen Hardware- und Software-Technologien, die Fertigungsbetriebe in ihre Produktionsstraßen implementieren, belasten das Unternehmensnetzwerk enorm. Die Gefahr eines Ausfalls nimmt mit der steigenden Last zu. Gerade Fertigungsbetriebe, deren Produktion und IT-Verwaltung nicht am gleichen Standort stattfindet, stehen dann vor einem großen Problem, denn die Fehleranalyse und Wiederherstellung der Netzwerkverbindung kann in diesem Fall nur vor Ort stattfinden. Dazu müssen die Netzwerkadministratoren allerdings zunächst einmal anreisen, was zu einer längeren Ausfallzeit und damit horrenden Kosten führen kann.

Smart-Out-of-Band-Lösungen (Smart OOB) bieten Administratoren von überall her Zugriff auf sämtliche Netzwerkgeräte am Produktionsstandort. Die Installation eines Smart-OOB-Konsolenservers bildet die Grundlage für ein paralleles Netzwerk, das bei einem Ausfall des primären Netzes die Problembehebung ermöglicht. In der Regel geschieht das über den 4G- oder LTE-Mobilfunk. In Verbindung mit Monitoring-Tools, die Administratoren direkt auf den Konsolenservern installieren können, reduzieren Unternehmen die Dauer für eine Wiederinstandsetzung ihres Netzwerks.

Eine Smart-OOB-Lösung hat allerdings noch weitere Vorteile, zum Beispiel die automatisierte Bereitstellung und Provisionierung von Equipment. Sobald die Mitarbeiter am Zielstandort die neuen Geräte mit dem Netzwerk verbunden und am Strom angeschlossen haben, laden die in der IT-Abteilung vorkonfigurierten Geräte alle nötigen Updates und Softwarekomponenten automatisch von zentraler Stelle herunter. Die Zeit bis zur Einsatzbereitschaft und der Personalaufwand sinken dadurch drastisch.

Fazit

„Stabile und resiliente Netzwerke bilden das Rückgrat sämtlicher Digitalisierungs- und Automatisierungsbemühungen von Unternehmen“, betont Dirk Schuma, Sales Manager Europe bei Opengear. „Da Netzwerkausfälle horrende Kosten verursachen, zählt gerade in der hochgradig technologisierten und vernetzten Fertigungsindustrie jede Sekunde. Smart-Out-of-Band-Lösungen verringern den Zeitaufwand für die Fehlersuche bei Problemen im Netzwerk, sodass die Produktion schnell wieder anlaufen kann.“ 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Sieben Dinge, die jeder CEO über seine Patente wissen sollte

In der Geschäftswelt von heute würden Unternehmen einen deutlich höheren Wert besitzen, wenn sie eine bessere Kontrolle über ihr geistiges Eigentum hätten. Je mehr immaterielle Vermögenswerte ein Unternehmen besitzt, desto profitabler wird es.

Sieben Dinge, die jeder CEO über seine Patente wissen sollte

Heutzutage versäumen es viele Unternehmen, den Wert ihres geistigen Eigentums zu erfassen – häufig, weil sie es Investoren nicht mitteilen. Dieses konkrete Beispiel aus dem Mai 2012, als Google Motorola übernahm, zeigt, wie schwierig es ist, den Wert von „immateriellen Vermögenswerten“ zu kommunizieren (wenn Patente in der Bilanz stehen):

Bilanz von Google, immaterielle Vermögenswerte (in Millionen):

  • Ende 2013: 6.066 US-Dollar
  • Ende 2012: 7.473 US-Dollar
  • Ende 2011: 1.578 US-Dollar

Bilanz von Motorola, immaterielle Vermögenswerte (in Millionen):

  • Ende 2012: 109 US-Dollar
  • Ende 2011: 48 US-Dollar (nach Abzug der kumulierten Abschreibungen von 1.114 US-Dollar)

Am 22. Mai 2012 hat Google die Übernahme von Motorola für einen Gesamtkaufpreis von ca. 12,4 Milliarden US-Dollar abgeschlossen (2,9 Milliarden US-Dollar für Barmittel, 5,5 Milliarden US-Dollar für Patente und entwickelte Technologie, 2,5 Milliarden US-Dollar für den Firmenwert, 0,7 Milliarden US-Dollar für Kundenbeziehungen und 0,8 Milliarden US-Dollar für sonstige erworbene Nettovermögenswerte).

Es ist ziemlich offensichtlich, was dies für die Bilanz für Google bedeutet hat. Die Auswirkungen für Motorola sind hingegen nicht so deutlich. Ist es wirklich glaubhaft, dass die gesamten immateriellen Vermögenswerte von Google durch die Übernahme von Motorola um 400 Prozent angestiegen sind? Der Großteil der immateriellen Vermögenswerte von Google taucht vor der Transaktion auf der Bilanz einfach gar nicht auf!

In der Tat wird geistiges Eigentum gemäß US-GAAP (United States Generally Accepted Accounting Principles, Allgemein anerkannte Rechnungslegungsgrundsätze der Vereinigten Staaten) in der Bilanz nicht richtig widergespiegelt und häufig sogar weggelassen. Nur wenn es im Rahmen einer Übernahme erworben wird, wird es ausgewiesen. Das heißt: Intern generierte immaterielle Vermögenswerte haben aus bilanzieller Sicht absolut keinen Wert. Dies entspricht internationalen Standards. Das Unternehmen kann also nicht wirklich etwas dagegen tun.

Dennoch liegt es in der Verantwortlichkeit des Vorstands und des CEO, diese Vermögenswerte genau zu kennen und zu verstehen. Nachfolgend finden Sie die sieben wichtigsten Fragen, die alle CEOs beantworten können sollten, um den Überblick über das geistige Eigentum Ihres Unternehmens zu behalten:

1. Investieren wir genug in F&E und die Entwicklung von geistigem Eigentum, um jetzt und in Zukunft wettbewerbsfähig zu sein?

Unternehmen sollten in F&E investieren, um durch das Entwickeln neuer Produkte zu wachsen. Es ist schwer für ein Unternehmen, wettbewerbsfähig zu bleiben, wenn es nicht der technologischen Entwicklung voraus ist.

2. Kennen wir den Wert unseres geistigen Eigentums und wissen wir, welche Auswirkungen es auf unsere Gewinn- und Verlustrechnung hat (GuV)?

Sie sollten das Management Ihres geistigen Eigentums als fortlaufende Aufgabe betrachten, die einen wesentlichen Bestandteil Ihrer Geschäftsplanung und -strategie darstellt und mit dieser abgestimmt werden muss.

3. Verfügen wir über eine starke IP-Strategie, um global wettbewerbsfähig zu sein, und können wir dies an unsere Aktionäre und den gesamten Markt kommunizieren, um einen Mehrwert zu schaffen?

Mit einer organisierten IP-Strategie stellen Sie sicher, dass es durchgängige Prozesse zum Erfassen, Schützen und Verwalten Ihres geistigen Eigentums gibt.

4. Wird vor dem Hintergrund, dass die immateriellen Vermögenswerte nicht in der Bilanz erfasst werden, von den Investoren erwartet, dass sie diese Vermögenswerte in den Aktienkurs einbeziehen? Oder sollen sie annehmen, dass sie bereits in der GuV berücksichtigt werden?

Da immaterielle Vermögenswerte einen so großen Anteil am Wert eines Unternehmens ausmachen, ist es wichtig, dass ein Unternehmen die Bedeutung und den Wert von geistigem Eigentum an Analysten, Aktionäre und potenzielle Investoren kommuniziert.

5. Sind wir dazu in der Lage, die Chancen und Risiken der immer komplexer werdenden Welt des geistigen Eigentums zu nutzen, schnell auf Veränderungen zu reagieren (und unseren entsprechenden Plan zu kommunizieren)?

IP-Tools und -Technologie entwickeln sich stetig weiter. Sie erfordern, dass Sie Ihren IP-Plan und Ihre Prioritäten Jahr für Jahr überprüfen.

6. Wie bewerten wir geistiges Eigentum, wenn wir unsere eigene Akquisitionsstrategie betrachten?

Bedenken Sie: Auch wenn IP-Assets eine zentrale Rolle in der Geschäftsstrategie eines Unternehmens spielen, reichen das Erwerben und Besitzen von geistigem Eigentum nicht aus, um einer schlechten Geschäftsstrategie entgegenzuwirken und ein Unternehmen erfolgreich zu machen.

7. Umfasst unsere Produkt-Roadmap eine IP-Roadmap sowie Implikationen für Finanzprognosen?

Prognosen der Kosten für das IP-Portfolio einer Organisation während des IP-Lebenszyklus sind sehr wichtig, um den Wert von IP-Assets bestimmen zu können und die Effizienz des Managements voranzutreiben.

Der Beitrag wurde ursprünglich hier veröffentlicht …

7 Management-Initiativen, um künftig von Künstlicher Intelligenz zu profitieren

Der Siegeszug von Künstlicher Intelligenz (KI) hat längst begonnen. Automatisierung, Erhöhen der Effizienz und Heben von Kosteneffekten tragen bereits in vielen Unternehmen zur Wertschöpfung bei. Künftig wird KI in immer stärkeren Maße nicht nur Kostenvorteile generieren, sondern zum strategischen Faktor werden, der alle Teile der Wertschöpfungskette umfasst. Vielfach gilt das datengetriebene Unternehmen noch als Ideal eines agilen und anpassungsfähigen Systems.

Der strategische Einsatz von KI, der künstliche und menschliche Intelligenz im richtigen Maße miteinander verbindet, kann zur nächsten Stufe der Unternehmensentwicklung führen, dem evidenzbasierten Management. Menschen und Maschinen bilden darin gemeinsam eine hoch adaptive und schnell lernende Einheit, die vorrausschauend und effektiv die Zukunft gestaltet. Big Data ist der Rohstoff, Analytik und KI sind das Werkzeug, aber erst der gekonnte Umgang mit beidem und Handeln führen zu strategischen Vorteilen für Unternehmen.

7 Management-Initiativen, um künftig von Künstlicher Intelligenz zu profitieren

Was können Manager heute tun, um von den Entwicklungen im Bereich Artificial Intelligence zu profitieren? Die Ausgangsvoraussetzungen für einen Start sind günstig. KI-Systeme sind soweit entwickelt, dass sie mit überschaubarem Aufwand und zu vertretbaren Kosten genutzt werden können, und die Entwicklung ist noch nicht soweit fortgeschritten, dass jedes Anwendungsfeld mit KI besetzt wäre. Wer jetzt startet, gehört zwar nicht mehr zu den Pionieren, muss aber auch nicht mehr alle Kinderkrankheiten der Technologie bewältigen und hat immer noch gute Chancen, in einem Anwendungsfeld bahnbrechende Lösungen auf den Markt zu bringen. Diese sieben Initiativen können heute helfen, das Geschäft von morgen aufzubauen.

1. Raum für Experimente schaffen

In der Regel findet die Nutzung von KI über Webservices und nicht über lokal installierte Systeme statt. Das hat viele Vorteile: vernachlässigbare Investitionskosten, kein Aufwand für Systempflege, kein Eingriff in die interne IT. Auf dieser Basis kann jedes Unternehmen damit beginnen, eigene Experimente mit KI zu starten. Am besten ist es, ein kleines Team aufzusetzen. Daraus können langfristig interne Servicebereiche entstehen, die für Fachabteilungen den Einsatz von KI mit kleinen Anwendungen testen und bei positivem Ausgang der Experimente den Weg zur Produktivlösung bahnen.

2. Routinetätigkeiten identifizieren und KI testen

Routinetätigkeiten sind oft ungeliebt und viele tragen noch nicht einmal zu Wertschöpfung bei. Sie durch KI-Routinen zu ersetzen, ist ein immenser Effizienzgewinn. Diese Entwicklung läuft im Bereich der Produktionsautomatisierung bereits seit Jahren. KI bietet aber noch weitaus mehr Möglichkeiten, nämlich die Entlastung von Routinetätigkeiten im hochqualifizierten Bereich, die bisher oftmals gar nicht als automatisierbar angesehen wurden, zum Beispiel die die Beantwortung von Kundenanfragen, die Auswertung von Gesetzestexten, Begutachtung Bildgebenden Diagnoseverfahren etc. Die Kunst besteht darin, erst einmal zu identifizieren, welche Tätigkeiten für diesen Sprung geeignet sind. Eine gute Zusammenarbeit des KI-Experimentierteams mit den Fachabteilungen kann zu schnellen und oft erstaunlichen Lösungen führen. Das vernichtet keine Arbeitsplätze und wertet die Rolle des Menschen deutlich auf: vom Abarbeiter zum Experten und Kreativen.

3. Softwareentwicklung auf KI umstellen

Für gestandene Entwickler mag es brutal klingen, aber der Weg ist klar: Systementwicklung auf Basis von Algorithmen wird in Zukunft eher die Ausnahme sein. In den meisten Fällen wird es besser sein, ein KI-System aufzusetzen und via Maschinellem Lernen zu trainieren. Das geht erheblich schneller, kostet weniger, liefert – zumindest, wenn ausreichend Trainingsdatensätze in guter Qualität vorliegen –bessere Ergebnisse und passt sich leichter künftigen Entwicklungen an. Es ist der nächste Schritt von agiler hin zu evidenzbasierter Entwicklung.

4. Trainings-, Bewertungs- und Entscheidungskompetenz aufbauen

Der Vorteil von KI ist, große und komplexe Datenmengen sehr schnell zu analysieren, Muster zu erkennen und Ähnlichkeiten zu finden. Im Allgemeinen geht ein drastischer Reduktionsprozess der Analyse voraus, der im ungünstigsten Fall zu Fehleinschätzungen durch KI führt. Das kann dramatische Konsequenzen haben, wie die Unfälle mit Tesla-Autopiloten gezeigt haben. Daher sollte sich jedes Unternehmen ein Regelwerk geben, in dem folgende Punkte festgelegt werden

  • Anwendungs- und Ausschlussszenarien für KI
  • Qualitätskriterien für Training und Trainingsdaten für KI-Anwendungen
  • Differenzierung, in welchen Fällen KI welche Tätigkeiten übernimmt: nur Analyse; Analyse und Bewertung; Analyse, Bewertung und Entscheidung; Analyse, Bewertung, Entscheidung und Handlung

Daneben sollte es Qualifikationsangebote für den Einsatz und den Umgang mit KI geben, nicht nur für operative Mitarbeiter, sondern gerade auch für Manager bis zur Unternehmensspitze. Nur, wer versteht, was KI leisten kann und welche Begrenzungen und Fehlermöglichkeiten existieren, kann sie konsequent zum Vorteil des Unternehmens einsetzen.

5. Das Geschäftsmodell auf Chancen für prädiktive Ansätze prüfen

KI schafft die Grundlage Ereignisse vorauszusagen und darauf vorbeugend oder zumindest frühzeitig zu reagieren. Predictive Maintenance ist das zurzeit am meisten diskutierte Konzept. Darüber hinaus gibt es viele weiter Ansatzpunkte, wie Erkennen von und Reagieren auf Markttrends, Produktionsüberwachung und vieles mehr. Es ist spannend, das eigene Geschäftsmodell dahingehend zu überprüfen, inwieweit Analytik und Vorausschau einen eigenen Wertbeitrag leisten können. Manchmal gibt es Daten, die vorhanden sind, die aufbereitet als eigener Service verkauft werden können. Manchmal sind die Verfahren vorhanden, die Daten aber nicht oder nicht ausreichend. Dann können Datenpartnerschaften helfen.

6. Neue Geschäftsmodelle entwickeln

KI bietet eine unüberschaubare Möglichkeit, ganz neue Geschäftsmodelle zu entwickeln. Dort wo sie in das Geschäftsmodellportfolio eines Unternehmens passen, lohnt es sich, sie auszuprobieren. Das ist mit überschaubarem Aufwand möglich. Hier ein paar Anregungen. Die Liste kann beliebig fortgesetzt werden

  • Persönliche Assistenten für bestimmte Aufgaben
    Alexa, Siri und Co sind erst die Vorläufer. Es wird in den nächsten Jahren eine ganze Reihe neuer Assistenten mit sehr unterschiedlichem Fertigkeitenspektrum geben.
  • Cyber Behaviour Design
    Wie humanoid darf oder muss ein System sein? Je mehr Menschen mit intelligenten Maschinen interagieren, desto wichtiger ist es, dass das Verhalten der Maschinen designt wird. Schnelligkeit und Perfektion von KI-Systemen schreckt oftmals ab. Sie müssen lernen, sich menschenähnlicher zu verhalten. Auf der anderen Seite ist zu menschliches Verhalten auch nicht immer sinnvoll. Es kann Angst machen. Um das zu designen, wird es Spezialisten geben.
  • Data Trust Center / Data Broker
    Eigene Daten zu analysieren ist gut. Viele Daten aus vielen Quellen zu analysieren bringt erheblich mehr Vorteile, wie zum Beispiel Vernetztes Maschinelles Lernen. Die Bereitschaft Daten zu teilen ist jedoch – aus gutem Grund – begrenzt. Sie ist aber gerade in Feldern wie der Gesundheitsversorgung erfolgsentscheidend. Gelingen können Austausch und Zusammenarbeit auf Datenbasis nur, wenn sich Data Trust Center und Data Broker mit sehr hohem Vertrauensniveau etablieren, die Zugänge, Anonymisierungsgrade und die Verwendung von Daten kontrollieren.
  • Anbieter Intelligenter Autonomer Systeme
    Der Markt ist noch längst nicht gesättigt. Wer heute einen Service im Bereich Komplexe (Prädiktive) Analytik, Cognitive Computing, Affective Computing, Entscheidungsunterstützung, personalisiert Nutzererlebnisse oder ähnlichem entwickelt, der Anwendern einen echten Nutzen liefert, wird gute Marktchancen vorfinden. Es kann ein Markt mit ähnlicher Dynamik wie der der mobilen Apps entstehen.

7. Kontinuierlich messen

Alle genannten Punkte sind Experimente, die evaluiert werden müssen. Schnelle Zyklen von Experimenten, Auswertungen und Anpassungen der Idee sollten zum Standard im Unternehmen werden, wo es darum geht, KI zu testen. Die Aufgabe, Resultate kontinuierlich zu überprüfen, kann dem Experimentier-Team unter Punkt 1 übertragen werden.

Grenzen und Herausforderungen: Intransparenz und mangelndes Vertrauen

Natürlich ist die Entwicklung noch nicht abgeschlossen und es sind noch viele Hürden zu nehmen und Hindernisse zu beseitigen, bis KI in jedem Anwendungsfall reibungslos funktioniert. Zwei aktuelle Herausforderungen, die nicht technischer Natur sind, aber über das Gelingen von KI entscheiden, möchte ich besonders herausstellen.

Das ist erstens die Intransparenz Künstlicher Intelligenz. Es ist eine Standardszene in vielen Krimis. Die geniale Ermittlerin überführt den Täter und legt noch einmal feingliedrig dar, wie es ihr durch geschickte Kombination der einzelnen Indizien, durch Profiling und Schlussfolgerungen gelungen ist, ihn zu überführen. Das kann KI nicht. Derzeit funktioniert sie als Black Box. Sie wird mit Daten trainiert und liefert anschließend Ergebnisse, die oftmals erstaunlich sind. Sie kann aber nichts dazu sagen, wie und warum sie zu den Ergebnissen gekommen ist. Nachvollziehbarkeit kann KI heutzutage nicht bieten. Je strategischer KI eingesetzt wird, desto größer ist jedoch die Notwendigkeit, Entscheidungen oder Entscheidungsempfehlungen begründen zu können. Hier ist Nacharbeit der KI-Entwickler gefordert.

Der zweite kritische Faktor ist mangelndes Vertrauen. Die letzten Datenskandale haben das Vertrauen in Datenverarbeitung und insbesondere Datensammler und -verarbeiter weiter untergraben. Es werden sicher nicht die letzten Skandale gewesen sein. Dabei ist nicht nur ein Vertrauen von Bürgern und Kunden in datenverarbeitende Unternehmen wichtig, sondern auch ein Grundvertrauensverhältnis zwischen Unternehmen, um Daten teilen und gemeinsam nutzen zu können. Daran müssen Unternehmen selbst arbeiten und Maßnahmen entwickeln, die sie zu vertrauenswürdigen Geschäftspartnern machen. Auch eine Professionalisierung und Externalisierung der Vertrauensfunktion wie oben im Geschäftsmodellbeispiel „Data Trust Center / Data Broker“ dargestellt, kann dabei helfen.


Fazit

Die Zukunft wird durch Künstliche Intelligenz geprägt sein und sie hat gerade erst angefangen. KI zu nutzen ist keine Hexerei und kostet kein Vermögen mehr. Es ist Zeit, mit Experimenten zu starten, schnell zu lernen und mit dem Trend zu wachsen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Warum Industriebetriebe 2023 verstärkt auf Machine-Learning-Systeme setzen werden

Warum Industriebetriebe 2023 verstärkt auf Machine-Learning-Systeme setzen werden

Große Unsicherheiten, kleinere Chargen, demografischer Wandel: Der Schweizer Data-Science-Spezialist LeanBI erläutert, warum sich Industrieunternehmen immer ernsthafter für Machine-Learning-Systeme interessieren.

Machine Learning erfuhr in der Industrie in der Vergangenheit einen regelrechten Hype. Die Realität ist aber bislang hinter den Erwartungen zurückgeblieben. Die Technologie kommt zwar in der Produktion durchaus zum Einsatz, verbreitet sich dort aber nur stark verzögert. Nach Ansicht von LeanBI wird sich das nun ändern. Vor allem aus vier Gründen, so der Schweizer Data-Science-Spezialist, werden Industrieunternehmen im Jahr 2023 verstärkt auf Machine Learning setzen.

Volatile Umweltfaktoren

Die weltweiten Krisen führen zu Lieferverzögerungen bei Eingangsmaterialien und erschweren Absatzprognosen. Wenn Industriebetriebe alle Einflussfaktoren berücksichtigen möchten, wird ihre Unternehmensplanung hochkomplex. Diese Komplexität lässt sich nur noch mit Hilfe von Machine-Learning-Systemen beherrschen. Sie können Unternehmen maßgeblich dabei helfen, Entwicklungen zu prognostizieren und dabei verschiedenste Szenarien zu berücksichtigen – und so eine zuverlässige Lieferung an die Endkunden zu gewährleisten.

Individualisierte Produktion

Die Chargen von Industrieunternehmen werden immer kleiner, weil ihre Kunden zunehmend individuelle Produktlösungen erwarten. Um dieser Entwicklung gerecht zu werden, müssen sie die Leistungsfähigkeit ihrer Herstellungsprozesse erhöhen. Deshalb werden Industriebetriebe verstärkt Predictive-Maintenance- und Predictive-Quality-Anwendungen implementieren. Sie ermöglichen es, durch rechtzeitiges Eingreifen ungeplante Stillstände und die Entstehung von Ausschuss zu vermeiden und dadurch die Gesamtanlageneffektivität (Overall Equipment Effectiveness) zu optimieren.

Machine-Learning-Systeme

Energieknappheit und ESG

Die derzeitige Energieknappheit wird auf absehbare Zeit der Normalzustand bleiben. Industriebetriebe sind deshalb gezwungen, ihre Produktionen so energieeffizient wie möglich zu gestalten. Mit Machine-Learning-Systemen können sie den Energieverbrauch online messen, analysieren und bei der Produktionsplanung berücksichtigen. Die Erfassung der Energiedaten ermöglicht es ihnen zudem, die steigenden ESG-Anforderungen (Environment, Social, Governance) zu erfüllen. Sie können etwa ihre Produkte mit Umwelt- und Energielabels ausstatten oder durch die Historisierung der Daten eine ESG-Konformität jederzeit rückverfolgbar nachweisen.

Demografischer Wandel

Die Belegschaften altern, viele Mitarbeiter gehen demnächst in Rente und können wegen des Fachkräftemangels nicht adäquat ersetzt werden. Industriebetrieben geht damit wertvolles Know-how für Maschinenführung verloren. Bei vielen Herstellungsprozessen unterliegen Einflussfaktoren wie Materialien starken Schwankungen, die sich nicht durch eine Rezeptur abfangen lassen. Deshalb nivellieren die Maschinenführer diese Schwankungen durch Prozesseingriffe, die auf jahrelanger Erfahrung basieren. Damit dieses Know-how nicht verloren geht, werden Unternehmen versuchen, es direkt auf die Maschinen zu bringen. Dafür eignen sich am besten spezielle Machine-Learning-Ansätze auf Basis von Ontologien wie etwa Bayes’sche Netze.

Fazit zu Machine-Learning-Systemen

„Auf viele Herausforderungen von Industriebetrieben können Machine-Learning-Systeme die beste Antwort geben“, erklärt Marc Tesch, Inhaber und CEO des Schweizer Data-Science-Spezialisten LeanBI. „Die Voraussetzungen dafür sind günstig, denn in den vergangenen Jahren haben viele Unternehmen bereits daran gearbeitet, ihre Maschinen durch digitalen Retrofit mit Sensoren zur Datenerfassung auszustatten, die Maschinen zu vernetzen und die Daten in die Cloud zu bringen. Jetzt können sie den nächsten Schritt gehen und ihre Daten mit Machine-Learning-Algorithmen gewinnbringend analysieren.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Handfeste XLA-Kennzahlen aus subjektivem IT-Erlebnis

Handfeste XLA-Kennzahlen aus subjektivem IT-Erlebnis

Worauf kommt es letztlich an – auf technische Performance-Kennzahlen oder das subjektive IT-Erlebnis? Mit steigender Digitalisierung und hybriden Arbeitsumgebungen rücken mehr und mehr Experience Level Agreements, kurz XLAs, in den Blick. Scheinbar schwer zu fassen. Denn es gibt probate Wege, um die ‚gefühlte‘ Anwenderperspektive in greifbare Ansatzpunkte für die IT zu übersetzen. Nexthink erklärt XLA-Kennzahlen.

Für Qualitätskriterien von IT-Services und -Support sind traditionell Service Level Agreements (SLAs) das Maß der Dinge. Unbeantwortet bleibt dabei: Ist der Mitarbeiter am digitalen Arbeitsplatz mit dem, was bei ihm ankommt, zufrieden und produktiv, oder genervt und ausgebremst? Eine Frage, die für Unternehmen immer wichtiger wird, wie auch eine aktuelle Nexthink-Studie, erhoben von Vanson Bourne, zeigt.

Doch im Backend scheinbar proper funktionierende IT-Infrastrukturen bedeuten nicht automatisch, dass für Endanwender störungsfreies und effizientes Arbeiten gewährleistet ist.

SLA und XLA sind wie gemessene & gefühlte Temperatur

Service Level Agreements (SLAs) und Experience Level Agreements (XLAs) verhalten sich ähnlich wie beim Wetter die gemessene und gefühlte Temperatur. Vermeintlich angenehme 17 Grad können bei Wind und Nieselregen durchaus ungemütlich sein.

Wie ein IT-Service, die Nutzung von Applikationen, Endgeräten oder eine Netzverbindung „empfunden“ wird, braucht von der Endanwenderseite systematisch erfasste Messwerte und Kontext, um für die IT greifbare Ansatzpunkte für Maßnahmen zu liefern.

Das heißt, objektive Messwerte der Arbeitsumgebung müssen zeitnah in Zusammenhang gebracht werden mit dem subjektiven IT-Erlebnis aus Sicht des Anwenders (Sentiment-Analysen). Diese liefern DEX-Plattformen, die auf der Endgeräte-Seite Leistungskennzahlen auf Hardware-, Applikations- und Netzebene erfassen, im Idealfall kombiniert mit dediziertem Anwender-Feedback.

Aus diesen Daten lassen sich Kennzahlen – XLAs – ableiten, die für eine produktive Arbeitsumgebung wesentlich sind.

Welche XLAs für ein Unternehmen entscheidend sind, lässt sich am besten anhand von konkreten Use Cases definieren. Aus der Projekterfahrung von Nexthink vereinfacht dies eine veränderte Sicht darauf zu entwickeln, was erfolgreiche IT bis hin zum digitalen Arbeitsplatz ausmacht.

Das „Warum“ der eigenen XLA-Strategie klären

Dieser Schritt schärft zum einen das Problembewusstsein zum Unterschied zwischen technischer und gefühlter Qualität digitaler Arbeitsplätze. Zum anderen hilft es, die Optimierung digitaler Arbeitsplätze mit Geschäftszielen abzugleichen.

Nur ein Signal für die Notwendigkeit einer XLA-Strategie ist, wenn die Anzahl der Tickets im IT-Support hoch ist, obwohl im IT-Backend kaum Auffälligkeiten zu verzeichnen sind. Auch die Menge an Schatten-IT und inoffizieller Workarounds an digitalen Arbeitsplätzen zeigt, dass Endanwender mit zu vielen Kompromissen bzw. DYI-Lösungen agieren.

So können mögliche Ansatzpunkte für das „Warum“ sein: bei Digitalisierungsinitiativen maximal die Anforderungen der Mitarbeiter einbeziehen, bei Cloud-First-Strategien die Auswirkungen auf digitale Arbeitsumgebungen besser berücksichtigen, die Umstellung auf hybrides Arbeiten optimieren oder die Evaluation und Anpassung von geschäftskritischer Software verbessern.

Ziele gehören zu XLA

Konkrete Ziele setzen

Bei diesem Schritt wird sichergestellt, dass XLA-Messungen auch zu konkreten, nachweisbaren Verbesserungen bei Endanwendern führen. Das heißt, dass aus XLA- und Sentiment-Analysen in Korrelation mit SLAs die richtigen Maßnahmen abgeleitet und umgesetzt werden. Dies kann Anforderungen betreffen wie:

  • Anzahl und Dauer von IT-Störungen reduzieren.
  • Anzahl der von Endanwendern selbstverursachten IT-Störungen reduzieren.
  • Vermeidung erhöhten Ticket-Aufkommens bei der Einführung neuer Software-Lösungen.
  • Ausrichtung des IT-Supports auf unterschiedliche Levels an IT-Kompetenzen, so dass Mitarbeiter mit viel und wenig IT-Erfahrung geeignete Unterstützung erhalten.
  • Umsetzung strikter IT-Security- und Compliance-Policies ohne Beeinträchtigung der Produktivität und Erhalt eines positiven IT-Erlebnis.

Übersetzung der Ziele in korrelierte SLA-XLA-Maßnahmen und -Messungen

Je klarer die Ziele formuliert sind, um so besser können sie in messbare SLA- und XLA-Kennzahlen übersetzt werden – drei Beispiele:

Rückgang der Tickets im IT-Support insgesamt:

  • bei gleichzeitig verbessertem Anwenderfeedback zur beschleunigten Problemlösung und höheren Nutzungsraten der Self-Service-Angebote.
  • aufgrund verbesserter proaktiver und kontextbezogener Kommunikation der IT mit Endanwendern (etwa über direkte Nachrichten am Bildschirm), verifiziert durch Feedbackanalysen.
  • durch den Einsatz von Predictive Tools zur proaktiven Vermeidung von IT-Störungen, verifiziert durch entsprechende Telemetriedaten aus Endgeräten und Feedback-Analysen.

Bereits an diesen Beispielen wird klar, dass direktes, zeitnahes und kontextbezogenes Feedback von Endanwendern entscheidend ist, um Maßnahmen bewerten und anpassen zu können – denn: Die Zahl der Tickets sinkt auch, wenn der IT-Support sich als wenig hilfreich erweist.

Erfahren die Anwender, dass ihr Feedback spürbar etwas bewirkt, sind sie auch bereit, sich für einen kontinuierlichen Verbesserungsprozess zu engagieren. Statt still zu resignieren bis hin zur Kündigung.

Einführung einer XLA-Kultur

Die Use Cases helfen zu verstehen, wie und welche XLAs für bestimmte Ziele gemessen und operativ durch entsprechende SLAs unterstützt werden müssen. Dies führt zu einem grundlegenden Verständnis dazu, warum es zu einer Diskrepanz zwischen technischen Parametern und dem tatsächlichen IT-Erlebnis kommt. In der Folge wird es für die IT einfacher, die für ihr Unternehmen individuellen Wege für eine XLA-Kultur zu definieren und umzusetzen. Dies betrifft grundsätzlich vier Anforderungen:

Digitalen Arbeitsplatz als Ganzes analysieren und nicht nur einzelne Services

Ursachen für langsame Anwendungen oder Programmabstürze können an Cloud-Services, lokalen Servern, Netzverbindungen oder schlicht an überlasteten CPUs beim Desktop-PC liegen. Vieles davon ist weitgehend vorhersehbar, durch entsprechendes Enduser-Experience-Management vermeidbar.

Doch die herkömmliche verteilte Sicht auf das Unternehmensnetz lässt zu viel Raum für Interpretationen zu, wo die Ursachen für ein schlechtes IT-Erlebnis liegen und wie diese zu beheben sind. Neben einer integrierten Analyse von IT-Ereignissen macht es daher Sinn, mit Predictive-Tools Ausfälle von vornherein zu verhindern oder betroffene Anwender frühzeitig zu warnen, gepaart mit Workaround-Hinweisen als Überbrückungshilfe während einer Störung.

Kommunikation mit Relevanz

Statt E-Mails oder kryptischer Support-Tickets haben Anwender in den meisten Fällen mehr davon, wenn sie über Pop-up-Meldungen auf dem Bildschirm gezielt die für sie relevanten IT-Informationen erhalten.

Das beginnt bereits bei vermeintlichen Kleinigkeiten. Eine Vorwarnung, wenn Störungen drohen, eine Meldung zur Dauer einer Störung, ein Hinweis, was bei instabilen Internetverbindungen am besten zu tun ist oder proaktiver Terminvorschläge, um das Laptop beim IT-Support aufrüsten zu lassen.

Ähnlich ist es mit Feedback-Fragen. Je klarer sie für Anwender im Kontext zu ihrer aktuellen Situation am digitalen Arbeitsplatz stehen, umso höher sind die Antwortquoten und die Aussagekraft der Angaben.

Korrelation von technischen mit Sentiment-Daten:

Die Gegenüberstellung von Daten aus dem IT-Performance-Management mit Feedback- und Sentiment-Daten aus Anwenderbefragungen zeigt, inwieweit die Sicht der IT ein realistisches Bild zum tatsächlichen IT-Erlebnis am Arbeitsplatz darstellt. Diskrepanzen sind ein wichtiger Ansatzpunkt für die IT, zum einen mögliche Ursachen von Beeinträchtigungen grundlegend zu beheben. Zum anderen hilft es, Muster von IT-Ereignissen zu interpretieren und proaktiv Störungen zu verhindern.

Anwender und ihre Anforderungen differenzieren:

Zwischen IT-affinen Power-Usern und reinen Nutzern von Standardapplikationen ist ein weites Feld – was die einen langweilt und ausbremst, überfordert die anderen. Dies in der IT-Kommunikation, bei Schulungen, Freiheitsgraden individueller Systemeinstellungen oder bei Verfahren zur Störungsbehebung zu berücksichtigen, ist wesentlich für ein positives IT-Erlebnis am Arbeitsplatz. Hier können XLA-Analysen einen wichtigen Beitrag leisten, um digitale Arbeitsplätze nach individuellen Bedürfnissen bereitzustellen und zu unterstützen.

Fazit

Aus vermeintlich schwammigen XLAs werden handfeste Kennzahlen, wenn sie aus Telemetriedaten der Endgeräte und systematischem, bidirektionalem Anwender-Feedback abgeleitet werden. Dann haben sie auch die nötige Aussagekraft, um durch eine direkte Korrelation mit SLAs aus dem IT-Backend eine ganzheitliche Sicht auf digitale Arbeitsumgebungen zu gewährleisten. Das Ergebnis sind Antworten darauf, wie es wirklich um die Qualität der Technologie am Arbeitsplatz bestellt ist und wo Prioritäten zur Verbesserung gesetzt werden sollten.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Darum gehört E-Mail-Archivierung zu einer guten Cyber-Resilienz-Strategie

Darum gehört E-Mail-Archivierung zu einer guten Cyber-Resilienz-Strategie

Beabsichtigtes oder irrtümliches Löschen, ein Cyber-Angriff oder ein durch ausgefallene Server oder eine ungeplante Downtime im (Cloud-)Rechenzentrum hervorgerufener Systemausfall. Die Ursachen für den Verlust von E-Mail-Daten können unterschiedlich sein. Was für viele Mitarbeiter in erster Linie ärgerlich ist, kann ein Unternehmen nicht nur unter Umständen Bußgelder und Reputation, sondern im schlimmsten Fall auch die Existenz kosten. Die Cyber-Resilienz lässt sich durch E-Mail-Archivierung stärken.

E-Mails enthalten heute zahlreiche geschäftskritische Informationen wie Personaldaten, Rechnungen und Verträge, die häufig nur in dieser Form vorliegen. Umso wichtiger ist es, dass Unternehmen auch im Falle einer Störung Zugriff auf diese Daten haben.

Wie können sich Unternehmen auf den Ernstfall vorbereiten? Kristina Waldhecker, Manager Product Marketing von der MailStore Software GmbH, gibt dazu diese relevanten Tipps, um die Cyber-Resilienz zu stärken:

E-Mail-Archivierung im Zusammenspiel mit Backups

Im Rahmen des Business Continuity Managements definieren Unternehmen Prozesse, die im Ernstfall sowohl das Ausmaß der Unterbrechung eindämmen. Sie sollen aber auch eine schnelle Wiederaufnahme der Betriebsabläufe gewährleisten – einschließlich der Wiederherstellung betroffener Systeme und Daten. Darum kümmert sich die Disaster Recovery – einer der Teilbereich der Business Continuity

Damit die Disaster Recovery erfolgreich ist, müssen Unternehmen Kopien ihrer Datenbestände – mitsamt ein- und ausgehender E-Mail-Korrespondenzen – anlegen, aus denen im Falle eines Datenverlustes die Wiederherstellung erfolgt. Dafür greifen Unternehmen häufig lediglich auf herkömmliche Backups zurück. Diese haben jedoch einen entscheidenden Nachteil: Backup-Prozesse werden zumeist nur in festgelegten Intervallen durchgeführt und erfassen nur jenen Bestand, der zum Erstellungszeitpunkt vorhanden ist (sogenannte „Snapshots“). Eine Berücksichtigung sämtlicher Änderungen, die zwischen den Snapshots erfolgen, erfolgt demnach nicht.

E-Mail-Archivierung verstärkt Cyber-Resilienz

Es ist sinnvoll, Backup-Systeme um eine professionelle E-Mail-Archivierungslösung zu ergänzt, um den gesamten E-Mail-Datenbestand vor einem Verlust zu schützen. Diese kopiert den kompletten E-Mail-Datenbestand vollständig, manipulationssicher und  möglichst datenschutzkonform in ein zentrales Archiv. Sollten die E-Mail-Server aufgrund einer Störung nicht verfügbar sein, können Mitarbeiter trotzdem mithilfe von Such- und Wiederherstellungsfunktionen weiterhin auf die aktuellste Version des Bestandes zugreifen. Ein kombinierter Ansatz aus Backup-System und E-Mail-Archivierung stellt einen wichtigen Faktor der Cyber-Resilienz-Strategie eines Unternehmens dar. Während im idealen Fall das Backup sich darauf konzentriert den E-Mail-Server mit möglichst geringer Downtime wiederherzustellen, werden die E-Mails sicher im zentralen und unabhängigen Archiv vorgehalten.

Nicht nur förderlich für das Business Continuity Management

Der Mehrwert einer E-Mail-Archivierungslösung geht jedoch weit über das Business Continuity Management hinaus. Die meisten Unternehmen in Deutschland, Österreich und der Schweiz unterliegen Aufbewahrungspflichten, die vor allem steuer- und handelsrechtlich relevante Korrespondenzen in elektronischer Form mit einbezieht. Auch wenn Dokumente nur in Form von E-Mails vorliegen, müssen sie sicherstellen, dass diese revisionssicher und im Rahmen des festgelegten Aufbewahrungszeitraums dauerhaft aufbewahrt und stets verfügbar sind.
 

Die gesetzlichen Anforderungen können sich je Branche und Land unterscheiden. Über die Revisionssicherheit hinaus, sollten E-Mails datenschutzkonform nach Maßgaben der EU-DSGVO (in der Schweiz: DSG) verarbeitet und gespeichert werden. Eine professionelle E-Mail-Archivierung kann zudem helfen, diese Anforderungen im Rahmen der E-Mail-Governance auch praktisch umzusetzen.
 

Fazit

E-Mail-Archivierung ist kein „nice-to-have“ für Unternehmen – sondern Teil der IT-Strategie, da sie gleich auf zweierlei Weise Sicherheit bieten kann. Sowohl vor Datenverlusten als auch hinsichtlich Revisionssicherheit und Datenschutzkonformität.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Alles was man über CRM-Implementierungen wissen muss!

Alles was man über CRM-Implementierungen wissen muss!

  1. Eine CRM-Implementierung ist ein Prozess, bei dem ein Unternehmen eine Kundenbeziehungssoftware oder -plattform implementiert, um seine Kundenbeziehungen zu verwalten.
  2. Es erfordert die Zusammenarbeit zwischen dem IT-Team und anderen Abteilungen, um sicherzustellen, dass alle Systeme und Prozesse reibungslos funktionieren.
  3. Eine erfolgreiche Implementierung erfordert eine gründliche Planung und Vorbereitung, um zu gewährleisten, dass die Systeme effizient genutzt werden und das Unternehmen langfristig von einer CRM-Implementierung profitiert.
  4. Es ist wichtig, dass die CRM-Software mit den Anforderungen des Unternehmens übereinstimmt, damit sie effizient genutzt

Alles was man über CRM-Implementierungen wissen muss!

Wie läuft eine CRM-Implementierung ab?

Eine CRM-Implementierung beginnt mit der Identifizierung der Ziele und Anforderungen des Unternehmens. Dieser Prozess beinhaltet eine Reihe von Schritten, einschließlich der Auswahl der richtigen CRM-Software, der Konfiguration und Anpassung der Software an die Bedürfnisse des Unternehmens, der Integration der Software mit anderen Systemen, der Schulung des Personals und der Überwachung des Systems. Sobald die Implementierung abgeschlossen ist, können Unternehmen die Vorteile der CRM-Software nutzen, um Kundenbeziehungen zu verwalten, Kundendaten zu verfolgen und zu analysieren, um bessere Entscheidungen zu treffen.

Anzeige: Whitepaper der DIGITAL-WEBER

An was scheitern oft CRM-Implementierungen?

CRM-Implementierungen können aufgrund zahlreicher Faktoren scheitern. Einige der häufigsten Gründe sind:

  • Fehlende Unterstützung durch Führungskräfte
  • Schlechte Datenqualität
  • Unzureichende Ressourcen und Budget
  • Unklare Ziele und Erwartungen
  • Schwierigkeiten bei der Integration mit anderen Systemen
  • Unzureichende Schulungen
  • Schwierigkeiten bei der Akzeptanz des Systems
  • Schwierigkeiten bei der Benutzerfreundlichkeit

Beiträge zum Thema CRM-Implementierungen

  • Warum Contact Center ein Teil von Vertrieb und Marketing sind

    Warum Contact Center ein Teil von Vertrieb und Marketing sind

    Eine aktuelle Gallup-Analyse ergab, dass engagierte Kunden 23 % mehr ausgeben. Das bietet Unternehmen erhebliche Umsatzanreize, sich über die Qualität des Kundenerlebnisses vom Mitbewerb abzuheben. Anne-Meine Gramsma, Chief Commercial Officer von ContactCenter4ALL, ist der Meinung, dass eine enge Integration der digitalen Contact-Center- und CRM-Plattformen unerlässlich ist. Sie ist deswegen unerlässlich, um deren Nutzen vollständig zu […]

    Lesen Sie den gesamten Beitrag hier …

  • Interview mit OTRS zum Thema CRM – Customer Relationship Management

    Interview mit OTRS zum Thema CRM – Customer Relationship Management

    Matthias Weber im Gespräch mit der OTRS AG, zum Thema CRM – Customer Relationship Management. 5 Fragen an OTRS zum Thema Customer Relationship Management Auf unsere 5 Fragen zum Thema Customer Relationship Management gibt uns die OTRS AG, Antworten. Frage 1: CRM wird für viele Anwender mit einem Stück Software gleichgesetzt, es ist aber mehr. Was […]

    Lesen Sie den gesamten Beitrag hier …

  • Schlagkräftig in der Kommunikation mit cobra CRM

    Schlagkräftig in der Kommunikation mit cobra CRM

    cobra CRM sorgt für mehr Effizienz bei der allgäu mail GmbH Schlagkräftig in der Kommunikation mit cobra CRM Die allgäu mail GmbH, Spezialist für die Briefzustellung und Postlogistik, besteht seit 2003 als eine Tochterfirma der Allgäuer Zeitungsverlag GmbH und bedient etwa 220.000 Haushalte in der Region Allgäu. Als Komplettlösung für die Geschäftspost bietet das Unternehmen […]

    Lesen Sie den gesamten Beitrag hier …

Der Beitrag wurde ursprünglich hier veröffentlicht …

Kollaborative Intelligenz: Der Schlüssel zu einem wirklich authentischen Kundenerlebnis

Kollaborative Intelligenz: Der Schlüssel zu einem wirklich authentischen Kundenerlebnis

Ein guter Kundenservice basiert auf Vertrauen und Authentizität. Wenn Kunden einen Ansprechpartner suchen, haben sie in der Regel alle anderen Möglichkeiten zur Problemlösung ausgeschöpft. Suchen in bekannten Suchmaschinen, Online-Foren und FAQs haben sie frustriert zurückgelassen. Nun brauchen sie einen einfühlsamen Ansprechpartner, um ihr Problem bzw Ihr Anliegen individuell und optimal zu lösen. Aber auch der direkte Kundenservice kann schnell unauthentisch und somit auch frustrierend sein. Besonders dann, wenn die Anrufer eine Künstliche Intelligenz (KI) anstelle eines einfühlsamen Mitarbeiters erreichen, welcher das Gespräch leiten sollte, oder aber einen Mitarbeiter erreichen, während eine KI das Problem um einiges effizienter lösen könnte. Die Lösung nennt sich kollaborative Intelligenz.

Aktuell entscheiden sich 36 Prozent aller Kunden für die KI oder einen Self-Service-Chat, um schnell an Informationen zu gelangen. Wenn es jedoch um ein sensibles oder dringendes Problem geht, wünschen sich die Kunden doch einen menschlichen Ansprechpartner.

Ein wesentlicher Teil des Kundenservice beruht auf der Verbindung von Mensch zu Mensch und Empathie. Daher ist es wichtig, das richtige Gleichgewicht zwischen menschlichem und digitalem Service zu finden. Transparenz, Authentizität und Vertrauen sind bei der Gestaltung der Customer Journey nach wie vor von entscheidender Bedeutung. Denn so bindet man die Kunden an das Unternehmen.

Whitepaper-Angebot der Digital-Weber: Conversational Marketing mit CHatbots

„Tricksen“ am Kunden erschüttert das Vertrauen

Das Vertrauen der Kunden zu brechen, kostet Geld. Tatsächlich gaben 53 Prozent der Verbraucher an, dass sie auf die Produkte und Leistungen einer Marke verzichten, wenn sie erst einmal enttäuscht wurde. Ein solcher Vertrauensverlust wirkt sich finanziell negativ auf das Unternehmen aus. 44 Prozent der Verbraucher weltweit geben jedes Jahr mindestens 500 Euro oder mehr für Marken aus, denen sie am meisten vertrauen.

Der Versuch, eine automatisierte Stimme als menschlichen Agenten auszugeben und Chatbots zu vermenschlichen, kann in emotionsgeladenen Szenarien zu einer schlechten Kundenerfahrung führen. In einer solcher Situation fühlen sich viele in die Irre geführt, wenn sie feststellen, dass sie mit einer Künstlichen Intelligenz kommunizieren. Aktuell stehen einige Branchen vor großen Herausforderungen. Steigende Lebenshaltungskosten, Reiseunterbrechungen und extreme Wetterbedingungen sind nur einige aktuelle Beispiele, die authentische, menschliche Interaktionen erfordern. Für 76 Prozent aller Kunden ist es wichtig, dass Marken Einfühlungsvermögen zeigen, ihre Frustrationen erkennen und verstehen, dass ihnen in bestimmten Situationen eine authentische zwischenmenschliche Kommunikation wichtiger ist.

Kollaborative Intelligenz bewahrt Authentizität

Das richtige Gleichgewicht zwischen menschlichem Einfühlungs- und Urteilsvermögen sowie der Geschwindigkeit und Datenbreite der künstlichen Intelligenz ist entscheidend für die Bewältigung der zunehmenden Zahl sensibler Kontakte. Dieser neue Wandel hin zu einer kollaborativen und intelligenten Zusammenarbeit von Menschen und KI stärkt die Agenten, anstatt sie zu ersetzen.

Kollaborative Intelligenz bietet das Beste aus beiden Welten für den Kundenservice. Der Erstkontakt wird von einem intelligenten virtuellen Agenten (IVA) übernommen. Er kann selbstständig und schnell zuhören, Informationen recherchieren und Datenabfragen erledigen – beispielsweise liefert er Updates über den Bestellstatus oder nennt die Öffnungszeiten des Unternehmens. Der IVA identifiziert zudem dringende Fälle, nimmt die Identität des Kunden auf und sammelt kontextbezogene Details, die in Echtzeit an einen menschlichen Agenten weitergeleitet werden.

Auf diese Weise können Contact Center auch weiterhin authentische zwischenmenschliche Beziehungen anbieten, wenn sie erforderlich sind. Diese kollaborative Intelligenz steigert die Zufriedenheit aller Beteiligten: Die Service-Agenten können die Anrufer besser betreuen, was dazu führt, dass Agenten und Kunden gleichermaßen glücklicher sind. Die kollaborative Intelligenz senkt außerdem die Kosten und beschleunigt den Kundenservice, was im Umkehrschluss bedeutet, dass Unternehmen glücklicher sind.

Die neue Rolle des menschlichen Agenten

Mit der kollaborativen Intelligenz wird sich die Rolle der menschlichen Agenten weiterentwickeln. Laut einer in diesem Jahr veröffentlichten Studie haben 73 Prozent der Call Center einen Anstieg der Fluktuationsrate ihrer Agenten festgestellt. Die Einbindung von Künstlicher Intelligenz und kollaborativer Intelligenz zur Unterstützung menschlicher Agenten bietet eine wichtige Lösung zur Bekämpfung dieser Fluktuation.

Die künstliche Intelligenz hilft den Agenten, ihre Arbeit besser zu erledigen. Sie gibt ihnen konsistente Anleitungen, so dass sie sich nicht an Playbooks orientieren müssen. Außerdem stellt die KI Notizen für dir Agenten bereit, so dass sie den Kunden ihre ungeteilte Aufmerksamkeit widmen können. Neuen Mitarbeitern hilft die Künstliche Intelligenz zudem, sich schneller einzuarbeiten. All dies sind repetitive Aufgaben, die eine Künstliche Intelligenz schon heute den Agenten abnimmt. Die menschlichen Agenten haben dann die Zeit, sich vollständig auf die Anrufer zu konzentrieren, zuzuhören und einfühlsam zu sein.

Mit Blick auf die Zukunft ist klar, dass kollaborative Intelligenz die Zukunft der Contact Center ist. Die nahtlose Integration von Künstlicher Intelligenz in den Berufsalltag der Agenten wird in Zukunft zu einer Kundenerfahrung führen, die Vertrauen unter den Anrufern schafft. Die Kombination aus menschlichem Einfühlungs- und Urteilsvermögen mit der Geschwindigkeit und den Daten einer Künstlichen Intelligenz stellt sicher, dass Kundeninteraktionen authentisch bleiben, während gleichzeitig Wartezeiten verkürzt und Routineanfragen automatisiert werden. Im Jahr 2023 wird ein solches Kundenerlebnis ein entscheidender Wettbewerbsvorteil für Marken sein, die ihre Markentreue pflegen und ihren Gewinn steigern wollen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Genial oder Augenwischerei? Welchen Effekt haben paketfreie Retouren

Genial oder Augenwischerei? Welchen Effekt haben paketfreie Retouren

„Unsere Kunden wollen alles und zu jeder Zeit.“ So lautet vielerorts das Credo des Online-Handels. Customer Convenience ist dabei oftmals das Zauberwort. Das Ziel ist es, den Kunden den kompletten Kaufprozess so bequem wie möglich zu machen – inklusive des Retourenprozesses. Artjom Bruch, CEO bei Trusted Returns erklärt, warum paketfreie Retouren nur augenscheinlich den Kundenwünschen entspricht und was der Versandhandel stattdessen berücksichtigen sollte.

Paketfreie Retouren – geht das überhaupt?

Wenn ein Online-Händler als kundenorientiert gilt, dann ist es Amazon. Amazon hat Millionen Artikel auf einer Plattform und liefert die teilweise sogar am selben Tag. Seit dem 10. Oktober 2022 gibt Amazon seinen Kunden ein weiteres Versprechen: Wer ein Produkt zurückschicken möchte, kann es einfach zur nächsten DHL-Filiale bringen. Man benötigt nicht einmal mehr einen Versandkarton – denn darum kümmern sich jetzt die Mitarbeiter der DHL.

Auch wenn dieser Ansatz angeblich kundenfreundlich ist, so wird dieses Konzept vor allem auf dem Rücken der Post-Mitarbeitenden umgesetzt. Anders als bei bereits verpackten Retouren, wird der Rückversand nicht einfach umgehend verarbeitet und verzögert sich dadurch immens. Die DHL ist dazu angehalten, die Produkte in den Filialen zu sammeln, allerdings ist in vielen kleineren Filialen nicht annähernd genug Lagerraum vorhanden. Gerade für die anstehende Weihnachtszeit bedeutet das neue Konzept eine enorme Mehrbelastung für die Post.

Ein weiterer wichtiger Punkt ist der Nachhaltigkeitsaspekt. Die Ware wird schließlich auch nicht paketfrei zum Kunden geliefert. Vielmehr ist abzusehen, dass die Verpackungsmüllmenge von Amazonkunden deutlich steigen wird. Vor dem Hintergrund, dass 80 Prozent der Deutschen den Verpackungsmüll als größtes Problem für Nachhaltigkeitsdefizite im Online-Handel ausmachen, ist diese Taktik wenig nachvollziehbar – zumal sie von einem Unternehmen implementiert wurde, das es einmal mehr mit vernichteten Retouren auf die Titelseiten geschafft hat.

Trotzdem erhöht sie den Druck auf den E-Commerce im Allgemeinen. Mit der paketfreien Retoure geht Amazon einen weiteren Schritt in Richtung Customer Convenience. Möchten Online-Händler ebenfalls diesen Weg einschlagen, ohne an Nachhaltigkeit einzubüßen, müssen sie sich eine vernünftige Strategie überlegen. Dabei sollten sie ganz genau darauf achten, was sich die Endverbraucher tatsächlich wünschen.

Was wollen die Kunden?

Grundsätzlich belegt der von Trusted Returns durchgeführte Retouren-Report 2022, dass sich die Deutschen nach einem nachhaltigeren Online-Handel sehnen. Dafür wird auch das Retourenverhalten entsprechend angepasst: Nahezu jeder zweite Deutsche (44%) ist bereit, für seine Retouren selbst zu zahlen. Im Gegenzug steigen jedoch auch die Erwartungen an den Versandhandel. So wünscht sich die überwiegende Mehrheit (93%) nachhaltigere Alternativen zur Shipping-only-Retoure wie beispielsweise die Möglichkeit, Waren im stationären Handel zurückzugeben oder sie im Gegenzug für einen Rabatt zu behalten.

Whitepaper-Angebot der Digital-Weber: Conversational Marketing mit CHatbots

Doch bereits im Bestell- und Liefervorgang zeigt sich ein Sinneswandel: Doppelt bestellte Ware ist mit sieben Prozent bei der Liste der Retourengründe abgeschlagen. Trotzdem würde beinahe drei Viertel der Deutschen (72%) sich im Zuge des Bestellens über einen Hinweis freuen, sollte sich ein Produkt doppelt im Warenkorb befinden. So könnte man die Zahl der Retouren weiter senken.

Ähnlich gestaltet sich das Meinungsbild bei der Kommunikation hinsichtlich der entstehenden CO2-Emissionen. Während 54 Prozent angeben, die eigene Bestellung zu prüfen, wenn ihnen die Emissionen vor Augen geführt werden, sind immerhin 43 Prozent dazu bereit, einen Aufpreis für die CO2-Kompensation zu bezahlen. Zudem erklärten knapp zwei Drittel (63%), gerne länger auf die eigene Bestellung zu warten, wenn die Lieferung im Gegenzug auf nachhaltigerem Wege durchgeführt wird.

Ganzheitliches Retourenmanagement erstickt Probleme im Keim

Es zeigt sich, dass Online-Kunden großen Wert auf transparente Kommunikation legen. Dann sind sie auch gewillt, ihr Verhalten entsprechend anzupassen und gegebenenfalls Einschränkungen in Kauf zu nehmen – ohne, dass die Kundenzufriedenheit darunter leidet. Aus diesem Grund muss man auch jeden möglichen Kontaktpunkt zum Kunden als Chance erachten. Der After-Sales-Cycle bietet hier noch häufig ungenutztes Potenzial. Viele Händler beschäftigen sich nach Abschluss des Verkaufs erst wieder mit dem Kunden, wenn dessen Retoure im Posteingang landet. Automatisch generierte Follow-up-Mails zur Zufriedenheit bei der Bestellung erzielen nur selten den gewünschten Effekt.

Ganzheitliches Retourenmanagement sieht bereits den Bestellprozess als ersten Schritt im Rückgabeprozess sowie als erste Möglichkeit, den Kontakt zum Kunden aufzubauen. Eine integrierte Self-Service-Plattform erfasst schon während der Bestellung die wichtigsten Daten, die ein Online-Händler in der weiteren Kundenkommunikation braucht. Möchte der Kunde eine Retoure auslösen, kann der Händler entsprechend reagieren und prüfen, ob eine Retoure tatsächlich nötig ist. Denn häufig ist das Problem vielschichtiger als angenommen. Im klassischen Fall bleibt dem Kunden jedoch häufig nur der Rückversand.

paketfreie Retouren

Doch gerade hier kann der Händler die Kommunikation wieder aufnehmen. Ist dem Kunden beispielsweise dadurch geholfen, dass ein Mitarbeiter vom Kundenservice ihm die Funktionalität des Gerätes noch einmal über einen Videocall erklärt, oder würde er das nicht ganz so olivfarbene T-Shirt behalten, wenn er einen Rabatt dafür bekommt? Der Wunsch zur Retoure muss nicht automatisch in einer physischen Warenbewegung enden. Oftmals kann ein Problem durch leichtes Drehen an entsprechenden Stellschrauben behoben werden.

Besonders die Customer-Return-Experience entscheidet mittel- bis langfristig darüber, ob ein Kunde erneut bei demselben Online-Händler einkauft oder nicht. Schafft es der E-Commerce, seine Kunden im After-Sales-Cycle entsprechend abzuholen, fühlen diese sich gut beraten und bauen so nachhaltiges Vertrauen zu einem Händler auf. Eine ganzheitliche Self-Service-Plattform gestaltet den Retourenprozess für beide Seiten nicht nur deutlich transparenter und kommunikativer. Ssie erhöht zeitgleich auch die Customer Convenience. So können Online-Händler von Beginn an daran arbeiten, ihre Kunden zu binden – und müssen nicht auf paketfreie Retouren setzen, die das Müllaufkommen auf beiden Seiten exorbitant multipliziert.

Der Beitrag wurde ursprünglich hier veröffentlicht …