KI sollte Beschäftigte in Contact Centern befähigen statt sie zu ersetzen

Im Kundenservice spielt KI eine Schlüsselrolle für die Produktivität und die Zufriedenheit

KI sollte Beschäftigte in Contact Centern befähigen statt sie zu ersetzen

Das größte Potenzial beim Einsatz Künstlicher Intelligenz im Contact Center liegt in der Produktivitätssteigerung der Beschäftigten, postuliert die Schweizer Spitch AG, einer der führenden Anbieter von KI-basierten Sprach- und Textdialogsystemen für diesen Zielmarkt. Der Chief Innovation Officer von Spitch, Josef Novak, verweist auf eine Prognose der Gartner Group, wonach „bis 2026 ganze 60 Prozent der KI-Software für Konversationen proaktive Intelligenzfunktionen enthalten wird, während es 2023 noch weniger als 5 Prozent waren.“

Er skizziert den Einsatz dieser sogenannten „proaktiven Intelligenzfunktionen“: Das KI-Tool antizipiert Kundenbedürfnisse, stellt dem Beschäftigten im Call Center die dazugehörigen Informationen am Bildschirm zur Verfügung und schlägt gleich geeignete Maßnahmen vor, um den Kunden besser bedienen zu können. Das Spektrum reicht von der schnelleren Lösung eines Problems bis hin zur Umsatzsteigerung durch Up-Selling. Spitch konzentriert sich eigenen Angaben zufolge zusehends auf dieses Konzept, Contact Center bei der Steigerung ihrer Produktivität und des Kundenerlebnisses durch KI-Funktionen zu unterstützen. „Häufig werden KI-Systeme im Service mit Automatisierung und Rationalisierung gleichgesetzt“, sagt Josef Novak, „doch es gibt noch eine viel wichtigere Komponente, nämlich die Befähigung und Motivation der Beschäftigten im Kundenservice durch KI.“

Spitch verweist auf das „enorme Potenzial“ generativer KI. Moderne generative KI-Lösungen unterstützten Contact Center heute schon vielfach erfolgreich bei unterschiedlichen Aspekten, vom Onboarding und Training bis hin zum Echtzeit-Support bei Kundeninteraktionen.

Onboarding mit KI 

Ein Schlüsselbereich, in dem generative KI einen erheblichen Einfluss haben kann, ist nach Erfahrungen von Spitch das Onboarding und Coaching der Beschäftigten in Contact Centern. Während herkömmliche Schulungsmethoden zeit- und ressourcenaufwändig seien, können neue Mitarbeiter mittels generativer KI ein personalisiertes, interaktives Training erhalten, das sich an ihr Lerntempo und ihren Lernstil anpasst. Virtuelle Assistenten, die von generativer KI unterstützt werden, können Neulinge effektiv durch Produktwissen, Unternehmensrichtlinien und Best Practices führen und dadurch sicherstellen, dass sie vom ersten Tag an gut gerüstet sind, um Kundenanfragen zu bearbeiten. Generative KI-Schulungsplattformen können Trainingsgespräche simulieren oder wiederholen, die auf einem bestimmten Bereich des Contact Centers, auf Richtlinien oder auf früheren realen Gesprächen basieren. Laut McKinsey & Company „könnte die Anwendung generativer KI auf Kundenbetreuungsfunktionen die Produktivität um 30 bis 45 Prozent steigern bei gleichbleibenden Kosten.“ 

Über die anfängliche Schulung hinaus vermögen diese Ansätze eine kontinuierliche Betreuung der Beschäftigten im Contact Center zu gewährleisten. Während der Kundeninteraktion können KI-gestützte Tools die Konversation in Echtzeit analysieren und relevante Informationen, Antwortvorschläge und Anleitungen zur Behandlung bestimmter Probleme anbieten. Auf diese Weise können sich die Beschäftigten auf den Aufbau von Beziehungen zu den Kunden konzentrieren, während sie stets über das erforderliche Wissen und die erforderlichen Tools verfügen.

Qualitätsmanagement und Leistungsbewertung

Große Sprachmodelle (Large Language Models, LLM) und ihre Erweiterungen revolutionieren das Qualitätsmanagement und die Leistungsbewertung der Mitarbeiter im Contact Center, urteilt Spitch. Durch die Analyse von Anrufprotokollen und Kundenfeedback können LLMs komplexe natürlich­sprachliche Interaktionen effektiv analysieren, verbesserungswürdige Bereiche identifizieren und personalisierte Coaching-Empfehlungen generieren. 

Dieses datengesteuerte Konzept ermöglicht laut Spitch, dass die Beschäftigten gezieltes Feedback und Unterstützung erhalten, um ihre Fähigkeiten kontinuierlich zu verbessern – sowohl vor Ort als auch in der Cloud. Dieser Ansatz stellt zudem sicher, dass Feedback und Überprüfung der Mitarbeiter in Übereinstimmung mit neuen EU- und internationalen Richtlinien für den verantwortungsvollen Einsatz von generativer KI bereitgestellt werden können.

Selbstlernende Ressourcen

Generative KI trägt zur Erstellung von selbstlernenden Ressourcen für die Beschäftigten bei. Durch die Analyse gängiger Kundenfragen und erfolgreicher Lösungsstrategien können KI-Agenten schnell verlässliche Knowledge-Base-Artikel, FAQs und Best-Practice-Anleitungen erstellen. Dadurch können die Mitarbeiter bei Bedarf selbstständig auf relevante Informationen zugreifen, was die Abhängigkeit von Vorgesetzten verringert und die Beschäftigten in die Lage versetzt, Probleme effizienter zu lösen.

Generative KI als Katalysator für die Steigerung der Mitarbeiterzufriedenheit

Spitch rät darauf zu achten, dass die Einführung von generativer KI in Contact Centern ein gemeinsames Unterfangen von Management und Mitarbeitern ist. Offene Kommunikation und Transparenz sind demnach von entscheidender Bedeutung, um Bedenken oder Ängste der Mitarbeiter hinsichtlich der Auswirkungen von KI auf ihre Aufgaben zu zerstreuen. Unternehmen sollten zudem klare Richtlinien aufstellen, wie KI eingesetzt werden soll, um die Arbeit der Menschen zu ergänzen, anstatt sie zu ersetzen.

Josef Novak erklärt: „Contact Center müssen KI-Lösungen entwickeln, bei denen die Befähigung der Mitarbeiter im Vordergrund steht, indem sie eine unterstützende Beziehung zwischen Technologie und menschlichem Fachwissen ermöglichen. Generative KI kann Routineaufgaben übernehmen, so dass sich die Mitarbeiter auf komplexe Probleme konzentrieren können, die Einfühlungsvermögen, Kreativität und Problemlösungskompetenz erfordern. Dies verbessert nicht nur die betriebliche Effizienz, sondern erhöht auch die Arbeitszufriedenheit, reduziert den Stress und steigert das Engagement der Mitarbeiter.“

Vorteile sind schon heute sichtbar

Die potenziellen Vorteile der generativen KI in Contact Centern sind schon heute sichtbar, meint Spitch. McKinsey & Company berichtet, dass „Untersuchungen in einem Unternehmen mit 5.000 Kundendienstmitarbeitern ergaben, dass die Anwendung generativer KI die Problemlösungen um 14 Prozent pro Stunde steigerte und den Zeitaufwand für die Bearbeitung von Anfragen um 9 Prozent reduzierte. Außerdem sank die Fluktuation der Mitarbeiter und die Anzahl der Anfragen an den Vorgesetzten um 25 Prozent. Entscheidend ist, dass sich Produktivität und Servicequalität bei den weniger erfahrenen Mitarbeitern am stärksten verbesserten.“ Josef Novak betont: „Diese Ergebnisse unterstreichen die transformative Kraft der generativen KI bei der Stärkung der Mitarbeiter, insbesondere derjenigen, die neu in ihrer Rolle sind oder ihre Fähigkeiten noch entwickeln.“

Da Contact Center generative KI einsetzen, ist es wichtig, die Implementierung strategisch anzugehen und langfristig zu planen, empfiehlt Spitch. Die Zusammenarbeit mit erfahrenen Anbietern von KI-basierten Dialogsystemen und die Nutzung eines einheitlichen, plattformzentrierten Ansatzes seien entscheidend für eine reibungslose Integration in das bestehende IT-Ökosystem, die den spezifischen Bedürfnissen und strategischen Zielen des Unternehmens gerecht wird.

Josef Novak erklärt: „Wir bei Spitch sind davon überzeugt, dass Unternehmen, die sich auf die Befähigung und Unterstützung ihrer Mitarbeiter konzentrieren, ein Win-Win-Szenario schaffen können, in dem Technologie und menschliche Kompetenz Hand in Hand arbeiten. Mit dem richtigen Ansatz und den richtigen Partnerschaften wird generative KI Contact Center zunehmend von traditionellen Kostenstellen in Zentren der Innovation, der Geschäftsmöglichkeiten und der Zufriedenheit von Kunden und Mitarbeitern verwandeln.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die fünf wichtigsten Benefits, mit denen NoSQL-Datenbanken punkten

Datenbanken sind die heimlichen IT-Helden in Zeiten von KI, Cloud und Edge. Sie arbeiten still, leise und effektiv im Hintergrund, sorgen für die richtigen Daten an den richtigen Stellen und liefern Datenanalysen in Echtzeit. Ein verantwortungsvoller Job, für den nur die Besten geeignet sind. Couchbase listet die entscheidenden Auswahlkriterien auf.

Die fünf wichtigsten Benefits, mit denen NoSQL-Datenbanken punkten

Moderne IT-Architekturen sind agil, schnell und komplex. Daten und Datenanalysen müssen jederzeit und überall für Applikationen verfügbar sein. Entsprechend anspruchsvoll sind die Anforderungsprofile für Datenbanken in Bezug auf Flexibilität, Agilität und Skalierbarkeit. NoSQL-Datenbanken haben sich dafür als besonders geeignet herauskristallisiert, da sie die Beschränkungen transaktionsorientierter relationaler Datenbanken mit ihren starren Zeilen/Spalten-Schemata hinter sich lassen. Couchbase, Anbieter einer Cloud-Datenbank-Plattform, erklärt die wichtigsten Vorteile:

1. Flexible Datenmodelle

Künstliche Intelligenz, Machine Learning, Echtzeit-Analytics und Cloud-Services lassen nicht nur die Datenaufkommen explodieren. Sie führen auch zu einer massiven Zunahme an unstrukturierten Daten wie Fotos, Videos oder Chat-Verläufen. Datenbanken müssen dafür ausgelegt sein. NoSQL-Datenbanken arbeiten mit flexiblen Datenmodellen wie dokumentenorientiert (JSON), Key-Value oder sogar Multi-Model mit einem Mix aus mehreren Modellen.

2. Unterstützung hybrider IT-Architekturen

Aktuelle IT-Architekturen sind mit ihrem Mix aus On-premises-, Cloud- und Edge-Komponenten zunehmend hybrid und verteilt. NoSQL-Datenbanken mit der Fähigkeit zur uni- und bidirektionalen Cross-Datacenter-Replikation sind dafür ideal geeignet. Darüber hinaus müssen sie dynamische Microservices-Architekturen wie Kubernetes mit flüchtigen (stateful) Datenbank-Services versorgen. Und für das besonders latenzsensible Edge Computing werden Datenbanken benötigt, die Edge-Daten direkt vor Ort speichern, analysieren und wieder bereitstellen.

3. Systemische Plattform-Agnostik

Cloud- und Microservices können auf einer Reihe von Plattformen wie AWS, Azure, Google oder Red Hat OpenShift bereitgestellt werden. Typischerweise vermeiden Unternehmen die Festlegung auf eine einzige Plattform und präferieren daher Hybrid- oder Multi-Cloud-Szenarien. Um die Interoperabilität sicherzustellen, muss die NoSQL-Datenbank ebenso unabhängig von der jeweils genutzten Plattform sein, wie die von der Datenbank bereitgestellten automatisierten Applikationen.

4. Multidimensionale Skalierbarkeit

In solchen Umgebungen müssen die Datenbank-Services unabhängig voneinander skaliert werden können – und das sowohl vertikal wie horizontal. Bei der linearen Skalierung steigt die Performance des gesamten NoSQL-Datenbankmanagement-Systems mit jedem zusätzlichen Knoten. Entsprechend geeignete Datenbanken können ihre Services zudem auf dedizierten Knoten laufen lassen und so eine Workload Isolation hinsichtlich CPU, RAM und Disk-Arbeitslast erreichen.

5. Automatisierung und Echtzeit-Management

Komplexe verteilte Architekturen benötigen zwangsläufig ein hochautomatisiertes Datenbank-Management. Das betrifft beispielsweise die Echtzeitverwaltung der Knoten und die Sicherstellung des ausfallsicheren Betriebs. NoSQL-Datenbanken, die den höchsten von der Cloud Native Computing Foundation (CNCF) definierten Automatisierungs-Reifegrad (Level 5) besitzen, verfügen über Features wie Auto Failover, Automated Provisioning, Automated Update, On-demand Dynamic Scaling oder Cross Datacenter Replication (XDCR).

SQL für NoSQL-Datenbanken: Effiziente Migration und reduzierte Schulungskosten

Darüber hinaus ist es sinnvoll, auch für NoSQL-Datenbanken die etablierte Abfragesprache SQL nutzen zu können. So wird das weit verbreitete Wissen von Entwicklern und Administratoren weiterhin genutzt und die Migration von SQL auf NoSQL vereinfacht, da die Datenzugriffsschicht nicht neu geschrieben werden muss. Zudem wird so der Aufwand für Schulung und Trainings bei der Implementierung von NoSQL reduziert. 

Fazit

„NoSQL-Datenbanken sind relationalen Datenbankmanagement-Systemen in praktisch allen Belangen deutlich überlegen. Sie sind flexibler und skalierbarer, Cloud-nativ und Microservices-affin“, erklärt Gregor Bauer, Manager Solutions Engineering CEUR bei Couchbase. „Aber auch innerhalb des NoSQL-Angebots gibt es große Unterschiede, etwa bei den Replikationsmöglichkeiten oder den Automatisierungsgraden. Daher ist es wichtig, für die eigenen Anforderungen die exakt passende NoSQL-Datenbank zu evaluieren.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

6 Voraussetzungen für den Einsatz von KI in der Produktion

Dank Künstlicher Intelligenz können Industrieunternehmen effizienter und kostengünstiger produzieren, die Produktionsqualität erhöhen und Produktionsstörungen vermeiden – die Einsatzmöglichkeiten für smarte Anwendungen in der Branche sind nahezu unbegrenzt. Doch wollen Unternehmen tatsächlich das volle Potenzial von KI ausschöpfen, benötigen sie dafür geeignete IT-Infrastrukturen. Dell Technologies erklärt, was diese bieten und leisten müssen. 

6 Voraussetzungen für den Einsatz von KI in der Produktion

KI ist das Herzstück der Smart Factory und vermag Produktionsumgebungen geradezu zu revolutionieren. Die Algorithmen machen Fertigungsroboter vielseitiger und sicherer, helfen bei der vorausschauenden Wartung von Maschinen und Anlagen und erkennen selbst kleinste Abweichungen von Produktionsparametern und Umgebungsbedingungen. Zudem helfen sie bei einer optimalen Produktionsplanung, die Leerlaufzeiten und Ressourcenverschwendung vermeidet. All das können sie allerdings nur, wenn die digitalen Infrastrukturen den hohen Anforderungen, die KI-Anwendungsfälle stellen, gewachsen sind. Dell Technologies nennt die entscheidenden Aspekte, auf die Industrieunternehmen achten müssen:

1. Datenverarbeitung am Edge

Ein Fertigungsroboter muss seine Umgebung in Echtzeit wahrnehmen, um Werkstücke korrekt zu bearbeiten oder zu montieren, und viele Steuersysteme müssen in Sekundenbruchteilen in die Produktion eingreifen, wenn sich Fertigungsparameter plötzlich verändern. Für eine Datenübertragung in die Cloud oder ein zentrales Rechenzentrum ist da schlicht keine Zeit – ausreichend niedrige Latenzen garantieren nur leistungsstarke Edge-Infrastrukturen, zu denen neben Server- und Storage-Systemen auch schnelle drahtlose Netzwerke zählen. In vielen KI-Anwendungsfällen ist der Mobilfunkstandard 5G die beste Wahl, da er hohe Bandbreiten und niedrige Latenzen bietet, problemlos tausende von Sensoren mit IT- und OT-Systemen verknüpft und eine synchronisierte Kommunikation zwischen diesen ermöglicht, damit alle Produktionsabläufe genau aufeinander abgestimmt werden können.

2. Leistungsstarke Systeme, die cool bleiben

KI-Anwendungen erfordern viel Rechenleistung, weshalb meist Server mit vielen GPUs und hoher Leistungsdichte zum Einsatz kommen. Diese Server setzen auf optimierte Kühlkonzepte, um die entstehende Abwärme effizient abzuleiten. Wo das mit der klassischen Luftkühlung nicht mehr funktioniert, werden CPUs und GPUs mit Flüssigkeiten gekühlt. Allerdings lassen sich die datenverarbeitenden Systeme am Edge nicht immer in geschützten und klimatisierten Räumlichkeiten unterbringen. In solchen Fällen sind Rugged-Server notwendig, die hohen Temperaturen, Staub, Erschütterungen und Vibrationen trotzen. Je nach Modell sind diese nur halb so tief wie Standard-Server und wahlweise von der Vorder- oder Rückseite zugänglich, sodass sie sich in kompakten Racks oder Schränken montieren lassen und Server-Techniker alle Anschlüsse und Komponenten gut erreichen.

3. Offene Schnittstellen und Standards

In der Smart Factory wachsen IT und OT zusammen. Damit die verschiedenen Systeme reibungslos miteinander kommunizieren können und die wertvollen Daten aus der Produktionsumgebung nicht in Silos feststecken, sind Unternehmen auf Plattformen angewiesen, die offene Schnittstellen und Standards unterstützen. Diese erleichtern es auch, Daten für die langfristige Aufbewahrung oder weiterführende Auswertungen, die nicht zeitkritisch sind, in die Cloud oder ein Rechenzentrum zu übertragen. 

4. Zentralisierte und automatisierte Verwaltung

Nicht nur die Edge-Systeme selbst, sondern auch die darauf laufenden Anwendungen müssen sich zentralisiert und weitgehend automatisiert bereitstellen und verwalten lassen. Schließlich werden KI-Anwendungen kontinuierlich weiterentwickelt und müssen daher regelmäßig auf den Edge-Systemen aktualisiert werden – oder es kommen neue KI-Anwendungen für neue Anwendungsfälle hinzu. Ideal ist es, wenn Unternehmen die Anwendungen zunächst zentral paketieren und konfigurieren und dann nebst Ressourcendefinitionen, Netzwerkeinstellungen und individuellen Workflows in einem Schritt an die gewünschten Edge-Systeme der verschiedenen Standorte ausrollen. Auf diese Weise sind sie auch in der Lage, schnell neue Versionen für Tests oder spezielle Tools für einzelne Projekte bereitzustellen.

5. Zugriff auf ein großes Ökosystem aus fertigen Anwendungen

Unternehmen müssen nicht alle KI-Anwendungen selbst entwickeln, denn für Anwendungsfälle wie Predictive Maintenance, Machine Vision, Edge Analytics und OT-Security gibt es bereits zahlreiche fertige Lösungen. Viele Anbieter solcher Lösungen arbeiten eng mit den Anbietern von Infrastrukturlösungen zusammen, um sicherzustellen, dass sich ihre Anwendungen nahtlos in die Edge-Systeme integrieren und optimal funktionieren. Unternehmen sollten daher auf Infrastrukturanbieter setzen, die ein großes Partnerökosystem vorweisen können, um gängige KI-Anwendungen schnell und ohne großes Risiko einzuführen.

6. Hohe Sicherheit

KI-Anwendungen am Edge sind geschäftskritisch – fallen sie aus oder liefern fehlerhafte Ergebnisse, drohen Produktionsunterbrechungen oder Qualitätseinbußen. Moderne Edge-Systeme bringen deshalb fest integrierte Sicherheitsfunktionen wie UEFI Secure Boot und vTPM mit. UEFI Secure Boot stellt sicher, dass nur vertrauenswürdige und autorisierte Software auf Edge-Systemen bootet, sodass sich keine Malware einnisten kann. vTPM wiederum ist ein virtuelles Trusted Platform Module (TPM), das kryptografische Funktionen und einen sicheren Speicher für Schlüssel, Zertifikate und Passwörter bereitstellt, um virtuelle Maschinen zu verschlüsseln oder ihre Identität und Integrität zu überprüfen. Darüber hinaus können Unternehmen ihr Sicherheitsniveau erhöhen, indem sie Zero-Trust-Konzepte umsetzen, also nur unbedingt notwendige Berechtigungen vergeben und alle Zugriffe konsequent verifizieren. Plattformen, die Security-Features wie Multifaktor-Authentifizierung und rollenbasierte Zugriffskontrollen fest integrieren, können die Umsetzung von Zero Trust erheblich erleichtern.

Modernisierung der Infrastruktur als Schlüssel zum Erfolg von KI in der Produktion

KI kann für produzierende Unternehmen ein echter Gamechanger sein, doch die Einführung ist nicht immer einfach“, betont Chris Kramar, Director & General Manager OEM DACH bei Dell Technologies in Deutschland. „Das liegt unter anderem an veralteten Infrastrukturen, die nicht für die Performance- und Latenzanforderungen von KI-Anwendungsfällen ausgelegt sind. Um den Erfolg ihrer KI-Initiativen nicht zu gefährden, sollten Unternehmen deshalb parallel zur Anschaffung und Entwicklung von KI-Anwendungen ihre Infrastrukturen modernisieren und dabei auf einfach zu verwaltende und integrationsfreundliche Systeme und Plattformen achten.“  

Der Beitrag wurde ursprünglich hier veröffentlicht …

ERP-Systeme: Industrie im Wandel fördert spezielle Branchenlösungen für effiziente Prozesse

Planat zählt zu den erfolgreichsten ERP-Anbietern für mittelständische Fertigungsbetriebe

ERP-Systeme: Industrie im Wandel fördert spezielle Branchenlösungen für effiziente Prozesse

Die Herausforderungen für produzierende Unternehmen sind groß wie nie: Instabile Lieferketten, Fachkräftemangel, sich schnell verändernde Märkte und schwankende Einkaufspreise dominieren die täglichen Nachrichten.

Starre ERP-Systeme sind nicht in der Lage, den Betrieben eine optimale Hilfestellung zu geben. Besonders spürbar ist der Wandel für das Stuttgarter Software-Unternehmen Planat: „Der spezifische Bedarf in produzierenden Unternehmen für eine elastische und intelligente ERP-Lösung ist groß wie nie. Auf dieser Grundlage haben wir unser Geschäft deutlich ausbauen können und vor allem aus dem Bereich Maschinenbau eine Vielzahl mittelständischer Kunden gewinnen können“, erklärt Christian Biebl, Geschäftsführer von Planat.

Das Unternehmen ist Entwickler der speziell auf produzierende Betriebe zugeschnittenen ERP-Plattform FEPA und deckt bereits seit Jahrzehnten den Bedarf der Unternehmen an einer flexiblen ERP-Lösung, die in Unternehmen sämtliche Fertigungsmodelle – von der Massen- bis zur Einzelfertigung – abbilden kann. „Noch vor Jahren wurden in den meisten Unternehmen Aufträge in der Masse – also mit großer Stückzahl – abgebildet. Heute ist Flexibilität ab der Losgröße 1 ein völlig normaler Zustand, um vor allem als Zulieferbetrieb und Halbzeug-Hersteller mit den Ansprüchen der Kunden Schritt halten zu können“, sagt Christian Biebl weiter.

Deutliches Kundenwachstum

Für Planat steht der industrielle Wandel gleichzeitig für einen massiven Zuwachs an Kunden. Abgelöst werden dabei zumeist ERP-Altlösungen, die nicht mehr dem modernen Bedarf entsprechen. Nicht selten sind das spezifisch programmierte Systeme, die in den 1980er Jahren implementiert wurden. Der Aufwand zur Wartung ist meist immens, während die abgebildeten Prozesse längst nicht mehr den Erwartungen und Bedürfnissen entsprechen.

Manch Unternehmen entscheidet sich aber auch für eine ERP-Standardlösung, die ohne bestimmten Branchenfokus angeboten wird. „Jede Branche hat bestimmte Herausforderungen, die auch durch die Software abgebildet werden müssen. Unsere Lösung FEPA kommt aus der Fertigungsplanung – ob auf dem Shop Floor oder in der Verwaltung, wir kennen die Prozesse, die wir abbilden.

Daher greifen unsere Kunden auch gerne auf unsere Consulting-Dienste zurück, um wirklich optimal mit dem Werkzeug arbeiten zu können und auch die eigenen Prozesse kritisch zu hinterfragen“, erklärt der ERP-Experte Biebl. Nicht selten etablieren sich im Tagesgeschäft Vorgänge, die wenig effizient sind – um das zu erkennen, ist aber oft der Blick eines neutralen Beobachters gefragt.

Best Practice auf der Basis hunderter Installationen

In den vergangenen Jahren hat Planat mehrere hundert Installationen von FEPA durchgeführt – tausende Mitarbeiter von fertigenden Betrieben arbeiten mit der ERP-Lösung über Grenzen hinweg. Selbst an Produktionsstandorten in Asien ist FEPA im Einsatz. Jedes neue Software-Projekt profitiert von den Erfahrungen der vorangegangenen Installationen. „FEPA ist für uns und unsere Kunden die Essenz aus einigen Jahrzehnten Entwicklungs- und Projekterfahrungen.

Dieses Wissen um Prozesse und Anforderungen in Form unserer Best Practice für mittelständische Produktionsbetriebe geben wir mit jedem Projekt weiter an unsere Kunden“, beschreibt der Planat-Geschäftsführer Christian Biebl. Bereits mit dem ERP-Kern können Kunden einen umfangreichen Funktionsumfang nutzen.

Mit Branchenobjekten lässt sich FEPA optimal an den Unternehmensbedarf anpassen: Standardisierte Funktionen und Module erlauben die präzise Anpassung an ein Unternehmen. Mit Add-ons kann die ERP-Plattform weiter angepasst und die weiteren Schritte in die Digitalisierung erleichtert werden – vom modernen Dokumentenmanagement bis zu Business Intelligence-Funktionen oder App-basierten Funktionen wie der Personal- oder Arbeitszeiterfassung

Der Beitrag wurde ursprünglich hier veröffentlicht …

7 Beispiele, wie KI die Datensicherheit verbessert

Künstliche Intelligenz kann große Datenmengen schnell und präzise analysieren, um Muster und Anomalien zu erkennen. Das ist auch im Security-Bereich sehr hilfreich. Forcepoint nennt sieben Beispiele, wie KI die Datensicherheit verbessert.

7 Beispiele, wie KI die Datensicherheit verbessert

Cyberkriminelle sind äußerst findig darin, ihre Angriffsstrategien und -tools immer wieder anzupassen, um an das Wertvollste zu gelangen, das Unternehmen besitzen: Daten. Traditionelle Sicherheitslösungen erreichen schnell ihre Grenzen, wenn es darum geht, die sich ständig wandelnden Bedrohungen zu erkennen und abzuwehren – zumal sich die zu schützenden Daten inzwischen nicht mehr nur innerhalb des Unternehmensnetzwerks, sondern auch in der Cloud und auf den Rechnern von remote tätigen Mitarbeitern befinden können. Mit KI steht jedoch eine vielseitige und leistungsfähige Technologie zur Verfügung, die den Schutz sensibler Daten effektiver macht. Hier sind einige Beispiele:

1. Datenklassifizierung

Unternehmen können nur Daten schützen, die sie auch kennen. Allerdings ist es in großen und verteilten Datenbeständen nahezu unmöglich, die schützenswerten Daten ohne technische Hilfsmittel zuverlässig aufzuspüren – ein Problem, das dadurch verschärft wird, dass Daten ständig neu generiert, bearbeitet, kopiert und über verschiedene Kanäle geteilt werden. Moderne Lösungen für Data Discovery scannen daher sämtliche Speicherorte und klassifizieren die Daten mit Hilfe von KI automatisch. Was schützenswert ist, wissen sie durch vorheriges Training, lernen anhand von unternehmensspezifischen Beispielen aber noch dazu und werden immer präziser.

2. Threat Detection

Da KI Muster und Anomalien in großen Datenmengen schnell und zuverlässig findet, ist sie ideal für die Erkennung von Bedrohungen geeignet. In Lösungen für Threat Detection integriert, kann sie den Netzwerkverkehr in Echtzeit überwachen und bei verdächtigen Aktivitäten umgehend das Sicherheitsteam benachrichtigen. Dabei ist sie nicht auf vordefinierte Bedrohungsmuster angewiesen, sondern lernt im Laufe der Zeit, was im Netzwerk des jeweiligen Unternehmens normal ist, und erkennt davon abweichende und möglicherweise gefährliche Aktivitäten. Zudem registriert die KI, wie die Sicherheitsexperten mit den gemeldeten Bedrohungen umgehen, um verdächtigen Netzwerkverkehr künftig noch besser bewerten zu können.

3. Security Information and Event Management (SIEM)

Eine KI-basierte Anomalie-Erkennung verbessert auch SIEM-Systeme deutlich. In diesen werden die Alarme von Sicherheitslösungen sowie die Logfiles von Netzwerkkomponenten und verschiedenen Anwendungen zusammengeführt. KI kann diese Daten aus unzähligen Quellen korrelieren und eine ganzheitliche Sicht bieten, die bei der Identifizierung komplexer Attacken hilft. Ein einziges Ereignis mag für sich genommen unverdächtig erscheinen, doch im Zusammenhang mit anderen Ereignissen durchaus auf eine Bedrohung hindeuten. SIEM-Systeme bewerten zudem deren Schweregrad, sodass das Sicherheitsteam priorisieren und kritische Bedrohungen als erstes bearbeiten kann.

4. Identity and Access Management (IAM)

Auch beim Zugriff auf Anwendungen und Systeme spielt KI eine immer wichtigere Rolle. Die smarten Algorithmen können das Benutzerverhalten analysieren und Risikoindikatoren entdecken, etwa unübliche Login-Zeiten, Zugriffe von ungewöhnlichen Orten oder auffällige Datenzugriffsmuster. In solchen Fällen ergreifen sie vordefinierte Maßnahmen und fragen beispielsweise einen weiteren Authentifizierungsfaktor ab, fordern eine Freigabe bei einem Vorgesetzten an oder sperren den Zugang.

5. Phishing-Schutz

Phishing ist eine immerwährende Bedrohung, und die betrügerischen Mails sind mittlerweile oft so gut gemacht, dass selbst erfahrene Nutzer sich schwertun, sie sofort zu erkennen – gerade in hektischen Arbeitsphasen. KI hilft, indem sie die Metadaten und mittels Natural Language Processing (NLP) auch die Sprache der Mails auswertet, um Anzeichen für Phishing zu entdecken, etwa gefälschte Absenderadressen, den Versand über verdächtige Mail-Server oder subtile Sprachanomalien.

6. Patch-Management

Das schnelle Einspielen von Sicherheitsupdates und Patches zählt zu den wichtigsten Aufgaben von Sicherheitsteams, aber auch zu den aufwändigsten. Das liegt vor allem an der wachsenden Anwendungsvielfalt in Unternehmen: Teilweise müssen Sicherheitsteams hunderte Anwendungen im Blick haben, deren Hersteller unregelmäßig sicherheitsrelevante Aktualisierungen veröffentlichen. Diese müssen sie finden, in Abhängigkeit vom Schweregrad der Schwachstellen und den betroffenen Systemen priorisieren, auf Kompatibilität testen und verteilen. KI kann viele dieser Schritte automatisieren und beispielsweise kritische Patches identifizieren, eigenständig auf Testsystemen installieren und, wenn keine Probleme auftreten, alles für den Roll-out vorbereiten.

7. Awareness-Trainings

KI ermöglicht personalisierte Lernerfahrungen, auch im Security-Bereich. Die Algorithmen können das Vorwissen von Mitarbeitern analysieren und passgenaue Lerninhalte zusammenstellen. Sie überwachen den Lernfortschritt und setzen Tests und Wiederholungen an, um das erworbene Wissen zu vertiefen. Bei Bedarf passen sie das Lernniveau und die Lerngeschwindigkeit an, damit die Schulungen nie langweilig oder überfordernd werden. Darüber hinaus lassen sich mit KI auch Bedrohungsszenarien simulieren, sodass normale Mitarbeiter, aber auch Sicherheitsexperten ihre Fähigkeiten unter realistischen Bedingungen – und ohne Risiko – anwenden und testen können.

Fazit

„Cyberkriminelle haben keine Scheu, KI für ihre Zwecke einzusetzen, also sollten Unternehmen das ebenfalls tun – sonst beschränken sie sich beim Schutz ihrer Daten nur selbst“, sagt Frank Limberger, Data & Insider Threat Security Specialist bei Forcepoint. „KI ist äußerst vielseitig, sodass sie Sicherheitsteams in vielen Bereichen entlasten kann, etwa bei der Klassifizierung von Daten oder der Erkennung und Abwehr von Bedrohungen. Da die Algorithmen kontinuierlich weiterentwickelt werden und stetig hinzulernen, liefern sie immer bessere Ergebnisse und heben die Datensicherheit auf ein ganz neues Level.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

PSD3-Richtlinie: Betrugsprävention und Kundenschutz bleiben hinter Erwartungen zurück

Etwas mehr als ein Jahr ist es her, dass die Europäische Kommission ihre Vorschläge für die Payment Services Directive 3 („PSD3”) vorgelegt hat.

PSD3-Richtlinie: Betrugsprävention und Kundenschutz bleiben hinter Erwartungen zurück

Iain Swaine, Global Advisory Director bei BioCatch, hat den Entwurf noch einmal genauer unter die Lupe genommen und stieß dabei insbesondere auf drei Fakten, die die Betrugsprävention und Haftung, den Austausch von Betrugsdaten und den Schutz besonders schutzbedürftiger Verbraucher betreffen.

Betrugsprävention und Haftung

Während die PSD2 die Banken für nicht autorisierte Betrugsfälle wie Kontoübernahmen haftbar machte, umfasst eine Erweiterung in den Vorschlägen der PSD3 mit Impersonation Scams erstmals auch eine autorisierte Betrugsart – ein richtiger und wichtiger Schritt in Sachen Kundenschutz. Allerdings greift die PSD3 damit weiterhin kürzer als beispielsweise die Bestimmungen der britischen Regulierungsbehörde für Zahlungssysteme (Payment Systems Regulator, PSR) laut der Banken für alle Arten von Betrug haften sollen, unter anderem auch für Liebes- und Anlagebetrug.

Die EU-Kommission verpasst durch die Einschränkungen in den Vorschlägen zwei Chancen: 

  • Der britische PSR sieht eine geteilte Haftung zwischen absendender und empfangender Bank vor. Damit wird der Frustration einzelner Banken begegnet, die im Vergleich zu anderen Instituten mehr in Betrugspräventionsmaßnahmen investieren, nur um dann festzustellen, dass der Betrug wieder zunimmt, weil die Betrüger das Geld zu anderen Banken mit laxer Betrugserkennung verschieben. Gleichzeitig wird das gesamte Ökosystem des Zahlungsverkehrs gestärkt, wenn Betrug reduziert wird: Indem Banken motiviert werden, mehr in die Eliminierung von Money-Mule-Konten zu investieren, gehen sie aktiv gegen Finanzbetrug vor. Diese Chance verpasst die EU-Kommission.
  • Die Auslegung der derzeit gültigen PSD2 ist von Land zu Land sehr unterschiedlich. Nach der PSD2 müssen nicht autorisierte Betrugsfälle erstattet werden, es sei denn, der Kunde war an dem Betrug beteiligt oder hat grob fahrlässig gehandelt. Grobe Fahrlässigkeit wird jedoch international unterschiedlich ausgelegt. Auch in den PSD3-Vorschlägen lässt die EU die Definition der groben Fahrlässigkeit vage und verweist wieder auf das nationale Recht. Damit wurde erneut eine Chance verpasst, die Haftung der Banken und den Kundenschutz international zu harmonisieren.

Austausch von Betrugsdaten

Der aktuelle Entwurf der PSD3 sieht die Möglichkeit vor, dass Banken Betrugsdaten austauschen können. Dies wird durch die Vorschläge des PSR weiter untermauert, der den Austausch aller relevanten Informationen zwischen Zahlungsdienstleistern auf multilateraler Basis ermöglichen will. Der Austausch personenbezogener Daten, einschließlich der eindeutigen Identifikatoren von möglicherweise in Betrugsfälle verwickelten Zahlungsempfängern, soll erlaubt sein. Allerdings schränkt die EU-Kommission den Begriff „Kundenidentifikator“ weiter ein und beschränkt ihn auf die „IBAN“. Dies hätte zur Folge, dass ein ganzes Universum von Zahlungsmethoden, die keine IBAN verwenden, wie PayPal, Apple Cash oder direkte Kreditkartenzahlungen, von der Betrugsprävention ausgeschlossen wären.

Ein Informationsaustausch in Echtzeit ist hilfreich, aber insgesamt ist der von der EU vorgeschlagene Informationsaustausch nicht ausreichend, da selbst die Echtzeit-Erkennung von Betrug immer noch reaktiv ist. Verhaltensbasierte biometrische Intelligenz könnte Mule-Konten bereits vor einer Zahlung oder Transaktion mit hoher Genauigkeit erkennen. In etwa 90 Prozent der Fälle werden die Konten gefunden, bevor die bestehenden Betrugs- und Geldwäschekontrollen überhaupt greifen.

Schutz besonders gefährdeter Verbraucher

Der PSD3-Vorschlag deckt einen wichtigen Punkt ab: Banken müssen sicherstellen, dass jeder Kunde eine starke Kundenauthentifizierung (Strong Customer Authentication, SCA) durchführen kann, unabhängig von Behinderung, Alter, geringer digitaler Kompetenz oder fehlendem Zugang zu digitalen Kanälen oder Zahlungsinstrumenten. Der Besitz eines Smartphones darf dabei nicht erforderlich sein und die bereitgestellten Mittel müssen auf die spezifische Situation des Kunden abgestimmt sein.

Diese Regelung ist weitreichend, aber absolut gerechtfertigt. Sie stellt sicher, dass auch besonders schutzbedürftige Kunden die Vorteile des digitalen Zeitalters voll nutzen können und die Möglichkeit haben, Transaktionen beim Bezahlen online zu autorisieren.
Die Überwachung von Transaktionen ist jedoch nicht nur im Hinblick auf besonders schutzbedürftige Verbraucher notwendig, sondern zum Schutz aller Kunden, da Betrüger äußerst geschickt vorgehen. Mit den PSD3-Richtlinienvorschlägen hat die EU daher zwar eine gute Ausgangsbasis geschaffen, gleichzeitig besteht aber noch erheblicher Verbesserungsbedarf.

„Die PSD3-Verordnung enthält einige gute Ansätze, greift aber teilweise noch zu kurz oder stellt die Banken vor große neue Herausforderungen“, fasst Swaine zusammen. Beispielsweise hat der Europäische Rat im Februar 2024 die EU-weite Einführung von Instant Payments beschlossen, bei denen Transaktionen innerhalb von nur zehn Sekunden abgewickelt werden sollen. Die Banken fragen sich zu Recht, wie sie Betrug in so kurzer Zeit effektiv aufdecken können – um im besten Fall Schadenersatzforderungen rechtzeitig abzuwenden. All dies unterstreicht die Dringlichkeit robuster Betrugspräventionsmaßnahmen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die Zukunft der KI ist offen

Open Source basiert auf Zusammenarbeit und Transparenz. Dank dieser beiden unbestreitbaren Vorteile haben Open-Source-Lösungen das Potenzial, die Art und Weise zu revolutionieren, wie KI-Systeme entwickelt und eingesetzt werden. Jan Wildeboer, EMEA Evangelist bei Red Hat, erklärt, warum ein offener Ansatz für Künstliche Intelligenz unerlässlich ist.

Die Zukunft der KI ist offen 

Obwohl Künstliche Intelligenz noch weit von der technologischen Singularität entfernt ist, hat ihr Einfluss spätestens mit dem Aufkommen der großen KI-Modelle, den sogenannten Foundation Models, Industrie und Gesellschaft spürbar verändert. Das Training dieser Modelle erfordert jedoch enorme Datenmengen und leistungsfähige Rechenzentren, über die in der Regel nur die wirklich großen Marktteilnehmer verfügen. Auf der anderen Seite lassen sich die Foundation Models relativ einfach an geschäftliche Anforderungen anpassen, was die Kosten für das initiale Modelltraining senkt und die Zeit bis zur Wertschöpfung verkürzt. Domänenspezifische KI eröffnet somit einer wesentlich breiteren Anwendergruppe den Zugang zu einer neuen Welt. Monopolisierung erfordert jedoch immer ein Gegengewicht – in diesem Fall einen stärkeren Open-Source-Ansatz. Denn offene Technologien bieten viele Vorteile, darunter mehr Transparenz, Innovation und Sicherheit. 

Vertrauen durch Transparenz

Die Al Alliance, an der unter anderem IBM, Intel, Red Hat und die TU München beteiligt sind, hat sich zum Ziel gesetzt, durch einen offenen Wissens- und Technologietransfer der Künstlichen Intelligenz mehr Transparenz zu verschaffen und damit das Vertrauen von Wirtschaft und Gesellschaft in die Möglichkeiten der Technologie zu stärken. Parallel dazu arbeitet die Open Source Initiative (OSI) an einer gemeinsamen Arbeitsdefinition. Bislang gehen die Meinungen darüber, wann KI offen ist und wann nicht, weit auseinander. Unabhängig davon profitiert die Künstliche Intelligenz, wenn Schlüsselkonzepte aus der Open-Source-Welt übertragen werden. Offener Quellcode ermöglicht es den Nutzern, die Funktionsweise von KI-Algorithmen und die verwendeten Quellen besser zu verstehen und zu überprüfen, was das Vertrauen in die Technologie stärkt. Dies ist besonders wichtig in Bereichen wie dem Gesundheits- und Finanzwesen, in denen Vertrauen durch Transparenz von entscheidender Bedeutung ist.

Innovation durch Zusammenarbeit

KI-Modelle auf Open-Source-Basis ermöglichen es Entwicklern, auf bestehenden Frameworks sowie Architekturen aufzusetzen und so die rasche Entwicklung und Iteration neuer Modelle voranzutreiben. Das heißt, Unternehmen können innovative Anwendungen realisieren, ohne das Rad jedes Mal neu erfinden zu müssen. Denn wenn mehr Akteure Zugang zu den Rohmaterialien haben, können sie die unterschiedlichsten Ideen verfolgen und wirklich kreative Projekte umsetzen. Im besten Fall wird Open-Source-Software zum Industriestandard: Unternehmen bauen ihre Lösungen auf Grundlage des Stacks der großen Anbieter. Diese wiederum profitieren, indem sie die Verbesserungen der anderen in ihre KI integrieren. Das Ergebnis ist ein Katalysator für mehr Wettbewerb und Innovation, von dem auch kleinere Marktteilnehmer profitieren.

Sicherheit durch „Vier-Augen-Prinzip“

Mit dem rasanten Aufstieg von generativer KI nehmen auch die Diskussionen über die Gefahren dieser Technologie zu. Schließlich können die Systeme missbraucht werden, um mit Hilfe von manipulierten Aussagen, Bildern oder Videos Falschmeldungen zu verbreiten oder betrügerische Aktivitäten zu starten. Es stellt sich daher die Frage, ob durch einen Open-Source-Ansatz – das heißt, wenn auch Kriminelle Einblick in die Funktionsweise von KI-Algorithmen erhalten – die Risiken nicht unkontrollierbar werden. In der Regel verfügen offene Systeme über Sicherheitsvorkehrungen beziehungsweise Richtlinien zur verantwortungsvollen Nutzung. Sobald jedoch ein KI-Modell frei verfügbar ist, kann jeder die Sicherheitsmaßnahmen selbst verändern. Wie bei jeder anderen Technologie gilt auch hier: Wer Schaden anrichten will, findet einen Weg – ob nun Open Source oder proprietär. Offenheit und Transparenz werden jedoch dazu beitragen, die Sicherheit der KI zu erhöhen. Wenn die Software offen ist, können mehr Menschen sie testen, um mögliche Probleme zu erkennen und zu beheben. Darüber hinaus können Entwickler, Forscher und Firmen aus den unterschiedlichsten Bereichen gemeinsam an Lösungen arbeiten, um Risiken zu minimieren. Gleichzeitig muss die Technologiegemeinschaft Richtlinien und Mechanismen festlegen, die eine ethische Entwicklung der KI fördern.

Demokratisierung durch freien Zugang

Dank all dieser Vorteile trägt der Open-Source-Gedanke zur Demokratisierung der Künstlichen Intelligenz bei. Indem Werkzeuge und Ressourcen prinzipiell allen zur Verfügung stehen, können auch alle davon profitieren. Mit zunehmender Bedeutung der Technologie ist dieser Gedanke wichtiger denn je: Da KI in Zukunft nahezu alle Bereiche der Gesellschaft beeinflussen wird, sollte die Macht darüber nicht in den Händen weniger liegen. Der Open-Source-Ansatz eröffnet Menschen mit den unterschiedlichsten sozioökonomischen Hintergründen die Möglichkeit, sich an der Entwicklung der Technologie zu beteiligen und so eine gerechtere KI zu gestalten. Hinzu kommt: Der steigende Wettbewerbsdruck durch Globalisierung, kürzere Produktlebenszyklen und der damit verbundene höhere Innovationsdruck verstärken die Notwendigkeit, Prozesse zu öffnen und damit zu optimieren. Vielen Unternehmen fehlen schlicht die finanziellen Mittel für bahnbrechende Neuentwicklungen, aber auch das Know-how im eigenen Haus. Daraus ergibt sich fast automatisch die Notwendigkeit, sich mit Partnern, Zulieferern oder eben anderen Unternehmen zusammenzuschließen. 

Fakt ist:

KI ist die Schlüsseltechnologie schlechthin. Um tragfähige KI-Modelle zu entwickeln, Trainingsdaten einer breiteren Nutzergruppe zur Verfügung zu stellen und drängende ethische Fragen zu klären, ist ein funktionierendes Ökosystem unabdingbar. Auch wenn nicht jede KI auf Open-Source-Prinzipien basieren wird, ist die Kombination aus der gemeinsamen Nutzung vor trainierter Modelle durch die Community und der Einschränkung des Zugangs zu den Trainingsdaten eine Alternative zu proprietären Ansätzen. KI sollte als Schwarmintelligenz verstanden werden. Alle Partner, die ihr Wissen in den Schwarm einbringen, können voneinander lernen, ohne automatisch sensible Informationen preisgeben zu müssen. Schwarmintelligenz ist auch in dem Sinne relevant, dass domänenspezifische KI-Modelle zunehmend an Bedeutung gewinnen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Wie künstliche Intelligenz die Industrie verändert

Künstliche Intelligenz ist nach wie vor das größte Thema der Tech-Branche – und der Trend wird sich fortsetzen: Kaum eine andere technologische Errungenschaft verändert sich aktuell schneller. Der globale Technologieanbieter Zoho hat sich die wichtigsten Entwicklungen in Sachen KI angesehen und gibt einen Ausblick auf das Restjahr.

Wie künstliche Intelligenz die Industrie verändert

Der größte Trend des Jahres 2023 – KI – hat sich auch in diesem Jahr nahtlos fortgesetzt. Das war kaum anders zu erwarten. Der globale Technologieanbieter Zoho gibt einen Einblick in die aktuelle Lage rund um das Zukunftsthema und prognostiziert, wie und wo generative sowie traditionelle KI heute verwendet und zukünftig zum Einsatz kommen wird.

Demokratisierung von KI

Generative KI (GenAI) hat sich binnen kurzer Zeit wie ein Lauffeuer verbreitet und steckt schon in vielen Apps, die wir täglich nutzen. Die Erwartungshaltung der Nutzer wird dafür sorgen, dass es Softwareentwickler schwer haben werden, auf die Implementierung dieser Technologie zu verzichten. Sich von der Konkurrenz abzuheben, wird überdies nicht mehr über die reine Nutzung von GenAI funktionieren. Entscheidend ist die Art und Weise der Implementierung in eigene Anwendungen – je nahtloser und natürlicher es sich für die User anfühlt, desto besser. Schwer werden es Unternehmen haben, deren KI-Implementierung sich wie ein Fremdkörper in ihrer App anfühlt und keine gute User Experience bietet. Die verwendete Lösung sollte dann auch nicht nur Informationen, sondern kontextbezogene Informationen zum jeweiligen Unternehmen oder der Branche liefern. So kann sie Nutzern dabei helfen, fundierte Entscheidungen zu treffen, die auf den relevantesten Informationen fußen.

Regulierung von KI

Die Beliebtheit und Demokratisierung von generativer KI setzen Regierungen und Aufsichtsbehörden unter Druck. Keiner kann das Potenzial von GenAI in Frage stellen und noch schlechter deren Folgen kontrollieren – jedenfalls war das bis vor Kurzem so. Mit dem EU-Gesetz zur künstlichen Intelligenz (AI Act), das Ende letzten Jahres die letzten Hürden genommen hat und voraussichtlich noch im Mai in Kraft tritt, hat die Europäische Union etwas geschafft, was in den Tech-Supermächten USA und China noch nicht gelungen ist. Sie haben eine gesetzliche Grundlage zur Regulierung der Zukunftstechnologie geschaffen. Sie gibt Unternehmen, die KIs entwickeln, genug Freiheiten, um den europäischen Markt gewinnbringend zu nutzen, setzt allerdings Grenzen, die einen unkontrollierbaren Wildwuchs verhindern sollen. Spannend bleibt zu beobachten, ob die USA und China in Sachen KI-Gesetzgebung nachziehen werden. Ebenso wird es wichtig sein zu verfolgen, wie sich der EU AI Act auf die Industrie auswirkt, denn Innovationen dürfen durch die Regulierung nicht behindert werden. Sollte das mittel- bis langfristig der Fall sein, könnte eine Anpassung notwendig werden.

Unternehmen und die KI-Angst

Künstliche Intelligenz hat auch auf die Mitarbeitenden in Unternehmen einen großen Einfluss. Bei vielen löst die Zukunftstechnologie und deren mittlerweile bahnbrechenden Fähigkeiten eine gewisse berufliche Existenzangst aus. Manager und Personalverantwortliche stehen daher vor einer relativ neuen Aufgabe: Sie müssen ihren Angestellten die Angst vor der neuen Technologie nehmen und sie dazu befähigen, sie gewinnbringend zu nutzen. Das richtige Mind- und Skill-Set wird nicht nur dafür sorgen, dass Mitarbeitende ihre Arbeit effizienter erledigen, sondern auch die Ressentiments vor den neuen digitalen „Kollegen“ verlieren.

Mehr Nachhaltigkeit durch KI

Ohne Berücksichtigung des Faktors ESG (Environmental, Social und Governance) kommen Unternehmen zukünftig nicht mehr voran. Die Mühlen des kulturellen Wandels mahlen zuweilen langsam, aber die Erwartungen der Verbraucher, der allgemeine Zustand der Welt und ein Wertewandel innerhalb vieler Unternehmen werden zu deutlichen Veränderungen führen. Es ist zu erwarten, dass mehr Vorschriften im ESG-Bereich eingeführt werden, die die Unternehmen insbesondere bei Nachhaltigkeit stärker in die Pflicht nehmen. Verbraucher werden sich eher jenen Unternehmen zuwenden, die nicht nur Standards befolgen, sondern die sprichwörtliche Extrameile gehen, um ihrer gesellschaftlichen Verantwortung gerecht zu werden. Auch hier kann künstliche Intelligenz bislang ungenutztes Potenzial entfalten: Denkbar ist, KI einzusetzen, um durch prädiktive Wartung die Lebensdauer von Geräten und Komponenten zu optimieren oder die Temperatur in Serverräumen optimal zu justieren. Beides Bereiche, in denen heute noch viel Energie unnötig verschwendet wird. Zudem können anhand von Unternehmens- und Produktionsdaten auch Prozesse – etwa in Herstellerbetrieben – deutlich rationalisiert werden und so beispielsweise unnötigen Overhead an Materialverbrauch oder -verschnitt verhindern.

„Ohne Zweifel ist künstliche Intelligenz auch 2024 das Trendthema schlechthin – und wird es absehbar auch weiter bleiben“, betont Sridhar Iyengar, Managing Director von Zoho Europe. „Für die Industrie ergeben sich durch die Technologie vielerlei Möglichkeiten, sich besser aufzustellen – und zwar sowohl ökonomisch als auch ökologisch. Wichtig ist dabei allerdings, dass die Unternehmen sich stets ihrer Verantwortung bewusst bleiben und das Wohl der Mitarbeitenden sowie den Schutz ihrer Unternehmensdaten an erste Stelle stellen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Daten immer und überall schützen – in fünf Schritten

Die Zeiten, in denen Unternehmensdaten auf das Unternehmensnetzwerk beschränkt waren, sind längst vorbei. Heute befinden sie sich praktisch überall: im Web, in der Cloud und auf den verschiedensten Endgeräten – auch auf privaten. Wie lässt sich Datensicherheit in einer solchen Welt zuverlässig und effizient umsetzen? Der Security-Spezialist Forcepoint nennt die fünf wichtigsten Schritte.

Daten immer und überall schützen – in fünf Schritten

Damit ein Unternehmen funktioniert, müssen Mitarbeiter unkompliziert auf alle Daten zugreifen können, die sie im Arbeitsalltag benötigen – jederzeit, von jedem Ort aus und mit dem Gerät ihrer Wahl. Dadurch entstehen unzählige Datenflüsse, die sich nur schwer kontrollieren lassen. Unternehmen verlieren zunehmend den Überblick, welche Daten sie überhaupt besitzen, wo diese gespeichert sind und wer auf sie zugreift. Dadurch fällt es ihnen schwer, die Datenflüsse über alle Kanäle hinweg zu überwachen und Sicherheitsrichtlinien konsequent durchzusetzen. Möglich ist das allerdings schon – die fünf wichtigsten Schritte für einen Ansatz, der überall Datensicherheit bietet, sind nach Erfahrung von Forcepoint die folgenden.

1. Zentrale Richtlinien für Cloud und Endgeräte definieren

Nahezu alle Unternehmen speichern zumindest einen Teil ihrer Daten in der Cloud, manche verfolgen sogar einen Cloud-First-Ansatz. Da Mitarbeiter mit Notebooks, Smartphones und Tablets auf diese Daten zugreifen und die Geräte nicht immer Firmengeräte sind, sondern auch Privatgeräte sein können, entstehen viele neue Wege für den Abfluss sensibler Daten. Der traditionelle Ansatz, die Sicherheitsrichtlinien auf Endgeräten und in der Cloud mit verschiedenen Lösungen durchzusetzen, die jeweils ihre eigenen Richtlinien verwalten, funktioniert daher nicht mehr zuverlässig. Die separaten Tools bieten nur wenig Transparenz, verursachen durch die parallele Pflege mehrerer Regelsätze einen hohen Aufwand – und die Richtlinien werden schnell inkonsistent, sodass Lücken im Schutz entstehen. Unternehmen benötigen deshalb Tools, die auf einen zentralen Satz an Richtlinien zugreifen, um Datenflüsse zu überwachen und das unerwünschte Kopieren oder Teilen sensibler Informationen zu verhindern.

2. Web- und DLP-Richtlinien vereinheitlichen

Das Web ist für Mitarbeiter nicht mehr nur eine Informationsquelle, aus der Daten abgerufen werden. Viele Web-Anwendungen und SaaS-Dienste sorgen dafür, dass Daten in die andere Richtung fließen – aus dem Unternehmen ins Web. Deshalb reicht es nicht mehr, nur webbasierte Attacken abzuwehren, auch eine Kontrolle der firmeneigenen Daten im Web ist notwendig. Zumal es zahlreiche regulatorische Vorgaben gibt, wonach bestimmte Daten nicht außerhalb des Unternehmens oder außerhalb der EU gespeichert und verarbeitet werden dürfen. Bislang nutzen Unternehmen allerdings zumeist nur Secure Web Gateways (SWG), um den eingehenden Datenverkehr zu kontrollieren, und verzichten auf die Kontrolle des ausgehenden Traffics mittels Data Loss Prevention (DLP). Doch selbst dort, wo DLP-Lösungen zum Einsatz kommen, sind sie in der Regel unabhängig vom SWG – mit dem bekannten Problem inkonsistenter Richtlinien. Einen besseren Schutz bieten Plattformen, die Datensicherheit mit SSE-Technologien (Secure Service Edge) wie Secure Web Gateway, Cloud Access Security Broker (CASB) und Zero Trust Network Access (ZTNA) vereinen und dabei einen einheitlichen Satz von Richtlinien nutzen.

3. Daten in E-Mails schützen

E-Mail ist der Kanal, über den sensible Firmendaten am häufigsten abfließen – nicht immer absichtlich, denn viele Verletzungen der Datensicherheit geschehen versehentlich, wenn Mitarbeiter im hektischen Arbeitsalltag beispielsweise ein Dokument an den falschen Empfänger verschicken. Da E-Mail nach wie vor eines der wichtigsten Werkzeuge im Arbeitsalltag ist, müssen sich Unternehmen dringend um dieses Problem kümmern. Die eingesetzte Lösung sollte dieselben Richtlinien nutzen wie die Sicherheitslösungen, die über die anderen Kanäle wachen. Sie sollte aber auch unabhängig davon funktionieren, ob Unternehmen einen eigenen Mail-Server oder Cloud-basierte Mail-Dienste wie Exchange Online oder Gmail for Business nutzen, und unabhängig davon, ob Mitarbeiter mit Firmen- oder Privatgeräten auf ihre Mails zugreifen. Endpoint-basierte Lösungen sind daher ungeeignet, vielmehr müssen die Lösungen die Daten auf der Netzwerkebene kontrollieren. Im Idealfall bieten sie zudem erweiterte Funktionen für Verschlüsselung und Freigabeprozesse.

4. Angepasst und in Echtzeit auf Risiken reagieren

Konsistente Richtlinien sind wichtig, reichen aber noch nicht, denn sie müssen auch automatisch zur Situation passend angewendet werden, um Mitarbeiter nicht durch zu strenges Blockieren bei der Arbeit zu behindern oder Sicherheitsteams durch zu viele manuelle Freigaben zu überlasten. Sicherheitslösungen, die Richtlinien risikobasiert anwenden, schaffen Abhilfe: Sie identifizieren riskantes Nutzerverhalten wie den Upload vertraulicher Informationen in die Cloud und berechnen abhängig von den konkreten Daten, dem Cloud-Dienst und anderen Kontextinformationen einen Risikowert, der bestimmte Schutzmaßnahmen auslöst – etwa einen Hinweis, die Daten zu verschlüsseln, eine Freigabeanforderung oder eine Sperre des Uploads. Das Monitoring der Aktivitäten und die Durchsetzung der passenden Richtlinien erfolgen in Echtzeit, sodass alle Risiken schnell und effizient minimiert werden.

5. Dark Data klassifizieren, bereinigen und schützen

Bis zu 80 Prozent der Daten von Unternehmen sind Dark Data, also unbekannte oder ungenutzte Daten. Die Wahrscheinlichkeit, dass sich in dieser Datenflut schützenswerte Daten verbergen, die sich jeglicher Kontrolle entziehen, ist groß. Bislang war eine Klassifizierung mit einem großen manuellen Aufwand verbunden, doch moderne Lösungen nutzen KI und Machine Learning um Daten an den unterschiedlichsten Speicherorten aufzuspüren und weitgehend automatisiert zu klassifizieren. Anschließend können Unternehmen nicht nur die sensiblen Daten zuverlässig schützen, sondern auch den üblicherweise großen Bestand an ROT Data bereinigen – also all die redundanten, obsoleten und trivialen Informationen, die die Angriffsfläche unnötig vergrößern.

„Den Wert von zentralen Richtlinien für alle Sicherheitslösungen kann man gar nicht hoch genug einschätzen. Wenn Security-Teams nur einen einzigen Regelsatz pflegen müssen, spart das Zeit und Kosten und reduziert die Risiken, die mit inkonsistenten Richtlinien einhergehen, auf null“, betont Frank Limberger, Data & Insider Threat Security Specialist bei Forcepoint. „Ein solcher zentraler Richtliniensatz für Cloud-Anwendungen und Endgeräte ist nach unserer Erfahrung ein sinnvoller erster Schritt auf dem Weg zu ‚Data Security Everywhere‘, doch im Grunde können Unternehmen auch mit anderen Schritten starten und die Reihenfolge variieren. Wichtig ist, dass sie letztlich alle Schritte umsetzen, um wirklich alle sensiblen Daten aufzuspüren, zu klassifizieren und über sämtliche Kanäle – Cloud, Web, E-Mail, Unternehmensanwendungen, Fileserver und Endgeräte hinweg – zu schützen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Betriebskennzahlen sind häufig manipuliert

Jane Enny van Lambalgen: „Manipulierte Phantomzahlen in Excel können über Jahre hinweg ein florierendes Unternehmen vorgaukeln, das in Wahrheit kurz vor der Insolvenz steht.“

Betriebskennzahlen sind häufig manipuliert

Das Gros der Unternehmen setzt auf Schlüsselkennzahlen, im Fachjargon Key Performance Indicators oder kurz KPIs genannt, als betriebswirtschatliches Steuerungsinstrument. Die Zahlen geben neutral und unbestechlich die Leistungsfähigkeit der einzelnen Abteilungen und letztlich des gesamten Betriebes wieder – so lautet die Theorie hinter dem Managementstil „Führung anhand von KPIs“. Doch in Wirklichkeit sind die KPIs in vielen Firmen mehr oder minder manipuliert, hat Jane Enny van Lambalgen, CEO der Beratungs- und Managementfirma Planet Industrial Excellence, bei zahlreichen Beratungsprojekten festgestellt. Sie wird häufig als sog. Interim Manager, also Führungskraft auf Zeit, in Krisenzeiten in Unternehmen gerufen, um zu retten, was noch zu retten ist. Dabei hat sie festgestellt: „In vielen Fällen vermitteln die betrieblichen Schlüsselkennzahlen ein positives Bild der Firma, obwohl das Unternehmen in Wahrheit kurz vor der Insolvenz steht.“

Detektivarbeit zum Auffinden der Manipulationen

Wie es zu dieser Diskrepanz kommt, erfordert oftmals beinahe Detektivarbeit, weiß Jane Enny van Lambalgen aus der Betriebspraxis. In den meisten Fällen führt die Spur zu KPI-Tabellen in der in vielen Betrieben allgegenwärtigen Tabellenkalkulationssoftware Excel von Microsoft. 

Die erfahrene Interim Managerin sagt: „In der Praxis schönen viele Beschäftigte die Excel-Zahlen, damit sie oder ihre Betriebseinheit besser dastehen. Wenn sie dann feststellen, dass dies gar nicht auffällt, bleiben sie dabei und manipulieren sich ihre eigene Leistung oder gar die ganzer Abteilungen immer besser zurecht. Manager, die ein Unternehmen primär anhand von Key Performance Indicators führen, merken oftmals über Jahre hinweg gar nicht, was los ist. Sie verstehen einfach nicht, warum sich die tatsächlich unbestechlichen Zahlen wie Umsatz und Gewinn negativ entwickeln, obwohl doch vermeintlich alles im Betrieb in Ordnung ist.“

Nach Einschätzung der Expertin kreieren „Zehntausende von Beschäftigten in Deutschland in Excel Phantomzahlen, auf die Hunderte, wenn nicht Tausende von Managern hereinfallen.“ Im Ergebnis entstünden auf diese Weise „Betriebsmärchen, die mit der Realität kaum noch etwas zu tun haben, bis die Firma schlussendlich zum Sanierungsfall wird.“ 

Empfehlung: Nur auf Maschinen- und Computerzahlen setzen

Ihre Empfehlung: Das Management sollte ausschließlich auf Key Performance Indicators setzen, die direkt von Maschinen oder Computersystemen während des betrieblichen Einsatzes erzeugt werden. „Die Maschinen- und Computerzahlen sind in der Regel korrekt“, hat Jane Enny van Lambalgen festgestellt. Das gelte allerdings nur, wenn die Datenklassifizierungen wie beispielsweise die Fertigungszeiten im ERP-System korrekt sind, schränkt sie ein, und bedauert: „Genau das ist leider häufig nicht der Fall.“ Sie fügt hinzu: „Sobald ich beim Einsatz als Führungskraft auf Zeit auf Excel-Tabellen mit KPIs stoße, gehe ich auf jeden Fall von manipulierten Zahlen aus.“

Sie wundert sich: „Es hat sich in weiten Teilen des Managements über beinahe alle Firmengrößen und Branchen hinweg eine KPI-Gläubigkeit herausgebildet, die manchmal an Naivität grenzt. Dabei sollte doch jedem die Anfälligkeit eines KPI-Berichtswesens klar sein, wenn Boni und Karrierechancen eng an spezifische KPIs geknüpft sind.“

Wenn Kennzahlen wichtiger als Strategien werden

Jane Enny van Lambalgen gibt zu bedenken, dass eine primär KPI-zentrierte Führung selbst ohne Manipulationen reichlich Schwachstellen aufweist. Als mögliche Gefahren nennt sie die übermäßige Fokussierung auf kurzfristige Ziele, die Vernachlässigung nicht oder schwer messbarer Aspekte wie Mitarbeitermotivation, die Unterdrückung von Innovation und Kreativität im Betrieb, die Förderung eines ungesunden KPI-Konkurrenzkampfs zwischen einzelnen Abteilungen und letztendlich den Verlust der strategischen Ausrichtung eines Unternehmens, „wenn Kennzahlen wichtiger als Strategien werden.“

Der Beitrag wurde ursprünglich hier veröffentlicht …