PSD3-Richtlinie: Betrugsprävention und Kundenschutz bleiben hinter Erwartungen zurück

Etwas mehr als ein Jahr ist es her, dass die Europäische Kommission ihre Vorschläge für die Payment Services Directive 3 („PSD3”) vorgelegt hat.

PSD3-Richtlinie: Betrugsprävention und Kundenschutz bleiben hinter Erwartungen zurück

Iain Swaine, Global Advisory Director bei BioCatch, hat den Entwurf noch einmal genauer unter die Lupe genommen und stieß dabei insbesondere auf drei Fakten, die die Betrugsprävention und Haftung, den Austausch von Betrugsdaten und den Schutz besonders schutzbedürftiger Verbraucher betreffen.

Betrugsprävention und Haftung

Während die PSD2 die Banken für nicht autorisierte Betrugsfälle wie Kontoübernahmen haftbar machte, umfasst eine Erweiterung in den Vorschlägen der PSD3 mit Impersonation Scams erstmals auch eine autorisierte Betrugsart – ein richtiger und wichtiger Schritt in Sachen Kundenschutz. Allerdings greift die PSD3 damit weiterhin kürzer als beispielsweise die Bestimmungen der britischen Regulierungsbehörde für Zahlungssysteme (Payment Systems Regulator, PSR) laut der Banken für alle Arten von Betrug haften sollen, unter anderem auch für Liebes- und Anlagebetrug.

Die EU-Kommission verpasst durch die Einschränkungen in den Vorschlägen zwei Chancen: 

  • Der britische PSR sieht eine geteilte Haftung zwischen absendender und empfangender Bank vor. Damit wird der Frustration einzelner Banken begegnet, die im Vergleich zu anderen Instituten mehr in Betrugspräventionsmaßnahmen investieren, nur um dann festzustellen, dass der Betrug wieder zunimmt, weil die Betrüger das Geld zu anderen Banken mit laxer Betrugserkennung verschieben. Gleichzeitig wird das gesamte Ökosystem des Zahlungsverkehrs gestärkt, wenn Betrug reduziert wird: Indem Banken motiviert werden, mehr in die Eliminierung von Money-Mule-Konten zu investieren, gehen sie aktiv gegen Finanzbetrug vor. Diese Chance verpasst die EU-Kommission.
  • Die Auslegung der derzeit gültigen PSD2 ist von Land zu Land sehr unterschiedlich. Nach der PSD2 müssen nicht autorisierte Betrugsfälle erstattet werden, es sei denn, der Kunde war an dem Betrug beteiligt oder hat grob fahrlässig gehandelt. Grobe Fahrlässigkeit wird jedoch international unterschiedlich ausgelegt. Auch in den PSD3-Vorschlägen lässt die EU die Definition der groben Fahrlässigkeit vage und verweist wieder auf das nationale Recht. Damit wurde erneut eine Chance verpasst, die Haftung der Banken und den Kundenschutz international zu harmonisieren.

Austausch von Betrugsdaten

Der aktuelle Entwurf der PSD3 sieht die Möglichkeit vor, dass Banken Betrugsdaten austauschen können. Dies wird durch die Vorschläge des PSR weiter untermauert, der den Austausch aller relevanten Informationen zwischen Zahlungsdienstleistern auf multilateraler Basis ermöglichen will. Der Austausch personenbezogener Daten, einschließlich der eindeutigen Identifikatoren von möglicherweise in Betrugsfälle verwickelten Zahlungsempfängern, soll erlaubt sein. Allerdings schränkt die EU-Kommission den Begriff „Kundenidentifikator“ weiter ein und beschränkt ihn auf die „IBAN“. Dies hätte zur Folge, dass ein ganzes Universum von Zahlungsmethoden, die keine IBAN verwenden, wie PayPal, Apple Cash oder direkte Kreditkartenzahlungen, von der Betrugsprävention ausgeschlossen wären.

Ein Informationsaustausch in Echtzeit ist hilfreich, aber insgesamt ist der von der EU vorgeschlagene Informationsaustausch nicht ausreichend, da selbst die Echtzeit-Erkennung von Betrug immer noch reaktiv ist. Verhaltensbasierte biometrische Intelligenz könnte Mule-Konten bereits vor einer Zahlung oder Transaktion mit hoher Genauigkeit erkennen. In etwa 90 Prozent der Fälle werden die Konten gefunden, bevor die bestehenden Betrugs- und Geldwäschekontrollen überhaupt greifen.

Schutz besonders gefährdeter Verbraucher

Der PSD3-Vorschlag deckt einen wichtigen Punkt ab: Banken müssen sicherstellen, dass jeder Kunde eine starke Kundenauthentifizierung (Strong Customer Authentication, SCA) durchführen kann, unabhängig von Behinderung, Alter, geringer digitaler Kompetenz oder fehlendem Zugang zu digitalen Kanälen oder Zahlungsinstrumenten. Der Besitz eines Smartphones darf dabei nicht erforderlich sein und die bereitgestellten Mittel müssen auf die spezifische Situation des Kunden abgestimmt sein.

Diese Regelung ist weitreichend, aber absolut gerechtfertigt. Sie stellt sicher, dass auch besonders schutzbedürftige Kunden die Vorteile des digitalen Zeitalters voll nutzen können und die Möglichkeit haben, Transaktionen beim Bezahlen online zu autorisieren.
Die Überwachung von Transaktionen ist jedoch nicht nur im Hinblick auf besonders schutzbedürftige Verbraucher notwendig, sondern zum Schutz aller Kunden, da Betrüger äußerst geschickt vorgehen. Mit den PSD3-Richtlinienvorschlägen hat die EU daher zwar eine gute Ausgangsbasis geschaffen, gleichzeitig besteht aber noch erheblicher Verbesserungsbedarf.

„Die PSD3-Verordnung enthält einige gute Ansätze, greift aber teilweise noch zu kurz oder stellt die Banken vor große neue Herausforderungen“, fasst Swaine zusammen. Beispielsweise hat der Europäische Rat im Februar 2024 die EU-weite Einführung von Instant Payments beschlossen, bei denen Transaktionen innerhalb von nur zehn Sekunden abgewickelt werden sollen. Die Banken fragen sich zu Recht, wie sie Betrug in so kurzer Zeit effektiv aufdecken können – um im besten Fall Schadenersatzforderungen rechtzeitig abzuwenden. All dies unterstreicht die Dringlichkeit robuster Betrugspräventionsmaßnahmen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die Zukunft der KI ist offen

Open Source basiert auf Zusammenarbeit und Transparenz. Dank dieser beiden unbestreitbaren Vorteile haben Open-Source-Lösungen das Potenzial, die Art und Weise zu revolutionieren, wie KI-Systeme entwickelt und eingesetzt werden. Jan Wildeboer, EMEA Evangelist bei Red Hat, erklärt, warum ein offener Ansatz für Künstliche Intelligenz unerlässlich ist.

Die Zukunft der KI ist offen 

Obwohl Künstliche Intelligenz noch weit von der technologischen Singularität entfernt ist, hat ihr Einfluss spätestens mit dem Aufkommen der großen KI-Modelle, den sogenannten Foundation Models, Industrie und Gesellschaft spürbar verändert. Das Training dieser Modelle erfordert jedoch enorme Datenmengen und leistungsfähige Rechenzentren, über die in der Regel nur die wirklich großen Marktteilnehmer verfügen. Auf der anderen Seite lassen sich die Foundation Models relativ einfach an geschäftliche Anforderungen anpassen, was die Kosten für das initiale Modelltraining senkt und die Zeit bis zur Wertschöpfung verkürzt. Domänenspezifische KI eröffnet somit einer wesentlich breiteren Anwendergruppe den Zugang zu einer neuen Welt. Monopolisierung erfordert jedoch immer ein Gegengewicht – in diesem Fall einen stärkeren Open-Source-Ansatz. Denn offene Technologien bieten viele Vorteile, darunter mehr Transparenz, Innovation und Sicherheit. 

Vertrauen durch Transparenz

Die Al Alliance, an der unter anderem IBM, Intel, Red Hat und die TU München beteiligt sind, hat sich zum Ziel gesetzt, durch einen offenen Wissens- und Technologietransfer der Künstlichen Intelligenz mehr Transparenz zu verschaffen und damit das Vertrauen von Wirtschaft und Gesellschaft in die Möglichkeiten der Technologie zu stärken. Parallel dazu arbeitet die Open Source Initiative (OSI) an einer gemeinsamen Arbeitsdefinition. Bislang gehen die Meinungen darüber, wann KI offen ist und wann nicht, weit auseinander. Unabhängig davon profitiert die Künstliche Intelligenz, wenn Schlüsselkonzepte aus der Open-Source-Welt übertragen werden. Offener Quellcode ermöglicht es den Nutzern, die Funktionsweise von KI-Algorithmen und die verwendeten Quellen besser zu verstehen und zu überprüfen, was das Vertrauen in die Technologie stärkt. Dies ist besonders wichtig in Bereichen wie dem Gesundheits- und Finanzwesen, in denen Vertrauen durch Transparenz von entscheidender Bedeutung ist.

Innovation durch Zusammenarbeit

KI-Modelle auf Open-Source-Basis ermöglichen es Entwicklern, auf bestehenden Frameworks sowie Architekturen aufzusetzen und so die rasche Entwicklung und Iteration neuer Modelle voranzutreiben. Das heißt, Unternehmen können innovative Anwendungen realisieren, ohne das Rad jedes Mal neu erfinden zu müssen. Denn wenn mehr Akteure Zugang zu den Rohmaterialien haben, können sie die unterschiedlichsten Ideen verfolgen und wirklich kreative Projekte umsetzen. Im besten Fall wird Open-Source-Software zum Industriestandard: Unternehmen bauen ihre Lösungen auf Grundlage des Stacks der großen Anbieter. Diese wiederum profitieren, indem sie die Verbesserungen der anderen in ihre KI integrieren. Das Ergebnis ist ein Katalysator für mehr Wettbewerb und Innovation, von dem auch kleinere Marktteilnehmer profitieren.

Sicherheit durch „Vier-Augen-Prinzip“

Mit dem rasanten Aufstieg von generativer KI nehmen auch die Diskussionen über die Gefahren dieser Technologie zu. Schließlich können die Systeme missbraucht werden, um mit Hilfe von manipulierten Aussagen, Bildern oder Videos Falschmeldungen zu verbreiten oder betrügerische Aktivitäten zu starten. Es stellt sich daher die Frage, ob durch einen Open-Source-Ansatz – das heißt, wenn auch Kriminelle Einblick in die Funktionsweise von KI-Algorithmen erhalten – die Risiken nicht unkontrollierbar werden. In der Regel verfügen offene Systeme über Sicherheitsvorkehrungen beziehungsweise Richtlinien zur verantwortungsvollen Nutzung. Sobald jedoch ein KI-Modell frei verfügbar ist, kann jeder die Sicherheitsmaßnahmen selbst verändern. Wie bei jeder anderen Technologie gilt auch hier: Wer Schaden anrichten will, findet einen Weg – ob nun Open Source oder proprietär. Offenheit und Transparenz werden jedoch dazu beitragen, die Sicherheit der KI zu erhöhen. Wenn die Software offen ist, können mehr Menschen sie testen, um mögliche Probleme zu erkennen und zu beheben. Darüber hinaus können Entwickler, Forscher und Firmen aus den unterschiedlichsten Bereichen gemeinsam an Lösungen arbeiten, um Risiken zu minimieren. Gleichzeitig muss die Technologiegemeinschaft Richtlinien und Mechanismen festlegen, die eine ethische Entwicklung der KI fördern.

Demokratisierung durch freien Zugang

Dank all dieser Vorteile trägt der Open-Source-Gedanke zur Demokratisierung der Künstlichen Intelligenz bei. Indem Werkzeuge und Ressourcen prinzipiell allen zur Verfügung stehen, können auch alle davon profitieren. Mit zunehmender Bedeutung der Technologie ist dieser Gedanke wichtiger denn je: Da KI in Zukunft nahezu alle Bereiche der Gesellschaft beeinflussen wird, sollte die Macht darüber nicht in den Händen weniger liegen. Der Open-Source-Ansatz eröffnet Menschen mit den unterschiedlichsten sozioökonomischen Hintergründen die Möglichkeit, sich an der Entwicklung der Technologie zu beteiligen und so eine gerechtere KI zu gestalten. Hinzu kommt: Der steigende Wettbewerbsdruck durch Globalisierung, kürzere Produktlebenszyklen und der damit verbundene höhere Innovationsdruck verstärken die Notwendigkeit, Prozesse zu öffnen und damit zu optimieren. Vielen Unternehmen fehlen schlicht die finanziellen Mittel für bahnbrechende Neuentwicklungen, aber auch das Know-how im eigenen Haus. Daraus ergibt sich fast automatisch die Notwendigkeit, sich mit Partnern, Zulieferern oder eben anderen Unternehmen zusammenzuschließen. 

Fakt ist:

KI ist die Schlüsseltechnologie schlechthin. Um tragfähige KI-Modelle zu entwickeln, Trainingsdaten einer breiteren Nutzergruppe zur Verfügung zu stellen und drängende ethische Fragen zu klären, ist ein funktionierendes Ökosystem unabdingbar. Auch wenn nicht jede KI auf Open-Source-Prinzipien basieren wird, ist die Kombination aus der gemeinsamen Nutzung vor trainierter Modelle durch die Community und der Einschränkung des Zugangs zu den Trainingsdaten eine Alternative zu proprietären Ansätzen. KI sollte als Schwarmintelligenz verstanden werden. Alle Partner, die ihr Wissen in den Schwarm einbringen, können voneinander lernen, ohne automatisch sensible Informationen preisgeben zu müssen. Schwarmintelligenz ist auch in dem Sinne relevant, dass domänenspezifische KI-Modelle zunehmend an Bedeutung gewinnen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Wie künstliche Intelligenz die Industrie verändert

Künstliche Intelligenz ist nach wie vor das größte Thema der Tech-Branche – und der Trend wird sich fortsetzen: Kaum eine andere technologische Errungenschaft verändert sich aktuell schneller. Der globale Technologieanbieter Zoho hat sich die wichtigsten Entwicklungen in Sachen KI angesehen und gibt einen Ausblick auf das Restjahr.

Wie künstliche Intelligenz die Industrie verändert

Der größte Trend des Jahres 2023 – KI – hat sich auch in diesem Jahr nahtlos fortgesetzt. Das war kaum anders zu erwarten. Der globale Technologieanbieter Zoho gibt einen Einblick in die aktuelle Lage rund um das Zukunftsthema und prognostiziert, wie und wo generative sowie traditionelle KI heute verwendet und zukünftig zum Einsatz kommen wird.

Demokratisierung von KI

Generative KI (GenAI) hat sich binnen kurzer Zeit wie ein Lauffeuer verbreitet und steckt schon in vielen Apps, die wir täglich nutzen. Die Erwartungshaltung der Nutzer wird dafür sorgen, dass es Softwareentwickler schwer haben werden, auf die Implementierung dieser Technologie zu verzichten. Sich von der Konkurrenz abzuheben, wird überdies nicht mehr über die reine Nutzung von GenAI funktionieren. Entscheidend ist die Art und Weise der Implementierung in eigene Anwendungen – je nahtloser und natürlicher es sich für die User anfühlt, desto besser. Schwer werden es Unternehmen haben, deren KI-Implementierung sich wie ein Fremdkörper in ihrer App anfühlt und keine gute User Experience bietet. Die verwendete Lösung sollte dann auch nicht nur Informationen, sondern kontextbezogene Informationen zum jeweiligen Unternehmen oder der Branche liefern. So kann sie Nutzern dabei helfen, fundierte Entscheidungen zu treffen, die auf den relevantesten Informationen fußen.

Regulierung von KI

Die Beliebtheit und Demokratisierung von generativer KI setzen Regierungen und Aufsichtsbehörden unter Druck. Keiner kann das Potenzial von GenAI in Frage stellen und noch schlechter deren Folgen kontrollieren – jedenfalls war das bis vor Kurzem so. Mit dem EU-Gesetz zur künstlichen Intelligenz (AI Act), das Ende letzten Jahres die letzten Hürden genommen hat und voraussichtlich noch im Mai in Kraft tritt, hat die Europäische Union etwas geschafft, was in den Tech-Supermächten USA und China noch nicht gelungen ist. Sie haben eine gesetzliche Grundlage zur Regulierung der Zukunftstechnologie geschaffen. Sie gibt Unternehmen, die KIs entwickeln, genug Freiheiten, um den europäischen Markt gewinnbringend zu nutzen, setzt allerdings Grenzen, die einen unkontrollierbaren Wildwuchs verhindern sollen. Spannend bleibt zu beobachten, ob die USA und China in Sachen KI-Gesetzgebung nachziehen werden. Ebenso wird es wichtig sein zu verfolgen, wie sich der EU AI Act auf die Industrie auswirkt, denn Innovationen dürfen durch die Regulierung nicht behindert werden. Sollte das mittel- bis langfristig der Fall sein, könnte eine Anpassung notwendig werden.

Unternehmen und die KI-Angst

Künstliche Intelligenz hat auch auf die Mitarbeitenden in Unternehmen einen großen Einfluss. Bei vielen löst die Zukunftstechnologie und deren mittlerweile bahnbrechenden Fähigkeiten eine gewisse berufliche Existenzangst aus. Manager und Personalverantwortliche stehen daher vor einer relativ neuen Aufgabe: Sie müssen ihren Angestellten die Angst vor der neuen Technologie nehmen und sie dazu befähigen, sie gewinnbringend zu nutzen. Das richtige Mind- und Skill-Set wird nicht nur dafür sorgen, dass Mitarbeitende ihre Arbeit effizienter erledigen, sondern auch die Ressentiments vor den neuen digitalen „Kollegen“ verlieren.

Mehr Nachhaltigkeit durch KI

Ohne Berücksichtigung des Faktors ESG (Environmental, Social und Governance) kommen Unternehmen zukünftig nicht mehr voran. Die Mühlen des kulturellen Wandels mahlen zuweilen langsam, aber die Erwartungen der Verbraucher, der allgemeine Zustand der Welt und ein Wertewandel innerhalb vieler Unternehmen werden zu deutlichen Veränderungen führen. Es ist zu erwarten, dass mehr Vorschriften im ESG-Bereich eingeführt werden, die die Unternehmen insbesondere bei Nachhaltigkeit stärker in die Pflicht nehmen. Verbraucher werden sich eher jenen Unternehmen zuwenden, die nicht nur Standards befolgen, sondern die sprichwörtliche Extrameile gehen, um ihrer gesellschaftlichen Verantwortung gerecht zu werden. Auch hier kann künstliche Intelligenz bislang ungenutztes Potenzial entfalten: Denkbar ist, KI einzusetzen, um durch prädiktive Wartung die Lebensdauer von Geräten und Komponenten zu optimieren oder die Temperatur in Serverräumen optimal zu justieren. Beides Bereiche, in denen heute noch viel Energie unnötig verschwendet wird. Zudem können anhand von Unternehmens- und Produktionsdaten auch Prozesse – etwa in Herstellerbetrieben – deutlich rationalisiert werden und so beispielsweise unnötigen Overhead an Materialverbrauch oder -verschnitt verhindern.

„Ohne Zweifel ist künstliche Intelligenz auch 2024 das Trendthema schlechthin – und wird es absehbar auch weiter bleiben“, betont Sridhar Iyengar, Managing Director von Zoho Europe. „Für die Industrie ergeben sich durch die Technologie vielerlei Möglichkeiten, sich besser aufzustellen – und zwar sowohl ökonomisch als auch ökologisch. Wichtig ist dabei allerdings, dass die Unternehmen sich stets ihrer Verantwortung bewusst bleiben und das Wohl der Mitarbeitenden sowie den Schutz ihrer Unternehmensdaten an erste Stelle stellen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Daten immer und überall schützen – in fünf Schritten

Die Zeiten, in denen Unternehmensdaten auf das Unternehmensnetzwerk beschränkt waren, sind längst vorbei. Heute befinden sie sich praktisch überall: im Web, in der Cloud und auf den verschiedensten Endgeräten – auch auf privaten. Wie lässt sich Datensicherheit in einer solchen Welt zuverlässig und effizient umsetzen? Der Security-Spezialist Forcepoint nennt die fünf wichtigsten Schritte.

Daten immer und überall schützen – in fünf Schritten

Damit ein Unternehmen funktioniert, müssen Mitarbeiter unkompliziert auf alle Daten zugreifen können, die sie im Arbeitsalltag benötigen – jederzeit, von jedem Ort aus und mit dem Gerät ihrer Wahl. Dadurch entstehen unzählige Datenflüsse, die sich nur schwer kontrollieren lassen. Unternehmen verlieren zunehmend den Überblick, welche Daten sie überhaupt besitzen, wo diese gespeichert sind und wer auf sie zugreift. Dadurch fällt es ihnen schwer, die Datenflüsse über alle Kanäle hinweg zu überwachen und Sicherheitsrichtlinien konsequent durchzusetzen. Möglich ist das allerdings schon – die fünf wichtigsten Schritte für einen Ansatz, der überall Datensicherheit bietet, sind nach Erfahrung von Forcepoint die folgenden.

1. Zentrale Richtlinien für Cloud und Endgeräte definieren

Nahezu alle Unternehmen speichern zumindest einen Teil ihrer Daten in der Cloud, manche verfolgen sogar einen Cloud-First-Ansatz. Da Mitarbeiter mit Notebooks, Smartphones und Tablets auf diese Daten zugreifen und die Geräte nicht immer Firmengeräte sind, sondern auch Privatgeräte sein können, entstehen viele neue Wege für den Abfluss sensibler Daten. Der traditionelle Ansatz, die Sicherheitsrichtlinien auf Endgeräten und in der Cloud mit verschiedenen Lösungen durchzusetzen, die jeweils ihre eigenen Richtlinien verwalten, funktioniert daher nicht mehr zuverlässig. Die separaten Tools bieten nur wenig Transparenz, verursachen durch die parallele Pflege mehrerer Regelsätze einen hohen Aufwand – und die Richtlinien werden schnell inkonsistent, sodass Lücken im Schutz entstehen. Unternehmen benötigen deshalb Tools, die auf einen zentralen Satz an Richtlinien zugreifen, um Datenflüsse zu überwachen und das unerwünschte Kopieren oder Teilen sensibler Informationen zu verhindern.

2. Web- und DLP-Richtlinien vereinheitlichen

Das Web ist für Mitarbeiter nicht mehr nur eine Informationsquelle, aus der Daten abgerufen werden. Viele Web-Anwendungen und SaaS-Dienste sorgen dafür, dass Daten in die andere Richtung fließen – aus dem Unternehmen ins Web. Deshalb reicht es nicht mehr, nur webbasierte Attacken abzuwehren, auch eine Kontrolle der firmeneigenen Daten im Web ist notwendig. Zumal es zahlreiche regulatorische Vorgaben gibt, wonach bestimmte Daten nicht außerhalb des Unternehmens oder außerhalb der EU gespeichert und verarbeitet werden dürfen. Bislang nutzen Unternehmen allerdings zumeist nur Secure Web Gateways (SWG), um den eingehenden Datenverkehr zu kontrollieren, und verzichten auf die Kontrolle des ausgehenden Traffics mittels Data Loss Prevention (DLP). Doch selbst dort, wo DLP-Lösungen zum Einsatz kommen, sind sie in der Regel unabhängig vom SWG – mit dem bekannten Problem inkonsistenter Richtlinien. Einen besseren Schutz bieten Plattformen, die Datensicherheit mit SSE-Technologien (Secure Service Edge) wie Secure Web Gateway, Cloud Access Security Broker (CASB) und Zero Trust Network Access (ZTNA) vereinen und dabei einen einheitlichen Satz von Richtlinien nutzen.

3. Daten in E-Mails schützen

E-Mail ist der Kanal, über den sensible Firmendaten am häufigsten abfließen – nicht immer absichtlich, denn viele Verletzungen der Datensicherheit geschehen versehentlich, wenn Mitarbeiter im hektischen Arbeitsalltag beispielsweise ein Dokument an den falschen Empfänger verschicken. Da E-Mail nach wie vor eines der wichtigsten Werkzeuge im Arbeitsalltag ist, müssen sich Unternehmen dringend um dieses Problem kümmern. Die eingesetzte Lösung sollte dieselben Richtlinien nutzen wie die Sicherheitslösungen, die über die anderen Kanäle wachen. Sie sollte aber auch unabhängig davon funktionieren, ob Unternehmen einen eigenen Mail-Server oder Cloud-basierte Mail-Dienste wie Exchange Online oder Gmail for Business nutzen, und unabhängig davon, ob Mitarbeiter mit Firmen- oder Privatgeräten auf ihre Mails zugreifen. Endpoint-basierte Lösungen sind daher ungeeignet, vielmehr müssen die Lösungen die Daten auf der Netzwerkebene kontrollieren. Im Idealfall bieten sie zudem erweiterte Funktionen für Verschlüsselung und Freigabeprozesse.

4. Angepasst und in Echtzeit auf Risiken reagieren

Konsistente Richtlinien sind wichtig, reichen aber noch nicht, denn sie müssen auch automatisch zur Situation passend angewendet werden, um Mitarbeiter nicht durch zu strenges Blockieren bei der Arbeit zu behindern oder Sicherheitsteams durch zu viele manuelle Freigaben zu überlasten. Sicherheitslösungen, die Richtlinien risikobasiert anwenden, schaffen Abhilfe: Sie identifizieren riskantes Nutzerverhalten wie den Upload vertraulicher Informationen in die Cloud und berechnen abhängig von den konkreten Daten, dem Cloud-Dienst und anderen Kontextinformationen einen Risikowert, der bestimmte Schutzmaßnahmen auslöst – etwa einen Hinweis, die Daten zu verschlüsseln, eine Freigabeanforderung oder eine Sperre des Uploads. Das Monitoring der Aktivitäten und die Durchsetzung der passenden Richtlinien erfolgen in Echtzeit, sodass alle Risiken schnell und effizient minimiert werden.

5. Dark Data klassifizieren, bereinigen und schützen

Bis zu 80 Prozent der Daten von Unternehmen sind Dark Data, also unbekannte oder ungenutzte Daten. Die Wahrscheinlichkeit, dass sich in dieser Datenflut schützenswerte Daten verbergen, die sich jeglicher Kontrolle entziehen, ist groß. Bislang war eine Klassifizierung mit einem großen manuellen Aufwand verbunden, doch moderne Lösungen nutzen KI und Machine Learning um Daten an den unterschiedlichsten Speicherorten aufzuspüren und weitgehend automatisiert zu klassifizieren. Anschließend können Unternehmen nicht nur die sensiblen Daten zuverlässig schützen, sondern auch den üblicherweise großen Bestand an ROT Data bereinigen – also all die redundanten, obsoleten und trivialen Informationen, die die Angriffsfläche unnötig vergrößern.

„Den Wert von zentralen Richtlinien für alle Sicherheitslösungen kann man gar nicht hoch genug einschätzen. Wenn Security-Teams nur einen einzigen Regelsatz pflegen müssen, spart das Zeit und Kosten und reduziert die Risiken, die mit inkonsistenten Richtlinien einhergehen, auf null“, betont Frank Limberger, Data & Insider Threat Security Specialist bei Forcepoint. „Ein solcher zentraler Richtliniensatz für Cloud-Anwendungen und Endgeräte ist nach unserer Erfahrung ein sinnvoller erster Schritt auf dem Weg zu ‚Data Security Everywhere‘, doch im Grunde können Unternehmen auch mit anderen Schritten starten und die Reihenfolge variieren. Wichtig ist, dass sie letztlich alle Schritte umsetzen, um wirklich alle sensiblen Daten aufzuspüren, zu klassifizieren und über sämtliche Kanäle – Cloud, Web, E-Mail, Unternehmensanwendungen, Fileserver und Endgeräte hinweg – zu schützen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Betriebskennzahlen sind häufig manipuliert

Jane Enny van Lambalgen: „Manipulierte Phantomzahlen in Excel können über Jahre hinweg ein florierendes Unternehmen vorgaukeln, das in Wahrheit kurz vor der Insolvenz steht.“

Betriebskennzahlen sind häufig manipuliert

Das Gros der Unternehmen setzt auf Schlüsselkennzahlen, im Fachjargon Key Performance Indicators oder kurz KPIs genannt, als betriebswirtschatliches Steuerungsinstrument. Die Zahlen geben neutral und unbestechlich die Leistungsfähigkeit der einzelnen Abteilungen und letztlich des gesamten Betriebes wieder – so lautet die Theorie hinter dem Managementstil „Führung anhand von KPIs“. Doch in Wirklichkeit sind die KPIs in vielen Firmen mehr oder minder manipuliert, hat Jane Enny van Lambalgen, CEO der Beratungs- und Managementfirma Planet Industrial Excellence, bei zahlreichen Beratungsprojekten festgestellt. Sie wird häufig als sog. Interim Manager, also Führungskraft auf Zeit, in Krisenzeiten in Unternehmen gerufen, um zu retten, was noch zu retten ist. Dabei hat sie festgestellt: „In vielen Fällen vermitteln die betrieblichen Schlüsselkennzahlen ein positives Bild der Firma, obwohl das Unternehmen in Wahrheit kurz vor der Insolvenz steht.“

Detektivarbeit zum Auffinden der Manipulationen

Wie es zu dieser Diskrepanz kommt, erfordert oftmals beinahe Detektivarbeit, weiß Jane Enny van Lambalgen aus der Betriebspraxis. In den meisten Fällen führt die Spur zu KPI-Tabellen in der in vielen Betrieben allgegenwärtigen Tabellenkalkulationssoftware Excel von Microsoft. 

Die erfahrene Interim Managerin sagt: „In der Praxis schönen viele Beschäftigte die Excel-Zahlen, damit sie oder ihre Betriebseinheit besser dastehen. Wenn sie dann feststellen, dass dies gar nicht auffällt, bleiben sie dabei und manipulieren sich ihre eigene Leistung oder gar die ganzer Abteilungen immer besser zurecht. Manager, die ein Unternehmen primär anhand von Key Performance Indicators führen, merken oftmals über Jahre hinweg gar nicht, was los ist. Sie verstehen einfach nicht, warum sich die tatsächlich unbestechlichen Zahlen wie Umsatz und Gewinn negativ entwickeln, obwohl doch vermeintlich alles im Betrieb in Ordnung ist.“

Nach Einschätzung der Expertin kreieren „Zehntausende von Beschäftigten in Deutschland in Excel Phantomzahlen, auf die Hunderte, wenn nicht Tausende von Managern hereinfallen.“ Im Ergebnis entstünden auf diese Weise „Betriebsmärchen, die mit der Realität kaum noch etwas zu tun haben, bis die Firma schlussendlich zum Sanierungsfall wird.“ 

Empfehlung: Nur auf Maschinen- und Computerzahlen setzen

Ihre Empfehlung: Das Management sollte ausschließlich auf Key Performance Indicators setzen, die direkt von Maschinen oder Computersystemen während des betrieblichen Einsatzes erzeugt werden. „Die Maschinen- und Computerzahlen sind in der Regel korrekt“, hat Jane Enny van Lambalgen festgestellt. Das gelte allerdings nur, wenn die Datenklassifizierungen wie beispielsweise die Fertigungszeiten im ERP-System korrekt sind, schränkt sie ein, und bedauert: „Genau das ist leider häufig nicht der Fall.“ Sie fügt hinzu: „Sobald ich beim Einsatz als Führungskraft auf Zeit auf Excel-Tabellen mit KPIs stoße, gehe ich auf jeden Fall von manipulierten Zahlen aus.“

Sie wundert sich: „Es hat sich in weiten Teilen des Managements über beinahe alle Firmengrößen und Branchen hinweg eine KPI-Gläubigkeit herausgebildet, die manchmal an Naivität grenzt. Dabei sollte doch jedem die Anfälligkeit eines KPI-Berichtswesens klar sein, wenn Boni und Karrierechancen eng an spezifische KPIs geknüpft sind.“

Wenn Kennzahlen wichtiger als Strategien werden

Jane Enny van Lambalgen gibt zu bedenken, dass eine primär KPI-zentrierte Führung selbst ohne Manipulationen reichlich Schwachstellen aufweist. Als mögliche Gefahren nennt sie die übermäßige Fokussierung auf kurzfristige Ziele, die Vernachlässigung nicht oder schwer messbarer Aspekte wie Mitarbeitermotivation, die Unterdrückung von Innovation und Kreativität im Betrieb, die Förderung eines ungesunden KPI-Konkurrenzkampfs zwischen einzelnen Abteilungen und letztendlich den Verlust der strategischen Ausrichtung eines Unternehmens, „wenn Kennzahlen wichtiger als Strategien werden.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Investieren in der Krise: Die drei großen Stellschrauben 

Die letzten Monate haben ihre Spuren hinterlassen: Massive Preissteigerungen für Energie und Rohstoffe, lange Lieferzeiten und Materialmangel sowie ein schwaches Konsumklima sind die aktuellen Rahmenbedingungen in der Wirtschaft. Doch so seltsam es auch klingen mag – gerade in Krisenzeiten sollten Unternehmen investieren. Der globale Technologieanbieter Zoho zeigt, an welchen drei grundlegenden Stellschrauben Firmen drehen können, um gestärkt in die Zukunft zu gehen.

Investieren in der Krise: Die drei großen Stellschrauben 

In wirtschaftlich angespannten Zeiten treten viele Unternehmen vorsorglich auf die Bremse. Da werden Budgets massiv gekürzt oder komplett eingefroren, Projekte und Kampagnen gestoppt, Lieferanten beim Preis gedrückt oder sogar über einen Stellenabbau nachgedacht. Diese Maßnahmen mögen kurzfristig eine Entlastung versprechen – langfristig riskieren die Firmen jedoch, geschwächt und im Wettbewerb abgehängt zu werden.

Um erst gar nicht in eine solch missliche Situation zu geraten, sollten die Unternehmen aus Sicht von Zoho drei grundlegende Stellschrauben – Technologie, Kunden und Mitarbeiter – im Blick haben und dort verstärkt investieren.

Stellschraube Nr. 1: eine zentrale Plattform

Technologie ist heute einer der zentralen Grundpfeiler jedes Geschäftsmodells. Aber nur wenn die Prozesse nahtlos ineinandergreifen und die gesammelten Daten zur Optimierung herangezogen werden, sind Unternehmen auf dem richtigen Weg. Die Realität ist in der Regel eine andere. Laut einer Zoho-Umfrage ist nur ein Viertel der Befragten digital „gesund“, hat sich also erfolgreich und nachhaltig digital transformiert. Vier von zehn Unternehmen (41 Prozent) verfügen über einen durchschnittlichen Digitalisierungsgrad, ein Drittel (34 Prozent) hat noch nicht einmal richtig damit angefangen. Damit ist ein effizientes Datenmanagement nahezu unmöglich. Erschwerend kommt hinzu, dass oftmals die unterschiedlichsten Software-Lösungen im Einsatz sind. Liegen die Datenbestände jedoch in technischen Silos ab, ist die Gewinnung und Nutzung von präzisen, in Echtzeit verfügbaren Erkenntnissen für die Optimierung von Geschäftsabläufen eine nahezu unlösbare Aufgabe. Unternehmen brauchen deshalb eine Datenstrategie, die alle Abteilungen einbezieht. Genauso wichtig ist eine integrierte, Cloud-basierte Plattform, auf die alle Teams zentral Zugriff haben. Eine solche Technologie-Konsolidierung vereinfacht nicht nur die Arbeit, sondern reduziert auch Kosten und Ressourcen, etwa für Verwaltungsaufgaben. In Zeiten knapper Kassen ist dieser Aspekt nicht zu unterschätzen. Unternehmen, die mehrere Plattformen im Einsatz haben, müssen bei der Auswahl neuer Anwendungen darauf achten, wie gut sich diese nahtlos integrieren lassen.

Stellschraube Nr. 2: ein exzellentes Kundenerlebnis

Neue Kunden zu gewinnen ist teurer, als bestehende zu halten. Diese Marketing-Erkenntnis sollten Unternehmen gerade in Krisenzeiten, wenn die Nachfrage stagniert, nicht aus dem Blick verlieren. Wer jedoch eine langfristige Beziehung zu seinen Kunden aufbauen und pflegen will, muss deren Wünsche, Vorlieben und Verhaltensmuster genau kennen und darauf eingehen. Durch die Einbeziehung von Echtzeitinformationen – etwa Website-Verhalten, Suchergebnisse, Kaufhistorie, frühere Beschwerden und Interaktionen – entwickeln Unternehmen ein tiefes Verständnis für die Bedürfnisse jedes Einzelnen. Gleichzeitig ermöglicht erst diese Hyperpersonalisierung maßgeschneiderte Angebote und zeitnahe Reaktionen, was wiederum die Kundenzufriedenheit erhöht. Auch hier ist eine einheitliche Sicht auf alle Daten mit Hilfe einer zentralen Plattform von Nutzen – ansonsten müssen Unternehmen die benötigten Informationen in den unterschiedlichsten Systemen suchen, was wiederum eine perfekte Customer Experience erschwert oder sogar verhindert. Alternativ ist es möglich, Daten aus den verschiedenen Anwendungen plattformübergreifend in ein zentrales Analyse-Repository zu übertragen und dieses als einzige Quelle für die Erfassung der Customer Journey zu nutzen. Auch hier müssen Unternehmen darauf achten, dass die verwendeten Anwendungen nahtlos in das Repository integriert werden können.

Stellschraube Nr. 3: zufriedene Mitarbeiter

Die Qualität der Kundenerfahrung hängt eng mit der Zufriedenheit der Mitarbeiter zusammen. Die Idee der Employee Experience zielt darauf ab, aus einem häufig monotonen Arbeitsalltag ein inspirierendes, motivierendes und produktives Erlebnis für die eigene Belegschaft zu machen – und dadurch den Unternehmenserfolg anzukurbeln. Der Schlüssel für eine positive Mitarbeitererfahrung sind moderne Software-Tools, die den Anwendern benutzerfreundliche und flexible Funktionen zur Verfügung stellen. Zudem sollte die Lösung möglichst gut an die jeweiligen Arbeitsabläufe eines Unternehmens angepasst sein. An Bedeutung gewinnen in diesem Zusammenhang auch Low-Code-Plattformen – bestenfalls in Kombination mit künstlicher Intelligenz. Durch die automatisierte Analyse des Nutzerverhaltens kann die Software mit den gewonnenen Ergebnissen Workflows vorschlagen, die sich an die Bedürfnisse der unterschiedlichen Entwickler anpassen, die Arbeit erleichtern und damit die Effizienz steigern. Für fachfremde und weniger spezialisierte Anwender lassen sich zudem Arbeitsabläufe und Datenmodelle vorschlagen, die den Einsatz von Fachpersonal überflüssig machen.

„Angst ist ein denkbar schlechter Ratgeber – das gilt gerade in wirtschaftlich angespannten Zeiten. Unternehmen sollten lieber einen kühlen Kopf bewahren und Krisen als Chance begreifen, das eigene Geschäftsmodell nachhaltig voranzutreiben“, betont Sridhar Iyengar, Managing Director von Zoho Europe. „Wer in die Beziehung zu Kunden, Partnern und Mitarbeitern investiert, ihre Bedenken und Anregungen ernst nimmt und ihnen die notwendigen Informationen sowie Tools bereitstellt, wird sich besser im Markt behaupten können als diejenigen, die einen Sparkurs fahren.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die Digitale Transformation fängt gerade erst an

Machen wir uns nichts vor: Die Digitalisierung steckt noch in den Kinderschuhen. Auch wenn es uns so vorkommen mag, als seien wir bereits mittendrin im Rennen, haben wir uns tatsächlich gerade erst ein winziges Stück von der Startlinie wegbewegt. Statt auf trainiertem, wohlbekanntem Streckenverlauf bewegen wir uns auf einem Kurs mit vielen Variablen und Unbekannten, der sich dazu auch noch ständig ändert. Wer nicht wachsam ist und schnell reagiert, landet in der Auslaufzone.

Die Digitale Transformation fängt gerade erst an

Bislang wurde und wird die Digitalisierung vor allem dazu genutzt, Prozesse zu optimieren, die Produktivität zu erhöhen und die Kosten zu senken. Automationstechnologien sind ein Paradebeispiel dafür, wie interne Prozesse durch Digitalisierung effizienter und kostengünstiger gestaltet werden. Das fängt an bei schlanker agierenden Office-Funktionen im Backend und reicht bis zu den Interaktionen mit den Kunden am Frontend. Immer geht es darum, manuelle Routineaufgaben zu digitalisieren, Flaschenhälse zu beseitigen, das Unternehmen schneller zu machen und letztlich die operative Effizienz unter Kostenaspekten zu verbessern. Damit sind wir aber noch lange nicht am Ende. In den letzten Jahren sehen wir die verstärkte Nutzung intelligenter Automatisierungstechnologien zur Prozessoptimierung, zur Entscheidungsunterstützung und für personalisierte Kundenerfahrungen. Gleichzeitig werden sie zunehmend auch für flexible Arbeitsplatzmodelle, neue Services für Konsumenten oder zur Bewältigung der Lieferkettenproblematik genutzt. 

Damit ebnen sie Unternehmen den Weg zum Autonomous Business. Ähnlich wie beim autonomen Fahren sind sie damit in der Lage, die Welt um sie herum sehr viel intensiver und genauer wahrzunehmen und zu analysieren. Im selbstfahrenden Auto müssen sich Fahrer und Beifahrer nicht mehr auf die Straße konzentrieren. Was auf den Autobahnen noch Zukunftsmusik ist, wird beispielsweise auf Firmengeländen in Lagerhäusern bereits ganz selbstverständlich eingesetzt. Der Gabelstapler sucht sich im Hochregal autonom das bestellte Produkt, bringt es zum richtigen Container im Ladehof, der dann im Bahnhof oder Hafen automatisch auf den richtigen Zug oder das richtige Schiff gesetzt wird. Intelligente Maschinen können mittlerweile in komplexen Situationen schnelle Entscheidungen auf der Basis datengetriebener Erkenntnisse treffen. Viele Lieferketten wären ohne diese automatisierten Prozesse gar nicht mehr funktionsfähig. Diese Beispiele können als Vorbild für weitergehende Einsatzszenarien dienen, etwa für die Interaktionen im Kunden-Service oder das Onboarding neuer Kunden.

Dadurch wird es möglich, einen viel intensiveren Dialog mit Kunden und Partnern zu pflegen. Das digitale Unternehmen der Zukunft ist kundengetrieben. Für Unternehmen stellt sich damit die Aufgabe, sowohl ihre operativen als auch ihre Business-Modelle zu überdenken und an die neuen Bedingungen zu adaptieren. Wie bei jeder Etappe sind die Early Adopter und Fast Follower diejenigen, die die größten Chancen auf die Innovationsrendite haben. Sie resultieren aus den Mehrwerten, die Unternehmen ihren Kunden bieten können und sie dadurch im Wettbewerbsumfeld relevanter und attraktiver machen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Besser rekrutieren: 5 Tipps für effektives Personalmarketing

31,4 Prozent der deutschen Arbeitnehmer:innen sind momentan auf der Suche nach einem neuen Job – das hat die aktuelle Studie von SD Worx, einem führenden europäischen Anbieter von HR- und Payroll-Lösungen, gezeigt. 48,8 Prozent der Befragten hingegen gaben an, dass es derzeit einfach sei, eine neue Stelle zu finden. Umso wichtiger ist es also, sich als Unternehmen auf dem hart umkämpften Arbeitsmarkt hervorzuheben.

Besser rekrutieren: 5 Tipps für effektives Personalmarketing

Die Rekrutierung und Bindung von Spitzenkräften ist eine ständige Herausforderung, die in der sich schnell wandelnden Welt des Personalwesens immer größer wird. Als Bindeglied zwischen Talentakquise und Unternehmenserfolg setzen HR-Expert:innen zunehmend auf innovative Marketingstrategien, um die Kultur, Werte und Möglichkeiten ihres Unternehmens zu bewerben. SD Worx hat fünf Tipps zusammengestellt, wie sich das Personalmarketing neu beleben lässt, damit Unternehmen die besten Talente gewinnen können. 

1. Entwickeln einer starken Arbeitgebermarke 

Die Arbeitgebermarke eines Unternehmens ist der Inbegriff dessen Identität und Wiedererkennungsmerkmal auf dem Arbeitsmarkt. Wer auf Storytelling achtet und setzt, kann potenzielle Bewerber:innen von der Unternehmenskultur, den Werten und dem jeweiligen Alleinstellungsmerkmal überzeugen. Authentizität spielt dabei natürlich eine sehr große Rolle: Schließlich sollen potenzielle Bewerber:innen einen Eindruck erhalten können, wer ihr:e Arbeitgeber:in ist und wie es ist, Teil der Belegschaft zu sein. Für diesen Zweck zum Einsatz kommen können Social-Media-Kanäle, aber auch der Unternehmensblog sowie Erfahrungsberichte von Mitarbeiter:innen können von Nutzen sein. 

Tipp: Achten Sie darauf, dass Ihre Arbeitgebermarke und Ihre eigentliche Brand zusammenpassen.

2. Video-Content nutzen 

Videoinhalte sind in den letzten Jahren immer beliebter geworden und haben sich zu einem wichtigen Marketinginstrument in allen Branchen entwickelt. Videoinhalte haben den Vorteil, potenziellen Bewerber:innen einen visuellen Einblick in das Unternehmen und die Unternehmenskultur zu geben. Dabei kann es sich sowohl um längere Formate wie YouTube-Videos als auch um kürzere Formate handeln, die über Plattformen wie Instagram oder TikTok verbreitet werden. Videoinhalte machen Unternehmen und damit gleichzeitig auch Arbeitgebermarken menschlicher. Virtuelle Rundgänge durch die Büro- oder Produktionsgebäude, eine Serie über die verschiedenen Arbeitsalltage oder Interviews mit verschiedenen Mitarbeiter:innen geben potenziellen Bewerber:innen einen visuellen Einblick in den Alltag beim Arbeitgeber. 

Tipp: Achten Sie darauf, wen Sie ansprechen wollen. Jüngere Generationen bevorzugen kürzere Inhalte.

3. Aufbruch ins digitale Zeitalter

In Zeiten, in denen die Nutzung mobiler Endgeräte auch bei der Jobsuche stetig zunimmt und eine ständige Kommunikation unabdingbar ist – nicht zuletzt angesichts der Erfahrungen der Pandemie – ist es geradezu fahrlässig, diesen Faktor in Bewerbungsprozessen zu ignorieren. Mehr als 80 Prozent der Unternehmen befürchten potenzielle Kandidaten zu verlieren, wenn sie keine mobilen Bewerbungsmöglichkeiten anbieten, das zeigt eine Studie der Uni Bamberg. Unternehmen müssen ihre Recruiting-Strategien also entsprechend bewerben – und anpassen: Karriereseiten und Bewerbungsformulare müssen mit dem eigenen Smartphone leicht zu bedienen sein. Jede:r vierte Kandidat:in der Gen Z bricht die Jobsuche dauerhaft ab, wenn es zu Darstellungsproblemen auf mobilen Geräten kommt – auch das ist ein Ergebnis der Uni Bamberg. Mobile Kommunikationskanäle in ihren Bewerbungsprozess zu integrieren, um Echtzeitkommunikation mit den Kandidat:innen zu ermöglichen – etwa in Form von Instant Messaging-Tools oder mobilen Bewerbungsapps – ist ein Muss. Dank des sofortigen Feedbacks können Unternehmen somit das Engagement mit Bewerber:innen steigern und sicherstellen, dass kein:e potenzielle:r Kandidat:in aufgrund unzureichender Kommunikation abspringt.

Tipp: Gestalten Sie Ihren mobilen Prozess so einfach und intuitiv wie möglich.

4. Mitarbeiter:innenlobbyismus

Bestehende und zufriedene Mitarbeiter:innen sind immer noch die besten Markenbotschafter eines Unternehmens. Positive Erfahrungen müssen also sowohl in Social Media als auch auf gängigen Bewertungsplattformen geteilt werden. Auch Branchenveranstaltungen oder die Empfehlung von qualifizierten Fachkräften können den Rekrutierungsprozess auf diese Weise unterstützen. Die Einrichtung eines dazugehörigen Förderprogramms stärkt dabei nicht nur die Arbeitgebermarke, sondern fördert auch das Gefühl der gegenseitigen Loyalität unter den Mitarbeiter:innen.

Tipp: Nutzen Sie den Enthusiasmus Ihrer Mitarbeiter:innen zu Ihrem Vorteil. 

5. Datenbasierte Entscheidungsfindung 

Daten sind die Geheimwaffe im Personalmarketing. Mithilfe von Analysetools können Unternehmen den Erfolg ihrer verschiedenen Rekrutierungskampagnen verfolgen, Trends erkennen und ihre Strategien entsprechend anpassen. Die Analyse der gewonnenen Daten und Kennzahlen wie Bewerberkonversionsrate, Bewerberbindung und Rekrutierungsquellen ermöglicht es, die Ansprache zu verfeinern und so die einzelnen Kampagnen auf die aktuelle Situation der Zielgruppe hin zu optimieren. So kann der Return on Investment maximiert werden und Unternehmen können ihr Personalmarketingbudget besser einsetzen, um die richtigen Kandidat:innen anzusprechen und einzustellen.

Tipp: Nutzen Sie auch Daten von externen Bewerbungstools, um Ihr Budget maximal einsetzen zu können.

Erfolgreiches Personalmarketing ist ein kontinuierlicher Prozess, der sich an den wandelnden Bedürfnissen und Erwartungen der Bewerber:innen orientieren muss. Mit der richtigen Kombination der oben genannten Tipps können Unternehmen sicherstellen, dass sie im Wettbewerb um die besten Talente die Nase vorn haben. Aber es sind nicht nur die Technologie oder die Strategie, die den Unterschied machen, es sind die Menschen. Die Investition in ein engagiertes und zufriedenes Team, das die Unternehmenswerte authentisch verkörpert, ist letztlich die beste Investition in die Zukunft. Unternehmen, die ihre Mitarbeiter:innen und Bewerber:innen schätzen, schaffen nicht nur eine attraktive Arbeitsumgebung, sondern auch eine dauerhafte Basis für Erfolg.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Business Intelligence in der Fertigungsindustrie

Unternehmen durch aussagekräftige Daten zu unterstützen, damit sie fundierte Geschäftsentscheidungen treffen können, ist das Ziel von Business Intelligence (BI).

Business Intelligence in der Fertigungsindustrie

Historisch hat BI seine Wurzeln in den 1960er Jahren als System für die gemeinsamen Nutzung von Informationen im gesamten Unternehmen. Moderne BI zeichnet sich in der Praxis durch die Bereitstellung einer umfassenden Sicht auf Unternehmensdaten aus. Diese Daten werden genutzt, um Veränderungen voranzutreiben, Ineffizienzen zu beseitigen und schnell auf Veränderungen am Markt oder bei Lieferketten zu reagieren – immer mit dem übergeordneten Ziel, die Unternehmensleistung zu optimieren.

Reichelt elektronik sieht vor allem die vielen Vorteile für die Fertigungsindustrie: „Die Fertigungs- bzw. Produktionsbranche ist ein komplexer Sektor mit vielen unterschiedlichen Elementen. Überall im Unternehmen werden Daten gesammelt. Aus diesem Grund können Firmen dieser Branche in besonderem Maße von Business Intelligence sowie der Auswertung der zahlreichen Daten profitieren,“ kommentiert Sebastian Wrubel, Produktmanager Verkauf/POS & Logistik bei reichelt elektronik.

„Bereits bei der Lieferung von Rohstoffen, dem Betrieb von Maschinen oder dem Qualitätsmanagement werden jede Minute neue Daten generiert. Hinzu kommen betriebswirtschaftliche Daten. Mithilfe von BI können Unternehmen bessere Einblicke in ihre Daten gewinnen und somit fundierte Geschäftsentscheidungen treffen und neue Potenziale erschließen.“

Warum ist Business Intelligence für Ihr Unternehmen wichtig?

Business Intelligence umfasst eine breite Palette von Analysetechniken und Tools. Zu seinen wesentlichen Bestandteilen gehören Data Analytics und Business Analytics, die mithilfe von Data Mining, Berichterstattung, Datenabfrage, Benchmarking, Datenvorbereitung und Visualisierung funktionieren. Dadurch gewinnen Unternehmen einen umfassenden Einblick in aktuelle und historische Daten. BI ermöglicht beispielsweise die Erstellung von Leistungs- und Wettbewerbsvergleichen und hilft, potenzielle, interessante Markttrends frühzeitig zu erkennen. 

Auf der anderen Seite kann BI genutzt werden, um operative Prozesse im Unternehmen zu optimieren. Zum Beispiel lassen sich im Bereich Compliance Datenanalysen durchführen, sodass Unternehmen frühzeitig prüfen können, ob sie Vorschriften oder Normen erfüllen. Die Datenanalysen gewähren auch Einblicke in den gesamten Fertigungszyklus, mit deren Auswertung sich die Produktionsprozesse optimieren und Engpässe identifizieren lassen. 

Darüber hinaus lassen sich mit BI die Bestände effektiv verwalten, um die Lagerhaltungskosten zu senken und die Lieferkette effizienter zu gestalten. Mitarbeiter können frühzeitig Abweichungen erkennen, indem sie alle relevanten Kennzahlen kontinuierlich überwachen und auswerten. Dadurch behalten sie Kennwerte wie Maschinenauslastung, Auftragsstatus, Termintreue, Materialkosten oder Produktionsqualität im Blick.

Qualitätssicherung und Risikomanagement in der Produktentwicklung

In der Fertigung von medizinischen Produkten steckt BI noch in den Kinderschuhen, doch hier zeigen erste Projekte bereits das Potenzial datenbasierter Prozessoptimierung. Einige medizinische Produkte wie etwa Implantate oder auch Dentalprodukte werden mithilfe additiver Fertigung (3D-Druck) hergestellt, um eine individuelle Anpassung an die Patienten zu ermöglichen. Das macht den Herstellungsprozess jedoch auch komplex, denn zahlreiche Umweltfaktoren und andere Parameter wie Maschineneinstellungen haben Einfluss auf die Qualität der Bauteile. Zudem unterliegt die Produktion strengen Richtlinien. So bestimmt die europäische Medical Device Regulation (MDR), dass Unternehmen den Herstellungsprozess über die gesamte Lieferkette hinweg nachweisen können. Deshalb ist es besonders wichtig, Fehler bei dem Herstellungsprozess sehr schnell erkennen zu können. 

Bisher stützte sich die Qualitätskontrolle bei medizinischen Produkten oft nur auf die Überprüfung der Teile per Computertomographie (CT). Der Einsatz von Business Analytik kann helfen, diesen Prozess zu erweitern und auf lange Sicht zu verbessern.

Durch die Einführung von zusätzlichen digitalen Methoden zur Qualitätssicherung wie etwa sensorbasierte Überwachung von 3D-Druckern, Wärmeöfen oder 3D-Scannern sowie deren Vernetzung können nun mehr Werte gesammelt und die Qualität der Produktion engmaschig überprüft werden. Defekte oder falsche Einstellungen bei 3D-Druckern können so schneller identifiziert und dadurch die Fertigung von fehlerhaften oder qualitativ minderwertigen Teilen vermieden werden. Dies erleichtert nicht nur den Prozessnachweis, sondern steigert auch die Qualität der Produktion und spart damit langfristig Produktionskosten ein.

Prozessoptimierung durch Data Mining  

Ein Beispiel aus der Versorgungsbranche verdeutlicht, wie die Datenanalyse zu verbesserten Abläufen beiträgt. Die Stadtwerke Bonn überprüfen in sogenannten Plausibilitätsprüfungen stets, ob die gemeldeten Zählerstände dem erwarteten Muster entsprechen. So sollen frühzeitig Fehler in Geräten, Lecks in Rohren oder andere Fehler erkannt werden. Mit insgesamt 367.000 abgerechneten Zählerständen zwischen Januar 2020 und April 2021 kam es bei der Prüfung der abgelesenen Zählerstände jedoch immer wieder zu Verzögerungen und Fehlerquoten. 

Daher initiierten die Stadtwerke Bonn eine Process-Mining-Initiative mit Appian. Die Analyse ergab, dass etwa 75 Prozent der Plausibilitätsprüfungen unnötig waren, was bis zu 571 Arbeitstage in Anspruch nehmen konnte. Mit diesen Erkenntnissen wurden die Plausibilitätsgrenzen des Systems optimiert. So sorgten die Stadtwerke Bonn für schnellere und reibungslosere Arbeitsabläufe, konnten Kosten einsparen und steigerten so auch ihre Kundenzufriedenheit.

Auch der Fertigungsindustrie bietet Data Mining entscheidende Vorteile. Durch die Analyse des gesamten Fertigungszyklus können Muster erkannt und fundierte Entscheidungen getroffen werden, die die Effizienz und Qualität steigern. Integrierte Datenplattformen erleichtern die Zusammenarbeit mit Lieferanten und verbessern den Informationsfluss.

Verbesserung der Lieferkettenperformance 

Bei der Implementierung von Just-in-Time (JIT) Prinzipien zur Lieferkettenoptimierung ist BI oft das Mittel der Wahl. Walmart gilt als Paradebeispiel im Einzelhandel, aber auch die Fertigungsbranche kann von dieser Strategie profitieren. Durch den Einsatz fortschrittlicher Analysetechnologien prognostiziert Walmart die Kundennachfrage präzise, um die Lagerbestände zu optimieren und Engpässe zu vermeiden.

Darüber hinaus hat das Unternehmen die Methode des Cross-Docking eingeführt. Dabei werden Güter nicht mehr in ein Lager geliefert, sondern direkt umgeschlagen und zum Kunden versendet. So werden Handhabungs- und Lagerkosten minimiert. 

Was bei Walmart funktioniert, eignet sich auch für die Fertigungsbranche. Durch eine nahtlose Überwachung der Lieferkette erhalten Unternehmen Kontrolle über den Warenfluss und können flexibel auf Herausforderungen reagieren. Seien es Ressourcenknappheit im Ursprungsland, Preisänderungen von Lieferanten oder handelspolitische Faktoren  – mit BI in den Lieferkettenmanagementprozessen sorgen Fertigungsunternehmen für Planungssicherheit, Stabilität und Kundenzufriedenheit.

Fazit 

Business Intelligence (BI) und Analytik bilden einen entscheidenden Teil des gesamten Geschäftsprozesses, indem sie nicht nur die aktuellen Betriebsabläufe optimieren, sondern auch die Grundlage für zukünftige Planungsentscheidungen legen. Durch die Analyse von Echtzeitdaten und Produktionskapazitäten können Unternehmen in der Fertigungsbranche verbesserte Konzepte erstellen und ihre Produktionsplanung optimieren. Dies gewährleistet nicht nur, dass Produkte rechtzeitig und in der richtigen Menge hergestellt werden, um die Nachfrage zu decken und Ressourcen zu schonen, sondern trägt auch dazu bei, langfristige Wettbewerbsvorteile zu sichern. In einer zunehmend datengetriebenen Wirtschaft sind BI und Analytik unverzichtbare Werkzeuge für Unternehmen, um erfolgreich zu sein und sich kontinuierlich weiterzuentwickeln.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Drum prüfe, wie dein Netz empfindet: In sieben Schritten zu erfolgreichen Network Audits

Regelmäßige Prüfungen und Bewertungen des Netzwerks schützen Unternehmen vor großen Schäden durch Downtimes oder Sicherheitslücken. Opengear, Anbieter von Out-of-Band-Managementlösungen zum Schutz kritischer Infrastrukturen, hat einen Sieben-Schritte-Plan für Network Security Audits und Assessments erarbeitet, mit dem IT-Teams ihr Netzwerk im Griff behalten.

Drum prüfe, wie dein Netz empfindet: In sieben Schritten zu erfolgreichen Network Audits

Die Netzwerklandschaft ist im steten Wandel: Ständig gibt es technologische Innovationen und fast täglich erscheinen neue Bedrohungen für die Sicherheit und Stabilität der Netze auf dem Radar der Administratoren. Regelmäßige Prüfungen (Audits) und Bewertungen (Assessments) von Netzwerken sind daher nicht nur eine bewährte Praxis, sondern mittlerweile eine grundlegende Notwendigkeit. Wie Unternehmen dabei vorgehen sollten, zeigt der Sieben-Schritte-Plan von Opengear

Schritt #1: Die Wichtigkeit regelmäßiger Prüfungen anerkennen

Das richtige Mindset ist das A und O, um die Sicherheit, Stabilität und Resilienz von Netzwerken zu gewährleisten. Wenn IT-Teams es nicht für wichtig erachten, den Status quo ihrer Infrastruktur regelmäßig zu überprüfen, nützt der beste Plan nichts. Administratoren sollten sich daher der Bedeutung von Network Audits bewusst sein: Sie ermöglichen es, die Netzwerkinfrastruktur, deren Konfigurationen sowie Zugangskontrollen unter die Lupe zu nehmen und potenzielle Sicherheitslücken zu untersuchen. Dieser systematische Ansatz ermöglicht es IT-Teams, Einblicke in den aktuellen Zustand ihres Netzwerks zu erhalten und Abweichungen von etablierten Sicherheitsrichtlinien zu erkennen.

Schritt #2: Schwachstellen und Sicherheitslücken identifizieren

Ein Grundsatz der Cybersicherheit lautet: „Du kannst nicht schützen, was du nicht siehst.“ Frei nach diesem Motto brauchen IT-Teams nicht nur das richtige Mindset und regelmäßige Audits, sondern gründliche Assessments ihrer Netzwerke. Sie können dazu beitragen, Schwachstellen zu ermitteln, die das Netz für Sicherheitsbedrohungen anfällig machen könnten. Typische Schwachstellen sind veraltete Software, Fehlkonfigurationen oder nicht gepatchte Systeme. Wer diese Schwachstellen erkennt, der kann auch proaktiv Maßnahmen ergreifen und Probleme beheben, bevor Cyberkriminelle sie ausnutzen.

Schritt #3: Schwachstellen proaktiv adressieren

Sind Schwachstellen im Netzwerk identifiziert, folgt deren proaktive Behebung. IT-Teams sollten einen systematischen Ansatz entwickeln, um potenzielle Sicherheitslücken zeitnah zu schließen – sei es durch Softwareupdates, Anpassungen der Konfiguration oder Patches. Ein proaktiver Ansatz mindert Risiken und stärkt die Resilienz des Netzwerks.

Schritt #4: Auch das Konfigurationsmanagement beachten

Regelmäßige Prüfungen des Netzwerks sollten weit über das Schließen von Sicherheitslücken hinausgehen und auch das Konfigurationsmanagement umfassen. Durch die Evaluierung der Netzwerkeinstellungen stellen IT-Teams sicher, dass ihre Konfiguration den Best Practices der jeweiligen Branche und den Unternehmensrichtlinien entspricht. Dieser Prozess hilft, unbeabsichtigte Fehlkonfigurationen zu vermeiden, die das Netzwerk instabil machen oder die Sicherheit gefährden könnten.

Schritt #5: Immer einen Schritt voraus sein

Kontinuierliches Monitoring ist ein integraler Bestandteil regelmäßiger Audits und der Schlüssel, um auf Veränderungen schnell reagieren zu können. Die extrem schnelllebige Dynamik von Cyberbedrohungen und technologischen Fortschritten erfordert ständige Wachsamkeit. IT-Teams benötigen daher Tools und Prozesse, die Echtzeiteinblicke in die Netzwerkaktivität bieten und schnelle Reaktionen auf auftretende Probleme ermöglichen.

Schritt #6: Automatisierung nutzen

Da Zeit ein essenzieller Faktor ist, gerade wenn die Stabilität oder Sicherheit eines Netzwerks bedroht ist, müssen sich Unternehmen besser jetzt als später mit dem Thema Automatisierung und KI auseinandersetzen. Entsprechende Auditing-Tools rationalisieren den Prüfprozess und ermöglichen eine gründliche, aber eben auch hocheffiziente Bewertung der Netzwerkintegrität. Sie erleichtern es, Schwachstellen zu identifizieren, die Einhaltung von Sicherheitsrichtlinien zu überprüfen und auch entsprechende Berichte zu erstellen. Automatisierung einzusetzen, spart nicht nur Zeit, sondern gewährleistet überdies ein einheitliches und gründliches Assessment des Netzes. 

Schritt #7: Dokumentationen und Reports nicht vergessen

Zu guter Letzt sollten IT-Teams auch die Dokumentation und das Reporting nicht vergessen. KI-basierte Auditing-Tools können dabei helfen, indem sie automatisch Berichte über Prüfungsergebnisse, getroffene Abhilfemaßnahmen und alle am Netzwerk vorgenommenen Änderungen erstellen. Die so erstellte Dokumentation dient als wertvolle Ressource für zukünftige Audits, Compliance-Prüfungen und Reaktionen auf Vorfälle im Netzwerk.

„Regelmäßige Prüfungen und Bewertungen sind ein Eckpfeiler jeder guten Strategie für das Netzwerkmanagement und verbessern nachhaltig die Resilienz von Netzwerken“, betont Dirk Schuma, Sales Manager EMEA North bei Opengear. „IT-Teams können die gewonnenen Einblicke nutzen, um Schwachstellen zu beheben, Sicherheitslücken zu schließen und ihr Netzwerk mit der optimalen Konfiguration zu betreiben. Mit diesem Fundament fällt es ihnen dann auch leicht, die Herausforderungen einer sich ständig verändernden Netzwerklandschaft zu meistern.“

Der Beitrag wurde ursprünglich hier veröffentlicht …