Kommunikationslösungen stärken die Teams und den Erfolg im Retail

Der Fachkräftemangel ist die drängendste Baustelle im Einzelhandel. Längst hilft hier keine Symptomlinderung mehr. Es bedarf einer umfassenden Modernisierung und Digitalisierung des Arbeitsumfelds. Der Anbieter von Retail-Kommunikationslösungen VoCoVo zeigt fünf Vorteile, die sich Retailer vom Einsatz von Kommunikationstechnologien erwarten können.

Kommunikationslösungen stärken die Teams und den Erfolg im Retail

Trotz professionellem Recruiting und vielen Benefits stehen immer mehr Einzelhändler vor der Herausforderung, offene Arbeitsstellen aus Bewerbermangel über Monate hinweg nicht besetzen zu können. Zudem wird die langfristige Bindung von Fachkräften im Unternehmen stetig herausfordernder. Die Folgen für die Belegschaft sind häufig eine chronische Unterbesetzung mit anhaltend hohem Stressniveau. Um den Hebel langfristig umlegen zu können, müssen Retailer die Attraktivität und Ausstattung ihrer Arbeitsplätze deutlich verbessern. Ein echter Game-Changer ist hierbei der Einsatz von Kommunikationstechnologien, die Mitarbeitende bei ihren Aufgaben wirkungsvoll unterstützen und die internen Abläufe verbessern. 

1. Kundenzentrierte Workflows: Kurzfristige Kundenanfragen, unklare Aufgaben oder das Übernehmen unbekannter Store-Bereiche gehören für viele Mitarbeitende zum Arbeitsalltag. Sie sorgen für Stress und erhöhen die Fehlerrate. Durch den Einsatz von Kommunikationstools lösen Retailer diese Workflow-Unterbrechungen. Mitarbeitende können jederzeit mit ihrem Team, der Store-Leitung und dem Sicherheitsteam kommunizieren und bei Informationslücken nachfragen. Auch die Einsatzplanung lässt sich so schnell an neue Herausforderungen anpassen. 

2. Nahtlose Kommunikation: Walkie-Talkies, aus denen nur ein Rauschen zu vernehmen ist, leere Batterien und laute Durchsagen im gesamten Store – nicht funktionierende Technik ist ein echtes Ärgernis für alle Beteiligten. Mit modernen Kommunikationslösungen gehören diese Negativerfahrungen der Vergangenheit an. Mitarbeitende haben Freude an den intuitiv bedienbaren Devices, mit denen sich die anfallenden Aufgaben schnell kommunizieren lassen. Sie beenden den Kabelsalat und vereinfachen mit einem Knopfdruck die enge Zusammenarbeit.

3. Teamzusammenhalt: Stundenlanges Auffüllen von Regalen oder die Inventur im Lager können bei Einzelhandelsmitarbeitenden das Gefühl auslösen, auf einsamem Posten unterwegs zu sein. Mit smarten Devices können Teammitglieder jederzeit und unkompliziert einen kurzen virtuellen Austausch führen oder um spontane Unterstützung bei ihren Aufgaben bitten. Das sorgt für ein Wir-Gefühl und den nötigen Teamzusammenhalt. 

4. Kundenbeziehung: Eine positive und freundliche Kommunikation zwischen Mitarbeitenden und Verbrauchern ist ein entscheidender Faktor für ein gelungenes Einkaufserlebnis. Mitarbeitende, die hektisch von A nach B gerufen werden oder ihre Arbeit für Kundenanfragen unterbrechen müssen, die sie nicht beantworten können, reagieren oft frustriert. Durch den Einsatz von Kommunikationslösungen, die die Beratung vereinfachen, stellen Retailer sicher, dass Mitarbeitende Zeit und die nötigen Informationen zur Bearbeitung eines Kundenwunsches haben. Das erzeugt auf beiden Seiten eine positive Beratungserfahrung. 

5. Arbeitssicherheit: Eine zerbrochene Flasche, ein Ladendiebstahl oder ein aggressiv auftretender Verbraucher – im Arbeitsalltag können viele kritische Situationen auftreten, in denen es auf ein schnelles und koordiniertes Handeln ankommt. Mitarbeitende, die in solchen Situationen vergeblich auf Hilfe warten, können eine sehr negative Erfahrung machen. Mit intelligenten Kommunikationstechnologien stellen Retailer sicher, dass im Fall der Fälle alle Abläufe routiniert und ungestört funktionieren. Das gibt allen Teammitgliedern ein beruhigendes Gefühl und ist ein zentraler Bestandteil für die Mitarbeitergesundheit. 

„Durch den Einsatz von Kommunikationslösungen schaffen Einzelhändler ein produktives Umfeld für ihre Mitarbeitenden“, erklärt André Flasche, Business Development Manager bei VoCoVo. „Die Technik ermöglicht einen schnellen Flurfunk und vereinfacht die Abstimmung in den Teams. Unnötige Fußwege, Hektik oder Störungen gehören damit der Vergangenheit an. Davon profitieren alle Beteiligten – Einzelhändler, Mitarbeitende und Verbraucher.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die fünf wichtigsten Triebkräfte der KI-Revolution

Das Zeitalter der Künstlichen Intelligenz (KI) ist längst angebrochen, doch es ist kein Selbstläufer. Die KI-Revolution ist vielmehr das folgerichtige Resultat von Entwicklungen, die klaren Linien folgen. Der IT-Dienstleister adesso identifiziert die entscheidenden Faktoren.

Die fünf wichtigsten Triebkräfte der KI-Revolution

Die Technologie der Künstlichen Intelligenz ist in ihrem Potenzial mit der Erfindung der Dampfmaschine oder dem Siegeszug des Internets vergleichbar. Was wir aktuell erleben, ist also nicht weniger als eine epochale Disruption, die die Art, wie Menschen weltweit leben und arbeiten, grundlegend verändern wird. Dafür ist eine ganze Reihe von Faktoren verantwortlich, die sich gegenseitig beeinflussen und verstärken. adesso zeigt die wichtigsten Triebfedern dieser Entwicklung auf:

  1. Der Weg von Digitalisierung und Entmaterialisierung: Streaming statt Schallplatte, Digital Pay statt Bargeld, KI-Assistent statt Berater aus Fleisch und Blut. Wenn wir uns vorstellen, wie viele materielle Produkte alleine durch Smartphone-Apps überflüssig geworden sind, wird klar, dass immer mehr physische Objekte verschwinden und stattdessen digital repräsentiert werden. Zugleich werden diese digitalen Objekte immer stärker vernetzt, etwa im Internet of Things oder im Internet-of-Everything. Der KI-Entwicklung stehen dadurch immer mehr und qualitativ hochwertigere Daten zur Verfügung.
  2. Der Einfluss von Big Data: Verschiedene Quellen wie Sensoren, digitale Prozesse oder soziale Medien erzeugen in Unternehmen Unmengen an Daten – immer häufiger auch in Echtzeit. Sie können sich bei der KI-Nutzung also auf ein großes, umfassendes, aktuelles und schnell wachsendes Reservoir an Daten (Volume) stützen. Neben der reinen Datenmenge ist Big Data definiert durch die hohe Geschwindigkeit der Datenverarbeitung (Velocity), dem Umfang und Format der Datenquellen (Variety), die Genauigkeit und Zuverlässigkeit der Daten (Veracity) und deren Bedeutung für spezifische Anwendungen (Value).
  3. Moore´s Law und das Reiskorn-Phänomen: Das Moore‘sche Gesetz beschreibt, was bei exponentiellem Wachstum aus dem berühmten Reiskorn auf dem ersten Schachbrettfeld wird. Durch einfache Verdoppelung von Feld zu Feld entsteht auf dem 64. Feld eine gigantische Menge von Körnern mit einem Gewicht von 461 Millionen Tonnen. Entsprechend rasend schnell entwickelt sich auch die IT-Technologie und treibt die KI-Entwicklung im selben Tempo mit an – und tut dies weiter. Dieses Wachstum bildet die technische Grundlage für immer leistungsfähigere IT-Architekturen, die wiederum die Basis für die sprunghafte Weiterentwicklung der Künstlichen Intelligenz bereitstellen.
  4. Der Strom der Investitionen: Für die KI-Entwicklung stehen riesige Investitionssummen bereit. Sie gilt als Innovationstreiber Nummer Eins und bringt neue Produkte und Services hervor, die Marktanteile, Machtpositionen und Einflusssphären verschieben werden. Bloomberg Intelligence prognostizierte bereits letztes Jahr ein Wachstum des Umsatzvolumens für Generative AI bis 2032 auf schätzungsweise rund 1,3 Billionen US-Dollar – Tendenz steigend. Allein 280 Milliarden US-Dollar entfallen dabei auf den Software-Markt. Dieser anhaltende Aufstieg wird wirtschaftliche, arbeitsmarktspezifische und geopolitische Dynamiken beeinflussen. Handel und Unternehmen sind dadurch ebenso herausgefordert wie Gesellschaften und Regierungen.
  5. Der Hype Cycle technologischer Innovationen: Mit diesen Triebfedern im Rücken folgt KI dem typischen Hype-Cyle-Muster, den das Marktforschungsunternehmen Gartner definiert hat. Demnach kennzeichnen fünf Phasen die Entwicklung neuer Technologien. Diese umfassen erstens eine Initialphase, die das Interesse für eine neue Technologie weckt; zweitens eine Phase überschäumender Erwartungen; drittens das Tal der Ernüchterung; viertens den Weg der Einsicht mit sinnvoller praktischer Umsetzung und zuletzt die produktive Reife. Nicht alle Technologien folgen dem Weg oder schaffen es bis zur letzten Stufe. Für KI dagegen steht dies außer Frage.

„Der KI-Boom ebnet den Weg für beispiellose Fortschritte und Effizienz in den verschiedensten Sektoren, vom natürlich wirkenden Chatbot bis hin zu Steuerungssystemen kritischer Infrastrukturen“, erklärt Tim Strohschneider, Head of Generative AI bei adesso. „Das Verständnis dafür, wie KI Unternehmen und Organisationen stärken und neue Potenziale freisetzen kann, wird immer mehr zu dem wohl wichtigsten Kompetenz- und Differenzierungsmerkmal – und wird dies für absehbare Zeit auch bleiben.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Das KI-Gesetz der EU ist (bislang) eine verpasste Chance

In den vergangenen Wochen habe ich immer wieder gelesen, das KI-Gesetz der EU sei ein Meilenstein bei der Regulierung Künstlicher Intelligenz und könne als Vorbild für den Rest der Welt dienen. Tatsächlich verfolgen einige Länder wie Brasilien und Kanada ähnliche risikobasierte Ansätze, doch so richtig kann ich die Euphorie nicht nachvollziehen. Europa, das bei KI-Innovationen ohnehin schon hinterherhinkt, verschärft die Spielregeln, statt sich voll darauf zu konzentrieren, Rahmenbedingungen für mehr KI-Innovationen europäischer Firmen zu schaffen und KI-Experten nach Europa zu locken. Ich halte das KI-Gesetz daher noch für eine verpasste Chance, ein starkes europäisches KI-Ökosystem zu schaffen, das ist im globalen Wettbewerb konkurrenzfähig ist.

Das KI-Gesetz der EU ist (bislang) eine verpasste Chance

Natürlich ist es richtig und wichtig, die Rechte der Bürger zu schützen, doch viele Vorgaben stecken bereits in anderen Gesetzen und Richtlinien, etwa zum Datenschutz. Es hätte wohl ausgereicht, diese um ethische Normen und Transparenzpflichten zu ergänzen, damit KI-Start-ups erstmal in Ruhe arbeiten können. Stellen die EU oder einzelne Mitgliedsstaaten dann Fehlentwicklungen fest, können sie immer noch eingreifen – ganz so, wie Südkorea das beispielsweise tut, das einen Ansatz verfolgt, der sich am besten mit „erstmal zulassen, dann nachregulieren“ beschreiben lässt.

Auch den Ansatz der USA, vornehmlich mit Empfehlungen wie einem „AI Bill of Rights“ zu arbeiten und lediglich für Bundesbehörden verpflichtende Vorgaben zu machen, finde ich charmant. Er hat der KI-Entwicklung in den Vereinigten Staaten zumindest nicht geschadet – viele dortige Unternehmen sind führend in Bereichen wie prädiktiver und generativer KI. Mein Eindruck ist, dass die Regulierung der EU vor allem darauf ausgelegt ist, diese Marktführer aus den USA und auch die aus China einzubremsen. Das ist ein sehr defensiver Ansatz, der die KI-Entwicklung in Europa und global behindern kann. Der offensive Ansatz wäre gewesen, die Unterstützung und Förderung von europäischen Firmen in den Vordergrund zu stellen, damit diese bei der nächsten KI-Generation – etwa Quanten-KI, Distributed KI oder Kausaler KI – in der ersten Liga mitspielen können.

Ohnehin bleibt abzuwarten, wie zukunftsfähig die neuen Regeln sind, denn KI entwickelt sich so schnell weiter, dass die Gefahr besteht, immer wieder nachbessern zu müssen. Einen ersten Vorgeschmack darauf lieferte in den vergangenen Monaten bereits generative KI, die einen solch rasanten Sprung machte, dass die EU ihre risikobasierten Vorgaben eilig um einige Anforderungen für die zugrunde liegenden Basismodelle ergänzen musste. Wie diese konkret aussehen, soll in den nächsten Monaten das neue KI-Büro der EU ausarbeiten.

Die Herausforderungen des EU-KI-Büros: Balance zwischen Regulierung und Innovation

Überhaupt kommen dem KI-Büro wichtige Aufgaben zu, die über den Erfolg oder Misserfolg des KI-Gesetzes entscheiden. So soll es als zentrale Instanz beispielsweise für eine einheitliche Anwendung und Durchsetzung der Regeln sorgen – und damit auch sicherstellen, dass kein Flickenteppich entsteht, weil die einzelnen Mitgliedsstaaten das in vielen Punkten relativ vage Gesetz unterschiedlich auslegen und umsetzen. Das ist löblich, und es ist der EU zu wünschen, dass sie ausreichend Techniker, Entwickler und Ethiker mit KI-Know-how für dieses Vorhaben findet. Auch um tatsächlich alle möglichen Verstöße untersuchen und sanktionieren zu können – und sich nicht nur auf einige prominente Fälle zu beschränken, während zahllose kleinere Apps mit KI unter dem Radar fliegen. Angesichts der Vielzahl und Vielfalt an KI-Anwendungen und Geräten, in denen KI-Funktionen stecken, ist das eine wahre Mammutaufgabe. 

Gelingt es dem KI-Büro der EU einen nicht zu eng gesteckten Regulierungsrahmen zu setzen und die hiesige KI-Entwicklung möglichst wenig einzubremsen, könnte der Fokus anschließend wieder darauf gerichtet werden, Europa als Standort für die Erforschung, Entwicklung und Anwendung von KI zu stärken. Damit europäische KI-Innovationen entstehen und gedeihen können und wir mehr technologische Souveränität bei dieser Zukunftstechnologie erhalten.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Wie 5G und KI den Einzelhandel neu definieren

Mit Virtual Reality, dem Internet der Dinge oder Robotik kann der Einzelhandel ein besonderes Einkaufserlebnis schaffen und gleichzeitig die Prozesse hinter den Kulissen optimieren. Damit diese Technologien ihr volles Potenzial entfalten, müssen intelligente Entscheidungen entlang der gesamten Wertschöpfungskette in Echtzeit und auf Basis realer Daten getroffen werden. Dell Technologies zeigt, wo und wie die Kombination von 5G und Künstlicher Intelligenz den Einzelhandel revolutionieren wird.

Wie 5G und KI den Einzelhandel neu definieren

Der Einzelhandel hat sich in den letzten Jahrzehnten rasant verändert. Vor allem das heute alltägliche Online-Shopping hat die Erwartungen der Kunden deutlich gesteigert: Von zu Hause aus können sie bequem Preise vergleichen, Angebote durchstöbern und Produktbewertungen lesen. Trotz dieser Vorteile bleibt das physische Einkaufserlebnis für viele unverzichtbar. Einzelhändler, die sich von der Masse abheben und Kunden an sich binden wollen, müssen jedoch eine außergewöhnliche Customer Experience bieten. Zudem sind Omnichannel-Strategien unerlässlich, die eine nahtlose Verbindung zwischen Webshop und stationärem Geschäft schaffen. Moderne Technologien spielen in dieser neuen Einkaufswelt eine zentrale Rolle. Mithilfe des aktuellen Mobilfunkstandards 5G und Künstlicher Intelligenz können Einzelhändler ihre Prozesse in den unterschiedlichsten Bereichen optimieren.

  • Eine außergewöhnliches Shop-Erlebnis. Ein digitaler Spiegel in Kombination mit einem 5G-Netz ermöglicht den Einsatz von Augmented-Reality- und Virtual-Reality-Lösungen im Geschäft. Kunden haben so die Möglichkeit, ihr neues Outfit mit den unterschiedlichsten Accessoires zu visualisieren. Neben der virtuellen Anprobe tragen smarte Etiketten, die Geschichten und Produktinformationen zu einzelnen Artikeln liefern, zu einer besonderen Einkaufsatmosphäre bei. Vor dem Hintergrund, dass die meisten Kaufentscheidungen am PoS (Point of Sale) getroffen werden, kann wiederum Digital Signage dabei helfen, ein bestimmtes Produkt in den Vordergrund zu rücken. Diese digitale Beschilderung ist im Handel weit verbreitet, kann aber erst mit 5G zielgruppengenau und in Echtzeit verkaufsfördernde Bilder, Videos und Texte auf den unterschiedlichsten Displays einblenden. 
  • Komplett personalisierte Kundeninteraktionen. Während im Onlinehandel die individuellen Vorlieben klar nachvollziehbar sind, verlaufen die Kundenspuren im stationären Geschäft meist im Sand. Die Branche kann also nur schwer sinnvolle Maßnahmen für das Produktmanagement oder Marketing ableiten. Hier setzt die KI-Disziplin Computer Vision an. Mit Hilfe von Kameras werden die Laufwege der Kunden und ihr Kaufverhalten verfolgt. So lassen sich nicht nur die besten Orte für Werbung oder Sonderangebote identifizieren – werden die aufgenommenen Bilddaten dank 5G in Echtzeit ausgewertet, sind personalisierte Produktempfehlungen, Angebote und Werbeaktionen möglich, die gezielt auf die Bedürfnisse des einzelnen Kunden zugeschnitten sind. Diese werden beispielsweise über eine App auf dem Smartphone angezeigt, sodass er die Empfehlungen noch vor dem Verlassen des Geschäfts erhält. 
  • Optimierte Prozesse in der Filiale. 5G- und KI-Technologien sorgen auch für reibungslose Abläufe im Einzelhandel – Kunden können beispielsweise Chatbots nutzen, um Antworten auf die gängigsten Fragen zu erhalten. Die lästige Suche nach dem richtigen Verkäufer fällt damit weg. Eine App wiederum kann helfen, Artikel im Laden zu finden. Das kann sogar so weit gehen, dass für Waren, die sich bereits im Online-Einkaufswagen des Kunden befinden, die Platzierung vor Ort angezeigt wird. Aber auch Umkleidekabinen können über die App reserviert werden, um Wartezeiten zu verkürzen. Dank der besseren Konnektivität durch 5G sind die Einzelhändler darüber hinaus in der Lage, verschiedene Self-Checkout-Optionen anzubieten. Eine Möglichkeit ist die Einbindung mobiler FinTech-Anbieter, die die Bezahlung direkt abwickeln und sogar einen Kredit in Echtzeit genehmigen.
  • Reibungsloser Ablauf im Hintergrund. Durch den Einsatz von 5G, IoT und KI können Einzelhändler zu guter Letzt Aufgaben wie die Bestandsprüfung und -verwaltung automatisieren. Nachdem der Kunde ein Produkt in den Einkaufswagen gelegt hat, lösen intelligente Regalsysteme selbstständig eine Nachbestellung aus. So ist sichergestellt, dass schnell drehende Artikel immer vorrätig sind. Gleichzeitig werden Fehl- und Überbestände vermieden. Im Lager wird die zeitaufwändige manuelle Bestandsaufnahme durch Computer-Vision-Scans von Drohnen oder Robotern erheblich vereinfacht. Intelligente Technologien helfen aber auch, die Lagerhaltung durch automatisiertes Kommissionieren, Verpacken und Versenden zu optimieren. Öffentliche 5G-Netze ermöglichen zudem das Tracking von Lieferfahrzeugen in Echtzeit, und an der Laderampe können die Be- und Entladezeiten durch Positionsbestimmung im Zentimeterbereich auf ein Minimum reduziert werden.

„Ein erfolgreicher Einzelhändler muss heute auf mehreren Kanälen präsent sein, denn die Kunden erwarten ein durchgängiges Shopping-Erlebnis. Während online die meisten ihre Hausaufgaben erledigt haben, besteht offline, also stationär, noch großer Nachholbedarf“, erklärt Chris Kramar, Managing Director OEM Solutions DACH bei Dell Technologies. „Fakt ist: 5G schreibt die Regeln im Einzelhandel neu. Der aktuelle Mobilfunkstandard ist weit mehr als nur schnelles Internet. Erst 5G in Kombination mit Künstlicher Intelligenz ermöglicht Use Cases, die für ein einzigartiges Kundenerlebnis sorgen, die Abläufe hinter den Kulissen optimieren und so die Profitabilität steigern. In Zukunft werden immer mehr Geschäfte mithilfe moderner Technologien alle Sinne ansprechen und so die Customer Experience auf ein völlig neues Level heben.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Beeinträchtigte Transportwege und steigende Frachtkosten drücken erneut auf die Margen der Hersteller

Die wirtschaftlichen Rahmenbedingungen der letzten Jahre waren geprägt von einer hohen Inflation, die in Deutschland mit 10,4 % den höchsten Stand seit der Wiedervereinigung erreichte. Zwar sah es zuletzt so aus, als ob diese Entwicklung gestoppt sei. Doch jetzt sorgen steigende Frachtkosten und Unterbrechungen beim multimodalen Güter- und Warenverkehr erneut für Inflationsdruck, welcher zu geringeren Gewinnspannen bei den Unternehmen führt. Hendrik Hackmann, Director Industrial Manufacturing & Automotive Central Europe bei Infor kommentiert die aktuelle Situation:

Beeinträchtigte Transportwege und steigende Frachtkosten drücken erneut auf die Margen der Hersteller

“Seit dem 1. Juli müssen auch Fahrzeuge im Güterkraftverkehr mit einem Gesamtgewicht von mehr als 3,5 Tonnen eine Mautgebühr entrichten. Die genaue Höhe hängt von einer Reihe von Faktoren ab, wie Gewicht und Schadstoffklasse des Fahrzeugs, Höhe der Kohlenstoffemissionen und Länge der zurückgelegten Strecke – Variablen, die zu einer größeren Unsicherheit und Komplexität bei der Finanzplanung der Logistikkosten Unternehmen führen. 

Gleichzeitig startete die Deutsche Bahn ein Programm zur Erneuerung der Schieneninfrastruktur: Bis 2030 werden insgesamt 40 wichtige Schienenabschnitte monatelang gesperrt. Davon betroffen sind auch wichtige Hauptverkehrsadern des deutschen Bahnnetzes, was sich auch auf den Schienengüterverkehr in Deutschland und das benachbarte Ausland auswirken wird. In der Folge müssen Unternehmen für den Transport von Waren und Rohstoffen zum Teil längere, zeitaufwendige Umwege in Kauf nehmen, was die Kosten zusätzlich nach oben treibt. Ein Umstieg auf den Straßentransport ist aufgrund der neuen Mautpflicht finanziell oft keine Alternative. 

Infolgedessen werden sich deutsche Hersteller auf Verzögerungen bei der Anlieferung von Rohstoffen und Zulieferprodukten einstellen müssen, was zu volatilen Frachtraten führen kann. Diese Entwicklung setzt deutsche Unternehmen, die ohnehin schon mit der schleppenden Erholung der wirtschaftlichen Lage zu kämpfen haben, weiter unter Druck.“

Hendrik Hackmann, Director Industrial Manufacturing & Automotive Central Europe bei Infor kommentiert weiter:

„In unserer eng vernetzten Geschäftswelt wirken sich erhöhte Kosten und die Beeinträchtigungen der Transportwege nicht nur auf einzelne Unternehmen, sondern auf ganze Lieferketten aus. Zwar haben Hersteller während der Pandemie gelernt, Lieferketten mit einem gewissen Maß an Spielraum und Resilienz auszustatten. Doch nach wie vor bestehen bestimmte Prinzipien im operativen Geschäft, wie z.B. ein möglichst geringer Lagerbestand oder die Just-in-time Anlieferung von Zulieferprodukten- und -materialien. Dieser eingefahrene Modus Operandi wird erneut unter Druck geraten, wenn sich u.a. Mautpflicht und DB-Streckensperrungen hierzulande bemerkbar machen. 

Um diese Herausforderungen zu bewältigen, gibt es sowohl kurzfristige Schritte als auch längerfristige, operative Maßnahmen, die Unternehmen umsetzen können. Ein Beispiel für eine kurzfristig umsetzbare Maßnahme ist die Automatisierung aller Aufgaben rund um Kostenberechnung, Routenplanung und Kostenminimierung beim Transport. Damit lässt sich stets auch ein aktueller Überblick über die Kosten der LKW-Mautgebühren erhalten. Die IT-Systeme der Unternehmen sollten diese Informationen automatisch erfassen und dann bei der Optimierung der weiteren Transportkette berücksichtigen.

Langfristig gesehen gibt es drei Hauptfaktoren, mit denen Unternehmen Beeinträchtigungen im Logistikbereich vorbeugen und den Aufwärtsdruck bei den Transportkosten eindämmen können: 

  1. Transparenz der gesamten Lieferkette: In der gleichen Weise, wie die Lieferketten von Zulieferern, Partnern und Herstellern miteinander verknüpft sind, müssen auch deren IT-Systeme miteinander kommunizieren. So lässt sich der Weg von Komponenten und Materialien über den gesamten Produktionsprozess hinweg verfolgen. Unabhängig davon, welche Technologien ein Unternehmen einsetzt, sollten sowohl die Mitarbeiter in der Produktion als auch die Führungsteams Zugang zu Echtzeitdaten von Partnern und Zulieferern haben. So wird sichergestellt, dass alle Zugriff auf die notwendigen Kennzahlen für die Produktion und Verfügbarkeit von Komponenten sowie über mögliche Lieferverzögerungen haben. Je früher Hersteller von unerwarteten Beeinträchtigungen oder Kostenerhöhungen erfahren, desto schneller lassen sich Alternativen für Lieferanten, Transportarten und alternative Routen finden.“
  2. Proaktive Szenarienmodellierung durch den Einsatz von maschinellem Lernen (ML): Unternehmen, die vorab mit Hilfe von Modellen für unterschiedliche Szenarien planen, können z.B. eine gesperrte Bahnstrecke kostengünstiger und mit weniger Zeitverlust umfahren. Mit entsprechenden Softwareanwendungen lassen sich die Auswirkungen von Preisänderungen, Streckensperrungen und einem Wechsel zu alternativen Transportmitteln monetär besser bewerten. Das Ergebnis sind flexiblere und damit resilientere Lieferketten.
  3. KI-gestützte Routenoptimierung: Diese Anwendungen unterstützen bei der Ermittlung der effektivsten und kostengünstigsten Transportroute sowie bei der richtigen Wahl der Transportmittel.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

„Do it yourself“ war gestern: Fünf Gründe für Managed SOC

Muss man denn alles selber machen? In Sachen Cybersecurity war das bis vor Kurzem noch so. Heute spricht allerdings viel dafür, Teile der IT-Sicherheit an externe Dienstleister auszulagern. Ontinue, der führende Experte für Managed Extended Detection and Response (MXDR), nennt die fünf wichtigsten Gründe.

„Do it yourself“ war gestern: Fünf Gründe für Managed SOC

Cyberkriminelle haben es insbesondere auf sensible Daten von Unternehmen abgesehen, denn diese zu verschlüsseln oder zu stehlen, ist finanziell extrem lukrativ. Daher entwickeln sie täglich neue und ausgefeiltere Methoden, um IT-Sicherheitsvorkehrungen zu durchbrechen. Traditionelle und rein reaktive Ansätze sind beim Thema Cybersecurity daher nicht mehr zeitgemäß: Die eskalierende Komplexität der Bedrohungslage erfordert eine proaktive Herangehensweise, deren praktische Umsetzung typischerweise durch ein Security Operations Center (SOC), bestehend aus zahlreichen Cybersecurity-Experten, erfolgt. Ein solches in Eigenregie aufzubauen und über Jahre hinweg aufrechtzuerhalten, ist allerdings nicht nur sehr kostspielig und extrem mühsam, sondern in Zeiten des anhaltenden Fachkräftemangels zunehmend unrealistisch. Eine sinnvolle Alternative ist es, ein Managed SOC, also einen externen Dienstleister zu beauftragen. Dieser Ansatz bietet folgenden Vorteile:

  1. Einfacher Zugang zu Expertenwissen: Die Zeitressourcen von IT-Teams in Unternehmen sind stark begrenzt. Das liegt an der oft eher kleinen Anzahl an Mitarbeitenden im Vergleich zur Aufgabenvielfalt. Es ist ihnen daher in der Regel nicht möglich, neben alltäglichen Aufgaben zusätzliche Themen wie Threat Hunting, Incident-Management und andere SOC-spezifische Tasks gewissenhaft abzuarbeiten. In manchen Fällen fehlt auch das IT-Security-Fachwissen, das einer speziellen Ausbildung bedarf. Ein Managed SOC bietet einen einfachen Zugang zu diesen speziellen Fähigkeiten und mehr: Durch ihren Einblick in andere Unternehmen sind die Cybersecurity-Spezialisten eines Managed-SOC-Anbieters oft in der Lage, Bedrohungen früher zu erkennen und effizienter zu bekämpfen, Sicherheitslücken zu antizipieren und entsprechende Präventivmaßnahmen zu ergreifen beziehungsweise der internen IT-Abteilung passende Empfehlungen zu geben.
  2. Hohe Kosteneffizienz: Ein eigenes SOC aufzubauen, ist extrem kostenintensiv – selbst wenn das nötige Personal auf dem Arbeitsmarkt verfügbar wäre. Um alle Aufgaben eines effektiven Security-Operations-Teams zu erfüllen, benötigen selbst mittelständische Unternehmen Schätzungen zufolge mehr als zehn Cybersecurity-Spezialisten. Ein Managed SOC umfasst diese Experten, ohne dass sie fest angestellt werden müssen. Auf diese Weise können selbst kleine und mittelständische Unternehmen ihre IT-Abteilung mit einem hohen Maß an Sicherheitsexpertise ausstatten, ohne sich in Unkosten zu stürzen.
  3. Monitoring rund um die Uhr: Für höchste Sicherheit reichen selbst modernste Cybersecurity-Tools und -Technologien wie EDR (Endpoint Detection and Response) oder SIEM (Security Information and Event Management) nicht aus – spätestens bei einem kritischen Incident braucht es Personal, das die Sachlage analysiert und elaborierte Gegenmaßnahmen einleitet. Doch gerade in kleinen und mittleren Unternehmen, aber auch zuweilen in Konzernen haben IT-Abteilungen Geschäftszeiten, außerhalb derer die Mitarbeitenden nur schwer oder gar nicht erreichbar sind. Angreifer hingegen kennen weder Feierabend noch Wochenende. Professionelle Managed SOC stellen deshalb eine Betreuung der Sicherheitsinfrastruktur und deren Überwachung rund um die Uhr – 24/7 – bereit.
  4. Müheloser Einsatz von Cutting-Edge-Technologie: Die Einführung innovativer Sicherheitstools ist nicht trivial, aber nötig – gerade in Zeiten, in denen Cyberkriminelle selbst Technologien wie KI einsetzen, um erfolgreiche Hacks durchzuführen. Managed-SOC-Anbieter haben viel bessere Möglichkeiten als Unternehmen selbst, um neue Tools und Technologien zu erproben und einzusetzen, da dies ein Teil ihres Kerngeschäfts ist. Auf diese Weise erhöhen sie die Sicherheit und die Verteidigungskapazitäten ihrer Klienten.
  5. Nahtlose Skalierbarkeit: Die IT-Sicherheit entsprechend der Unternehmensgröße zu skalieren und gleichzeitig finanzierbar zu halten, ist gerade bei schnell wachsenden Unternehmen eine große Herausforderung. Mit einem Managed SOC müssen sie sich jedoch keine Sorgen machen, denn sie können die benötigten Kapazitäten und Features nahtlos und maßgeschneidert auf ihren Bedarf abstimmen. So zahlen Unternehmen nur für das, was sie wirklich brauchen.

„Viele Unternehmen haben Angst, ihre IT-Sicherheit an externe Dienstleister auszulagern – sie befürchten einen Kontrollverlust“, erklärt Jochen Koehler, VP EMEA Sales bei Ontinue. „Deshalb ist es wichtig klarzustellen, dass Managed-SOC-Anbieter nicht in ihrem Schatten agieren, sondern quasi das bestehende interne IT-Team erweitern. Seriöse Service-Provider zeichnen sich durch eine klare Kommunikation und absolute Transparenz aus und sorgen so dafür, dass die Nutzer ihres Angebots stets über alles informiert sind.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die Zukunft der personalisierten Gesundheitsversorgung

Die Präzisionsmedizin, auch als personalisierte Medizin bekannt, zielt darauf ab, medizinische Behandlungen auf die individuellen Bedürfnisse und genetischen Profile von Patienten abzustimmen. Künstliche Intelligenz spielt dabei eine immer wichtigere Rolle, indem sie die notwendigen Fähigkeiten zur Analyse großer Datenmengen und zur Erkennung komplexer Muster mitbringt. Dell Technologies beantwortet die wichtigsten Fragen rund um das Thema. 

Die Zukunft der personalisierten Gesundheitsversorgung

Lange Zeit verfolgte die Medizin einen Gold-Standard in der Patientenversorgung. Darunter versteht man ein therapeutisches Verfahren, das bei einer bestimmten Diagnose als die bewährteste und beste Lösung gilt. Personalisierte Medizin, die deutlich bessere Behandlungsmethoden verspricht, galt aufgrund fehlender Technologien als nicht umsetzbar und vor allem nicht bezahlbar. Angesichts der rasanten Fortschritte in der Künstlichen Intelligenz und der wachsenden Menge an Gesundheitsdaten rückt eine individuelle, auf das genetische Profil abgestimmte Behandlung für immer mehr Patienten in greifbare Nähe.

Was bringt die Präzisionsmedizin?

Eines der prominentesten Anwendungsgebiete ist die Krebstherapie. Sogenannte Biomarker können wichtige Hinweise auf spezifische Tumoreigenschaften geben und ein erhöhtes Risiko anzeigen. So weiß die Medizin heute, dass Frauen mit einer Mutation des BRCA-Gens mit hoher Wahrscheinlichkeit an Brust- oder Eierstockkrebs erkranken. KI kann die genomischen Daten einer Patientin analysieren und so bestimmte molekulare Signaturen wie die BRCA-Mutation schnell erkennen. Eine frühzeitige Diagnose ermöglicht präventive Maßnahmen und erhöht damit die Heilungschancen. Ein weiteres wichtiges Einsatzgebiet ist die individualisierte Medikamentenentwicklung. Auch hier hilft die Präzisionsmedizin: Mithilfe von Gentechnik und KI lassen sich in kürzester Zeit individuelle Therapeutika entwickeln und deren Wirkung vorhersagen. So können Arzneimittel auf einzelne Patienten zugeschnitten werden, was die Wirksamkeit der Behandlung erhöht und Nebenwirkungen reduziert.

Welche Rolle spielen Big Data und Künstliche Intelligenz in der Präzisionsmedizin?

Für eine personalisierte Therapie in der Medizin sind mehrere Komponenten notwendig, die eng miteinander verzahnt sein müssen. Eine zentrale Rolle spielt das Sammeln, Aufbereiten und Interpretieren der Daten. Hier kommt zunächst Big Data ins Spiel. Nur so lassen sich die riesigen Datenmengen speichern und auswerten, die bis vor kurzem noch zu groß, zu schnelllebig oder zu heterogen waren, um sie zu verarbeiten. Die Dateninterpretation wiederum erfordert Künstliche Intelligenz. KI ermöglicht es, in den verfügbaren Informationen quasi in Echtzeit Muster zu erkennen, nach denen sonst mühsam und langwierig gesucht werden müsste, um daraus Erkenntnisse abzuleiten. In der Präzisionsmedizin wird so beispielsweise die umfassende Auswertung genomischer Datensätze Realität, mit deren Hilfe Ärzte dann zielgerichtete Therapien anwenden können.

Welche Herausforderungen lauern bei der Umsetzung?

Wenn mit sensiblen Informationen wie Patientendaten gearbeitet wird, steigt die Notwendigkeit einer hohen Datenqualität, klinischer Governance und ethischer Aufsicht. Es muss gewährleistet sein, dass die KI-Lösungen stets zuverlässig, sicher und zum Nutzen der Patienten arbeiten. Darüber hinaus ist die Präzisionsmedizin auf saubere Daten angewiesen, um jegliche Verzerrungen oder Verfälschungen der datengestützten Ergebnisse zu vermeiden. Kliniken und Forschungseinrichtungen können aber nicht einfach die Daten möglichst vieler Institutionen zusammenführen, um genügend Material für das Modelltraining zu haben. Dies verbietet der Gesetzgeber aus Datenschutzgründen. Zudem würde das Kopieren und Übertragen die IT-Infrastruktur vor große Herausforderungen stellen. Eine Lösung ist das sogenannte Schwarmlernen, bei dem verschiedene Institutionen zu einem Netzwerk verbunden werden, während das KI-Training nach wie vor auf den Servern der einzelnen Kliniken läuft. Die besten Ergebnisse werden dann für die nächste Lernrunde an alle geschickt. So wird der gesamte Schwarm immer besser, und gleichzeitig bleiben die Daten in den jeweiligen Institutionen. 

KI-gestützte Präzisionsmedizin: Revolution im Gesundheitswesen mit Herausforderungen

„Technologie hat das Potenzial, das Leben jedes Einzelnen zu verbessern – vor allem, wenn sie dabei hilft, Krankheiten früher zu diagnostizieren, besser zu behandeln und aktiv vorzubeugen. Mithilfe von Big Data und Künstlicher Intelligenz ermöglicht die Präzisionsmedizin eine Versorgung, die ganz auf die individuellen Bedürfnisse des Patienten zugeschnitten ist, und verspricht damit eine Revolution im Gesundheitswesen. Unternehmen, die in diesem Bereich tätig sind, müssen jedoch sorgfältig planen und strategisch vorgehen, um die damit verbundenen Herausforderungen zu meistern und das Potenzial der KI voll auszuschöpfen“, betont Dr.-Ing. Marten Neubauer, Field Director Healthcare bei Dell Technologies.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Innovation im Qualitätsmanagement: Wie KI die 8D-Methode revolutioniert

In verschiedenen Anwendungsbereichen unterstützt künstliche Intelligenz menschliche Fähigkeiten maßgeblich. Besonders bei Routineaufgaben wie Datenanalysen, Mustererkennung und mehr greift sie Anwendenden unter die Arme. Aber sie spielt mittlerweile auch eine immer bedeutendere Rolle im Qualitätsmanagement. KI-gestützte CAQ-Systeme werden zum Schlüssel für die Steigerung von Effizienz, Präzision und der Geschwindigkeit in 8D-Berichten. Wie diese Innovation Problemlösungen und effiziente Produktverbesserungen noch einfacher gestaltet und welche weiteren Vorteile sie bietet, erklärt Andreas Dangl, Geschäftsführer von Fabasoft Approve.  

Innovation im Qualitätsmanagement: Wie KI die 8D-Methode revolutioniert 

Der 8D-Prozess ist ein teamorientierter, produktbezogener Ansatz zur Lösung von Problemen, die während der Produktion innerhalb eines Unternehmens oder zwischen Lieferanten und Kunden auftreten. Damit gelingt es in acht Schritten, Fehlerursachen zu identifizieren und dauerhaft zu beseitigen. Während hoch regulierte Prozesse viel Fachwissen von Qualitätsmanager:innen erfordern, ergänzt die KI-gestützte 8D-Methode den traditionellen Ablauf durch den Einsatz moderner KI-Technologien und sorgt so für effizientere und präzisere Ergebnisse. Dabei unterstützt die KI den Prozess mit Vorschlägen – die endgültigen Entscheidungen treffen immer Menschen. 

Einige Einsatzmöglichkeiten der KI im 8D-Prozess sind: 

  • Risikobeurteilung: KI analysiert vergangene Projekte, um Risiken zu bewerten und die Notwendigkeit eines 8D-Prozesses zu bestimmen.
  • Teambildung (D1): KI schlägt, basierend auf früheren Projekten, die am besten qualifizierten Expert:innen für den 8D-Prozess vor.
  • Problembeschreibung (D2): KI klassifiziert automatisch Defekte und erstellt eine detaillierte Problembeschreibung.
  • Sofortmaßnahmen (D3): KI liefert Vorschläge für sofortige Maßnahmen zur Schadensbegrenzung.
  • Fehlerursachenanalyse (D4): KI analysiert sämtliche Produktionsdaten, um Muster und Ursachen zu identifizieren und schlägt passende Analyseverfahren vor.
  • Korrekturmaßnahmenplanung (D5): KI prognostiziert effektive Maßnahmen zur Fehlerbehebung und unterstützt die Planung.
  • Korrekturmaßnahmeneinführung (D6): KI identifiziert potenzielle Probleme und informiert über die Implementierung von Korrekturmaßnahmen.
  • Fehlerverhinderung (D7): KI schlägt Präventionsmaßnahmen vor und unterstützt die Anpassung der Fehlermöglichkeits- und Einflussanalyse (FMEA).
  • Problemlösungsprozessabschluss (D8): KI leitet Erkenntnisse aus den Maßnahmen ab, die für zukünftige Projekte genutzt werden können.

Die Bedeutung eines KI-gestützten CAQ-Systems 

Die 8D-Methode zeigt ihr volles Potenzial, wenn die damit verbundenen Daten durch ein werksübergreifendes, KI-gestütztes CAQ-System wie Approve on Fabasoft PROCECO digitalisiert wurden. Ein solches System digitalisiert qualitätsrelevante Prozesse entlang der gesamten Wertschöpfungskette und ermöglicht die schnelle Einbindung interner und externer Beteiligter wie Lieferanten oder Kunden. Dies führt zu einem vollautomatisierten, ortsunabhängigen Reklamationsmanagement, das die Vorteile der KI voll ausschöpft und stets nachvollziehbar bleibt. 

Die Schlüsselrolle von KI im Qualitätsmanagement 

In der heutigen digitalen Welt erfordert das Qualitätsmanagement Ende-zu-Ende-Prozesse, die alle Schritte von der ersten Anfrage bis zur finalen Lieferung umfassen und eine nahtlose Integration aller Beteiligten anstreben. Ein KI-unterstütztes Computer-Aided Quality System ermöglicht es, qualitätsrelevante Prozesse im Unternehmen erheblich zu verbessern, Fehler schnell zu beheben und deren Wiederholung dauerhaft zu verhindern. 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Wie Data Mining in vier Schritten die Geheimnisse von Datenmassen aufdeckt

Wenn Daten das Öl des 21. Jahrhunderts sind, sitzen die meisten Unternehmen auf riesigen Vorkommen, die sie allein nicht mehr fördern können. Um aus den wachsenden Datenmassen wirklich wertvolle Erkenntnisse zu gewinnen, brauchen sie effiziente Analysen – wie Data Mining. Couchbase, Anbieter einer Cloud-Datenbank-Plattform, zeigt, wie das Verfahren die wirklich entscheidenden Insights liefert.

Wie Data Mining in vier Schritten die Geheimnisse von Datenmassen aufdeckt

Data Mining fasst als Oberbegriff verschiedene Methoden, statistische Prinzipien und Algorithmen zusammen, um Muster und Trends in großen Datenmengen zu erkennen. Diese spezielle Art der Datenanalyse hilft Unternehmen, komplexe Sachverhalte besser zu verstehen, fundierte Entscheidungen zu treffen, Vorhersagen zu machen oder Empfehlungen auszusprechen – zum Beispiel in Online-Shops, die aufgrund der gekauften Waren ähnliche Produkte vorschlagen. Im Kern umfasst das Verfahren vier grundlegende Schritte.

1. Daten sammeln und aufbereiten

In einem ersten Schritt werden strukturierte und unstrukturierte Daten aus verschiedenen Quellen wie Datenbanken, Sensoren, dem Internet oder Dokumenten zusammengeführt. Um einen vollständigen und konsistenten Datenpool zu erhalten, müssen die gesammelten Daten anschließend bereinigt werden, was etwa das Entfernen von Duplikaten oder das Ergänzen von fehlenden Werten umfasst. 

2. Daten transformieren

Im nächsten Schritt werden die zuvor gesammelten Rohdaten in ein für die Analyse geeignetes Format gebracht, das als Grundlage für das spätere Data Mining dient. Dazu gehört etwa die Skalierung der Daten auf einen gemeinsamen Wertebereich, die Umwandlung in eine standardisierte Form und die Erzeugung neuer Features, die bessere Einblicke und Ergebnisse ermöglichen.

3. Data Mining

Beim eigentlichen Data Mining kommen Algorithmen und Analysetechniken zum Einsatz, um Muster und Beziehungen in den aufbereiteten Daten zu entdecken. Gängige Techniken sind dabei etwa die Klassifikation, also die Einteilung der Daten in vordefinierte Kategorien, und das Clustering, das ähnliche Daten in Gruppen zusammenfasst. Aber auch das Lernen von Assoziationsregeln, die Vorhersage von Werten auf Basis des Inputs und die Anomalie-Erkennung kommen in diesem Schritt zum Tragen. 

4. Bewertung und Visualisierung

Abschließend werden entdeckte Muster hinsichtlich ihrer Aussagekraft und Nützlichkeit bewertet. Für eine optimale Präsentation der Ergebnisse eignen sich neben schriftlichen Berichten besonders Diagramme oder Dashboards, um Entscheidungsträgern die Interpretation und Nutzung der oft komplexen Ergebnisse zu erleichtern.

KI und Data Mining: Das volle Potenzial leistungsfähiger Datenmanagement-Plattformen entfalten

„Data Mining hat bereits in Zeiten von Big Data immer mehr an Bedeutung gewonnen, mit neuen KI-Funktionen zeigt sich allerdings erst das gesamte Potenzial“, erklärt Gregor Bauer, Manager Solutions Engineering CEUR bei Couchbase. „Die Grundlage zur Gewinnung wertvoller Insights sind daher leistungsfähige Datenmanagement-Plattformen, die Künstliche Intelligenz, Menschen und Daten zusammenbringen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Datenklassifizierungsmethoden für Data Governance

Wer sich mit Data Governance und Cybersecurity-Risikomanagement beschäftigt, kommt um eine Klassifizierung seiner Daten nicht herum. Die Einteilung in unterschiedliche Sicherheits-/Risikolevel erleichtert es später deutlich, Daten sinnvoll zu verwalten, den Zugriff auf sie zu steuern und damit die Unternehmenssicherheit als Ganzes zu erhöhen.

Datenklassifizierungsmethoden für Data Governance

Durch die Nichteinhaltung der Vertraulichkeitsrichtlinien kann ein Unternehmen seine vertrauenswürdigen Daten durch einen einfachen menschlichen Fehler oder ein Versehen unerwünschten Besuchern aussetzen. Neben den Gesichtspunkten der Governance und der Verfügbarkeit sorgen ordnungsgemäße Datenklassifizierungsrichtlinien für Sicherheit und kohärente Datenlebenszyklen. Sie sind auch ein guter Weg, um zu beweisen, dass Ihr Unternehmen die Compliance-Standards (z. B. GDPR) einhält, um Vertrauen und Integrität zu fördern.

Drei Risikostufen

Zur Klassifizierung von Daten werden diese zunächst anhand von Typ, Inhalt und weiteren Metainformationen in Kategorien eingeteilt. Diese Kategorien helfen, das geeignete Maß an Kontrollen für Vertraulichkeit, Integrität und Verfügbarkeit der Daten zu bestimmen, basierend auf den potenziellen Folgen eines Datenverlusts für die Organisation. Es geht darum, wie sich der Verlust oder Missbrauch von Daten auf das Vertrauen und den Ruf des Unternehmens auswirkt. 

Für die Klassifizierung von Unternehmensdaten werden drei Risikostufen verwendet: hohes, mittleres und geringes/kein Risiko. Vertrauliche Daten unterliegen einem hohen Risiko und können bei unsachgemäßer Kontrolle großen Schaden verursachen, beispielsweise Finanzinformationen, IP-Adressen oder Authentifizierungsdaten. Sensible Daten (mittleres Risiko) sind für den internen Gebrauch bestimmt und ihre Offenlegung wäre zwar nicht katastrophal, aber dennoch unerwünscht. Beispiele sind Strategiedokumente, anonymisierte Daten von Angestellten oder Jahresabschlüsse. Öffentliche Daten wie Kontaktinformationen, Stellenausschreibungen oder Blogbeiträge haben kein oder nur geringes Risiko und erfordern daher keine speziellen Sicherheits- oder Zugangskontrollen. 

Richtlinien und Normen

Ein hohes Risiko kann weiter in persönlich „vertraulich“ und „firmenvertraulich“ unterteilt werden, während mittlere Risiken als „intern“ klassifiziert werden. Da ein dreistufiges Konzept nicht für jedes Unternehmen geeignet ist, sollte das Hauptziel der Datenklassifizierung darin bestehen, sensible Daten zu identifizieren und Prozesse, Labels und Berechtigungen entsprechend anzupassen. Behörden oder öffentliche Einrichtungen mit besonders sensiblen Daten könnten mehrere Klassifizierungsstufen verwenden, während für kleinere Unternehmen zwei oder drei Stufen ausreichen dürften. 

Richtlinien und Empfehlungen zur Datenklassifizierung bieten Normungsorganisationen wie die International Standards Organization (ISO 27001) und das National Institute of Standards and Technology (NIST SP 800-53). Neben diesen Standards und Empfehlungen sollte der Prozess der Datenklassifizierung selbst klar definiert sein. Amazon Web Services (AWS) bietet einen fünfstufigen Rahmen zur Entwicklung von Richtlinien für die Datenklassifizierung: 

  1. Erstellung eines Datenkatalogs für verschiedene Datentypen 
  1. Bewertung der geschäftskritischen Funktionen und Durchführung einer Folgenabschätzung 
  1. Kennzeichnung von Informationen 
  1. Verwaltung von Assets 
  1. Kontinuierliche Überwachung 

Die Datentypen des Katalogs sollten auf Basis der unternehmenseigenen Klassifizierungsstufen gruppiert werden, wobei die Sicherheitsstufen nach ihrer Kritikalität für das Unternehmen bemessen werden. Jeder Datentyp wird nach seinen Auswirkungen bewertet. 

Eine Kennzeichnung der Daten empfiehlt sich zur Qualitätssicherung. AWS nutzt für die Datenkennzeichnung Tools wie Amazon SageMaker (ein Tool zum Erstellen, Trainieren und Bereitstellen von Modellen für maschinelles Lernen in AWS) und AWS Glue (ereignisgesteuerter ETL-Dienst zum Identifizieren und Kategorisieren von Daten). Nach der Kennzeichnung werden die Datensätze entsprechend ihrer Sicherheitsstufe behandelt. Hier sollten spezifische Sicherheits- und Zugriffskontrollen eingerichtet werden, etwa durch ein Identity Access Management (IAM), das regelt, wer welche Daten sehen und bearbeiten darf. 

Automatische Klassifizierung

Kontinuierliche Überwachung, die Identifizierung externer Bedrohungen und die Aufrechterhaltung normaler Funktionen und Prozesse, die auf Daten beruhen, sollten automatisiert ablaufen. Die manuelle Durchführung der Datenklassifizierung ist zeitaufwändig und fehleranfällig. Automatisierung hilft, den Prozess zu kontrollieren und das Risiko menschlicher Fehler und Datenverletzungen zu minimieren. AWS verwendet das Machine-Learning-Tool Amazon Macie, um vertrauliche und sensible Daten in AWS zu erkennen, zu klassifizieren und zu schützen. Über Dashboards können Daten visualisiert, auf sie zugegriffen und Warnmeldungen angezeigt werden. 

Nach der Auswahl der S3-Buckets, die für Macie aktiviert werden sollen, lassen sich verschiedene Optionen einstellen. Neben der Häufigkeit der Objektprüfungen und der Filterung von Objekten nach Tags können benutzerdefinierte Datenkennungen verwendet werden. Dabei handelt es sich um eine Reihe von Kriterien zur Erkennung sensibler Daten. Reguläre Ausdrücke, Schlüsselwörter und eine maximale Übereinstimmungsdistanz lassen sich definieren, um bestimmte Daten für Analysezwecke auszuwählen. 

Vergrößerungsglas für kritische Daten 

Die Website Edmunds, die sich auf den Autokauf spezialisiert hat, beschreibt Macie und die Datenklassifizierung als ein „automatisches Vergrößerungsglas“ für kritische Daten, die sonst schwer zu erkennen wären. Hauptvorteile des Tools sind die Einsicht in geschäftskritische Daten, die Identifizierung gemeinsamer Zugangsdaten und der Schutz von Benutzerdaten. Es gibt jedoch zahlreiche alternative Tools zur Automatisierung der Datenklassifizierung, die durch eine einfache Google-Suche gefunden werden können. Dies zeigt, dass die Datenklassifizierung in fast allen Unternehmen benötigt wird und ihr geschäftlicher Nutzen allgemein anerkannt ist.  

Der Beitrag wurde ursprünglich hier veröffentlicht …