Beeinträchtigte Transportwege und steigende Frachtkosten drücken erneut auf die Margen der Hersteller

Die wirtschaftlichen Rahmenbedingungen der letzten Jahre waren geprägt von einer hohen Inflation, die in Deutschland mit 10,4 % den höchsten Stand seit der Wiedervereinigung erreichte. Zwar sah es zuletzt so aus, als ob diese Entwicklung gestoppt sei. Doch jetzt sorgen steigende Frachtkosten und Unterbrechungen beim multimodalen Güter- und Warenverkehr erneut für Inflationsdruck, welcher zu geringeren Gewinnspannen bei den Unternehmen führt. Hendrik Hackmann, Director Industrial Manufacturing & Automotive Central Europe bei Infor kommentiert die aktuelle Situation:

Beeinträchtigte Transportwege und steigende Frachtkosten drücken erneut auf die Margen der Hersteller

“Seit dem 1. Juli müssen auch Fahrzeuge im Güterkraftverkehr mit einem Gesamtgewicht von mehr als 3,5 Tonnen eine Mautgebühr entrichten. Die genaue Höhe hängt von einer Reihe von Faktoren ab, wie Gewicht und Schadstoffklasse des Fahrzeugs, Höhe der Kohlenstoffemissionen und Länge der zurückgelegten Strecke – Variablen, die zu einer größeren Unsicherheit und Komplexität bei der Finanzplanung der Logistikkosten Unternehmen führen. 

Gleichzeitig startete die Deutsche Bahn ein Programm zur Erneuerung der Schieneninfrastruktur: Bis 2030 werden insgesamt 40 wichtige Schienenabschnitte monatelang gesperrt. Davon betroffen sind auch wichtige Hauptverkehrsadern des deutschen Bahnnetzes, was sich auch auf den Schienengüterverkehr in Deutschland und das benachbarte Ausland auswirken wird. In der Folge müssen Unternehmen für den Transport von Waren und Rohstoffen zum Teil längere, zeitaufwendige Umwege in Kauf nehmen, was die Kosten zusätzlich nach oben treibt. Ein Umstieg auf den Straßentransport ist aufgrund der neuen Mautpflicht finanziell oft keine Alternative. 

Infolgedessen werden sich deutsche Hersteller auf Verzögerungen bei der Anlieferung von Rohstoffen und Zulieferprodukten einstellen müssen, was zu volatilen Frachtraten führen kann. Diese Entwicklung setzt deutsche Unternehmen, die ohnehin schon mit der schleppenden Erholung der wirtschaftlichen Lage zu kämpfen haben, weiter unter Druck.“

Hendrik Hackmann, Director Industrial Manufacturing & Automotive Central Europe bei Infor kommentiert weiter:

„In unserer eng vernetzten Geschäftswelt wirken sich erhöhte Kosten und die Beeinträchtigungen der Transportwege nicht nur auf einzelne Unternehmen, sondern auf ganze Lieferketten aus. Zwar haben Hersteller während der Pandemie gelernt, Lieferketten mit einem gewissen Maß an Spielraum und Resilienz auszustatten. Doch nach wie vor bestehen bestimmte Prinzipien im operativen Geschäft, wie z.B. ein möglichst geringer Lagerbestand oder die Just-in-time Anlieferung von Zulieferprodukten- und -materialien. Dieser eingefahrene Modus Operandi wird erneut unter Druck geraten, wenn sich u.a. Mautpflicht und DB-Streckensperrungen hierzulande bemerkbar machen. 

Um diese Herausforderungen zu bewältigen, gibt es sowohl kurzfristige Schritte als auch längerfristige, operative Maßnahmen, die Unternehmen umsetzen können. Ein Beispiel für eine kurzfristig umsetzbare Maßnahme ist die Automatisierung aller Aufgaben rund um Kostenberechnung, Routenplanung und Kostenminimierung beim Transport. Damit lässt sich stets auch ein aktueller Überblick über die Kosten der LKW-Mautgebühren erhalten. Die IT-Systeme der Unternehmen sollten diese Informationen automatisch erfassen und dann bei der Optimierung der weiteren Transportkette berücksichtigen.

Langfristig gesehen gibt es drei Hauptfaktoren, mit denen Unternehmen Beeinträchtigungen im Logistikbereich vorbeugen und den Aufwärtsdruck bei den Transportkosten eindämmen können: 

  1. Transparenz der gesamten Lieferkette: In der gleichen Weise, wie die Lieferketten von Zulieferern, Partnern und Herstellern miteinander verknüpft sind, müssen auch deren IT-Systeme miteinander kommunizieren. So lässt sich der Weg von Komponenten und Materialien über den gesamten Produktionsprozess hinweg verfolgen. Unabhängig davon, welche Technologien ein Unternehmen einsetzt, sollten sowohl die Mitarbeiter in der Produktion als auch die Führungsteams Zugang zu Echtzeitdaten von Partnern und Zulieferern haben. So wird sichergestellt, dass alle Zugriff auf die notwendigen Kennzahlen für die Produktion und Verfügbarkeit von Komponenten sowie über mögliche Lieferverzögerungen haben. Je früher Hersteller von unerwarteten Beeinträchtigungen oder Kostenerhöhungen erfahren, desto schneller lassen sich Alternativen für Lieferanten, Transportarten und alternative Routen finden.“
  2. Proaktive Szenarienmodellierung durch den Einsatz von maschinellem Lernen (ML): Unternehmen, die vorab mit Hilfe von Modellen für unterschiedliche Szenarien planen, können z.B. eine gesperrte Bahnstrecke kostengünstiger und mit weniger Zeitverlust umfahren. Mit entsprechenden Softwareanwendungen lassen sich die Auswirkungen von Preisänderungen, Streckensperrungen und einem Wechsel zu alternativen Transportmitteln monetär besser bewerten. Das Ergebnis sind flexiblere und damit resilientere Lieferketten.
  3. KI-gestützte Routenoptimierung: Diese Anwendungen unterstützen bei der Ermittlung der effektivsten und kostengünstigsten Transportroute sowie bei der richtigen Wahl der Transportmittel.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

„Do it yourself“ war gestern: Fünf Gründe für Managed SOC

Muss man denn alles selber machen? In Sachen Cybersecurity war das bis vor Kurzem noch so. Heute spricht allerdings viel dafür, Teile der IT-Sicherheit an externe Dienstleister auszulagern. Ontinue, der führende Experte für Managed Extended Detection and Response (MXDR), nennt die fünf wichtigsten Gründe.

„Do it yourself“ war gestern: Fünf Gründe für Managed SOC

Cyberkriminelle haben es insbesondere auf sensible Daten von Unternehmen abgesehen, denn diese zu verschlüsseln oder zu stehlen, ist finanziell extrem lukrativ. Daher entwickeln sie täglich neue und ausgefeiltere Methoden, um IT-Sicherheitsvorkehrungen zu durchbrechen. Traditionelle und rein reaktive Ansätze sind beim Thema Cybersecurity daher nicht mehr zeitgemäß: Die eskalierende Komplexität der Bedrohungslage erfordert eine proaktive Herangehensweise, deren praktische Umsetzung typischerweise durch ein Security Operations Center (SOC), bestehend aus zahlreichen Cybersecurity-Experten, erfolgt. Ein solches in Eigenregie aufzubauen und über Jahre hinweg aufrechtzuerhalten, ist allerdings nicht nur sehr kostspielig und extrem mühsam, sondern in Zeiten des anhaltenden Fachkräftemangels zunehmend unrealistisch. Eine sinnvolle Alternative ist es, ein Managed SOC, also einen externen Dienstleister zu beauftragen. Dieser Ansatz bietet folgenden Vorteile:

  1. Einfacher Zugang zu Expertenwissen: Die Zeitressourcen von IT-Teams in Unternehmen sind stark begrenzt. Das liegt an der oft eher kleinen Anzahl an Mitarbeitenden im Vergleich zur Aufgabenvielfalt. Es ist ihnen daher in der Regel nicht möglich, neben alltäglichen Aufgaben zusätzliche Themen wie Threat Hunting, Incident-Management und andere SOC-spezifische Tasks gewissenhaft abzuarbeiten. In manchen Fällen fehlt auch das IT-Security-Fachwissen, das einer speziellen Ausbildung bedarf. Ein Managed SOC bietet einen einfachen Zugang zu diesen speziellen Fähigkeiten und mehr: Durch ihren Einblick in andere Unternehmen sind die Cybersecurity-Spezialisten eines Managed-SOC-Anbieters oft in der Lage, Bedrohungen früher zu erkennen und effizienter zu bekämpfen, Sicherheitslücken zu antizipieren und entsprechende Präventivmaßnahmen zu ergreifen beziehungsweise der internen IT-Abteilung passende Empfehlungen zu geben.
  2. Hohe Kosteneffizienz: Ein eigenes SOC aufzubauen, ist extrem kostenintensiv – selbst wenn das nötige Personal auf dem Arbeitsmarkt verfügbar wäre. Um alle Aufgaben eines effektiven Security-Operations-Teams zu erfüllen, benötigen selbst mittelständische Unternehmen Schätzungen zufolge mehr als zehn Cybersecurity-Spezialisten. Ein Managed SOC umfasst diese Experten, ohne dass sie fest angestellt werden müssen. Auf diese Weise können selbst kleine und mittelständische Unternehmen ihre IT-Abteilung mit einem hohen Maß an Sicherheitsexpertise ausstatten, ohne sich in Unkosten zu stürzen.
  3. Monitoring rund um die Uhr: Für höchste Sicherheit reichen selbst modernste Cybersecurity-Tools und -Technologien wie EDR (Endpoint Detection and Response) oder SIEM (Security Information and Event Management) nicht aus – spätestens bei einem kritischen Incident braucht es Personal, das die Sachlage analysiert und elaborierte Gegenmaßnahmen einleitet. Doch gerade in kleinen und mittleren Unternehmen, aber auch zuweilen in Konzernen haben IT-Abteilungen Geschäftszeiten, außerhalb derer die Mitarbeitenden nur schwer oder gar nicht erreichbar sind. Angreifer hingegen kennen weder Feierabend noch Wochenende. Professionelle Managed SOC stellen deshalb eine Betreuung der Sicherheitsinfrastruktur und deren Überwachung rund um die Uhr – 24/7 – bereit.
  4. Müheloser Einsatz von Cutting-Edge-Technologie: Die Einführung innovativer Sicherheitstools ist nicht trivial, aber nötig – gerade in Zeiten, in denen Cyberkriminelle selbst Technologien wie KI einsetzen, um erfolgreiche Hacks durchzuführen. Managed-SOC-Anbieter haben viel bessere Möglichkeiten als Unternehmen selbst, um neue Tools und Technologien zu erproben und einzusetzen, da dies ein Teil ihres Kerngeschäfts ist. Auf diese Weise erhöhen sie die Sicherheit und die Verteidigungskapazitäten ihrer Klienten.
  5. Nahtlose Skalierbarkeit: Die IT-Sicherheit entsprechend der Unternehmensgröße zu skalieren und gleichzeitig finanzierbar zu halten, ist gerade bei schnell wachsenden Unternehmen eine große Herausforderung. Mit einem Managed SOC müssen sie sich jedoch keine Sorgen machen, denn sie können die benötigten Kapazitäten und Features nahtlos und maßgeschneidert auf ihren Bedarf abstimmen. So zahlen Unternehmen nur für das, was sie wirklich brauchen.

„Viele Unternehmen haben Angst, ihre IT-Sicherheit an externe Dienstleister auszulagern – sie befürchten einen Kontrollverlust“, erklärt Jochen Koehler, VP EMEA Sales bei Ontinue. „Deshalb ist es wichtig klarzustellen, dass Managed-SOC-Anbieter nicht in ihrem Schatten agieren, sondern quasi das bestehende interne IT-Team erweitern. Seriöse Service-Provider zeichnen sich durch eine klare Kommunikation und absolute Transparenz aus und sorgen so dafür, dass die Nutzer ihres Angebots stets über alles informiert sind.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die Zukunft der personalisierten Gesundheitsversorgung

Die Präzisionsmedizin, auch als personalisierte Medizin bekannt, zielt darauf ab, medizinische Behandlungen auf die individuellen Bedürfnisse und genetischen Profile von Patienten abzustimmen. Künstliche Intelligenz spielt dabei eine immer wichtigere Rolle, indem sie die notwendigen Fähigkeiten zur Analyse großer Datenmengen und zur Erkennung komplexer Muster mitbringt. Dell Technologies beantwortet die wichtigsten Fragen rund um das Thema. 

Die Zukunft der personalisierten Gesundheitsversorgung

Lange Zeit verfolgte die Medizin einen Gold-Standard in der Patientenversorgung. Darunter versteht man ein therapeutisches Verfahren, das bei einer bestimmten Diagnose als die bewährteste und beste Lösung gilt. Personalisierte Medizin, die deutlich bessere Behandlungsmethoden verspricht, galt aufgrund fehlender Technologien als nicht umsetzbar und vor allem nicht bezahlbar. Angesichts der rasanten Fortschritte in der Künstlichen Intelligenz und der wachsenden Menge an Gesundheitsdaten rückt eine individuelle, auf das genetische Profil abgestimmte Behandlung für immer mehr Patienten in greifbare Nähe.

Was bringt die Präzisionsmedizin?

Eines der prominentesten Anwendungsgebiete ist die Krebstherapie. Sogenannte Biomarker können wichtige Hinweise auf spezifische Tumoreigenschaften geben und ein erhöhtes Risiko anzeigen. So weiß die Medizin heute, dass Frauen mit einer Mutation des BRCA-Gens mit hoher Wahrscheinlichkeit an Brust- oder Eierstockkrebs erkranken. KI kann die genomischen Daten einer Patientin analysieren und so bestimmte molekulare Signaturen wie die BRCA-Mutation schnell erkennen. Eine frühzeitige Diagnose ermöglicht präventive Maßnahmen und erhöht damit die Heilungschancen. Ein weiteres wichtiges Einsatzgebiet ist die individualisierte Medikamentenentwicklung. Auch hier hilft die Präzisionsmedizin: Mithilfe von Gentechnik und KI lassen sich in kürzester Zeit individuelle Therapeutika entwickeln und deren Wirkung vorhersagen. So können Arzneimittel auf einzelne Patienten zugeschnitten werden, was die Wirksamkeit der Behandlung erhöht und Nebenwirkungen reduziert.

Welche Rolle spielen Big Data und Künstliche Intelligenz in der Präzisionsmedizin?

Für eine personalisierte Therapie in der Medizin sind mehrere Komponenten notwendig, die eng miteinander verzahnt sein müssen. Eine zentrale Rolle spielt das Sammeln, Aufbereiten und Interpretieren der Daten. Hier kommt zunächst Big Data ins Spiel. Nur so lassen sich die riesigen Datenmengen speichern und auswerten, die bis vor kurzem noch zu groß, zu schnelllebig oder zu heterogen waren, um sie zu verarbeiten. Die Dateninterpretation wiederum erfordert Künstliche Intelligenz. KI ermöglicht es, in den verfügbaren Informationen quasi in Echtzeit Muster zu erkennen, nach denen sonst mühsam und langwierig gesucht werden müsste, um daraus Erkenntnisse abzuleiten. In der Präzisionsmedizin wird so beispielsweise die umfassende Auswertung genomischer Datensätze Realität, mit deren Hilfe Ärzte dann zielgerichtete Therapien anwenden können.

Welche Herausforderungen lauern bei der Umsetzung?

Wenn mit sensiblen Informationen wie Patientendaten gearbeitet wird, steigt die Notwendigkeit einer hohen Datenqualität, klinischer Governance und ethischer Aufsicht. Es muss gewährleistet sein, dass die KI-Lösungen stets zuverlässig, sicher und zum Nutzen der Patienten arbeiten. Darüber hinaus ist die Präzisionsmedizin auf saubere Daten angewiesen, um jegliche Verzerrungen oder Verfälschungen der datengestützten Ergebnisse zu vermeiden. Kliniken und Forschungseinrichtungen können aber nicht einfach die Daten möglichst vieler Institutionen zusammenführen, um genügend Material für das Modelltraining zu haben. Dies verbietet der Gesetzgeber aus Datenschutzgründen. Zudem würde das Kopieren und Übertragen die IT-Infrastruktur vor große Herausforderungen stellen. Eine Lösung ist das sogenannte Schwarmlernen, bei dem verschiedene Institutionen zu einem Netzwerk verbunden werden, während das KI-Training nach wie vor auf den Servern der einzelnen Kliniken läuft. Die besten Ergebnisse werden dann für die nächste Lernrunde an alle geschickt. So wird der gesamte Schwarm immer besser, und gleichzeitig bleiben die Daten in den jeweiligen Institutionen. 

KI-gestützte Präzisionsmedizin: Revolution im Gesundheitswesen mit Herausforderungen

„Technologie hat das Potenzial, das Leben jedes Einzelnen zu verbessern – vor allem, wenn sie dabei hilft, Krankheiten früher zu diagnostizieren, besser zu behandeln und aktiv vorzubeugen. Mithilfe von Big Data und Künstlicher Intelligenz ermöglicht die Präzisionsmedizin eine Versorgung, die ganz auf die individuellen Bedürfnisse des Patienten zugeschnitten ist, und verspricht damit eine Revolution im Gesundheitswesen. Unternehmen, die in diesem Bereich tätig sind, müssen jedoch sorgfältig planen und strategisch vorgehen, um die damit verbundenen Herausforderungen zu meistern und das Potenzial der KI voll auszuschöpfen“, betont Dr.-Ing. Marten Neubauer, Field Director Healthcare bei Dell Technologies.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Innovation im Qualitätsmanagement: Wie KI die 8D-Methode revolutioniert

In verschiedenen Anwendungsbereichen unterstützt künstliche Intelligenz menschliche Fähigkeiten maßgeblich. Besonders bei Routineaufgaben wie Datenanalysen, Mustererkennung und mehr greift sie Anwendenden unter die Arme. Aber sie spielt mittlerweile auch eine immer bedeutendere Rolle im Qualitätsmanagement. KI-gestützte CAQ-Systeme werden zum Schlüssel für die Steigerung von Effizienz, Präzision und der Geschwindigkeit in 8D-Berichten. Wie diese Innovation Problemlösungen und effiziente Produktverbesserungen noch einfacher gestaltet und welche weiteren Vorteile sie bietet, erklärt Andreas Dangl, Geschäftsführer von Fabasoft Approve.  

Innovation im Qualitätsmanagement: Wie KI die 8D-Methode revolutioniert 

Der 8D-Prozess ist ein teamorientierter, produktbezogener Ansatz zur Lösung von Problemen, die während der Produktion innerhalb eines Unternehmens oder zwischen Lieferanten und Kunden auftreten. Damit gelingt es in acht Schritten, Fehlerursachen zu identifizieren und dauerhaft zu beseitigen. Während hoch regulierte Prozesse viel Fachwissen von Qualitätsmanager:innen erfordern, ergänzt die KI-gestützte 8D-Methode den traditionellen Ablauf durch den Einsatz moderner KI-Technologien und sorgt so für effizientere und präzisere Ergebnisse. Dabei unterstützt die KI den Prozess mit Vorschlägen – die endgültigen Entscheidungen treffen immer Menschen. 

Einige Einsatzmöglichkeiten der KI im 8D-Prozess sind: 

  • Risikobeurteilung: KI analysiert vergangene Projekte, um Risiken zu bewerten und die Notwendigkeit eines 8D-Prozesses zu bestimmen.
  • Teambildung (D1): KI schlägt, basierend auf früheren Projekten, die am besten qualifizierten Expert:innen für den 8D-Prozess vor.
  • Problembeschreibung (D2): KI klassifiziert automatisch Defekte und erstellt eine detaillierte Problembeschreibung.
  • Sofortmaßnahmen (D3): KI liefert Vorschläge für sofortige Maßnahmen zur Schadensbegrenzung.
  • Fehlerursachenanalyse (D4): KI analysiert sämtliche Produktionsdaten, um Muster und Ursachen zu identifizieren und schlägt passende Analyseverfahren vor.
  • Korrekturmaßnahmenplanung (D5): KI prognostiziert effektive Maßnahmen zur Fehlerbehebung und unterstützt die Planung.
  • Korrekturmaßnahmeneinführung (D6): KI identifiziert potenzielle Probleme und informiert über die Implementierung von Korrekturmaßnahmen.
  • Fehlerverhinderung (D7): KI schlägt Präventionsmaßnahmen vor und unterstützt die Anpassung der Fehlermöglichkeits- und Einflussanalyse (FMEA).
  • Problemlösungsprozessabschluss (D8): KI leitet Erkenntnisse aus den Maßnahmen ab, die für zukünftige Projekte genutzt werden können.

Die Bedeutung eines KI-gestützten CAQ-Systems 

Die 8D-Methode zeigt ihr volles Potenzial, wenn die damit verbundenen Daten durch ein werksübergreifendes, KI-gestütztes CAQ-System wie Approve on Fabasoft PROCECO digitalisiert wurden. Ein solches System digitalisiert qualitätsrelevante Prozesse entlang der gesamten Wertschöpfungskette und ermöglicht die schnelle Einbindung interner und externer Beteiligter wie Lieferanten oder Kunden. Dies führt zu einem vollautomatisierten, ortsunabhängigen Reklamationsmanagement, das die Vorteile der KI voll ausschöpft und stets nachvollziehbar bleibt. 

Die Schlüsselrolle von KI im Qualitätsmanagement 

In der heutigen digitalen Welt erfordert das Qualitätsmanagement Ende-zu-Ende-Prozesse, die alle Schritte von der ersten Anfrage bis zur finalen Lieferung umfassen und eine nahtlose Integration aller Beteiligten anstreben. Ein KI-unterstütztes Computer-Aided Quality System ermöglicht es, qualitätsrelevante Prozesse im Unternehmen erheblich zu verbessern, Fehler schnell zu beheben und deren Wiederholung dauerhaft zu verhindern. 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Wie Data Mining in vier Schritten die Geheimnisse von Datenmassen aufdeckt

Wenn Daten das Öl des 21. Jahrhunderts sind, sitzen die meisten Unternehmen auf riesigen Vorkommen, die sie allein nicht mehr fördern können. Um aus den wachsenden Datenmassen wirklich wertvolle Erkenntnisse zu gewinnen, brauchen sie effiziente Analysen – wie Data Mining. Couchbase, Anbieter einer Cloud-Datenbank-Plattform, zeigt, wie das Verfahren die wirklich entscheidenden Insights liefert.

Wie Data Mining in vier Schritten die Geheimnisse von Datenmassen aufdeckt

Data Mining fasst als Oberbegriff verschiedene Methoden, statistische Prinzipien und Algorithmen zusammen, um Muster und Trends in großen Datenmengen zu erkennen. Diese spezielle Art der Datenanalyse hilft Unternehmen, komplexe Sachverhalte besser zu verstehen, fundierte Entscheidungen zu treffen, Vorhersagen zu machen oder Empfehlungen auszusprechen – zum Beispiel in Online-Shops, die aufgrund der gekauften Waren ähnliche Produkte vorschlagen. Im Kern umfasst das Verfahren vier grundlegende Schritte.

1. Daten sammeln und aufbereiten

In einem ersten Schritt werden strukturierte und unstrukturierte Daten aus verschiedenen Quellen wie Datenbanken, Sensoren, dem Internet oder Dokumenten zusammengeführt. Um einen vollständigen und konsistenten Datenpool zu erhalten, müssen die gesammelten Daten anschließend bereinigt werden, was etwa das Entfernen von Duplikaten oder das Ergänzen von fehlenden Werten umfasst. 

2. Daten transformieren

Im nächsten Schritt werden die zuvor gesammelten Rohdaten in ein für die Analyse geeignetes Format gebracht, das als Grundlage für das spätere Data Mining dient. Dazu gehört etwa die Skalierung der Daten auf einen gemeinsamen Wertebereich, die Umwandlung in eine standardisierte Form und die Erzeugung neuer Features, die bessere Einblicke und Ergebnisse ermöglichen.

3. Data Mining

Beim eigentlichen Data Mining kommen Algorithmen und Analysetechniken zum Einsatz, um Muster und Beziehungen in den aufbereiteten Daten zu entdecken. Gängige Techniken sind dabei etwa die Klassifikation, also die Einteilung der Daten in vordefinierte Kategorien, und das Clustering, das ähnliche Daten in Gruppen zusammenfasst. Aber auch das Lernen von Assoziationsregeln, die Vorhersage von Werten auf Basis des Inputs und die Anomalie-Erkennung kommen in diesem Schritt zum Tragen. 

4. Bewertung und Visualisierung

Abschließend werden entdeckte Muster hinsichtlich ihrer Aussagekraft und Nützlichkeit bewertet. Für eine optimale Präsentation der Ergebnisse eignen sich neben schriftlichen Berichten besonders Diagramme oder Dashboards, um Entscheidungsträgern die Interpretation und Nutzung der oft komplexen Ergebnisse zu erleichtern.

KI und Data Mining: Das volle Potenzial leistungsfähiger Datenmanagement-Plattformen entfalten

„Data Mining hat bereits in Zeiten von Big Data immer mehr an Bedeutung gewonnen, mit neuen KI-Funktionen zeigt sich allerdings erst das gesamte Potenzial“, erklärt Gregor Bauer, Manager Solutions Engineering CEUR bei Couchbase. „Die Grundlage zur Gewinnung wertvoller Insights sind daher leistungsfähige Datenmanagement-Plattformen, die Künstliche Intelligenz, Menschen und Daten zusammenbringen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Datenklassifizierungsmethoden für Data Governance

Wer sich mit Data Governance und Cybersecurity-Risikomanagement beschäftigt, kommt um eine Klassifizierung seiner Daten nicht herum. Die Einteilung in unterschiedliche Sicherheits-/Risikolevel erleichtert es später deutlich, Daten sinnvoll zu verwalten, den Zugriff auf sie zu steuern und damit die Unternehmenssicherheit als Ganzes zu erhöhen.

Datenklassifizierungsmethoden für Data Governance

Durch die Nichteinhaltung der Vertraulichkeitsrichtlinien kann ein Unternehmen seine vertrauenswürdigen Daten durch einen einfachen menschlichen Fehler oder ein Versehen unerwünschten Besuchern aussetzen. Neben den Gesichtspunkten der Governance und der Verfügbarkeit sorgen ordnungsgemäße Datenklassifizierungsrichtlinien für Sicherheit und kohärente Datenlebenszyklen. Sie sind auch ein guter Weg, um zu beweisen, dass Ihr Unternehmen die Compliance-Standards (z. B. GDPR) einhält, um Vertrauen und Integrität zu fördern.

Drei Risikostufen

Zur Klassifizierung von Daten werden diese zunächst anhand von Typ, Inhalt und weiteren Metainformationen in Kategorien eingeteilt. Diese Kategorien helfen, das geeignete Maß an Kontrollen für Vertraulichkeit, Integrität und Verfügbarkeit der Daten zu bestimmen, basierend auf den potenziellen Folgen eines Datenverlusts für die Organisation. Es geht darum, wie sich der Verlust oder Missbrauch von Daten auf das Vertrauen und den Ruf des Unternehmens auswirkt. 

Für die Klassifizierung von Unternehmensdaten werden drei Risikostufen verwendet: hohes, mittleres und geringes/kein Risiko. Vertrauliche Daten unterliegen einem hohen Risiko und können bei unsachgemäßer Kontrolle großen Schaden verursachen, beispielsweise Finanzinformationen, IP-Adressen oder Authentifizierungsdaten. Sensible Daten (mittleres Risiko) sind für den internen Gebrauch bestimmt und ihre Offenlegung wäre zwar nicht katastrophal, aber dennoch unerwünscht. Beispiele sind Strategiedokumente, anonymisierte Daten von Angestellten oder Jahresabschlüsse. Öffentliche Daten wie Kontaktinformationen, Stellenausschreibungen oder Blogbeiträge haben kein oder nur geringes Risiko und erfordern daher keine speziellen Sicherheits- oder Zugangskontrollen. 

Richtlinien und Normen

Ein hohes Risiko kann weiter in persönlich „vertraulich“ und „firmenvertraulich“ unterteilt werden, während mittlere Risiken als „intern“ klassifiziert werden. Da ein dreistufiges Konzept nicht für jedes Unternehmen geeignet ist, sollte das Hauptziel der Datenklassifizierung darin bestehen, sensible Daten zu identifizieren und Prozesse, Labels und Berechtigungen entsprechend anzupassen. Behörden oder öffentliche Einrichtungen mit besonders sensiblen Daten könnten mehrere Klassifizierungsstufen verwenden, während für kleinere Unternehmen zwei oder drei Stufen ausreichen dürften. 

Richtlinien und Empfehlungen zur Datenklassifizierung bieten Normungsorganisationen wie die International Standards Organization (ISO 27001) und das National Institute of Standards and Technology (NIST SP 800-53). Neben diesen Standards und Empfehlungen sollte der Prozess der Datenklassifizierung selbst klar definiert sein. Amazon Web Services (AWS) bietet einen fünfstufigen Rahmen zur Entwicklung von Richtlinien für die Datenklassifizierung: 

  1. Erstellung eines Datenkatalogs für verschiedene Datentypen 
  1. Bewertung der geschäftskritischen Funktionen und Durchführung einer Folgenabschätzung 
  1. Kennzeichnung von Informationen 
  1. Verwaltung von Assets 
  1. Kontinuierliche Überwachung 

Die Datentypen des Katalogs sollten auf Basis der unternehmenseigenen Klassifizierungsstufen gruppiert werden, wobei die Sicherheitsstufen nach ihrer Kritikalität für das Unternehmen bemessen werden. Jeder Datentyp wird nach seinen Auswirkungen bewertet. 

Eine Kennzeichnung der Daten empfiehlt sich zur Qualitätssicherung. AWS nutzt für die Datenkennzeichnung Tools wie Amazon SageMaker (ein Tool zum Erstellen, Trainieren und Bereitstellen von Modellen für maschinelles Lernen in AWS) und AWS Glue (ereignisgesteuerter ETL-Dienst zum Identifizieren und Kategorisieren von Daten). Nach der Kennzeichnung werden die Datensätze entsprechend ihrer Sicherheitsstufe behandelt. Hier sollten spezifische Sicherheits- und Zugriffskontrollen eingerichtet werden, etwa durch ein Identity Access Management (IAM), das regelt, wer welche Daten sehen und bearbeiten darf. 

Automatische Klassifizierung

Kontinuierliche Überwachung, die Identifizierung externer Bedrohungen und die Aufrechterhaltung normaler Funktionen und Prozesse, die auf Daten beruhen, sollten automatisiert ablaufen. Die manuelle Durchführung der Datenklassifizierung ist zeitaufwändig und fehleranfällig. Automatisierung hilft, den Prozess zu kontrollieren und das Risiko menschlicher Fehler und Datenverletzungen zu minimieren. AWS verwendet das Machine-Learning-Tool Amazon Macie, um vertrauliche und sensible Daten in AWS zu erkennen, zu klassifizieren und zu schützen. Über Dashboards können Daten visualisiert, auf sie zugegriffen und Warnmeldungen angezeigt werden. 

Nach der Auswahl der S3-Buckets, die für Macie aktiviert werden sollen, lassen sich verschiedene Optionen einstellen. Neben der Häufigkeit der Objektprüfungen und der Filterung von Objekten nach Tags können benutzerdefinierte Datenkennungen verwendet werden. Dabei handelt es sich um eine Reihe von Kriterien zur Erkennung sensibler Daten. Reguläre Ausdrücke, Schlüsselwörter und eine maximale Übereinstimmungsdistanz lassen sich definieren, um bestimmte Daten für Analysezwecke auszuwählen. 

Vergrößerungsglas für kritische Daten 

Die Website Edmunds, die sich auf den Autokauf spezialisiert hat, beschreibt Macie und die Datenklassifizierung als ein „automatisches Vergrößerungsglas“ für kritische Daten, die sonst schwer zu erkennen wären. Hauptvorteile des Tools sind die Einsicht in geschäftskritische Daten, die Identifizierung gemeinsamer Zugangsdaten und der Schutz von Benutzerdaten. Es gibt jedoch zahlreiche alternative Tools zur Automatisierung der Datenklassifizierung, die durch eine einfache Google-Suche gefunden werden können. Dies zeigt, dass die Datenklassifizierung in fast allen Unternehmen benötigt wird und ihr geschäftlicher Nutzen allgemein anerkannt ist.  

Der Beitrag wurde ursprünglich hier veröffentlicht …

Das MES kann auch Montage

Bislang steuern viele Unternehmen der kabelverarbeitenden Industrie nur den hochautomatisierten Schneidebereich mit einem Manufacturing Execution System (MES). Mit einer geeigneten Software können sie aber auch die heterogenen nachgelagerten Montageprozesse abdecken. DiIT erläutert, worauf es dabei ankommt.

Das MES kann auch Montage

Viele kabelverarbeitende Unternehmen nutzen bereits ein Manufacturing Execution System (MES) für die Prozesse im Schneidebereich. Nun möchten sie den nächsten logischen Schritt gehen und auch die Folgeprozesse der Vor- und Endmontage mit einem solchen System steuern, optimieren und dokumentieren. Eine große Herausforderung ist dabei die Komplexität. Im Gegensatz zum hochautomatisierten Schneidebereich sind die Montagebereiche durch heterogene Materialien, Artikel, Prozesse und Geräte gekennzeichnet.

Wenn Unternehmen diese Komplexität mit einem individuellen MES abbilden möchten, bekommen sie es nicht nur mit kostspieligen Entwicklungsprojekten zu tun, sondern haben auch einen hohen Aufwand mit der laufenden Wartung und Pflege des Systems. Eine bessere Alternative können Standard-MES für die kabelverarbeitende Industrie sein – wenn sie die richtigen Eigenschaften mitbringen. 

DiIT, Spezialist für integrierte Softwaresysteme in der Kabelsatzproduktion, erläutert, worauf Unternehmen bei der Auswahl achten müssen:

  • Die zentralen Elemente des Systems wie Materialien, Prozesse, Artikel, Produktionspläne, prozessbezogene Daten, Maßnahmen zur Qualitätssicherung sowie Geräte sollten von Grund auf definiert werden können. Wenn sich die Elemente zudem auch jederzeit komplett neu konfigurieren lassen, haben Unternehmen die Möglichkeit, schnell und unkompliziert auf veränderte Anforderungen zu reagieren.
  • Das MES sollte die Rückverfolgung der Produkte ermöglichen und dafür ein entsprechendes Modell mitbringen. Dann können Unternehmen die Zusammensetzung jedes produzierten Artikels jederzeit nachverfolgen. Idealerweise lässt sich das Modell mit zusätzlichen prozessbezogenen Daten anreichern, um die Prozesshistorie nachzuvollziehen und für Qualitätsverbesserungen zu nutzen. 
  • Die Unternehmen müssen eine Vielzahl unterschiedlicher Geräte anbinden können. Das MES sollte nicht nur die nativen Schnittstellen verschiedener Maschinenhersteller unterstützen, sondern auch allgemeine Konnektivitätslösungen mitbringen. Nur dann haben die Unternehmen die Möglichkeit, auch Geräte anzubinden, die nur über rudimentäre oder gar keine Schnittstellenfunktionalitäten verfügen.
  • Um das MES darüber hinaus in die vorhandene IT-Landschaft zu integrieren, benötigt die Software entsprechende Schnittstellen. Dazu zählt neben einer modernen API auch ein klassischer Datenaustausch per File-Integration. Dieses Instrumentarium gibt Unternehmen die Möglichkeit, etwa Stamm-, Artikel- und Auftragsdaten aus PLM- und ERP-Systemen einzulesen oder Qualitätsparameter an Reporting-Lösungen zu übertragen. 
  • Aus Kostengründen sollte das MES plattformunabhängig sein und den Endanwendern ausschließlich Web-Frontends als Benutzeroberflächen zur Verfügung stellen. Dadurch sind Unternehmen nicht gezwungen, jeden Arbeitsplatz mit einem vollwertigen PC auszustatten. Sie können etwa günstigere Tablets nutzen, die sich von einem Arbeitsplatz zum anderen transportieren lassen.

Prozesssicherheit und Rückverfolgbarkeit durch Standard-MES

„Mit einem geeigneten Standard-MES können kabelverarbeitende Unternehmen über alle Produktionsbereiche hinweg für einen reibungslosen und prozesssicheren Betrieb sorgen und ihre Produkte jederzeit rückverfolgen“, erklärt Bernd Jost, Geschäftsführer von DiIT. „Das ist insbesondere für Bordnetzhersteller immens wichtig. Wegen der zunehmenden Elektrifizierung der Autos und dem autonomen Fahren steigen die Anforderungen der OEM an die Qualität und Rückverfolgbarkeit der Bordnetze nämlich erheblich.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Elektronische Signaturen im Wandel: Der Einfluss von KI auf die Rechtswelt

Elektronische Signaturen haben den Geschäftsalltag revolutioniert und ermöglichen schnelle, papierlose Vertragsabschlüsse. Doch mit der fortschreitenden Digitalisierung steigen auch die Anforderungen an Sicherheit und Effizienz.

Elektronische Signaturen im Wandel: Der Einfluss von KI auf die Rechtswelt

Künstliche Intelligenz (KI) spielt hier eine Schlüsselrolle, indem sie Signaturprozesse optimiert und sicherer macht. In diesem Artikel wird beleuchtet, wie KI die fortgeschrittene elektronische Signatur vorantreibt.

Die Evolution der elektronischen Signatur

Die elektronische Signatur hat sich von einfachen digitalen Unterschriften zu komplexen, rechtsverbindlichen Verfahren entwickelt. Anfangs lag der Fokus auf grundlegenden Verschlüsselungstechniken. Heute sorgt KI dafür, dass Signaturen sicherer und benutzerfreundlicher werden, indem sie die Datensicherheit verbessert und Manipulationen verhindert.

Von der handschriftlichen zur digitalen Signatur

Die handschriftliche Unterschrift war über Jahrhunderte das wichtigste Mittel zur Bestätigung von Verträgen und Vereinbarungen. Mit der Digitalisierung wuchs der Bedarf nach einer sicheren elektronischen Alternative. Digitale Signaturen ermöglichen es, Dokumente elektronisch rechtsverbindlich zu unterschreiben, ohne physische Anwesenheit. Diese Entwicklung hat den Geschäftsverkehr beschleunigt und ist in vielen Branchen unerlässlich geworden.

Herausforderungen der bisherigen Signaturverfahren

Frühere elektronische Signaturverfahren litten oft unter Sicherheits- und Authentifizierungsproblemen, da die Verschlüsselungstechniken nicht immer zuverlässig vor Manipulation schützten. Auch die zweifelsfreie Feststellung der Identität des Unterzeichners stellte eine Herausforderung dar, was das Vertrauen in diese Systeme verringerte.

Hinzu kam die schwierige Integration in bestehende Unternehmensprozesse, die oft zusätzliche Software oder Schulungen erforderte. Diese Hürden führten dazu, dass viele Unternehmen zögerten, elektronische Signaturen umfassend zu nutzen.

Künstliche Intelligenz als Treiber für innovative Signaturlösungen

Künstliche Intelligenz bringt frischen Wind in die Welt der elektronischen Signaturen. Sie ermöglicht nicht nur eine höhere Sicherheit, sondern auch eine spürbare Effizienzsteigerung. Unternehmen können ihre Prozesse durch KI-gestützte Signaturverfahren beschleunigen und den Verwaltungsaufwand minimieren. Besonders im Bereich der Authentifizierung und Dokumentenprüfung eröffnet KI neue Möglichkeiten.

Automatisierung und Effizienz durch KI

KI-basierte Systeme erlauben die weitgehende Automatisierung von Signaturprozessen. Dadurch lassen sich Dokumente schneller prüfen und unterzeichnen, was die Bearbeitungszeit deutlich verkürzt. Gleichzeitig reduziert die Automatisierung den manuellen Aufwand, wodurch Mitarbeiter entlastet und Fehlerquellen minimiert werden können. Diese Effizienzgewinne machen KI besonders für Unternehmen attraktiv, die große Mengen an Dokumenten verwalten.

Der Einfluss von maschinellem Lernen auf digitale Authentifizierungsprozesse

Maschinelles Lernen revolutioniert die Art und Weise, wie elektronische Signaturen authentifiziert werden. KI-Modelle können anhand von Verhaltensmustern und Datenspuren die Identität eines Unterzeichners präziser feststellen. Diese Technologie verbessert die Sicherheit erheblich, da sie in der Lage ist, Unregelmäßigkeiten oder Betrugsversuche frühzeitig zu erkennen. Dadurch wird der gesamte Signaturprozess nicht nur sicherer, sondern auch schneller und zuverlässiger.

Erhöhte Sicherheit durch KI-gestützte Verschlüsselung

KI-gestützte Verschlüsselung bietet dynamischen Schutz für elektronische Signaturen, da sie sich kontinuierlich an neue Bedrohungen anpasst. Besonders bei der fortgeschrittenen elektronischen Signatur ist dieser Schutz entscheidend, da sie eine höhere Sicherheitsstufe bietet und manipulationssicherer ist. Unternehmen profitieren davon, dass ihre Dokumente selbst in risikoreichen Umgebungen geschützt bleiben.

Manipulationserkennung und Betrugsprävention mit KI-Algorithmen

KI-Algorithmen ermöglichen es, Manipulationen und Betrugsversuche frühzeitig zu erkennen und zu verhindern. Durch die Analyse von Verhaltensmustern und Unregelmäßigkeiten im Signaturprozess identifizieren KI-Systeme automatisch verdächtige Aktivitäten. Diese Echtzeit-Erkennung minimiert das Risiko, dass gefälschte Signaturen oder manipulierte Dokumente den Prozess durchlaufen.

Die Rolle von KI bei der Automatisierung von Signaturprozessen

KI verändert die Art, wie Signaturprozesse in Unternehmen ablaufen, grundlegend. Sie automatisiert viele Schritte von der Dokumentenprüfung bis zur Vorbereitung der Unterschrift, was den gesamten Ablauf schneller und effizienter macht.

Dennoch wird die finale Unterschrift, insbesondere bei wichtigen Verträgen, weiterhin von autorisierten Personen geprüft und freigegeben. Die KI reduziert den manuellen Aufwand, übernimmt Routineaufgaben und sorgt so für eine reibungslose Abwicklung.

Rechtliche Aspekte und regulatorische Herausforderungen

Der Einsatz von KI in elektronischen Signaturprozessen bringt rechtliche Fragen mit sich. Da die Regulierung in verschiedenen Ländern variiert, müssen Unternehmen die geltenden Gesetze einhalten. Besonders in regulierten Branchen ist es wichtig, dass KI-basierte Signaturen den rechtlichen Anforderungen entsprechen, um rechtsverbindlich zu sein.

KI und die Einhaltung internationaler Signaturstandards

Die Integration von KI in elektronische Signaturprozesse muss internationalen Signaturstandards wie der eIDAS-Verordnung in der EU oder dem ESIGN Act in den USA entsprechen. KI hilft dabei, diese Standards einzuhalten, indem sie sicherstellt, dass die verwendeten Technologien den jeweiligen rechtlichen Vorgaben gerecht werden.

Durch automatisierte Prüfungen können Signaturprozesse länderübergreifend normgerecht gestaltet werden. Dies erleichtert es Unternehmen, rechtlich konforme Dokumente weltweit zu unterzeichnen.

Wie beeinflusst KI die rechtliche Gültigkeit elektronischer Signaturen?

KI kann die rechtliche Gültigkeit elektronischer Signaturen stärken, indem sie den Signaturprozess sicherer und nachvollziehbarer macht. Algorithmen sorgen dafür, dass die Identität des Unterzeichners eindeutig verifiziert wird, was die Rechtssicherheit erhöht. Auch die lückenlose Dokumentation des Signaturvorgangs durch KI trägt zur Nachweisbarkeit bei. Damit wird gewährleistet, dass elektronische Signaturen vor Gericht anerkannt werden können.

Künftige Entwicklungen in der Signaturtechnologie

Die Zukunft der Signaturtechnologie wird stark von KI und maschinellem Lernen geprägt sein. Künftig könnten noch sicherere und benutzerfreundlichere Verfahren entwickelt werden, die den gesamten Signaturprozess weiter automatisieren. Denkbar sind auch intelligente Systeme, die Verträge selbstständig analysieren und Handlungsempfehlungen geben. Diese Innovationen könnten die Effizienz und Sicherheit von Transaktionen weiter steigern.

Fazit

Die Integration von KI in rechtliche Prozesse bietet großes Potenzial, birgt jedoch auch Risiken. Einerseits kann KI durch Automatisierung die Effizienz und Genauigkeit rechtlicher Verfahren verbessern. Andererseits besteht die Gefahr, dass komplexe rechtliche Entscheidungen zu stark von Algorithmen abhängen, was zu Fehlern führen könnte. Ein ausgewogenes Verhältnis zwischen menschlicher Kontrolle und technischer Unterstützung ist daher weiterhin wichtig.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Retouren-Warenhäuser – Auf dem Weg zu einem ganzheitlichen Retourenmanagement

Artjom Bruch, CEO von Trusted Returns gibt uns Einblicke zur Rolle von Retouren-Warenhäusern und die Relevanz eines effizienten Retourenmanagements

Retouren-Warenhäuser – Auf dem Weg zu einem ganzheitlichen Retourenmanagement

Retouren von Onlineshopping-Artikeln sind Teil des Einkaufserlebnisses. Sie können bei Kunden immer wieder für Frustration sorgen, für Onlinehändler bieten sie aber viel ungenutztes Potenzial. Davon abgesehen stellen sie nicht nur eine große Herausforderung für viele Unternehmen dar, sondern sind auch für die Umwelt problematisch. Steigende Retourenquoten werfen Fragen über die Nachhaltigkeit und Effizienz des Onlineshoppings auf und erfordern innovative Ansätze, um sowohl den ökonomischen als auch den ökologischen Aspekt zu berücksichtigen. Der Onlineversandhandel für Mode und Accessoires gehört zu den am meisten betroffenen Segmenten, die mit hohen Retourenquoten zu kämpfen haben.

Zu den größten Kostentreibern bei der Bearbeitung von Retouren gehören die Prüfung der zurückgesendeten Ware, die Sortierung und die Qualitätskontrolle. Laut einer Studie des EHI können circa 50 bis 75 Prozent der retournierten Produkte als A-Ware weiterverkauft werden. Das bedeutet, dass in bis zur Hälfte aller Fälle ein retourniertes Produkt nicht mehr als A-Ware bezeichnet werden kann und daher als B-Ware weiterverkauft wird. Etwa 20 Millionen  retournierte Artikel landen pro Jahr im Müll, was nicht nur ökonomisch, sondern auch ökologisch bedenklich ist. 

Um dies in Europa zu verhindern, hat die EU eine Ökodesign-Richtline erlassen, die nach Umsetzung in Rechtsprechung der Länder, die Vernichtung unverkaufter Kleidung verbietet. Durch diese EU-Richtlinie sind viele Onlinehändler gezwungen, neue Lösungen für den Umgang mit zurückgesendeter Ware zu finden. Hier kommen Retouren-Warenhäuser ins Spiel, die unverkaufte oder sogenannte B-Ware zu günstigen Preisen weiterverkaufen oder sogar in Form von Spenden weitergeben. 

Retouren-Warenhäuser sind effektiv, behandeln aber nicht die Ursache

Die Ökodesign-Richtlinie der EU hat neuen Handlungsdruck erzeugt: Einige Online-Händler haben bereits Maßnahmen ergriffen, um die Auswirkungen von Retouren auf ihre Profitabilität zu reduzieren. Bestehende Modelle wie Amazon Retourenkauf (ehemals Amazon Warehouse), Zalando und H&M, die gebrauchte Ware zu reduzierten Preisen anbieten, sind in diesem Zusammenhang von Vorteil. Damit versuchen die Online-Händler, retournierte Ware weiterzuverkaufen, anstatt sie zu entsorgen. Somit spielen Retouren-Warenhäuser von Dritten, aber auch eigene Kanäle für B-Ware, eine bedeutende Rolle im E-Commerce, da sie einen effizienteren und umweltfreundlicheren Umgang mit zurückgesendeter Ware unterstützen. Sie gelten als ein Teil der Lösung zum Umgang mit Retouren und daraus resultierender B-Ware. 

Um die Ursachen von zurückgesendeten Produkten zu adressieren und die Retourenabwicklung effektiver zu gestalten, ist eine umfassende Strategie notwendig. Nur so ist es für Online-Händler möglich, mithilfe der EU-Regulatorik und der Retouren-Warenhäuser, auf lange Sicht die Belastungen durch Retouren zu minimieren und gleichzeitig ökonomische und ökologische Nachhaltigkeit sicherzustellen. Einerseits können die EU-Richtlinie und Retouren-Warenhäuser zur Milderung des Problems beitragen, indem sie die Menge der sonst zu entsorgenden Textilien – und damit die Umweltbelastung – reduzieren. Andererseits befassen sie sich nur mit einem Teil des Problems. Die zugrundeliegenden Ursachen für die hohen Retourenquoten und Möglichkeiten für eine effizientere Aufbereitung der zurückgesendeten Ware werden dabei noch nicht beachtet.

Nachhaltige Retourenabwicklung: Gemeinsame Verantwortung von Händlern und Konsumenten

Die Auslöser von Retouren sind vielfältig und betreffen viele Bereiche, in denen neue Strategien und Lösungen notwendig sind. Neue Wege, um den Umgang mit Retouren zu erleichtern, sind erforderlich. Die EU-Ökodesign-Richtlinie soll dazu beitragen, dass nicht-gekaufte Kleidung nicht mehr nur entsorgt wird und stellt dabei eine Herausforderung für die Online-Händler dar. Dennoch ist dabei nicht nur die Rolle der Online-Händler, sondern auch die der Konsumenten wichtig – in diesem Sinne gehören zwei dazu: Überproduktion und Überkonsum sind zwei der größten Herausforderungen in der Modeindustrie. Es wird mehr produziert als notwendig ist, was ein rapides Konsumverhalten befeuert, während mehr bestellt als behalten wird. In Extremfällen entsteht dabei die Illusion, dass die Warenflut auf die notwendige Nachfrage trifft, jedoch werden in der Praxis eben nicht alle von Verbrauchern bestellten Waren behalten und damit auch verkauft. Daher ist ein Engagement von Seiten der Online-Händler und der Konsumenten unerlässlich.

Nicht nur neue Ansätze seitens der Online-Händler, sondern auch ein bewussteres Agieren der Verbraucher sollen dazu beitragen, das Retourenmanagement effizienter zu gestalten. Die Möglichkeit eines gezielten Austauschs mit Kunden und Kundinnen auch nach dem Kauf sollte dabei helfen. Dies unterstreicht die Bedeutung einer ganzheitlichen Herangehensweise, die sowohl die Verhaltensweisen der Verbraucher als auch die Geschäftspraktiken der Händler berücksichtigt. Mehr Transparenz auf Seiten der Onlinehändler und ein besseres Management der Kundenerwartungen an Produkte sind dabei essenziell. Letztendlich, um eine ausgewogene Balance zwischen Kundenorientierung und einem effizienten Retourenmanagement zu erzielen, die entlang geltender Regulatorik umsetzbar ist, ist ein Gleichgewicht aus Effizienz, Transparenz und Umweltbewusstsein notwendig.

Ein effizientes Retourenmanagement sowie ganzheitliche Lösungen sind notwendig

Um Online-Shopping effizienter zu gestalten und parallel ökonomische und ökologische Pflichten zu erfüllen, ist ein optimiertes Retourenmanagement bedeutend. Es erfordert eine klare Kommunikation der Rückgaberichtlinien und Produktdetails, um die Erwartungen der Kunden zu managen, sowie die Optimierung von Prozessen, um den Umgang mit retournierter Ware umweltfreundlicher und effizienter zu gestalten. Insgesamt verdeutlicht dies die Komplexität des Problems von Retourenquoten im E-Commerce innerhalb des geringen Handlungsspielraums, den gängige Praktiken wie der Paketbeileger ermöglichen. Eine umfassende Strategie, die verschiedene Akteure einbezieht und sowohl ökonomische als auch ökologische Aspekte berücksichtigt wird durch die EU-Öko-Designrichtlinie verpflichtend. Allerdings adressieren einzelne Ansätze wie Retouren-Warenhäuser lediglich die Symptome und nicht die eigentlichen Ursachen des Problems. Eine umfassendere und vielschichtiger Lösung ist zusätzlich erforderlich.

Eine durchdachte Strategie für effizienteres Retourenmanagement ist dabei ein Werkzeug, durch welches alle Seiten profitieren können. Digitale Ansätze für das Retourenmanagement im After-Sales stärken die Kundenbindung mittels mehr Transparenz und zusätzlichen Kommunikationsschnittstellen. Während optimierte Prozesse sowohl die Umweltbelastung reduzieren als auch wirtschaftliche Vorteile ermöglichen können. Unternehmen müssen nicht nur die unmittelbaren Auswirkungen von Retouren mildern, sondern auch die Ursachen hoher Retourenquoten adressieren, um strategischen und effizienten After-Sales zu betreiben. Obwohl Retouren-Warenhäuser helfen, die Umweltbelastung durch weggeworfene Produkte zu mindern, bleibt das häufige Unwissen über die Ursache der Rücksendungen weiterhin eine Herausforderung. Insgesamt zeigt sich, dass effizientes Retourenmanagement im Onlinehandel unerlässlich ist und durch innovative Strategien ein großes Potenzial entfalten kann.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Personalkosten kalkulieren und optimal planen

Personalkosten kalkulieren und optimal planen

Die Kalkulation und Planung von Personalkosten ist für jedes erfolgreiche Unternehmen essenziell, da diese meist einen Großteil der Gesamtausgaben ausmachen. Um optimal planen zu können, ist es daher wichtig zu wissen, wie sie sich zusammensetzen und welche Faktoren es bei der Berechnung zu beachten gibt. 

Personalkosten kalkulieren und optimal planen

Hier erfahren Sie mehr über die Schlüsselkomponenten der Personalkosten-Berechnung, Strategien zur effizienten Lohn- und Gehaltsabrechnung und welche automatisierten Lösungen hilfreich sind. 

Schlüsselkomponenten der Personalkosten-Berechnung, die Sie kennen sollten

Personalkosten bezeichnen sämtliche Kosten, die durch die Beschäftigung von Mitarbeitern in einem Unternehmen anfallen. Diese setzen sich aus einer Vielzahl von Komponenten zusammen, die man in zwei Hauptgruppen unterteilen kann: direkte und indirekte Personalkosten. Bei der Berechnung der Personalkosten müssen Arbeitgeber beide Kategorien gleichermaßen berücksichtigen, um die Ausgaben für ihr Unternehmen genau kalkulieren zu können. 

Was gehört zu den direkten Personalkosten?

Zu den direkten Personalausgaben zählen sowohl der Brutto-Betrag der Gehälter als auch der Löhne. Die Unterscheidung wird hierbei gemacht, da es sich bei Gehältern um eine fixe Summe handelt, die Arbeitnehmern monatlich ausgezahlt wird, während Löhne variieren. Sie berechnen sich nach der aufgewendeten Arbeitszeit oder dem Arbeitsaufwand, die Mitarbeiter erbracht haben. 

Die direkten Personalkosten sind dementsprechend die Grundkosten, mit denen Sie als Arbeitgeber rechnen müssen. Auch Sonn- und Feiertagszuschläge, sowie Boni und Provisionen fallen darunter, falls diese vertraglich geregelt sind. 

Direkte Personalkosten auf einen Blick: 

  • Brutto-Gehälter und Brutto-Löhne
  • Sonn- und Feiertagszuschläge
  • Boni und Provisionen

Was versteht man unter indirekten Personalkosten?

Die indirekten Personalkosten sind sämtliche Lohnnebenkosten, die zusätzlich zu den direkten Personalkosten anfallen. Dieses Feld ist sehr breit gefasst. Dazu gehören zum Beispiel die gesetzlich vorgeschriebenen Beiträge des Arbeitgebers zur Rentenversicherung, Krankenversicherung, Pflegeversicherung und Arbeitslosenversicherung. Hinzu kommen Beitragszahlungen für Genossenschaften, Urlaubsgelder, Reisekosten, Zahlung im Krankheitsfall oder Gelder für Fortbildungen. 

Sogar Kosten für Büroausstattungen und Rekrutierungskosten für neue Mitarbeiter können zu den indirekten Personalkosten gerechnet werden. Werden bei der Anstellung möglicherweise auch Sachgüter wie ein Firmencomputer oder ein Fahrzeug angeschafft, zählt man diese Kosten ebenfalls zu den indirekten Personalkosten. 

Indirekte Personalkosten auf einen Blick: 

  • Versicherungsbeiträge (Renten-, Kranken-, Pflege- und Arbeitslosenversicherung)
  • Beiträge für Berufsgenossenschaften
  • Reisekosten
  • Urlaubsgelder
  • Umlagen im Krankheitsfall
  • Fortbildungen
  • Büroausstattungen
  • Rekrutierungskosten

Im Durchschnitt kostete eine Arbeitsstunde im Jahr 2023 in Deutschland 41,30 €. Im EU-Vergleich liegt dieser Betrag im oberen Drittel. 

Quelle: Eurostat-Datenbank. © Statistisches Bundesamt (Destatis), 2024. DOI: https://www.destatis.de/DE/Presse/Pressemitteilungen/2024/04/PD24_165_624.html 

So gelingt eine effektive Lohn- und Gehaltsplanung

Wenn es um die Planung von Gehältern und Löhnen geht, müssen sich Arbeitgeber darüber im Klaren sein, welche Kosten sie bei der Anstellung neuer Mitarbeiter erwarten. Betrachtet man die oben genannten Bestandteile der Personalkosten, wird schnell klar, dass diese, je nach Branche und Unternehmensgröße, stark unterschiedlich ausfallen können. Auch das Anstellungsverhältnis (Festanstellung, Teilzeit oder Minijob) spielt eine Rolle bei der Kalkulation. 

Es gibt daher keine Formel, die für jedes Unternehmen die richtigen Ergebnisse generiert. Arbeitgeber sind jedoch dazu verpflichtet, Anteile der Sozialversicherung zu übernehmen, die sich am Bruttogehalt orientieren: 

  • Krankenversicherung: 7,3 % 
  • Pflegeversicherung: 1,525 %
  • Rentenversicherung: 9,3 %
  • Arbeitslosenversicherung: 1,3 %

Zusätzlich zum Sozialversicherungsanteil müssen Fehlstunden, die beispielsweise durch Krankheit oder Mutterschutz entstehen, ebenso mit einbezogen werden wie Urlaubsstunden oder Fortbildungen. Ausgaben, die nicht regelmäßig auftreten, sind etwas schwieriger zu kalkulieren. Dazu zählen beispielsweise Reisekosten oder die Anschaffung von Equipment. 

In den meisten Unternehmen steht für die Deckung der Personalkosten ein gewisses Budget zur Verfügung, das nicht überschritten werden sollte. Als Arbeitgeber ist die Kalkulation von Löhnen und Gehältern daher essenziell, um wirtschaftlich zu bleiben. 

Kann bei der Planung für die Personalkosten nicht auf die Buchhaltung vorher gegangener Jahre zurückgegriffen werden, lohnt es sich hinsichtlich des Budgets verschiedene Szenarien durchzuspielen. Sich gedanklich sowohl für ein gutes als auch ein eher schlechtes Wirtschaftsjahr zu wappnen, kann Ihnen helfen, wichtige Entscheidungen hinsichtlich der Personalkosten zu treffen. 

Hinzu kommen Faktoren wie Inflation, die sich ebenfalls auf die Personalkosten auswirken. Hier sehen Sie, wie sich die Höhe der durchschnittlichen Monatsgehälter in Deutschland innerhalb von 10 Jahren verändert hat: 

Quelle: Statista. “Lohnkosten: Monatliche Arbeitnehmerentgelte je Arbeitnehmer (Inländer) in Deutschland von 1991 bis 2023”. Veröffentlicht: 2024. Zugegriffen am: 15.08.2024. DOI: https://de.statista.com/statistik/daten/studie/39042/umfrage/monatliche-lohnkosten-in-deutschland-seit-2000/

Welche Tools und Software eignen sich für die Kalkulation und Planung von Personalkosten?

Einen Überblick über die Personalkosten zu bewahren, kann fordernd sein. Da Sie als Arbeitgeber gesetzlich dazu verpflichtet sind, Mitarbeitern monatlich eine Lohnabrechnung zu erstellen, ist eine fehlerfreie Aufzeichnung und Berechnung von Löhnen und Gehältern von höchster Wichtigkeit. 

Zum einen gehört es zu den Aufgaben von Arbeitgebern, Informationen zur Sozialversicherung und Lohnsteuer an das Finanzamt zu übermitteln, zum anderen benötigen Mitarbeiter diese Informationen für ihre Steuererklärung oder den Lohnsteuerjahresausgleich. 

Für die Kalkulation und Planung von Personalkosten gibt es daher verschiedene Technologien, die Sie bei dieser Herausforderung unterstützen.  Mit einer rechtskonformen Lohnabrechnungssoftware werden Ihre Abrechnungen und Bescheinigungen anhand Ihrer eingepflegten Daten automatisch erstellt. Wichtig ist, dass diese für die sichere Übermittlung der Daten über Schnittstellen wie DATEV und ELSTER verfügt. Durch die Nutzung einer Business-Cloud für die Lohnabrechnung haben Sie und Ihre Mitarbeiter zudem jederzeit Zugriff auf wichtige Zahlen.

Optimierung der Lohnabrechnung: Diese Strategien helfen

Nicht nur in großen Unternehmen kann sich die Lohnabrechnung kompliziert gestalten. Auch ein Unternehmen mit einer geringen Mitarbeiterzahl steht monatlich vor der Mammutaufgabe, fehlerfreie, rechts- und datensichere Dokumente zu erstellen. Dies wird dadurch erschwert, dass sich formelle Anforderungen stetig ändern und verschiedene Beschäftigungsverhältnisse unterschiedliche Vorgehensweisen erfordern. 

Um sich als Arbeitgeber rechtlich abzusichern und auf dem neuesten Stand zu bleiben, gibt es verschiedene Strategien, die wir Ihnen im Folgenden vorstellen.

Lohn- und Gehaltsabrechnungen automatisieren

Die Digitalisierung der Gehaltsabrechnung ermöglicht es, die monatlichen Fristen zuverlässig und stressfrei einzuhalten. Die Arbeitszeit, die Ihr Personal bisher für die Erstellung der Dokumente benötigt hat, können Sie dank einer automatisierten Lösung anderweitig gewinnbringender einsetzen. 

Grundvoraussetzung bei der Wahl einer Software, die Sie bei der Abrechnung der Personalkosten unterstützt, ist, dass sich diese einfach bedienen lässt. Nur benutzerfreundliche Lösungen erfüllen letztlich den Zweck, Zeit zu sparen. 

Standardisierte Prozesse einrichten

Es ist ein wichtiger Schritt, Lohn- und Gehaltsabrechnungen mithilfe einer Software zu automatisieren. Doch nicht nur die Lohnabrechnung profitiert von standardisierten Prozessen innerhalb des Unternehmens. Auch andere Vorgänge wie beispielsweise eine Reisekostenabrechnung wird durch die elektronische Erfassung und Verarbeitung mit einer Software erheblich vereinfacht. 

Besonders praktisch ist es, wenn sich die Funktionen durch entsprechende Tools auch von unterwegs bedienen lassen. Auf diese Weise können Mitarbeiter Ausgaben flexibel eintragen und laufen weniger Gefahr, den Überblick über Auslagen zu verlieren. Das spart Zeit und unnötige Arbeitsschritte nach der Betriebsreise. 

Manuelle Fehler vermeiden

Im Dschungel der Lohnabrechnungserstellung können manuelle Fehler schnell einmal passieren. Verantwortlich dafür ist häufig die fehlende Übermittlung lohnrelevanter Daten an die zuständige Abteilung, aber auch einfache Tippfehler können zu unangenehmen Konsequenzen führen. 

Durch die Nutzung eines cloudbasierten Programms, auf das Mitarbeiter auch von unterwegs Zugriff haben, lässt sich die Kommunikation erheblich verbessern. Die Zahlen sind stets auf dem neuesten Stand und für alle Befugten einsehbar. Das verringert auch das Risiko von manuellen Fehlern bei der Übermittlung der Daten. 

Von der Kalkulation bis zur Abrechnung der Personalkosten – Automatisierung ist der Schlüssel 

Personalkosten kalkulieren, rechtliche Standards einhalten und monatliche Gehaltsabrechnungen erstellen: All das sind Aufgaben, die auf Dauer viel Zeit und Expertise erfordern. Der Aufwand, der durch die manuelle Berechnung der Personalkosten entsteht, kann zudem durch mangelnde Kommunikation erschwert werden. Haben nicht alle zuständigen Personen Zugriff auf aktuelle Zahlen, kann dies sogar zu Verlusten für ein Unternehmen führen. 

Personalkosten mithilfe einer Software zu automatisieren, ist daher die Lösung für Unternehmen jeglicher Größe, die Mitarbeiter entlasten und Arbeitskraft sinnvoll einsetzen möchten. Eine Lohnabrechnungssoftware bietet Ihnen daher nicht nur die Möglichkeit, Zeit zu sparen, sondern Sie sichern sich auch rechtlich ab: Gesetzliche Neuerungen, die bei der Gehaltsabrechnung beachtet werden müssen, werden von vielen Anbietern automatisch aktualisiert, um fehlerfreie Ergebnisse zu erzeugen. 

Da es im Prozess von der Kalkulation bis zur Abrechnung der Personalkosten auf aktuelle Daten ankommt, sorgt die Verwendung einer Business-Cloud dafür, dass Sie und Ihre Mitarbeiter sich stets von jedem Ort aus auf den neuesten Stand bringen können. Auf diese Weise können Sie jederzeit reagieren, erforderliche Maßnahmen ergreifen und Ihre Finanzen auch für die Zukunft im Blick behalten. 

Der Beitrag wurde ursprünglich hier veröffentlicht …