Cyberbedrohungen machen dem Handel das Leben schwer 

Fünf Maßnahmen mit denen sich Retail-Unternehmen schützen können

Der Online-Handel wird von Cyberkriminellen überaus häufig ins Visier genommen, da hier wertvolle, personenbezogene Daten oder Kreditkarteninformationen verarbeitet werden. Zu den häufigen Bedrohungen gehören Ransomware-Angriffe, Social Engineering, Systemeinbrüche aber gelegentlich auch Insider-Bedrohungen. Daten, die auf diese Art und Weise geklaut werden, werden dann über das Darknet angeboten, um damit beispielsweise betrügerische Finanztransaktionen abzuwickeln. Damit Online-Händler nicht die verehrenden Auswirkungen eines Cyberangriffs bewältigen müssen, können sie sich vor derartigen Risiken schützen, indem sie auf das Zero-Trust-Prinzip und auf weitere wichtige Schutzmechanismen setzen.

Cyberbedrohungen machen dem Handel das Leben schwer

1. Implementieren von Zero-trust-Sicherheit

Zero-trust-Sicherheit ist ein Sicherheitsframework, bei dem sämtliche Identitäten ständig verifiziert werden müssen, was den Zugriff auf sensible Daten extrem eingrenzt. Mit Zero-Trust-Sicherheit haben Administratoren zudem einen besseren Überblick über die Benutzeraktivitäten, sie verfügen über stärkere Kontrollmöglichkeiten und das Risiko für passwortbasierte Cyberangriffe wird minimiert

2. Regelmäßige Datensicherung

Regelmäßige Datensicherungen sind wichtig, um die Folgen von Cyberangriffen zu verringern. Wenn beispielsweise im Rahmen eines Ransomware-Angriffs Daten verschlüsselt werden, lässt sich mit speziell geschützten Sicherungskopien schnell dafür sorgen, dass das Business wie gewohnt weitergehen kann. Mit regelmäßigen Datensicherungen können Einzelhändler den Datenzustand von vor dem Angriff schnell wiederherstellen. Das minimiert sowohl die Ausfallzeiten als auch die Notwendigkeit, überhaupt mit den Cyberkriminellen in Verhandlungen treten zu müssen.

3. Das Prinzip der geringsten Privilegien (PoLP)

Das Prinzip der geringsten Privilegien stellt sicher, dass Benutzer nur den Zugriff erhalten, der für ihre Arbeit erforderlich ist und es hilft sicherzustellen, dass die Mitarbeitenden keinen unnötigen Zugriff auf privilegierte Daten haben. Das ist wichtig, denn je mehr Mitarbeitende auf sensible Informationen zugreifen können, desto größer ist die Angriffsfläche für Cyberkriminelle.

Eine einfache Möglichkeit, PoLP zu implementieren, ist die Verwendung einer Privileged Access Management ‚(PAM)-Lösung. Eine PAM-Lösung kann Cyberkriminelle daran hindern, sich seitwärts durch das Netzwerk eines Unternehmens zu bewegen. Neben der Reduzierung externer Bedrohungen kann eine PAM-Lösung auch Insider-Bedrohungen minimieren, da ein Benutzer durch die Implementierung von PoLP nur Zugriff auf das hat, was er für seine Arbeit benötigt

4. Implementieren von Firewalls und Intrusion Detection Systems (IDS)

Eine Firewall schützt Netzwerke vor externen Bedrohungen, indem sie den Netzwerkverkehr kontrolliert und filtert. Ob softwarebasiert oder hardwarebasiert – Firewalls tragen dazu bei, dass Netzwerke vor externen Bedrohungen geschützt sind.

Zusätzlich zu Firewalls kann ein Intrusion Detection System (IDS), das den Netzwerkverkehr ständig auf verdächtige Aktivitäten überwacht, indem es nach ungewöhnlichem Verhalten sucht, das Netzwerk eines Unternehmens vor unbefugtem Zugriff schützen. Ein IDS versendet Echtzeitwarnungen, noch bevor ein Schaden überhaupt entstehen kann.

5. Schulungen: Best Practices für die Cybersicherheit

Am besten können sich Retail-Unternehmen vor potenziellen Cyberbedrohungen schützen, indem sie eine Zero-Trust-Strategie implementieren, Daten regelmäßig sichern und eine PAM-Lösung wie beispielsweise KeeperPAM® einführen. Mit KeeperPAM kann ein Unternehmen PoLP implementieren und sicherstellen, dass Benutzer und Systeme nur den Zugriff haben, der für ihre Rollen erforderlich ist. Die Lösung verringert die Angriffsfläche und damit das Risiko, dass Cyberkriminelle Zugriff auf sensible Informationen erhalten.

Um sich vor Cyberbedrohungen zu schützen, sollten die Mitarbeitenden zur Cybersicherheit geschult und ihr Sicherheitsbewusstsein verbessert werden. Dazu gehört auch die Aufklärung der Mitarbeitenden über Phishing. In anschließenden Phishing-Tests mit Fake-Phishing-E-Mails kann bewertet werden, wie Mitarbeitende auf potenzielle Bedrohungen reagieren. Nach der Durchführung des Tests helfen die Ergebnisse dabei, die nötigen Schulungen zu bestimmen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

DocuWare stellt Unternehmensführung neu auf

DocuWare, ein führender Anbieter von Lösungen für Dokumentenmanagement und Workflow-Automatisierung, kündigt zum 1. April 2025 Veränderungen in der Unternehmensführung an. Nach dem angekündigten Rücktritt von Max Ertl als Co-President übernimmt Dr. Michael Berger die Position des CEO und wird bei der strategischen Weiterentwicklung des Unternehmens von einem neu zusammengesetzten Führungsteam unterstützt. Mit ihrer umfangreichen Erfahrung und klaren Vision wird das Führungsteam nicht nur Wachstum und Innovation vorantreiben, sondern auch die globale Präsenz von DocuWare stärken und sicherstellen, dass das Unternehmen weiterhin an der Spitze technologischer Entwicklungen bleibt.

Docuware stellt Unternehmensführung neu auf

Neben Dr. Michael Berger, CEO, besteht das neue Führungsteam aus: Michael Bochmann, Chief Product & Technology Officer; Benedikt Dischinger, Chief Financial Officer; Uta Dresch, Chief Operating Officer, und Hermann Schäfer, Chief Sales & Marketing Officer. 

Dr. Michael Berger: „Ich fühle mich geehrt, mit diesem außergewöhnlichen Team zusammenzuarbeiten. Ich bin mir sicher, dass die gemeinsame Expertise und das Engagement für DocuWare und die gesamte Belegschaft maßgeblich dazu beitragen werden, unser Unternehmen zu neuen Höhen zu führen. Da Co-President Max Ertl zum 31. März 2025 von seiner Funktion zurücktritt, möchte ich mich im Namen aller bei DocuWare für sein Engagement und seinen wertvollen Beitrag in den letzten 24 Jahren, seine großartigen Leistungen als Vertriebs- und Marketingleiter und für unsere enge Zusammenarbeit während unserer Zeit als Co-Presidents bedanken.“ 

Weitere Informationen zu den Mitgliedern des Führungsteams

Dr. Michael Berger, Chief Executive Officer (CEO), begann seine Karriere in Innovations- und Managementfunktionen bei Siemens. 2008 wechselte er zu DocuWare und übernahm zunächst die Rolle des Vice President R&D, später die des CTO am Hauptsitz in Germering. Nach der Übernahme von DocuWare durch Ricoh im Jahr 2019 wurden sowohl Dr. Michael Berger als auch Max Ertl zu Geschäftsführern der DocuWare GmbH und Co-Presidents der globalen DocuWare Gruppe ernannt. In seiner Rolle als President of Product, Services und Finance leitete Berger das Unternehmen gemeinsam mit Ertl, der für Sales & Marketing verantwortlich war. Dr. Berger erweiterte das Produktportfolio, leitete strategische Initiativen und Akquisitionen und trug so zum Wachstum des Unternehmens bei. 2024 wurde er von Ricoh zum CTO-Berater ernannt. 

Michael Bochmann, Chief Product & Technology Officer (CPTO), Mitbegründer des von DocuWare übernommenen Unternehmens DocuScan, spielt seit seinem Einstieg 2023 eine zentrale Rolle bei der Identifizierung und Implementierung neuer, innovativer Technologien. Nach der Fusion von DocuScan und DocuWare Anfang 2025 trat er seine neue Position als CPTO an. In dieser Funktion wird Bochmann die Produktstrategie und Technologieentwicklung von DocuWare leiten und durch Produktinnovationen den Wettbewerbsvorsprung von DocuWare auf dem globalen Markt sichern. 

Benedikt Dischinger, Chief Financial Officer (CFO), hat seit seinem Einstieg bei DocuWare im Jahr 2016 eine Vielzahl von Aufgaben im Unternehmen übernommen – von der Überwachung strategischer Initiativen und der globalen Budgetplanung bis hin zur Gestaltung einer positiven und kollaborativen Unternehmenskultur durch Talentakquise und -entwicklung. In seiner neuen Rolle als CFO wird Dischinger die Abteilungen People & Culture, Corporate IT, Legal & Compliance sowie Strategy & Controlling leiten und weiterhin für den Bereich Finanzen verantwortlich sein. Zudem wird er Max Ertl als Mitglied des DocuWare Shareholder Advisory Board ablösen. 

Uta Dresch, Chief Operating Officer (COO), hat seit 2018 erfolgreich den Bereich Client Experience Management bei DocuWare aufgebaut. Die Abteilung entwirft Kunden- und Partner-Journeys, analysiert Feedback und entwickelt Strategien zur Optimierung der gesamten Kundenerfahrung sowie zur Steigerung der Kundenzufriedenheit und -bindung. In ihrer neuen Rolle als COO wird Dresch zusätzlich den globalen Customer Support, Professional Services sowie das Tagesgeschäft von DocuWare leiten. 

Hermann Schäfer, Chief Sales & Marketing Officer (CSMO), ist seit 2008 bei DocuWare tätig und hat seitdem verschiedene Schlüsselpositionen in der Vertriebsorganisation des Unternehmens übernommen. Er spielte eine zentrale Rolle bei der Entwicklung und Stärkung des Partnervertriebs in der EMEA-Region. Sein Engagement und seine Führungsqualitäten führten zu einem signifikanten Anstieg der DocuWare Partner weltweit sowie zu einem beträchtlichen Umsatzwachstum des Unternehmens. In seiner neuen Funktion als CSMO übernimmt Schäfer die globale Verantwortung für Vertrieb und Marketing bei DocuWare.  

Der Beitrag wurde ursprünglich hier veröffentlicht …

Von Künstlicher Intelligenz zum menschlichen Denken – Parallelen und Unternehmensanwendungen

Künstliche Intelligenz (KI) entwickelt sich rasant weiter und übernimmt in vielen Bereichen bereits Aufgaben, die für den Menschen herausfordernd oder zeitaufwendig sind. Einige Systeme sind uns in bestimmten Aspekten sogar voraus – etwa bei der Datenanalyse oder Mustererkennung. Dennoch unterscheidet sich KI grundlegend vom menschlichen Gehirn, insbesondere in der Art und Weise, wie sie Informationen verarbeitet und Entscheidungen trifft.

Parallelen zwischen KI und dem Gehirn

Das menschliche Gehirn steuert nicht nur kognitive Prozesse wie Lernen und Gedächtnis, sondern beeinflusst auch unser Verhalten, unsere Motivation und unsere Entscheidungen. Die Forschung beschäftigt sich zunehmend mit der Frage, wie neuronale Strukturen arbeiten und wie KI-Modelle davon profitieren können. Besonders spannend ist die Instabilität von Nervenzellen im Hippocampus, die für räumliches Lernen und Erinnerungen zuständig sind. KI kann helfen, solche Mechanismen besser zu verstehen, indem sie neuronale Muster analysiert und identifiziert.

KI als Unterstützung für Motivation und Produktivität in Unternehmen

Während KI in der Neurowissenschaft zur Erforschung des Gehirns eingesetzt wird, kann sie auch im Unternehmenskontext wertvolle Impulse liefern. Mitarbeitermotivation ist ein entscheidender Faktor für Unternehmenserfolg, und KI könnte dazu beitragen, die Arbeitsumgebung zu optimieren. Konkrete Einsatzmöglichkeiten sind:

Analyse von Mitarbeiterzufriedenheit: KI kann durch die Auswertung von Feedback oder Stimmungsanalysen Muster erkennen und Verbesserungsvorschläge liefern.

Personalisierte Weiterbildung: Durch KI-gestützte Lernplattformen können individuelle Schulungen und Entwicklungsmöglichkeiten angeboten werden.

Optimierung von Arbeitsprozessen: KI kann Produktivitätsmuster analysieren und Vorschläge für bessere Arbeitsbedingungen, Pausenmanagement oder flexible Arbeitszeiten liefern.

Fazit

Obwohl KI immer leistungsfähiger wird und sich in einigen Bereichen dem menschlichen Gehirn annähert, ist sie weit davon entfernt, Emotionen oder Bewusstsein zu entwickeln. Dennoch gibt es spannende Überschneidungen: Einerseits kann KI helfen, neuronale Mechanismen besser zu verstehen, andererseits kann sie auch im Unternehmenskontext genutzt werden, um Arbeitsprozesse zu verbessern und Motivation zu fördern. Die Verbindung zwischen KI, menschlichem Denken und Unternehmensführung ist also ein spannendes Forschungsfeld mit viel Potenzial.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Der deutsche E-Commerce 2025 unter Innovationsdruck

Das erste Mal seit 2022 liegen die  Umsatzzahlen des deutschen E-Commerce wieder über dem Vorjahresniveau. Und das, obwohl die Wirtschaft hierzulande nach jüngsten Zahlen 2024 schrumpfte. Dass die Umsatzzahlen des E-Commerce wieder am gewohnten Muster des stetigen Wachstums anknüpfen, sorgt in der Branche für Erleichterung. Aber manche Veränderungen sind gekommen, um zu bleiben: Gestiegene Logistikkosten, instabile Lieferketten und immer anspruchsvolleres Kundenverhalten machen auch 2025 den Weg zur Profitabilität zu einer Gradwanderung. Und nur ein ganzheitlicher Blick auf Kunden, Produkte und Unternehmen vermeidet bei dieser Gradwanderung Fehltritte.

Ein ganzheitlicher Blick: Von A wie Auftrag bis Z wie Zurück

Einen umfassenden Rundumblick über die eignen Verkaufsaktivitäten von Konzeption bis Retoure sollte inzwischen jeder Händler haben. Denn nur so kann kundenzentriertes Arbeiten und der Aufbau einer möglichst tiefen und langfristigen Kundenbeziehung gelingen – und das ohne Profitabilität einzubüßen. Händler müssen endlich verstehen, dass das Geld, das sie in aufwendige Marketingaktionen investieren, später wieder verpufft, wenn das Retourenmanagement und die Services nach dem Kauf nicht lösungsorientiert aufgesetzt sind. Dabei geht es bei Kundenkomfort und -service nicht darum, Verbraucher nicht auch in die Verantwortung für ihr Bestellverhalten zu nehmen.

Beispielsweise satteln seit einigen Monaten kleine als auch große Namen der Fashion-Händler von kategorisch kostenfreien Rücksendungen um, auf Modelle, die bestimmte Kunden bei einer Rücksendung zur Kasse bitten. Doch braucht es hier individuelle Retourenlösungen, um der Kostenlast entgegenzuwirken.

Warum ausgerechnet an den lange bestehenden kostenfreien Retouren angesetzt wird: Wie jüngste Daten der Statista Market insights zeigen, gehen weltweit 12,7 Prozent des Gesamtumsatzes von Modeunternehmen im E-Commerce verloren, indem Verbraucher Produkte zurückschicken. Dabei geht nicht nur Umsatz verloren, die hohe Retourenquote bindet im Kundenservice, der Logistik und in der Buchhaltung Ressourcen.

Aus Kostenfalle wird Wettbewerbsvorteil

Mit diesen Daten lässt sich leicht nachvollziehen, wie das Image der Rücksendethematik als Margenkiller entstand. Der Trend weg von kostenfreien Retouren ist jedoch keineswegs als reines Gegensteuern zu verstehen: Für das laufende Jahr zeichnet sich eher ab, dass ein Umdenken stattfinden muss. Das Rücksende- und Retourengeschäft wird nicht mehr nur als Kostenfaktor betrachtet, sondern als strategischer Hebel. Denn Silolösungen, sind nicht der Weg zu mehr Gewinn. Bevor Onlineshops kategorisch die Kosten für Rücksendungen an die Verbraucher weitergeben, lohnt sich eine Analyse des Retourenverhaltens des eigenen Kundenstammes.

Denn Händler werden immer vertrauter damit, dass nicht hinter jeder Rücksendung ein unzufriedener Kunde steckt und dass nicht jede Rücksendung einen reinen Verlust durch zusätzlichen Aufwand darstellt. Vor diesem Hintergrund gilt es die Viel-Retournierer von den Kunden, die nur gelegentlich Waren zurücksenden, zu unterscheiden. Für diesen Zweck sind die Erkenntnisse aus herkömmlichen Retouren- und Rücksendeinfrastrukturen jedoch nicht ausreichend. Es bedarf einer Digitalisierung des Retourenmanagements, was wiederum die Verknüpfung von Daten ermöglicht. Erst mit dieser Grundlage eröffnet sich für Händler die Möglichkeit einer aktiven Steuerung von Retouren und Reklamationen.

Händler, die sich vor Augen führen, dass diese aktive Steuerung die letzte Etappe des Kundenerlebnisses beeinflusst, können aus der Digitalisierung der Rücksendungsinfrastruktur einen Wettbewerbsvorteil ziehen. Denn den Viel-Retournierer zu erkennen, spart Kosten, während der durch Digitalisierung vergrößerte Handlungsspielraum die Kundenbindung allgemein stärkt.

Keine rein analoge Zukunft für den Handel

Ob nun unter den Gesichtspunkten anspruchsvollerer Kunden, Profitabilität, oder verschärften Marktbedingungen, Händler müssen 2025 innovativ werden und Veränderungen vorantreiben. Sie können sich keine Totenwinkel in ihren Prozessen mehr leisten, denn Händler werden immer mehr von Konkurrenz verdrängt, die mit dieser Herausforderung besser zurechtkamen. Die positiven Effekte von Maßnahmen, die Kundendaten heranziehen und vor allem die Verknüpfung dieser Daten, spielt eine immer größere Rolle für die Zukunft des E-Commerce.

Hinzukommt die wachsende Rolle von Social-Commerce, Influencer-Marketing und Technologien wie künstlicher Intelligenz. Der deutsche Handel, besonders der Mittelstand, hinkt in Sachen Digitalisierung hinterher – während große internationale Händler mit diesen neuen Marktinstrumenten bereits Erfolge erzielen.

Händler, die Erkenntnisse und Daten aus Rücksendungen beispielsweise an die Produktentwicklung oder Marketing weitergeben, schaffen eine Informationsinfrastruktur, in der jede Schnittstelle zum Kunden die Möglichkeit bietet, das Wissen über ihn und dadurch auch die Beziehung zu vertiefen. Und mit genaueren Kundenprofilen werden personalisierte Angebote effektiver, während selektive Rücksendegebühren eine Möglichkeit werden Kosten zu senken.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Management-Expertin: Kampf der Excel-Wirtschaft

Jane Enny van Lambalgen, CEO der Beratungs- und Managementfirma Planet Industrial Excellence, stellt fest, dass in vielen Unternehmen Excel als heimliches ERP und CRM dient. Sie empfiehlt: „2025 sollten die Unternehmen der betriebsinternen Excel-Wirtschaft endlich den Garaus machen“. Bei Projekten stellt sie immer wieder fest, dass Microsoft Excel in vielen Firmen an unzähligen Stellen für Aufgaben eingesetzt wird, für die das Tabellenkalkulationsprogramm überhaupt nicht gedacht ist. So würden häufig Betriebsprozesse, die „eigentlich“ ins ERP- oder CRM-System gehörten, von den Beschäftigten in Excel-Tabellen durch­geführt.

Management-Expertin: Kampf der Excel-Wirtschaft

Jane Enny van Lambalgen wundert sich: „Die Unternehmen haben Salesforce, Hubspot, Zoho, Pipedrive, Monday, MS Dynamix und sonstige CRM-Systeme, aber gearbeitet wird weiterhin mit Excel.“ Bei Beratungsprojekten hat sie hierfür drei Gründe ausgemacht: Erstens das Beharren auf einmal eingeführten Prozessen aus Bequemlichkeit („Das-haben-wir-schon-immer-so-gemacht-Syndrom“), zweitens die Scheu vor dem Aufwand zur Einarbeitung in ein neues System, und drittens die Angst davor, die Kontrolle über Informationen und Prozesse zu verlieren. Die Managementexpertin weiß aus der Beratungspraxis: „Die ersten beiden Gründe kommen bei behutsamem Nachhaken ans Tageslicht, weil sie im Grunde offensichtlich sind. Aber die Angst vor einem möglichen Kontrollverlust spricht niemand im Betrieb offen aus.“ Dabei sei dieser Angstfaktor der „entscheidende Knackpunkt im Kampf gegen die heimliche Excel-Wirtschaft“. 

Jane Enny van Lambalgen weiß aus vertraulichen Projektgesprächen: „Viele Beschäftigte betrachten die Informationen in ihrer Excel-Tabelle als ihr Besitztum, während die Daten im ERP- oder CRM-System nur der Firma gehören. Aufgrund dieser emotionalen Unterscheidung ist Excel so schwer auszurotten.“

Excel-Schattenreiche losgelöst von ERP und CRM

Daher findet die Managementberaterin bei Projekten in der Regel „unzählige Excel-Inseln mit teilweise abenteuerlichen Tabellen-Varianten“ vor. Jane Enny van Lambalgen: „Häufig stoßen wir auf ganze Schattenreiche völlig losgelöst vom ERP- oder CRM-System, von denen die IT-Verantwortlichen nicht einmal etwas ahnen.“

Die Schatten-IT bringt zahlreiche Probleme mit sich, klärt die Expertin auf, von Produktivitätseinbußen bis hin zu gravierenden Sicherheitslücken. Sie gibt ein Beispiel: „Wir finden bei Projekten immer wieder Excel-Listen mit Login-Daten zum Firmennetzwerk, manchmal nur für eine Person, gelegentlich sogar für ganze Teams oder Abteilungen, um betriebliche Stellvertreterregelungen zu umgehen. Viel leichter kann man es Hackern gar nicht machen.“ Nach Schätzungen der Managementexpertin „schlummern Tausende derartiger Sicherheitsbomben in deutschen Unternehmen.“ Sie verweist auf den IT-Branchen­verband Bitkom, nach dessen Recherchen 2024 acht von zehn Unternehmen in Deutschland von Cyber­angriffen betroffen waren mit einem Gesamtschaden von 267 Milliarden Euro. „Die Excel-Schattenwirtschaft hat dabei zweifelsohne eine nicht unerhebliche Rolle gespielt“, ist die Beraterin überzeugt.

Unternehmensführung mit falschen KPIs 

Unabhängig von den Sicherheitsrisiken erschwerten die Excel-Inseln die Unternehmenssteuerung, sagt Jane Enny van Lambalgen. Sie erklärt die Zusammenhänge: „Viele C-Level-Manager führen ihre Abteilungen und Firmen nach KPIs, also Key Performance Indicators, anhand von ERP- und CRM-Daten, die gar nicht der Realität entsprechen, weil sich die richtigen Informationen in den Excels verstecken.“ 

Bei Projekten stößt die Beraterin eigenen Angaben zufolge „immer wieder auf Vertriebs­entscheidungen, die schlichtweg auf falschen Daten aus der Verkaufsabteilung basieren.“ Die Vertriebsmitarbeiter hielten häufig ihre besten Kundenchancen in geheimen Excel-Tabellen, um erstens den internen Abschlussdruck abzumildern, zweitens sich nicht allzu leicht austauschbar zu machen, und drittens Kontakte für den Fall eines Wechsels zur Konkurrenz in der Hinterhand zu haben, weiß die Beraterin aus vertraulichen Gesprächen. 

„Die geheime Excel-Wirtschaft zieht sich durch alle Abteilungen“, hat Jane Enny van Lambalgen festgestellt, „von der Ablage wichtiger Informationen wie auf einem Notizzettel bis zur umfangreichen Datenanalyse und Visualisierung ist Excel häufig das bevorzugte Werkzeug.“ Die Abschaffung der Schatten-IT 2025 hält die Managementberaterin auch deshalb für wichtig, um „den Weg freizumachen für den Einsatz von KI-Tools in den nächsten Jahren.“ Sie erklärt: „Künstliche Intelligenz funktioniert nur, wenn die zugrundeliegende Datenbasis stimmt. Dazu ist es unerlässlich, die geheimen Excel-Daten in die ERP- und CRM-Systeme zu überführen. Wenn das nicht gelingt, wird die deutsche Wirtschaft von den Produktivitäts-, Effizienz- und Kostenvorteilen der KI nicht profitieren können.“

 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Fertigungsindustrie droht Rückfall durch zögerliche Digitalisierung

Eine neue Studie von IFS, dem führenden Anbieter von Cloud- und KI-Software für Unternehmen, verdeutlicht, dass die Fertigungsindustrie an einem kritischen Wendepunkt steht. Obwohl sich Produktionsunternehmen der Notwendigkeit einer digitalen Transformation bewusst sind, verhindern fehlende Strategien und ein Überangebot an technologischen Lösungen ein entschiedenes Handeln. 

Fertigungsindustrie droht Rückfall durch zögerliche Digitalisierung

Die Umfrage unter 815 internationalen Führungskräften aus dem produzierenden Gewerbe zeigt, dass zwar alle Befragten den Einsatz von Technologie als überlebenswichtig für ihr Unternehmen ansehen, allerdings bezeichnen sich nur 10 % als digitale Vorreiter. 65 % der Befragten stuften sich hingegen selbst als Nachzügler in Sachen Digitalisierung ein, die gefährlich weit zurückliegen, in den frühen Phasen der digitalen Transformation stecken geblieben sind und keinen konkreten Plan für die nächsten Schritte erstellt haben. 

Die Studie von IFS kommt zu weiteren alarmierenden Ergebnissen: 82 % der Hersteller gaben an, dass ihr Unternehmen nicht länger als ein bis drei Jahre überleben wird, wenn es sich nicht stärker im Technologiebereich engagiert. Die Dringlichkeit ist eindeutig – Marktturbulenzen, Unterbrechungen in der Lieferkette und die drohenden Auswirkungen des Klimawandels machen die digitale Transformation zu einer Notwendigkeit, nicht zu einer Option. Im Gegensatz dazu sind digital führende Unternehmen zuversichtlich, dass sie auch kommende Herausforderungen überstehen werden. Mehr als ein Viertel von ihnen (28 %) glaubt, bis zu fünf Jahre ohne neue Investitionen auskommen zu können.  

Überangebot verhindert Investitionen​

Die Ergebnisse zeigen ebenfalls, dass die Vielzahl an unterschiedlichen Optionen und Angeboten Unternehmen oftmals an einer Entscheidung hindert. Auf die Frage nach den Prioritäten der Technologien benannten mehr als 80 % der Befragten jede Option als wichtig. Eine Orientierungslosigkeit, die ein entschlossenes Handeln verhindert. 

Die Entscheidungshemmung der Hersteller wird zusätzlich dadurch verstärkt, dass jede Führungsebene andere Prioritäten setzt. Nahezu alle Befragten auf dem C-Level (94 %) sind der Ansicht, dass Cloud Computing die wichtigste Technologie für die digitale Transformation ist, während auf Ebene der Bereichs- und Abteilungsleiter die Mehrheit am ehesten IoT (Internet of Things) als die zentrale Technologie ansieht (81 %). Operative Mitarbeiter betrachten wiederum digitale Zwillinge (85 %) und Künstliche Intelligenz (84 %) als vorrangig. Diese Unentschlossenheit vergrößert die Kluft zwischen Nachzüglern und digital führenden Unternehmen – die 45 % ihres IT-Budgets in Transformationsprojekte investieren. 

Ein Fünftel der Befragten gab an, dass das Change Management (22 %) und die Komplexität der IT (21 %) die größten Hindernisse darstellen. Wenn es den Herstellern nicht gelingt, diese zu überwinden, riskieren sie starke wirtschaftliche Einbußen. Auch im ESG-Bereich (Environmental, Social and Governance) besteht Handlungsbedarf: Während lediglich 39 % der Befragten aktiv ESG-Initiativen entwickeln, fehlt es den meisten Herstellern (71 %) an einer glaubwürdigen Strategie. Gleichzeitig sehen 28 % den Klimawandel als größte Herausforderung an. 

Dennoch Grund für Optimismus 

Obwohl die Umsetzung digitaler Transformationsprojekte viele Herausforderungen mit sich bringt, herrscht auf Seiten der Hersteller eine positive Grundstimmung – und viele setzen bereits auf Next Generation Tools. Insbesondere im Bereich der Lieferketten zeigen fast alle Unternehmen (98 %) Interesse an neuen geografischen Strategien, um die Resilienz zu stärken – etwa durch die Verlagerung in näher gelegene oder politisch stabilere Regionen. Digitale Vorreiter setzen dabei auf fortschrittliche Technologien wie erweiterte Szenario-Simulationen, während Nachzügler häufig noch auf isolierte Risikobewertungstools zurückgreifen.   

Auch im Hinblick auf den CO2-Fußabdruck zeigen sich produzierende Unternehmen zunehmend zuversichtlich, was die Chancen durch ESG-Initiativen angeht. Der Fokus verschiebt sich von rein regelkonformen Maßnahmen hin zu Aktivitäten, die tiefgreifende Verbesserungen bei Durchlaufzeiten und Qualität bewirken. Gleichzeitig eröffnen diese Ansätze Potenziale für innovative Geschäftsmodelle wie die Kreislaufwirtschaft, die eine nachhaltige Transformation der Branche vorantreiben könnten. 

„Die Fertigungsindustrie steht an einem Wendepunkt – obwohl die meisten Unternehmen die Dringlichkeit der digitalen Transformation erkannt haben, dominiert noch zu oft die Unentschlossenheit“, erklärt Maggie Slowik, Industry Director für Manufacturing bei IFS. „Sie warten auf bewährte Ergebnisse oder die Unterstützung durch einen vertrauenswürdigen Partner, bevor sie handeln. Dieses Zögern birgt Risiken: Je länger Hersteller abwarten, desto weiter fallen sie zurück. In einem volatilen Markt sind Resilienz und digitale Reife nicht nur Wettbewerbsvorteile – sie sind essenziell für das Überleben. Bei IFS liefern wir nicht nur die dafür notwendigen Technologien, unsere Industrial-AI-Strategie bietet Herstellern auch einen klaren Fahrplan, um sich als digitale Marktführer zu positionieren. Unternehmen, die die Führung in der digitalen Transformation übernehmen, werden gestärkt, flexibler und besser vorbereitet sein, um künftige Herausforderungen und Disruptionen erfolgreich zu meistern.“   

Methodik 

Die von dem Marktforschungsunternehmen Censuswide durchgeführte Studie umfasst eine Stichprobe von 815 Führungskräften im Bereich Fertigung mit einem Unternehmensumsatz von mindestens £150 Mio. in folgenden Ländern: Großbritannien, Deutschland, Österreich, Schweiz, Niederlande, Norwegen, Schweden, Frankreich, Japan, USA, Polen, Tschechische Republik, Singapur, Australien, Saudi-Arabien, Vereinigte Arabische Emirate, Belgien, Kanada und Indonesien.   

Censuswide befragte insgesamt mindestens 50 Teilnehmer aus den folgenden Teilbranchen: Automobilindustrie, Chemie, Lebensmittel & Getränke, industrielle Fertigung, High-Tech (einschließlich Medizintechnik) und Life Sciences. Die Befragten stammen gezielt aus den Abteilungen Fertigung/Produktion, Lieferkette, Beschaffung, Finanzen, Betrieb, Forschung & Entwicklung, Unternehmensstrategie und Logistik (gleichmäßige Verteilung insgesamt). Die Datenerhebung fand zwischen Juni und Juli 2024 statt. 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die ultimative Checkliste für resiliente Netzwerke

Downtimes und langsame Verbindungen sind für viele Unternehmen die Endgegner. Eine hohe Netzwerkresilienz ist das beste Hilfsmittel im Kampf gegen sie. Opengear hat daher eine Checkliste erstellt, die sich Administratoren über den Laptop hängen sollten.

Die ultimative Checkliste für resiliente Netzwerke

Im Arbeitsalltag von Netzwerkadministratoren kommt der Begriff „Langeweile“ nicht vor: Von Updates der Router und Switches bis zur Anbindung neuer Clients und Standorte sowie der Überwachung und Analyse des Traffics – das Aufgabenspektrum ist riesig. Und allein eine dieser Aufgaben zu vernachlässigen, kann zum größten anzunehmenden Unfall führen – die Downtime als Super-GAU sozusagen. Um stabile, sichere und resiliente Netzwerke zu garantieren, sollten Administratoren daher immer wieder die Checkliste von Opengear, Anbieter von Out-of-Band-Managementlösungen zum Schutz kritischer Infrastrukturen, konsultieren und prüfen, ob sie irgendeinen der folgenden Punkte vernachlässigt haben:

1. Allgemeine Netzwerkarchitektur und Redundanz

Netzwerkadmins sollten durch eine Ring- oder Mesh-Topologie sicherstellen, dass ihr Netzwerk redundant aufgebaut ist. Auch die sogenannte Hardware-Redundanz, also der Einsatz redundanter Netzwerkgeräte wie Router, Switches oder Firewalls ist ebenfalls essenziell. Neben topologischer und gerätetechnischer Redundanz ist auch Multi-Homing ein Puzzlestück auf dem Weg zur Redundanz: Es gilt, Netzwerkverbindungen zu mehreren Internet-Providern einzurichten. Nicht zuletzt ist es wichtig, das Load Balancing zu optimieren und Lastverteilungsmechanismen zu implementieren.

2. Resilienz durch Alternativnetze

Konsolenserver und Out-of-Band-Netzwerke zu nutzen, um auch bei Ausfall des Produktivnetzwerks auf die Netzwerkgeräte zugreifen zu können, ist ein Kernaspekt beim Aufbau von Netzwerkresilienz. Mit 4G- oder 5G-Fallbacks können Administratoren zudem den Traffic bei Downtimes über den Mobilfunk umleiten und somit auch beim Ausfall stabile Verbindungen gewährleisten. Im besten Fall gibt es sogar eine Failover-Funktion von einer SIM-Karte zu einer zweiten eines anderen Telekommunikationsanbieters, falls der erste Cellular-Provider auch Probleme haben sollte.

3. Monitoring und Überwachung

Echtzeit-Monitoring-Systeme sind ein wichtiges Asset im Kampf gegen Downtimes, denn sie erlauben die Überwachung des Traffics und der Netzwerkgeräte. Administratoren sollten zudem regelmäßig die Netzwerk- und Sicherheitslogs überprüfen und Alerting-Systeme in Betrieb nehmen, die bei Anomalien oder Ausfällen sofort Alarm schlagen.

4. Sicherheitsmaßnahmen

Eine engmaschige Firewall ist obligatorisch. Jedoch müssen Netzwerkadministratoren die Konfiguration und die angewandten Regeln regelmäßig überprüfen und aktualisieren. Intrusion-Detection- und Intrusion-Prevention-Systeme (IDS/IPS) sollten sie ebenfalls einsetzen, genau wie VPNs. Gerade bei Letzteren ist es wichtig, die VPN-Tunnel für Remote-Zugriffe immer wieder zu kontrollieren. Zu den Aufgaben der Netzwerkadministratoren gehört auch, für die Verschlüsselung aller Daten während der Übertragung zu sorgen und strikte Zugangskontrollen (etwa Multi-Faktor-Authentifizierung) für den Zugriff auf systemrelevante Infrastrukturen zu implementieren.

5. Backups und Wiederherstellung

Regelmäßige Backups von Konfigurationsdateien der Router, Switches, Firewalls und Konsolenserver sind wichtig, um nach einem Ausfall schnell wieder ans Netz gehen zu können. Für eine Beschleunigung dieser Prozesse sorgen Disaster-Recovery-Pläne, die zu festen Zeitpunkten getestet werden sollten. Eine automatisierte Backup-Strategie für wichtige Daten ist ebenfalls empfehlenswert.

6. Software- und Firmware-Management

Wie bei jeder Hardware ist es auch für Netzwerkgeräte wichtig, dass sie regelmäßig Software- und Firmware-Updates erhalten. Administratoren müssen darüber hinaus kontinuierlich die Bedrohungslandschaft checken und Schwachstellenanalysen durchführen – und identifizierte Sicherheitslücken umgehend fixen.

7. Kapazitätsplanung und Leistung

Zu den täglichen Aufgaben von Netzwerkadministratoren gehört auch die regelmäßige Überprüfung der Netzwerkbandbreite und -kapazität sowie die Durchführung von Lasttests. Nur so können sie mögliche Engpässe identifizieren und vorsorgen. Tools und Methoden, um geschäftskritische Anwendungen bei der Nutzung des Netzwerks zu priorisieren (Quality of Service), sind unbedingt zu nutzen.

8. Dokumentation und Prozesse

Um neuen Netzwerkadministratoren das Leben zu erleichtern, ist eine aktuelle und detaillierte Dokumentation der Netzwerktopologie und der entsprechenden Konfigurationen unabdingbar. Auch eine ständig aktualisierte Liste von Notfallkontakten bei Internet-Providern, Hardware-Lieferanten und externen Dienstleistern ist wichtig. Prozesse für den Umgang mit Downtimes oder Sicherheitsvorfällen sollten klar definiert sein.

9. Schulung und Awareness

Zu einer guten Resilienzstrategie gehört auch, alle Mitarbeitenden in Sachen Netzwerksicherheit zu schulen und ihnen Best Practices beizubringen. Regelmäßige Testsimulationen von Netzwerkausfällen sind eine gute Methode, um die Reaktionsfähigkeit der Teams zu überprüfen.

10. Physische Sicherheit

Auf die Netzwerkgeräte sollte grundsätzlich nur autorisiertes Personal physischen Zugriff erhalten, insbesondere auf große Rechenzentren. Gleichzeitig sollten Sensoren installiert werden, die etwa Temperatur und Luftfeuchtigkeit überwachen, damit die Hardware unter optimalen Bedingungen läuft.

11. Audits und Reviews

Zu guter Letzt sind regelmäßige Durchführungen von internen und externen Sicherheitsaudits sowie die kontinuierliche Anpassung der Netzwerkresilienzstrategie von entscheidender Bedeutung.

„Netzwerkadministratoren, die sich an diese Checkliste halten, verringern das Risiko, etwas zu übersehen“, erklärt Dirk Schuma, Sales Manager EMEA North bei Opengear. „So verhindern sie unangenehme Zwischenfälle und vermeidbare Downtimes.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

„Intelligente Zerspanung“ für die fertigende Industrie

Gemeinsam mit dem Fraunhofer-Institut für Produktionstechnologie IPT in Aachen als Projektkoordinator sowie den Firmen gemineers, Innoclamp und Kaitos arbeitet das Kölner RWTH-Startup dataMatters an der „intelligenten Zerspanung“. Ziel ist es, durch den Einsatz von Künstlicher Intelligenz (KI) die hohen Qualitätsanforderungen in der zerspanenden Industrie besser und kostengünstiger zu erfüllen.

„Intelligente Zerspanung“ für die fertigende Industrie

„Real World AI“ nennt dataMatters-Gründer Dr. Daniel Trauth sein Geschäfts­konzept. Er erklärt: „Während sich die breite Öffentlichkeit auf generative KI stürzt, um Texte und Bilder zu erzeugen, legen wir den Fokus auf die Verbindung der KI mit der realen Welt, von der Smart Factory über Smart Buildings bis hin zur Smart City.“

Die Zerspanung, bei dem Werkstoff durch Drehen, Bohren, Fräsen oder Schleifen in die gewünschte Form und Größe gebracht wird, bildet in vielen Industriezweigen eine wesentliche Grundlage der Fertigungstechnik, von der Automobilproduktion bis zur Herstellung medizinischer Instrumente. Fehler im Zerspanungsprozess können schwerwiegende Folgen haben, die von Produkt­ausfällen bis hin zu Sicherheitsproblemen reichen. Strenge Qualitätskontrollen sind daher unerlässlich, aber auch zeitaufwändig und teuer. „Die automatisierte Überwachung und Analyse von Produktions­prozessen mittels KI kann die Prüfzeiten und den Kostenaufwand für die Qualitätssicherung erheblich reduzieren und die Genauigkeit der Qualitätsbewertung verbessern“, erklärt Dr. Daniel Trauth den Nutzen von „Real World AI“ anhand dieses Anwendungsbeispiels.

Die „intelligente Zerspanung“ ist Teil des Forschungsprojekts „FL.IN.NRW“, das von der Europäischen Union und dem Land Nordrhein-Westfalen im Rahmen des EFRE/JTF-Programms NRW 2021-2027 gefördert wird (Europäischer Fonds für regionale Entwicklung EFRE und Fonds für den gerechten Übergang, Just Transition Fund JTF). Das Projekt läuft bis 2027.g

Fraunhofer-IPT erklärt das Projekt genauer:

Im Forschungsprojekt „FL.IN.NRW“ entwickeln wir gemeinsam mit unseren Partnern eine Lernplattform zum dezentralen Training von prädiktiven KI-Modellen. Als ersten Anwendungsfall untersucht unser Projektteam den komplexen Prozess der Zerspanung: Die Vielzahl an Werkzeug- und Prozess­parametern in der Zerspanung ist eine Herausforderung für die Qualitätskontrolle, die sich meist nur durch zeitaufwändige manuelle Prüfungen der Bauteile bewältigen lässt.

Indem wir die Modelle mit Prozessdaten direkt aus der Produktionsmaschine trainieren, kann die KI Qualitätsprobleme während der Zerspanung erkennen: Abweichungen im gewünschten Bauteilprofil aufgrund von Werkzeugverschleiß werden durch Schwankungen in der Spindellast und im Spanndruck erkannt. Das KI-Modell detektiert dieses Werkzeugverhalten sofort als Maßabweichung außerhalb festgelegter Toleranzen. Dadurch können zeitaufwändige Qualitätskontrollen bedarfsgerecht durchgeführt und erheblich reduziert werden, was die Qualitätssicherung und Herstellung effizienter macht.

Datenschutzrisiken und Kostennachteile bei der Nutzung zentraler Cloud-Dienste

Bislang setzen Unternehmen bei der Entwicklung ihrer KI-gestützten Qualitätskontrolle auf zentrale Cloud-Dienste, um teure Anfangsinvestitionen für eine lokale digitale Infrastruktur zu vermeiden. Die große Menge an Produktionsdaten, die in der Cloud gespeichert werden, befinden sich jedoch außerhalb der unternehmenseigenen Kontrolle und sind daher größeren Datenschutz- und Daten­sicherheitsrisiken ausgesetzt. Zudem können die fortlaufenden, serviceabhängigen Gebühren von Cloud-Diensten langfristig zu einem Kostennachteil für die Unternehmen werden.

Dezentrales KI-Training für mehr Kosteneffizienz und Datenhoheit

Das maschinelle Lernverfahren des Federated Learning ermöglicht es kleinen und mittleren Unter­nehmen, die Vorteile von KI für ihre Qualitätskontrolle zu nutzen und gleichzeitig den Datenschutz und die Datensicherheit ihrer sensiblen Produktionsdaten zu gewährleisten:

Die Daten verbleiben sicher auf lokalen Servern, während sie für das dezentrale, kollaborative Training von noch leistungsstärkeren KI-Modellen verwendet werden können. Über mehrere Unternehmens­standorte hinweg wird das KI-Modell in einem Netzwerk lokaler Geräte und Unternehmensserver trainiert, ohne dass die Fertigungsdaten die lokalen Datenbanken verlassen. Nur die Modellparameter werden an einen zentralen Server gesendet, wo sie aggregiert und zu einem globalen Modell zusammengeführt werden, so dass die Datenhoheit bei den Unternehmen verbleibt.

Dr. Daniel Trauth ordnet ein: „Real World AI umfasst drei Komponenten: die Datenerfassung mittels Sensorik, die Sammlung der Informationen in einem geschützten Datenraum und die anschließende Auswertung durch bzw. das Training von KI-Algorithmen. Wir kümmern uns bei Projekten in der Regel um die Erfassung und stellen die benötigten technisch abgesicherten und rechtssicheren Datenräume bereit. Der Kunde kann dann entscheiden, ob er die KI-Auswertung in unseren Datenräumen oder auf seinen eigenen Servern vornehmen will.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Warum offene Plattformen 2025 der Gamechanger für die KI werden

Künstliche Intelligenz wird auch 2025 ein entscheidender Treiber für die Innovations- und Wettbewerbsfähigkeit von Unternehmen sein. Die Dynamik dieser Technologie bringt aber nicht nur Chancen, sondern auch Herausforderungen mit sich. Aus Sicht von Markus Eisele, Developer Strategist bei Red Hat, sollten IT-Verantwortliche und Führungskräfte im kommenden Jahr auf fünf Entwicklungen achten, um ihr Unternehmen erfolgreich zu transformieren.

Warum offene Plattformen 2025 der Gamechanger für die KI werden

KI verändert kontinuierlich die Art und Weise, wie Unternehmen arbeiten, Entscheidungen treffen und ihre Geschäftsmodelle skalieren. Doch welche Themen werden sich 2025 durchsetzen? Und mit welchen Technologien und Strategien lassen sich die Herausforderungen der Zukunft meistern? Red Hat listet die wichtigsten Trends auf.

Trend 1: Demokratisierung der KI

Der Fachkräftemangel in der IT ist kein neues Problem, aber im Kontext von KI hat er dramatische Auswirkungen. Während die Nachfrage nach entsprechenden Lösungen exponentiell wächst, fehlt es vielen Unternehmen an spezialisierten Fachkräften, um die Technologie schnell und effektiv zu entwickeln und zu implementieren. Eine Studie von Red Hat zeigt, dass 88 Prozent der IT-Verantwortlichen in Deutschland KI-Kompetenzen als die größte Qualifikationslücke sehen. Hier kommt die Demokratisierung der KI ins Spiel: Moderne KI-Plattformen wie Red Hat OpenShift AI oder RHEL AI senken die Einstiegshürden für Entwicklerteams. Diese Tools sind so konzipiert, dass sie ohne tiefes Expertenwissen eingesetzt werden können, wodurch Unternehmen die Innovationskraft ihrer bestehenden Belegschaft stärken. Solche Low-Code- und No-Code-Ansätze beschleunigen die Entwicklung und machen KI für eine breitere Zielgruppe zugänglich.

Trend 2: DevOps, MLOps und Platform Engineering

In einer immer komplexer werdenden IT-Landschaft werden flexible, interdisziplinäre Teams zur treibenden Kraft für Innovation. Die Integration von DevOps- und MLOps-Ansätzen in sogenannte Platform-Engineering-Initiativen ermöglicht es, Prozesse effizienter zu gestalten. Platform Engineering schafft die Basis, um Entwickler, Data Scientists und Betriebsteams zusammenzubringen. Diese kollaborative Arbeitsweise reduziert Reibungsverluste, etwa bei einem Tool-Wechsel. Ein entscheidender Baustein sind integrierte Entwicklerportale (IDPs). Diese bieten allen Teammitgliedern einen zentralen Zugriff auf Tools, Workflows und vorkonfigurierte Umgebungen. Das beschleunigt nicht nur den Entwicklungsprozess durch die Minimierung repetitiver Aufgaben, sondern verbessert auch die Qualität der Anwendungen und schafft Freiräume für neue Lösungsansätze. Laut einer aktuellen Untersuchung von Red Hat sind die wichtigsten Gründe für die Einführung von Platform Engineering die Erhöhung der Sicherheit (48 %), die Verbesserung der Zusammenarbeit (44 %) und die Beseitigung betrieblicher Engpässe (39 %). Gleichzeitig wird generative KI als wichtige Komponente angesehen (45 %).

Trend 3: Offene Plattformen statt Insellösungen

Die effiziente Entwicklung, Bereitstellung und Verwaltung von KI-Anwendungen ist eine der größten Herausforderungen für Unternehmen. Offene Plattformen bieten hier einen entscheidenden Vorteil, da sie die Flexibilität fördern und gleichzeitig die Komplexität reduzieren. Viele Unternehmen setzen nach wie vor auf Insellösungen, die spezifische Anforderungen erfüllen, jedoch nur eingeschränkt miteinander kompatibel sind. Diese Fragmentierung führt zu ineffizienten Entwicklungszyklen, erhöhtem Ressourcenaufwand und einer erschwerten Integration neuer Technologien. Gerade in der KI, wo Daten, Modelle und Anwendungen nahtlos zusammenarbeiten müssen, sind offene Plattformen der Gamechanger. Sie ermöglichen eine standardisierte Bereitstellung und zentrale Verwaltung von KI-Modellen, sodass alle Prozesse – vom ersten Prototyp bis hin zur Skalierung der Lösung – optimiert werden. Ein weiterer Vorteil sind die integrierten Sicherheits- und Governance-Funktionen. Automatisierte Mechanismen für Zugriffskontrolle, Datenmanagement und Modell-Compliance sorgen dafür, dass Unternehmen regulatorische Vorgaben einhalten.

Trend 4: Expert Models und agentenbasierte Ansätze

Während große Foundation-Modelle wie GPT oder BERT nach wie vor die Grundlage vieler moderner KI-Anwendungen bilden, zeichnet sich ein deutlicher Trend hin zu spezialisierten „Expert Models“ und agentenbasierten Systemen ab. Diese Technologien sind effizienter, ressourcenschonender und anwendungsorientierter. Durch gezieltes Feintuning bestehender Modelle, beispielsweise mit Ansätzen wie InstructLab, entfällt die Notwendigkeit eines vollständigen Retrainings. Dies reduziert Entwicklungszeiten und Kosten. Agentenbasierte Frameworks wie das IBM BEE (Bee Agent Framework) treiben diese Entwicklung weiter voran, indem sie die Zusammenarbeit verschiedener Modelle in einer flexiblen Architektur ermöglichen. Agenten können für spezifische Aufgaben erstellt und bei Bedarf miteinander kombiniert werden.

Trend 5: Adaptive KI und Datenintegration in Echtzeit

Im Gegensatz zu statischen Modellen, die auf einmal trainierten Datensätzen basieren, nutzen adaptive KI-Systeme kontinuierlich aktualisierte Informationen, um Leistung und Entscheidungsfindung zu optimieren. Dies erfordert jedoch eine nahtlose Echtzeit-Datenintegration und leistungsfähige Technologien, die eine solche kontinuierliche Anpassung ermöglichen. Technologien wie Apache Kafka, Apache Camel und Change Data Capture (CDC) spielen dabei eine Schlüsselrolle. Mit ihrer Hilfe können Echtzeitdaten aus verschiedenen Quellen gesammelt, verarbeitet und bereitgestellt werden. Damit bleibt die Entscheidungsfindung stets auf dem neuesten Stand. Die Systeme können auf unerwartete Ereignisse oder veränderte Bedingungen reagieren, ohne dass ein vollständiges Retraining erforderlich ist.

Kurzum: Open-Source-Technologien werden 2025 dazu beitragen, die Innovationskraft von KI nachhaltig zu steigern. Sie bieten nicht nur Flexibilität und Skalierbarkeit, sondern ermöglichen auch eine effiziente Zusammenarbeit über Lösungen und Disziplinen hinweg. Unternehmen, die frühzeitig auf diese Trends setzen, verschaffen sich einen klaren Wettbewerbsvorteil.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Adieu 2G, und willkommen neue Welt

Inzwischen ist es offiziell: Die Deutsche Telekom schaltet ihr 2G-Netz voraussichtlich bis zum 30. Juni 2028 komplett ab, Vodafone plant eine schrittweise Umstellung bis Ende 2030. Das Aus der alten Mobilfunktechnologie wird einige Unternehmen kalt erwischen, sagt Chris Kramar, Managing Director OEM Solutions DACH bei Dell Technologies. 

Adieu 2G, und willkommen neue Welt

2G, gibt’s das noch? Ja, gibt es. Zwar gilt die jüngste Mobilfunkgeneration 5G in der Industrie als die Schlüsseltechnologie schlechthin. Denn nur sie macht die ultraschnelle Vernetzung von Maschinen möglich, ohne die eine Kommunikation in Echtzeit nicht funktionieren würde. Viel häufiger als man denkt ist jedoch 2G/GSM für Anwendungen im Bereich des Internet of Things und M2M (Machine to Machine) im Einsatz. Der Mobilfunkstandard, der fast schon nostalgische Gefühle weckt, wenn man an seine Entstehung in den 90er Jahren denkt, spielt in der modernen Industrie nach wie vor eine wichtige Rolle. Was ist der Grund dafür? Ganz einfach: seine Zuverlässigkeit.

2G bleibt in der Industrie unverzichtbar – noch

2G ist robust und funktioniert auch dort, wo neuere Technologien manchmal schwächeln – in abgelegenen Gebieten, in abgeschirmten Fabrikhallen oder unter widrigen Wetterbedingungen. Die Netzabdeckung ist nahezu flächendeckend und das Protokoll einfach. Gerade für ältere Maschinen und simple Anwendungen, bei denen nur geringe Datenmengen übertragen werden, reichte das bisher völlig aus. Hochmoderne Netze mit einer Bandbreite, die Videostreaming in Ultra-HD erlaubt, sind hier gar nicht notwendig. Ein gutes Beispiel sind Notsysteme in Aufzügen und ähnliche Alarmtechnik. Schätzungsweise die Hälfte der installierten Geräte wird über das GSM-Netz betrieben und ist in den meisten Fällen weder 4G- noch 5G-fähig. Von der Abschaltung betroffen sind auch zehntausende Autos, die zwischen 1996 und 2016 gebaut wurden: Sie verfügen zwar über Notruf- und Telematik-Funktionen, aber nur auf Basis von 2G oder dem bereits abgeschalteten 3G. Eine sinnvolle und vor allem bezahlbare Aufrüstmöglichkeit auf neue Mobilfunkgenerationen fehlt derzeit. Nicht zu vergessen sind per Mobilfunk vernetzte Sensoren und Aktoren in Strom-, Wasser- und Gasnetzen. Aber auch Anzeigetafeln an der Straßenbahnhaltestelle oder Ultraschallgeräte im Krankenhaus funken nach wie vor mit 2G.

Ein notwendiger Umbruch für eine vernetzte Zukunft

Alle diese Geräte und Systeme nachzurüsten oder zu ersetzen, wird eine Mammutaufgabe sein, die hohe Investitionen und viel Arbeitszeit erfordert. Zu befürchten sind auch Lieferengpässe bei den für die Umrüstung benötigten Komponenten oder begrenzte personelle Ressourcen bei den Dienstleistern. Deshalb sollten sich Unternehmen nicht zu viel Zeit lassen, um sich mit dem Thema auseinanderzusetzen und die für sie passende Lösung zu finden. Aber selbst bei bester Vorbereitung wird sich die eine oder andere über GSM realisierte Datenverbindung erst nach der Abschaltung des 2G-Netzes bemerkbar machen – nämlich dann, wenn es zu Ausfällen kommt.

Der Übergang wird ein Kraftakt, keine Frage. Aber er ist auch ein notwendiger Schritt in eine Welt, in der sich IoT- und M2M-Anwendungen ungehindert entfalten können. Jetzt gilt es, die Weichen zu stellen: Raus aus 2G und rein in die neue, vernetzte Zukunft.

Der Beitrag wurde ursprünglich hier veröffentlicht …