Die Lieferkette als primäres Ziel für Cyberangreifer

Mit dem stetigen Voranschreiten der digitalen Transformation in den letzten Jahren wurden Unternehmen zunehmend abhängig von zahlreichen Partnern und Lieferanten. Diese Verschiebung hat zu einer komplexeren IT-Infrastruktur geführt und signifikant die Angriffsfläche vergrößert, die Cyberkriminelle ausnutzen können. Sie haben es auf das schwächste Glied in der Lieferkette abgesehen, um Zugang zum Gesamtsystem zu bekommen.

Die Lieferkette als primäres Ziel für Cyberangreifer

Ein Beispiel: Im November 2024 wurde der US-amerikanische Software-Provider Blue Yonder Opfer einer Ransomware-Attacke, die sich auf den Betrieb von 3.000 Firmen in 76 Ländern auswirkte. Das führt zu der Frage: Wie können wir die gesamte Lieferkette vor immer häufigeren und anspruchsvolleren Cybergefahren schützen?

Chancen und Risiken bei Open Source und KI

Angesichts des vernetzten Charakters von Unternehmens-, Lieferanten- und Partnersystemen suchen sich Cyberkriminelle immer stärker Drittparteien als Ziel aus, um ihre Attacken auszuführen und Unternehmensdaten und -systeme zu kompromittieren. KMUs und Subunternehmer sind aufgrund ihrer limitierten Ressourcen im Bereich Cybersicherheit besonders verwundbar. Gerade Open-Source-Softwarekomponenten bieten eine Angriffsfläche. Da der Codiercode öffentlich ist, können Angreifende diesen nach Mängeln erforschen und zeitgleich möglicherweise viele Software-Anwendungen ausnutzen, indem sie kritische Fehler entdecken. Der offene Ansatz bietet aber auch Vorteile. Beliebte Open-Source-Bibliotheken werden kontinuierlich geprüft und verbessert, und zwar durch Hunderte Mitwirkende, was zu einem schnelleren Aufdecken von Problemen und rascheren Updates führt.

Remote-Arbeit, KI, Arbeits-E-Mails auf dem Privathandy: alles Angriffsflächen

Cyberkriminelle nutzen zudem vermehrt Social Engineering, um Arbeitnehmende mit strategischem Zugang oder hochprivilegiertem Status innerhalb der IT-Infrastruktur ins Visier zu nehmen. Das erlaubt ihnen, die technische Abwehr mithilfe von menschlichen Manipulationstaktiken zu umgehen. Die rasante Entwicklung Künstlicher Intelligenz hat diese Techniken weiter verfeinert, indem es ultra-zielgerichtete Phishing-Kampagnen, Deepfakes und überzeugende mobile Angriffe ermöglicht. Schlussendlich haben der Anstieg an Fernarbeit und der Gebrauch von persönlichen Geräten wie Mobiltelefone für den professionellen Nutzen die Angriffsfläche für Cyberkriminelle vergrößert.

Verteidigungsstrategien vertrauen auf Zero Trust und MFA

Um diese Risiken zu verringern, müssen Unternehmen umfassende Verteidigungsstrategien implementieren. Es gilt, durch die Anwendung der richtigen Konzepte, Werkzeuge und Partner, mögliche Attacken zu bekämpfen. Der Zero-Trust-Ansatz ist ein Eckpfeiler einer starken Cybersicherheits-Strategie. Er basiert auf dem Prinzip „niemals vertrauen, immer überprüfen“. 

Das beinhaltet auch, starke Authentifizierungsmethoden wie zum Beispiel Multifaktortechnologien zu realisieren, kombiniert mit strengen Kontrollen und segmentierter Zugangsverwaltung. Es ist essenziell, sicherzustellen, dass nur die richtigen Mitarbeitenden den angemessenen privilegierten Stand haben. Zudem sind Zugänge regelmäßig zu überprüfen und gegebenenfalls anzupassen, besonders für externe Lieferanten oder Partner.

Regulierungen helfen, Lieferkettenangriffe zu bremsen

Es ist gleichermaßen wichtig, zu gewährleisten, dass alle Mitglieder des Ökosystems über adäquaten Sicherheitsschutz verfügen, sowohl aus Cybersicherheitsgründen als auch zur Einhaltung von gesetzlichen Auflagen. So müssen etwa auf Grundlage der DORA Regulierung (Digital Operational Resilience Act) zum Beispiel Finanzdienstleister zusichern, dass all ihre Lieferanten und Partner die etablierten Sicherheitsstandards erfüllen. 

Cyberkriminelle greifen mit wachsender Vorliebe Lieferketten an, um sichere Systeme zu infiltrieren – indem sie kleinere, weniger gut ausgestattete Lieferanten und Partner ausnutzen. Um die Geschäftskontinuität zu gewährleisten und zunehmend komplexe und vernetzte IT-Infrastrukturen zu schützen, müssen Unternehmen effektive Cybersicherheitsstrategien und bewährte Verfahren entwickeln und umsetzen. Das beinhaltet Zusammenarbeit nicht nur mit Dritten, sondern auch mit Cybersicherheitsexperten, die zugeschnittene Lösungen bereitstellen, beraten und unterstützen, um den technischen Rahmen zu schaffen, der nötig ist, um das gesamte Ökosystem unter Einhaltung gesetzlicher Regelungen zu schützen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

DocuWare stellt Unternehmensführung neu auf

DocuWare, ein führender Anbieter von Lösungen für Dokumentenmanagement und Workflow-Automatisierung, kündigt zum 1. April 2025 Veränderungen in der Unternehmensführung an. Nach dem angekündigten Rücktritt von Max Ertl als Co-President übernimmt Dr. Michael Berger die Position des CEO und wird bei der strategischen Weiterentwicklung des Unternehmens von einem neu zusammengesetzten Führungsteam unterstützt. Mit ihrer umfangreichen Erfahrung und klaren Vision wird das Führungsteam nicht nur Wachstum und Innovation vorantreiben, sondern auch die globale Präsenz von DocuWare stärken und sicherstellen, dass das Unternehmen weiterhin an der Spitze technologischer Entwicklungen bleibt.

Docuware stellt Unternehmensführung neu auf

Neben Dr. Michael Berger, CEO, besteht das neue Führungsteam aus: Michael Bochmann, Chief Product & Technology Officer; Benedikt Dischinger, Chief Financial Officer; Uta Dresch, Chief Operating Officer, und Hermann Schäfer, Chief Sales & Marketing Officer. 

Dr. Michael Berger: „Ich fühle mich geehrt, mit diesem außergewöhnlichen Team zusammenzuarbeiten. Ich bin mir sicher, dass die gemeinsame Expertise und das Engagement für DocuWare und die gesamte Belegschaft maßgeblich dazu beitragen werden, unser Unternehmen zu neuen Höhen zu führen. Da Co-President Max Ertl zum 31. März 2025 von seiner Funktion zurücktritt, möchte ich mich im Namen aller bei DocuWare für sein Engagement und seinen wertvollen Beitrag in den letzten 24 Jahren, seine großartigen Leistungen als Vertriebs- und Marketingleiter und für unsere enge Zusammenarbeit während unserer Zeit als Co-Presidents bedanken.“ 

Weitere Informationen zu den Mitgliedern des Führungsteams

Dr. Michael Berger, Chief Executive Officer (CEO), begann seine Karriere in Innovations- und Managementfunktionen bei Siemens. 2008 wechselte er zu DocuWare und übernahm zunächst die Rolle des Vice President R&D, später die des CTO am Hauptsitz in Germering. Nach der Übernahme von DocuWare durch Ricoh im Jahr 2019 wurden sowohl Dr. Michael Berger als auch Max Ertl zu Geschäftsführern der DocuWare GmbH und Co-Presidents der globalen DocuWare Gruppe ernannt. In seiner Rolle als President of Product, Services und Finance leitete Berger das Unternehmen gemeinsam mit Ertl, der für Sales & Marketing verantwortlich war. Dr. Berger erweiterte das Produktportfolio, leitete strategische Initiativen und Akquisitionen und trug so zum Wachstum des Unternehmens bei. 2024 wurde er von Ricoh zum CTO-Berater ernannt. 

Michael Bochmann, Chief Product & Technology Officer (CPTO), Mitbegründer des von DocuWare übernommenen Unternehmens DocuScan, spielt seit seinem Einstieg 2023 eine zentrale Rolle bei der Identifizierung und Implementierung neuer, innovativer Technologien. Nach der Fusion von DocuScan und DocuWare Anfang 2025 trat er seine neue Position als CPTO an. In dieser Funktion wird Bochmann die Produktstrategie und Technologieentwicklung von DocuWare leiten und durch Produktinnovationen den Wettbewerbsvorsprung von DocuWare auf dem globalen Markt sichern. 

Benedikt Dischinger, Chief Financial Officer (CFO), hat seit seinem Einstieg bei DocuWare im Jahr 2016 eine Vielzahl von Aufgaben im Unternehmen übernommen – von der Überwachung strategischer Initiativen und der globalen Budgetplanung bis hin zur Gestaltung einer positiven und kollaborativen Unternehmenskultur durch Talentakquise und -entwicklung. In seiner neuen Rolle als CFO wird Dischinger die Abteilungen People & Culture, Corporate IT, Legal & Compliance sowie Strategy & Controlling leiten und weiterhin für den Bereich Finanzen verantwortlich sein. Zudem wird er Max Ertl als Mitglied des DocuWare Shareholder Advisory Board ablösen. 

Uta Dresch, Chief Operating Officer (COO), hat seit 2018 erfolgreich den Bereich Client Experience Management bei DocuWare aufgebaut. Die Abteilung entwirft Kunden- und Partner-Journeys, analysiert Feedback und entwickelt Strategien zur Optimierung der gesamten Kundenerfahrung sowie zur Steigerung der Kundenzufriedenheit und -bindung. In ihrer neuen Rolle als COO wird Dresch zusätzlich den globalen Customer Support, Professional Services sowie das Tagesgeschäft von DocuWare leiten. 

Hermann Schäfer, Chief Sales & Marketing Officer (CSMO), ist seit 2008 bei DocuWare tätig und hat seitdem verschiedene Schlüsselpositionen in der Vertriebsorganisation des Unternehmens übernommen. Er spielte eine zentrale Rolle bei der Entwicklung und Stärkung des Partnervertriebs in der EMEA-Region. Sein Engagement und seine Führungsqualitäten führten zu einem signifikanten Anstieg der DocuWare Partner weltweit sowie zu einem beträchtlichen Umsatzwachstum des Unternehmens. In seiner neuen Funktion als CSMO übernimmt Schäfer die globale Verantwortung für Vertrieb und Marketing bei DocuWare.  

Der Beitrag wurde ursprünglich hier veröffentlicht …

Management-Expertin: Kampf der Excel-Wirtschaft

Jane Enny van Lambalgen, CEO der Beratungs- und Managementfirma Planet Industrial Excellence, stellt fest, dass in vielen Unternehmen Excel als heimliches ERP und CRM dient. Sie empfiehlt: „2025 sollten die Unternehmen der betriebsinternen Excel-Wirtschaft endlich den Garaus machen“. Bei Projekten stellt sie immer wieder fest, dass Microsoft Excel in vielen Firmen an unzähligen Stellen für Aufgaben eingesetzt wird, für die das Tabellenkalkulationsprogramm überhaupt nicht gedacht ist. So würden häufig Betriebsprozesse, die „eigentlich“ ins ERP- oder CRM-System gehörten, von den Beschäftigten in Excel-Tabellen durch­geführt.

Management-Expertin: Kampf der Excel-Wirtschaft

Jane Enny van Lambalgen wundert sich: „Die Unternehmen haben Salesforce, Hubspot, Zoho, Pipedrive, Monday, MS Dynamix und sonstige CRM-Systeme, aber gearbeitet wird weiterhin mit Excel.“ Bei Beratungsprojekten hat sie hierfür drei Gründe ausgemacht: Erstens das Beharren auf einmal eingeführten Prozessen aus Bequemlichkeit („Das-haben-wir-schon-immer-so-gemacht-Syndrom“), zweitens die Scheu vor dem Aufwand zur Einarbeitung in ein neues System, und drittens die Angst davor, die Kontrolle über Informationen und Prozesse zu verlieren. Die Managementexpertin weiß aus der Beratungspraxis: „Die ersten beiden Gründe kommen bei behutsamem Nachhaken ans Tageslicht, weil sie im Grunde offensichtlich sind. Aber die Angst vor einem möglichen Kontrollverlust spricht niemand im Betrieb offen aus.“ Dabei sei dieser Angstfaktor der „entscheidende Knackpunkt im Kampf gegen die heimliche Excel-Wirtschaft“. 

Jane Enny van Lambalgen weiß aus vertraulichen Projektgesprächen: „Viele Beschäftigte betrachten die Informationen in ihrer Excel-Tabelle als ihr Besitztum, während die Daten im ERP- oder CRM-System nur der Firma gehören. Aufgrund dieser emotionalen Unterscheidung ist Excel so schwer auszurotten.“

Excel-Schattenreiche losgelöst von ERP und CRM

Daher findet die Managementberaterin bei Projekten in der Regel „unzählige Excel-Inseln mit teilweise abenteuerlichen Tabellen-Varianten“ vor. Jane Enny van Lambalgen: „Häufig stoßen wir auf ganze Schattenreiche völlig losgelöst vom ERP- oder CRM-System, von denen die IT-Verantwortlichen nicht einmal etwas ahnen.“

Die Schatten-IT bringt zahlreiche Probleme mit sich, klärt die Expertin auf, von Produktivitätseinbußen bis hin zu gravierenden Sicherheitslücken. Sie gibt ein Beispiel: „Wir finden bei Projekten immer wieder Excel-Listen mit Login-Daten zum Firmennetzwerk, manchmal nur für eine Person, gelegentlich sogar für ganze Teams oder Abteilungen, um betriebliche Stellvertreterregelungen zu umgehen. Viel leichter kann man es Hackern gar nicht machen.“ Nach Schätzungen der Managementexpertin „schlummern Tausende derartiger Sicherheitsbomben in deutschen Unternehmen.“ Sie verweist auf den IT-Branchen­verband Bitkom, nach dessen Recherchen 2024 acht von zehn Unternehmen in Deutschland von Cyber­angriffen betroffen waren mit einem Gesamtschaden von 267 Milliarden Euro. „Die Excel-Schattenwirtschaft hat dabei zweifelsohne eine nicht unerhebliche Rolle gespielt“, ist die Beraterin überzeugt.

Unternehmensführung mit falschen KPIs 

Unabhängig von den Sicherheitsrisiken erschwerten die Excel-Inseln die Unternehmenssteuerung, sagt Jane Enny van Lambalgen. Sie erklärt die Zusammenhänge: „Viele C-Level-Manager führen ihre Abteilungen und Firmen nach KPIs, also Key Performance Indicators, anhand von ERP- und CRM-Daten, die gar nicht der Realität entsprechen, weil sich die richtigen Informationen in den Excels verstecken.“ 

Bei Projekten stößt die Beraterin eigenen Angaben zufolge „immer wieder auf Vertriebs­entscheidungen, die schlichtweg auf falschen Daten aus der Verkaufsabteilung basieren.“ Die Vertriebsmitarbeiter hielten häufig ihre besten Kundenchancen in geheimen Excel-Tabellen, um erstens den internen Abschlussdruck abzumildern, zweitens sich nicht allzu leicht austauschbar zu machen, und drittens Kontakte für den Fall eines Wechsels zur Konkurrenz in der Hinterhand zu haben, weiß die Beraterin aus vertraulichen Gesprächen. 

„Die geheime Excel-Wirtschaft zieht sich durch alle Abteilungen“, hat Jane Enny van Lambalgen festgestellt, „von der Ablage wichtiger Informationen wie auf einem Notizzettel bis zur umfangreichen Datenanalyse und Visualisierung ist Excel häufig das bevorzugte Werkzeug.“ Die Abschaffung der Schatten-IT 2025 hält die Managementberaterin auch deshalb für wichtig, um „den Weg freizumachen für den Einsatz von KI-Tools in den nächsten Jahren.“ Sie erklärt: „Künstliche Intelligenz funktioniert nur, wenn die zugrundeliegende Datenbasis stimmt. Dazu ist es unerlässlich, die geheimen Excel-Daten in die ERP- und CRM-Systeme zu überführen. Wenn das nicht gelingt, wird die deutsche Wirtschaft von den Produktivitäts-, Effizienz- und Kostenvorteilen der KI nicht profitieren können.“

 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die ultimative Checkliste für resiliente Netzwerke

Downtimes und langsame Verbindungen sind für viele Unternehmen die Endgegner. Eine hohe Netzwerkresilienz ist das beste Hilfsmittel im Kampf gegen sie. Opengear hat daher eine Checkliste erstellt, die sich Administratoren über den Laptop hängen sollten.

Die ultimative Checkliste für resiliente Netzwerke

Im Arbeitsalltag von Netzwerkadministratoren kommt der Begriff „Langeweile“ nicht vor: Von Updates der Router und Switches bis zur Anbindung neuer Clients und Standorte sowie der Überwachung und Analyse des Traffics – das Aufgabenspektrum ist riesig. Und allein eine dieser Aufgaben zu vernachlässigen, kann zum größten anzunehmenden Unfall führen – die Downtime als Super-GAU sozusagen. Um stabile, sichere und resiliente Netzwerke zu garantieren, sollten Administratoren daher immer wieder die Checkliste von Opengear, Anbieter von Out-of-Band-Managementlösungen zum Schutz kritischer Infrastrukturen, konsultieren und prüfen, ob sie irgendeinen der folgenden Punkte vernachlässigt haben:

1. Allgemeine Netzwerkarchitektur und Redundanz

Netzwerkadmins sollten durch eine Ring- oder Mesh-Topologie sicherstellen, dass ihr Netzwerk redundant aufgebaut ist. Auch die sogenannte Hardware-Redundanz, also der Einsatz redundanter Netzwerkgeräte wie Router, Switches oder Firewalls ist ebenfalls essenziell. Neben topologischer und gerätetechnischer Redundanz ist auch Multi-Homing ein Puzzlestück auf dem Weg zur Redundanz: Es gilt, Netzwerkverbindungen zu mehreren Internet-Providern einzurichten. Nicht zuletzt ist es wichtig, das Load Balancing zu optimieren und Lastverteilungsmechanismen zu implementieren.

2. Resilienz durch Alternativnetze

Konsolenserver und Out-of-Band-Netzwerke zu nutzen, um auch bei Ausfall des Produktivnetzwerks auf die Netzwerkgeräte zugreifen zu können, ist ein Kernaspekt beim Aufbau von Netzwerkresilienz. Mit 4G- oder 5G-Fallbacks können Administratoren zudem den Traffic bei Downtimes über den Mobilfunk umleiten und somit auch beim Ausfall stabile Verbindungen gewährleisten. Im besten Fall gibt es sogar eine Failover-Funktion von einer SIM-Karte zu einer zweiten eines anderen Telekommunikationsanbieters, falls der erste Cellular-Provider auch Probleme haben sollte.

3. Monitoring und Überwachung

Echtzeit-Monitoring-Systeme sind ein wichtiges Asset im Kampf gegen Downtimes, denn sie erlauben die Überwachung des Traffics und der Netzwerkgeräte. Administratoren sollten zudem regelmäßig die Netzwerk- und Sicherheitslogs überprüfen und Alerting-Systeme in Betrieb nehmen, die bei Anomalien oder Ausfällen sofort Alarm schlagen.

4. Sicherheitsmaßnahmen

Eine engmaschige Firewall ist obligatorisch. Jedoch müssen Netzwerkadministratoren die Konfiguration und die angewandten Regeln regelmäßig überprüfen und aktualisieren. Intrusion-Detection- und Intrusion-Prevention-Systeme (IDS/IPS) sollten sie ebenfalls einsetzen, genau wie VPNs. Gerade bei Letzteren ist es wichtig, die VPN-Tunnel für Remote-Zugriffe immer wieder zu kontrollieren. Zu den Aufgaben der Netzwerkadministratoren gehört auch, für die Verschlüsselung aller Daten während der Übertragung zu sorgen und strikte Zugangskontrollen (etwa Multi-Faktor-Authentifizierung) für den Zugriff auf systemrelevante Infrastrukturen zu implementieren.

5. Backups und Wiederherstellung

Regelmäßige Backups von Konfigurationsdateien der Router, Switches, Firewalls und Konsolenserver sind wichtig, um nach einem Ausfall schnell wieder ans Netz gehen zu können. Für eine Beschleunigung dieser Prozesse sorgen Disaster-Recovery-Pläne, die zu festen Zeitpunkten getestet werden sollten. Eine automatisierte Backup-Strategie für wichtige Daten ist ebenfalls empfehlenswert.

6. Software- und Firmware-Management

Wie bei jeder Hardware ist es auch für Netzwerkgeräte wichtig, dass sie regelmäßig Software- und Firmware-Updates erhalten. Administratoren müssen darüber hinaus kontinuierlich die Bedrohungslandschaft checken und Schwachstellenanalysen durchführen – und identifizierte Sicherheitslücken umgehend fixen.

7. Kapazitätsplanung und Leistung

Zu den täglichen Aufgaben von Netzwerkadministratoren gehört auch die regelmäßige Überprüfung der Netzwerkbandbreite und -kapazität sowie die Durchführung von Lasttests. Nur so können sie mögliche Engpässe identifizieren und vorsorgen. Tools und Methoden, um geschäftskritische Anwendungen bei der Nutzung des Netzwerks zu priorisieren (Quality of Service), sind unbedingt zu nutzen.

8. Dokumentation und Prozesse

Um neuen Netzwerkadministratoren das Leben zu erleichtern, ist eine aktuelle und detaillierte Dokumentation der Netzwerktopologie und der entsprechenden Konfigurationen unabdingbar. Auch eine ständig aktualisierte Liste von Notfallkontakten bei Internet-Providern, Hardware-Lieferanten und externen Dienstleistern ist wichtig. Prozesse für den Umgang mit Downtimes oder Sicherheitsvorfällen sollten klar definiert sein.

9. Schulung und Awareness

Zu einer guten Resilienzstrategie gehört auch, alle Mitarbeitenden in Sachen Netzwerksicherheit zu schulen und ihnen Best Practices beizubringen. Regelmäßige Testsimulationen von Netzwerkausfällen sind eine gute Methode, um die Reaktionsfähigkeit der Teams zu überprüfen.

10. Physische Sicherheit

Auf die Netzwerkgeräte sollte grundsätzlich nur autorisiertes Personal physischen Zugriff erhalten, insbesondere auf große Rechenzentren. Gleichzeitig sollten Sensoren installiert werden, die etwa Temperatur und Luftfeuchtigkeit überwachen, damit die Hardware unter optimalen Bedingungen läuft.

11. Audits und Reviews

Zu guter Letzt sind regelmäßige Durchführungen von internen und externen Sicherheitsaudits sowie die kontinuierliche Anpassung der Netzwerkresilienzstrategie von entscheidender Bedeutung.

„Netzwerkadministratoren, die sich an diese Checkliste halten, verringern das Risiko, etwas zu übersehen“, erklärt Dirk Schuma, Sales Manager EMEA North bei Opengear. „So verhindern sie unangenehme Zwischenfälle und vermeidbare Downtimes.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

„Intelligente Zerspanung“ für die fertigende Industrie

Gemeinsam mit dem Fraunhofer-Institut für Produktionstechnologie IPT in Aachen als Projektkoordinator sowie den Firmen gemineers, Innoclamp und Kaitos arbeitet das Kölner RWTH-Startup dataMatters an der „intelligenten Zerspanung“. Ziel ist es, durch den Einsatz von Künstlicher Intelligenz (KI) die hohen Qualitätsanforderungen in der zerspanenden Industrie besser und kostengünstiger zu erfüllen.

„Intelligente Zerspanung“ für die fertigende Industrie

„Real World AI“ nennt dataMatters-Gründer Dr. Daniel Trauth sein Geschäfts­konzept. Er erklärt: „Während sich die breite Öffentlichkeit auf generative KI stürzt, um Texte und Bilder zu erzeugen, legen wir den Fokus auf die Verbindung der KI mit der realen Welt, von der Smart Factory über Smart Buildings bis hin zur Smart City.“

Die Zerspanung, bei dem Werkstoff durch Drehen, Bohren, Fräsen oder Schleifen in die gewünschte Form und Größe gebracht wird, bildet in vielen Industriezweigen eine wesentliche Grundlage der Fertigungstechnik, von der Automobilproduktion bis zur Herstellung medizinischer Instrumente. Fehler im Zerspanungsprozess können schwerwiegende Folgen haben, die von Produkt­ausfällen bis hin zu Sicherheitsproblemen reichen. Strenge Qualitätskontrollen sind daher unerlässlich, aber auch zeitaufwändig und teuer. „Die automatisierte Überwachung und Analyse von Produktions­prozessen mittels KI kann die Prüfzeiten und den Kostenaufwand für die Qualitätssicherung erheblich reduzieren und die Genauigkeit der Qualitätsbewertung verbessern“, erklärt Dr. Daniel Trauth den Nutzen von „Real World AI“ anhand dieses Anwendungsbeispiels.

Die „intelligente Zerspanung“ ist Teil des Forschungsprojekts „FL.IN.NRW“, das von der Europäischen Union und dem Land Nordrhein-Westfalen im Rahmen des EFRE/JTF-Programms NRW 2021-2027 gefördert wird (Europäischer Fonds für regionale Entwicklung EFRE und Fonds für den gerechten Übergang, Just Transition Fund JTF). Das Projekt läuft bis 2027.g

Fraunhofer-IPT erklärt das Projekt genauer:

Im Forschungsprojekt „FL.IN.NRW“ entwickeln wir gemeinsam mit unseren Partnern eine Lernplattform zum dezentralen Training von prädiktiven KI-Modellen. Als ersten Anwendungsfall untersucht unser Projektteam den komplexen Prozess der Zerspanung: Die Vielzahl an Werkzeug- und Prozess­parametern in der Zerspanung ist eine Herausforderung für die Qualitätskontrolle, die sich meist nur durch zeitaufwändige manuelle Prüfungen der Bauteile bewältigen lässt.

Indem wir die Modelle mit Prozessdaten direkt aus der Produktionsmaschine trainieren, kann die KI Qualitätsprobleme während der Zerspanung erkennen: Abweichungen im gewünschten Bauteilprofil aufgrund von Werkzeugverschleiß werden durch Schwankungen in der Spindellast und im Spanndruck erkannt. Das KI-Modell detektiert dieses Werkzeugverhalten sofort als Maßabweichung außerhalb festgelegter Toleranzen. Dadurch können zeitaufwändige Qualitätskontrollen bedarfsgerecht durchgeführt und erheblich reduziert werden, was die Qualitätssicherung und Herstellung effizienter macht.

Datenschutzrisiken und Kostennachteile bei der Nutzung zentraler Cloud-Dienste

Bislang setzen Unternehmen bei der Entwicklung ihrer KI-gestützten Qualitätskontrolle auf zentrale Cloud-Dienste, um teure Anfangsinvestitionen für eine lokale digitale Infrastruktur zu vermeiden. Die große Menge an Produktionsdaten, die in der Cloud gespeichert werden, befinden sich jedoch außerhalb der unternehmenseigenen Kontrolle und sind daher größeren Datenschutz- und Daten­sicherheitsrisiken ausgesetzt. Zudem können die fortlaufenden, serviceabhängigen Gebühren von Cloud-Diensten langfristig zu einem Kostennachteil für die Unternehmen werden.

Dezentrales KI-Training für mehr Kosteneffizienz und Datenhoheit

Das maschinelle Lernverfahren des Federated Learning ermöglicht es kleinen und mittleren Unter­nehmen, die Vorteile von KI für ihre Qualitätskontrolle zu nutzen und gleichzeitig den Datenschutz und die Datensicherheit ihrer sensiblen Produktionsdaten zu gewährleisten:

Die Daten verbleiben sicher auf lokalen Servern, während sie für das dezentrale, kollaborative Training von noch leistungsstärkeren KI-Modellen verwendet werden können. Über mehrere Unternehmens­standorte hinweg wird das KI-Modell in einem Netzwerk lokaler Geräte und Unternehmensserver trainiert, ohne dass die Fertigungsdaten die lokalen Datenbanken verlassen. Nur die Modellparameter werden an einen zentralen Server gesendet, wo sie aggregiert und zu einem globalen Modell zusammengeführt werden, so dass die Datenhoheit bei den Unternehmen verbleibt.

Dr. Daniel Trauth ordnet ein: „Real World AI umfasst drei Komponenten: die Datenerfassung mittels Sensorik, die Sammlung der Informationen in einem geschützten Datenraum und die anschließende Auswertung durch bzw. das Training von KI-Algorithmen. Wir kümmern uns bei Projekten in der Regel um die Erfassung und stellen die benötigten technisch abgesicherten und rechtssicheren Datenräume bereit. Der Kunde kann dann entscheiden, ob er die KI-Auswertung in unseren Datenräumen oder auf seinen eigenen Servern vornehmen will.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die besten Tipps, um die E-Rechnungspflicht stressfrei zu meistern

Die besten Tipps, um die E-Rechnungspflicht stressfrei zu meistern

Seit 2025 ist die E-Rechnungspflicht in Deutschland endgültig in Kraft getreten. Was ursprünglich wie eine weitere bürokratische Hürde erschien, hat sich mittlerweile als wichtiger Schritt in Richtung Digitalisierung und Effizienz herausgestellt. Was genau bedeutet diese Pflicht für Unternehmen, welche Neuerungen gibt es und wie lässt sich der Umstieg auf die elektronische Rechnung stressfrei gestalten? In diesem Beitrag erfahren Sie alles Wichtige rund um die E-Rechnungspflicht und erhalten praktische Tipps, wie Sie diese umsetzen können.

Was ist die E-Rechnungspflicht und wer ist betroffen?

Die E-Rechnungspflicht verpflichtet Unternehmen, Rechnungen an öffentliche Auftraggeber künftig in einem strukturierten, digitalen Format zu übermitteln. Während große Unternehmen und öffentliche Institutionen längst auf elektronische Rechnungen setzen, betrifft diese Regelung nun auch kleinere und mittelständische Unternehmen, die mit der öffentlichen Verwaltung zusammenarbeiten. Die Pflicht gilt sowohl für die Rechnungsstellung an Behörden als auch für öffentliche Aufträge

Die wichtigsten Neuerungen seit 2025

Ab dem Jahr 2025 sind Unternehmen verpflichtet, ihre Rechnungen an öffentliche Auftraggeber im elektronischen Format zu übermitteln. Dies umfasst nicht nur klassische Rechnungen, sondern auch Gutschriften und Abschlagszahlungen. Der Wechsel zur E-Rechnung bedeutet für viele Unternehmen einen erheblichen Umstieg – von der papierbasierten zu einer digitalen Rechnungsstellung.

Ein entscheidender Punkt, den Unternehmen beachten müssen, ist die XRechnung, ein standardisiertes Format, das als Pflichtformat für den Austausch von Rechnungen mit der öffentlichen Verwaltung eingeführt wurde. Auch private Unternehmen können XRechnungen verwenden, wenn sie das wollen, doch die Vorschrift gilt in erster Linie für die öffentliche Hand.

Die häufigsten Fehler bei der E-Rechnung 

Der Übergang zur E-Rechnung ist nicht immer reibungslos. Viele Unternehmen machen bei der Umsetzung der E-Rechnung häufig Fehler, die leicht vermieden werden können. 

1. Falsches Format: Die XRechnung ist ein strukturiertes XML-Format, das unbedingt eingehalten werden muss. Viele Unternehmen senden weiterhin PDF-Rechnungen, was nicht mehr zulässig ist. Eine geeignete Software, die XRechnungen erstellen kann, ist daher unerlässlich.

2. Unzureichende Integration in bestehende Systeme:Die Implementierung der E-Rechnung sollte nahtlos in das bestehende Buchhaltungs- und Warenwirtschaftssystem integriert werden. Manuelle Übergaben oder doppelte Eingaben können Fehlerquellen darstellen und den Arbeitsaufwand erhöhen.

3. Fehlerhafte Datenstruktur: Die XRechnung erfordert eine bestimmte Datenstruktur. Fehler bei der Codierung der Rechnungspositionen oder bei der Angabe von Steuersätzen führen oft zu Ablehnungen. Hier hilft es, eine zuverlässige Software zu verwenden, die diese Struktur automatisch prüft.

Praktische Tipps zur Umsetzung der E-Rechnung im Unternehmen

Um die E-Rechnungspflicht stressfrei umzusetzen, sollten Sie die folgenden praktischen Tipps beachten:

1. Informieren Sie sich frühzeitig über die Anforderungen: Je früher Sie sich mit der E-Rechnung und den damit verbundenen Vorschriften beschäftigen, desto einfacher wird die Umstellung. Nutzen Sie kostenlose Webinare oder Informationsveranstaltungen.

2. Nutzen Sie Softwarelösungen, die die E-Rechnung unterstützen: Es gibt mittlerweile eine Vielzahl an Tools und Softwarelösungen, die Unternehmen bei der Erstellung und Übermittlung von E-Rechnungen helfen. In diesem kostenlosen E-Book von Lexware finden Sie alle wertvollen Informationen zur erfolgreichen Umsetzung der E-Rechnung. Hiermit können Sie den gesamten Prozess vereinfachen und sicherstellen, dass Ihre Rechnungsstellung digital und gesetzeskonform erfolgt.

3. Schulung der Mitarbeiter: Ihre Buchhaltungsabteilung sollte regelmäßig geschult werden, um sicherzustellen, dass alle Mitarbeiter mit den neuen Prozessen vertraut sind. So vermeiden Sie Fehler bei der Erstellung und Übermittlung der Rechnungen.

Tools und Software für die E-Rechnung – Welche Lösungen lohnen sich?

Für eine effiziente und gesetzeskonforme Umsetzung der E-Rechnung benötigen Unternehmen die richtige Software. Besonders empfehlenswert sind Lösungen die:

• Das XRechnungsformat unterstützen und automatisch erstellen.

• Automatische Prüfungen von Rechnungsdaten ermöglichen, um Fehler zu vermeiden.

• Eine einfache Integration in bestehende ERP- und Warenwirtschaftssysteme bieten.

Mit der richtigen Software können Unternehmen ihre Buchhaltung und Rechnungsstellung effizient und fehlerfrei abwickeln, was die Umstellung deutlich vereinfacht.

Die Vorteile der E-Rechnung für Unternehmen

Der Beitrag wurde ursprünglich hier veröffentlicht …

Wie die Softwaremodernisierung das digitale Immunsystem kräftigt

Bedrohungen für IT-Systeme lauern auf allen Seiten – von Phishing-Attacken über komplexe Angriffe auf die Infrastruktur bis zum gezielten Ausnutzen von Schwachstellen. Ein starkes digitales Immunsystem ist dabei für die Früherkennung und Abwehr entscheidend – ohne die Modernisierung der Software öffnen sich allerdings drastische Lücken im digitalen Abwehrschirm.

Wie die Softwaremodernisierung das digitale Immunsystem kräftigt

Ähnlich wie bei einem menschlichen Körper dient das Immunsystem in der digitalen Welt dazu, Bedrohungen frühzeitig zu erkennen, sie abzuwehren und sich kontinuierlich an neue Angriffe anzupassen. Ein starkes digitales Immunsystem ist in der Lage, Sicherheitslücken proaktiv zu identifizieren und zu beheben, bevor sie Schaden verursachen können. Veraltete Software, die nicht regelmäßig aktualisiert und modernisiert wird, bildet hingegen eine der größten Schwachstellen in der IT-Sicherheitsarchitektur. Der auf Software-Revival spezialisierte IT-Dienstleister Avision zeigt die vier wichtigsten Vorteile, die eine Softwaremodernisierung für das digitale Immunsystem mit sich bringt.

1. Allgemeine Minimierung von Sicherheitslücken

Durch die Modernisierung von Legacy-Systemen. Schlecht oder gar nicht gewartete Software bietet große Angriffsflächen für Cyberkriminelle, die etwa veraltete Methoden zur Authentifizierung ausnutzen. Nur ein digitales Immunsystem, das auf dem neuesten Stand der Sicherheitstechnologie ist sowie über moderne Protokolle und Standards verfügt, ist wirklich wehrhaft.

2. Schnelle Sicherheitsupdates

Sie sind mit Legacy-Software und monolithischen Architekturen kaum bis gar nicht umsetzbar. Mit modernisierten Systemen, die auf kleinere, modulare Anwendungen setzen, können beispielsweise Security-Patches sehr viel gezielter und effizienter eingespielt werden, um Sicherheitslücken so schnell wie möglich zu schließen.

3. Integration von Sicherheitsfunktionen

Die vereinfachte Integration von Sicherheitsfunktionen und die Einführung von modernen Methoden zur Softwareentwicklung sind nur mit modernisierten Systemen umsetzbar. Ansätze wie DevSecOps integrieren beispielsweise grundlegende Sicherheitsfunktionen direkt in den Entwicklungsprozess. Entwicklerteams können auf diese Weise Schwachstellen bereits frühzeitig identifizieren und beheben, bevor sie in die Produktion gelangen. Mit Legacy-Systemen ist die Umsetzung moderner Prozesse wie DevSecOps oft nur eingeschränkt oder gar nicht möglich. Die Gründe dafür liegen in der Architektur, Flexibilität und technologischen Limitierung der Altsysteme.

4. Automatisierung von Sicherheitsmaßnahmen

Mit der Automatisierung von Sicherheitsmaßnahmen stehen Unternehmen nach der Modernisierung ihrer Legacy-Systeme zahlreiche neue Technologien für einen wehrhaften Schutzschild zur Verfügung. Mit kontinuierlichem Monitoring, automatisierter Bedrohungserkennung oder selbst aktualisierenden Systemen können sie Cyberangriffe und potenzielle Risiken rechtzeitig identifizieren und Gegenmaßnahmen einleiten.

„Die Stärkung des digitalen Immunsystems ist ein fortlaufender Prozess, der ständige Wachsamkeit und Anpassungsfähigkeit erfordert“, resümiert Nadine Riederer, CEO von Avision. „Softwaremodernisierung spielt dabei eine entscheidende Rolle. Sie hilft Unternehmen, Sicherheitslücken zu schließen und moderne Sicherheitspraktiken zu implementieren. Nur so werden sie auch zukünftig in der digitalen Welt wirklich geschützt sein.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Dynamik des technischen Wandels nimmt weiter zu

Die im Wandel befindliche Weltwirtschaft hat den Unternehmen im zurückliegenden Jahr viele Veränderungen und Anpassungen abverlangt. Dieser Trend wird sich nach Einschätzung von Patric Dahse, CEO der Natuvion Group, im kommenden Jahr fortsetzen.

Dynamik des technischen Wandels nimmt weiter zu

Konkret sieht Dahse fünf Trends, mit denen sich die Unternehmen im neuen Jahr auseinandersetzen müssen.

1. Daten werden unverzichtbare Wirtschaftsgrundlage

Gute Daten waren schon immer eine wichtige Grundlage für innovative Prozesse. In Zeitalter der Digitalisierung nimmt die Bedeutung von Daten noch weiter zu, insbesondere wenn es um deren Vollständigkeit, Konsistenz, Struktur, Inhalt oder den Aufbau der Daten geht. Inzwischen sind sie ein K.o-Kriterium, sprich, wer nicht über die notwendigen Daten verfügt, wird abgehangen. Umso wichtiger ist es, Daten in entsprechender Qualität, harmonisiert und zentral verfügbar zu machen.

2. Schlagzahl von Transformationen nimmt zu

Immer häufiger und in immer kürzeren Abständen sehen sich Unternehmen damit konfrontiert, Methoden, Prozesse und Technologien zu transformieren. Zentral ist dabei die Transformation von Unternehmensdaten, was einen wachsenden Bedarf an Transformations-Knowhow mit sich bringt.

3. KI verankert sich zunehmend in Prozessen

Seit Jahren spielt KI-Technologie bei Innovationen eine zentrale Rolle – und sie wird immer wichtiger. Für Transformationen bedeutet das, dass sich die Tätigkeiten und Prozesse, die auf historischem Wissen und traditionellem Arbeiten beruhenden, wandeln: Manuelle Aufgaben werden weitestgehend automatisiert und das „historische Wissen“ durch KI in die Prozesse implementiert, indem Zielstrukturen und Rahmenbedingungen vorgegeben werden. KI-basierte und automatisierte Qualitätssicherungsmethoden (QS) sind ein Game Changer, der eine enorme positive Dynamik entfacht. Je früher und intensiver sich Unternehmen mit den Möglichkeiten der KI-Technologie auseinandersetzen, desto größer der Wettbewerbsvorteil, den sie sich damit erarbeiten.

4. Handlungsdruck bei SAP S4/HANA Transformationen wächst

SAP wird auch im kommenden Jahr ein zentraler Treiber der digitalen Transformation sein. Das liegt in großen Teilen daran, dass etablierte, alte SAP-Versionen ab 2028 nicht mehr gewartet werden. Stattdessen liegt der Fokus auf SAP S4/HANA und einer Cloud-first-Strategie und damit steigt der Planungs- und Umsetzungsdruck in den Unternehmen. Hinzukommt, dass man auch bei SAP auf KI setzt, beispielsweise um vorausschauende Analysen durchzuführen oder Business-Prozesse intelligent zu automatisieren, was den Handlungsdruck nochmals verstärkt.

5. Standardlösungen in der Public Cloud boomen

Es ist zunehmend deutlich, dass durch die Dynamik der IT-Welt das Customizing oder das individuelle Anpassen von Lösungen aussterben wird. Verkürzt gesagt: die Cloud sowie die zunehmende Nutzung von Standardlösungen sorgen dafür, dass sich die Halbwertszeit von Softwarelösungen reduziert. Unerlässlich ist deshalb, dass die Transformation von IT-Systemen einfacher wird und weniger Zeit in Anspruch nimmt. SAP hat diesen Trend bereits erkannt und reicht mit der SAP S4/HANA Cloud Public Edition seinen Kunden die Hand. Diesem Beispiel werden im kommenden Jahr weitere IZT-Schwergewichte folgen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

B2B-Integration ganzheitlich betrachtet 

Die eigenen Geschäftsprozesse mit denen anderer Unternehmen intelligent zu verzahnen, ist speziell für KMUs in einem zunehmend digitalisierten und globalisierten Marktumfeld zentral wichtig, um wettbewerbsfähig zu bleiben. KMUs haben oftmals deutlich schlankere Kostenstrukturen als Großunternehmen. Diesen Vorteil können sie aber nur dann ausspielen, wenn sie zugleich die Erwartungen ihrer Kunden an schnelle, transparente und flexible Prozesse erfüllen. Besonders in der Lieferkette spielen Echtzeitdaten und schnelle Reaktion auf Kundenanforderungen eine entscheidende Rolle.  

B2B-Integration ganzheitlich betrachtet 

An diesem Punkt kommt B2B-Integration bzw. der digitale Informationsaustausch zwischen Unternehmen ins Spiel. Er ist der Schlüsselfaktor für eine reibungslose Zusammenarbeit zwischen Geschäftspartnern und damit für Effizienzsteigerung, Kostensenkung und Wettbewerbsfähigkeit. Der Artikel beleuchtet sowohl die organisatorischen als auch die technischen Aspekte für eine erfolgreiche B2B-Integration. 

Organisatorische Aspekte der B2B-Integration 

Ein wesentlicher Bestandteil der B2B-Integration ist die organisatorische Vorbereitung. Unternehmen müssen sicherstellen, dass ihre internen Prozesse auf den externen Austausch mit Geschäftspartnern abgestimmt sind. Zu den wichtigsten organisatorischen Aspekten gehören: 

Strategische Planung 

Die Integration von Geschäftspartnern erfordert eine klare strategische Planung. Unternehmen müssen sich darüber im Klaren sein, welche Ziele sie durch die B2B-Integration verfolgen, sei es Kostensenkung, schnellere Lieferzeiten oder verbesserte Transparenz in der Lieferkette. Eine klare Strategie legt den Grundstein für alle nachfolgenden Schritte, wie die Auswahl von Partnern, die Definition von Integrationsprozessen und die Entscheidung über die benötigten Technologien. 

Partnerschaftsmanagement 

Eine erfolgreiche B2B-Integration erfordert ein stabiles Partnerschaftsmanagement. Dabei geht es nicht nur um die technische Anbindung, sondern auch um die Pflege der Beziehungen der Geschäftspartner untereinander. Das Einhalten von Vereinbarungen stellt dabei nur den Pflichtteil dar. Regelmäßige Kommunikation, beispielsweise in Form von zyklischen Business Review Meetings, sind indes ein Teil der Kür. Gegenstand dieser Gespräche ist regelmäßig der Rückblick auf den letzten Zyklus. Was lief gut? Was darf noch besser werden? Auch ein Ausblick auf Markttrends und die flexible Anpassung an Veränderungen im Wettbewerbsumfeld können hier diskutiert und entsprechende Maßnahmen geplant werden. Neben dieser rein sachlichen Auseinandersetzung mit der Geschäftsbeziehung kommt noch ein ganz menschlicher Aspekt zum Tragen: Der Aufbau von Vertrauen und die Sicherstellung, dass beide Seiten von der Zusammenarbeit profitieren. Sie sind Schlüsselkomponenten dieses Prozesses. 

Compliance und rechtliche Aspekte 

Gleichwohl bedeutet Partnermanagement auch, die Partnerschaft auf eine solide und rechtssichere vertragliche Grundlage zu stellen, um den Umgang mit Risiken, die aus der Zusammenarbeit entstehen können, verbindlich zu regeln. Unternehmen, die B2B-Integration betreiben, müssen sicherstellen, dass sie alle rechtlichen und regulatorischen Anforderungen erfüllen. Dies umfasst stärker denn je auch den Datenschutz, insbesondere in Bezug auf die DSGVO in Europa, sowie branchenspezifische Regularien zum Informationsaustausch (NIS/NIS2, TISAX, PCI DSS oder BAIT / VAIT). Verträge über den Austausch von Daten, die Verantwortung für die Informationssicherheit und erforderlichenfalls auch Regellungen zum geistigen Eigentum sind ebenfalls essenzielle Bestandteile. 

Schulung und Change Management 

Die Einführung oder Intensivierung einer Geschäftspartnerschaft kann erhebliche Veränderungen in der Organisation mit sich bringen. Mitarbeiter müssen geschult werden, um die neuen Abläufe zu verstehen und effizient nutzen zu können. Darüber hinaus ist ein effektives Change Management notwendig, um Widerstände zu überwinden und eine reibungslose Umstellung auf die neuen Prozesse zu gewährleisten. Nur wenn alle Beteiligten im Unternehmen die Vorteile und die ganz konkrete Handhabung der Partnerschaft verstehen, kann diese langfristig erfolgreich sein.  

Auch gilt es, Gefahren vorzubeugen, die gerade in der Anfangsphase der Zusammenarbeit lauern. So nutzen beispielsweise Cyberkriminelle, die aus den (sozialen) Medien von angekündigten Business-Partnerschaften erfahren, verstärkt und sehr gezielt die Unwissenheit von Mitarbeitern aus, um mit fingierten E-Mails des neuen Business-Partners an wertvolle Informationen oder gar Zugangsdaten zu gelangen. 

Technische Aspekte der B2B-Integration 

Neben den organisatorischen Herausforderungen ist die technische Umsetzung der B2B-Integration ein zentrales Thema. Der Erfolg hängt maßgeblich von der Auswahl geeigneter Technologien und Standards ab, die den Datenaustausch und die Automatisierung zwischen den beteiligten Unternehmen ermöglichen. 

Integrationstechnologien 

Die B2B-Integration kann über verschiedene Technologien realisiert werden. Die bekanntesten sind: 

  • Electronic Data Interchange (EDI): EDI ist eine traditionelle Technologie, die den Austausch von standardisierten Geschäftsdaten wie Bestellungen, Rechnungen und Lieferscheinen in elektronischer Form ermöglicht. Unternehmen verwenden häufig branchenspezifische Standards wie EDIFACT oder ANSI X12, um sicherzustellen, dass Daten korrekt interpretiert werden. 
  • API-Integration: Im Gegensatz zu EDI ermöglicht die API (Application Programming Interface)-Integration einen Echtzeitzugriff auf Geschäftsdaten. APIs bieten eine flexiblere und schnellere Möglichkeit, verschiedene Systeme zu verbinden und dynamische Datenströme zu verwalten. Sie sind besonders in modernen Cloud-Umgebungen verbreitet und bieten durch ihre Standardisierung eine schnelle und sichere Anbindung. 

Datenformate und Standards 

Für die erfolgreiche B2B-Integration ist es entscheidend, dass beide Geschäftspartner einheitliche Datenformate verwenden. Neben EDI-Standards setzen moderne Systeme zunehmend auf XML (Extensible Markup Language) oder JSON (JavaScript Object Notation) für den Datenaustausch. Diese Formate bieten Flexibilität und sind besonders in webbasierten Anwendungen weit verbreitet. 

Einheitliche Datenstandards wie OASIS oder RosettaNet helfen dabei, die Kompatibilität zwischen unterschiedlichen IT-Systemen zu gewährleisten. Die Verwendung solcher Standards vereinfacht die Integration erheblich, da sie sicherstellen, dass beide Parteien Daten auf dieselbe Weise interpretieren. 

Middleware und Integrationsplattformen 

Um die Komplexität des Datenaustauschs zu reduzieren, setzen viele Unternehmen auf Middleware oder Integrationsplattformen. Diese fungieren als Brücke zwischen den internen IT-Systemen eines Unternehmens und den Systemen der Geschäftspartner. Cloud-basierte Integrationsplattformen wie Mulesoft, Dell Boomi oder SAP PI (Process Integration) ermöglichen es Unternehmen, mehrere Geschäftspartner und Technologien in eine zentrale Umgebung zu integrieren. 

Informationssicherheit 

Die Informationssicherheit spielt bei der B2B-Integration eine zentrale Rolle. Unternehmen tauschen sensible Geschäftsdaten aus, die sowohl vor unbefugtem Zugriff als auch vor Manipulation geschützt werden müssen. Standardmaßnahmen wie die Verschlüsselung von Daten während der Übertragung (z.B. durch TLS) und die Authentifizierung von Kommunikationspartnern durch digitale Zertifikate sind essenziell. Darüber hinaus sind Systeme zur Überwachung von Netzwerken und zur frühzeitigen Erkennung von Sicherheitsvorfällen von großer Bedeutung. Wie bereits oben dargelegt, liegt neben diesen technischen Maßnahmen ein weiterer Sicherheitsfaktor in der Sensibilisierung der Mitarbeiter für die Gefahren, die durch Cyberkriminelle entstehen können. 

Skalierbarkeit und Flexibilität 

Die technische Infrastruktur für die B2B-Integration sollte skalierbar sein, um zukünftiges Wachstum zu unterstützen. Die Anbindung neuer Partner oder die Integration zusätzlicher Systeme sollten ohne größere Änderungen möglich sein. Cloud-basierte Lösungen bieten hier oft die nötige Flexibilität, um dynamisch auf sich ändernde Anforderungen reagieren zu können. Gleichzeitig sind auch hier wiederum Aspekte der Informationssicherheit und des Datenschutzes zu betrachten. 

Fazit 

Die B2B-Integration ist ein wesentlicher Bestandteil moderner Geschäftsprozesse. Sowohl die organisatorischen als auch die technischen Aspekte sind entscheidend für eine erfolgreiche Implementierung. Während die strategische Planung, das Management von Partnerschaften und die Einhaltung von Regularien die organisatorischen Herausforderungen prägen, liegt der technische Fokus auf der Wahl geeigneter Technologien, Datenstandards und der Sicherstellung einer skalierbaren und sicheren IT-Infrastruktur. 

Unternehmen, die diese Faktoren berücksichtigen, können nicht nur ihre Effizienz steigern, sondern auch langfristig Wettbewerbsvorteile erzielen. Die Zukunft der B2B-Integration wird zunehmend durch cloudbasierte Lösungen und APIs bestimmt, die den Datenaustausch schneller und flexibler gestalten. 

Das interdisziplinäre Expertenteam von handz.on betrachtet die organisatorischen und technischen Aspekte ganzheitlich und unterstützt Sie in Ihrem B2B-Vorhaben von Anfang an. Sprechen Sie uns gerne einfach an. 

Der Beitrag wurde ursprünglich hier veröffentlicht …

GSG Genii erwirbt PLANAT GmbH, einen führenden unabhängigen Anbieter von ERP-Software für die diskrete Fertigung in Deutschland

Die GSG Genii Software Group („GENII“) hat bekanntgegeben, dass sie mit der PLANAT GmbH („PLANAT“) einen der größten unabhängigen Anbieter von ERP-Software für die Fertigung in Deutschland erworben hat. Mit der 1981 gegründeten PLANAT baut GENII neben dem Bereich Prozessfertigung, in dem GENII bereits heute mit GUS ERP eine führende Position besitzt, die Marktpräsenz im Diskreten Fertigungsmarkt, in dem GENII bereits durch den niederländischen ERP-Anbieter, Isah, vertreten ist, auch in DACH weiter aus.

GSG Genii erwirbt PLANAT GmbH, einen führenden unabhängigen Anbieter von ERP-Software für die diskrete Fertigung in Deutschland

Die Kunden von PLANAT, von denen sich die meisten in Deutschland befinden, sind typischerweise mittelständische Fertigungsunternehmen mit bis zu 150 Nutzern. Diese profitieren von der funktional umfassenden Kern-ERP-Suite des Unternehmens, kombiniert mit modularen Ergänzungen, um unterschiedlichste Fertigungsnischen abzudecken. PLANAT bedient seit Jahren erfolgreich Fertigungsspezialisten in den Bereichen Metallverarbeitung, Kunststoffverarbeitung, Elektroengineering und Kabelproduktion, was sich in einem soliden historischen Umsatzwachstum widerspiegelt.

Christian Biebl, Geschäftsführer von PLANAT und Vertriebsleiter, sagte: „Wir freuen uns sehr, nun Teil von GENII Gruppe zu sein. Tiefe Branchenexpertise kombiniert mit umfangreicher Investitionsbereitschaft, werden es uns ermöglichen, unseren Kunden auch weiterhin die besten Fertigungslösungen bieten zu können. Darüber hinaus wird die Expertise innerhalb der Gruppe beispielsweise im Bereich Künstlicher Intelligenz und cloudbasierter Technologien uns helfen, unsere Lösungen zukunftssicher zu machen und so sicherzustellen, dass unsere Kunden sowohl heute als auch langfristig durch bestmögliche Software-Unterstützung ihrer unternehmenskritischen Prozesse erfolgreich sind.“

Matthias Siekmann, Group CEO von GENII, erklärte: „Die Übernahme von PLANAT ist ein weiterer Schritt, ein Dach für marktführende und Spezial-Unternehmenssoftware zu bieten und erste Anlaufstelle für die Unterstützung geschäftskritischer Prozesse zu sein. Wir haben nun ein noch breiteres Angebot innerhalb der Gruppe für die unterschiedlichen Marktsegmente im Bereich Fertigung. Mit unseren starken Investitionsmöglichkeiten sowie der finanziellen Stärke von GENII werden wir PLANAT ermöglichen, zu wachsen und den Marktanteil im DACH-Markt für Diskrete Fertigungslösungen weiter auszubauen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …