Onlineshop erstellen: Mit Shopsystemen einfach Umsatz online generieren

eCommerce ist nicht nur im letzten Jahr stark gewachsen. Der Webshop-Trend boomt schon seit langer Zeit, und auch hier gilt: besser spät als nie! Unternehmen profitieren massiv von einem Shop auf ihrer Website. Solange dieser richtig erstellt sind und das Marketing den Onlineshop auch voll ausnutzt. Doch um online einen erfolgreichen Shop zu erstellen, müssen Unternehmen einiges beachten:

Onlineshop erstellen: Mit Shopsystemen einfach den Webshop gestalten

Im Zuge der weltweiten Digitalisierung, dem alles-durchdringendem Internet und Generationen, die in genau diesen Umständen aufwachsen ist es inzwischen für niemanden mehr eine Überraschung, dass eCommerce zu einem Hauptpfeiler der Wirtschaft geworden ist. Onlineshops – auch Webshop oder Online Shop – stellen zurzeit die einzige Möglichkeit für Kunden dar, überhaupt einzukaufen oder Umsatz zu machen. Aber auch in Zukunft wird die Rolle von eCommerce weiter wachsen. Deshalb sollten alle Unternehmen, bei denen das Verkaufen von einem Produkt oder einer Dienstleistung online in Frage kommt, ernsthaft darüber nachdenken, ob sie einen Onlineshop erstellen sollten.

Dabei stellen sich viele wahrscheinlich die Frage: „Brauche ich überhaupt meinen eigenen Onlineshop?“ Klar, es gibt auch etliche beliebte Online-Markplätze, wie eBay, Etsy oder Amazon. Aber wenn Anbieter ihre Produkte beispielsweise über Amazon verkaufen, haben sie keinen Zugriff auf viele Vorteile eines eigenen Shops. Nicht nur geht ein Teil des Profits an den Plattformbetreiber, auch das Marketing leidet darunter. Denn Daten von Kunden können nicht selbst analysiert werden und auch die Gestaltung des Shops liegt nicht komplett in eigener Hand. Dabei sind die Kunden – die das Zentrum der Marketing-Strategie bilden sollten – davon direkt betroffen. Außerdem ist es einfacher die eigene Marke zu stärken und das Firmenimage zu verbessern, wenn sie auch unabhängig von einer großen Plattform wie eBay und Amazon als eigener Shop auftritt und wachsen kann.

Grundlagen für einen erfolgreichen Onlineshop

Damit ein Onlineshop auch die gewünschten Effekte erzielt, das heißt: Umsatz steigert, Kunden anzieht und Kundenzufriedenheit erhöht, muss der Anbieter seine Website auch sorgfältig erstellen und optimieren. Dabei spielen eine Reihe von Faktoren eine wichtige Rolle:

Kompatibilität

Ein wichtiger Punkt dabei ist die Kompatibilität mit vielen verschiedenen Endgeräten. Kunden nutzen heute nicht nur Computer und Laptops, sondern auch verschiedenste Smartphones oder Tablets, um Produkte und Dienstleistungen online einzukaufen. Deshalb sollte sich das Design des Shops auch dem jeweiligen Gerät anpassen und ein angenehmes Kauferlebnis ermöglichen. Genau wie bei einer modernen Website muss auch ein Onlineshop responsive sein und alle Anforderungen für ein optimiertes Kauferlebnis bieten. Das müssen Unternehmen und Anbieter vor allem beachten, wenn sie einen eigenen Onlineshop erstellen.

Personalisierung

Eine weitere Funktion eines hauseigenen Shops ist die personalisierte Customer Experience. Um diese auch richtig umsetzen zu können, müssen Unternehmen natürlich genau wissen, was ihre Zielgruppe bewegt. Anbieter müssen dafür auch die vergangenen Interaktionen von Kunden mit dem Unternehmen oder der Website dokumentieren. Dadurch kann beispielsweise einem Kunden, der kürzlich eine Demo-Version von einem Produkt oder ein Whitepaper zu einem bestimmten Problem heruntergeladen hat, beim nächsten Besuch des Onlineshops direkt ein damit verbundenes Produkt empfohlen werden.

Marketing

Mit dem eigenen Webshop erhöhen Sie so auch die Kundenzufriedenheit. Denn Sie können den Online Shop auch problemlos mit Ihrer restlichen Online-Präsenz verbinden. Denken Sie dabei etwa an Facebook-Seiten, die neben Produkt- und Unternehmensnews auch auf Webshop-Angebote oder ein relevantes Produkt verweisen. Auch sämtliche andere Social-Media-Kanäle sollten den Onlineshop häufig – aber sinnvoll – aufgreifen. So können Kunden an jedem Touchpoint mit dem Unternehmen auch gleich bequem zu dem Produkt und durch den Kaufprozess geführt werden. Eine so klar strukturierte und schlanke Customer Journey sorgt nicht nur für hohe Kundenzufriedenheit, sondern erfreut auch das Marketing.

Besonders relevant für das Marketing für Onlineshops ist nicht nur das gerade erwähnte Facebook und Co, sondern auch Search Engine Optimization (SEO). SEO bezeichnet die Optimierung einer Website, sodass sie besser über Suchmaschinen, allem voran Google, gefunden werden und dadurch mehr Produkte verkaufen kann. Für den Webshop – und eigentlich die gesamte Unternehmenswebsite – ist es wichtig, vor allem bei Suchwörtern, die sich auf eigene Produkte beziehen, weit oben bei Google zu landen. SEO ist ein riesiges Thema, also sollten Sie sich intensiv damit beschäftigen oder von Experten beraten lassen, wenn Sie einen Onlineshop erstellen.

All das von Grund auf selbst aufzubauen ist ein gewaltiges Projekt und praktisch unmöglich für die meisten kleinen und mittleren Unternehmen. Aber das müssen Sie gar nicht, durch vorgefertigte Software-Lösungen zu Shops im Internet kann jeder in eCommerce einsteigen:

Mit einem Shopsystem einen ausgereiften Webshop gestalten

Inzwischen gibt es etliche Software-Systeme, die das Erstellen eines Onlineshops praktisch zu einem Kinderspiel machen. Mit dem Erwerb von einem Shopsystem sind viele Funktionen schon für Sie vorgefertigt und Sie müssen nicht bei Null anfangen. Aber Sie sollten trotzdem darauf achten, dass auch die oben genannten Funktionen in dem System umsetzbar sind.

Da es eine Vielzahl verschiedener Systeme gibt, haben Sie eine große Auswahl. Egal ob Sie ein kleines und simples Shopsystem brauchen oder ein sehr komplexes und umfangreiches System suchen, auf dem Markt für Unternehmenssoftware werden Sie sicherlich fündig. Mit dem richtigen Shopsystem können Sie dann problemlos Ihren Onlineshop erstellen, übersichtlich verwalten und nach Ihrem Willen gestalten. Wenn Sie das auch noch mit Customer-Relationship-Software (CRM) verbinden, mit dem Sie Kundendaten und Marketing-Maßnahmen zentral verwalten und steuern können, steht dem erfolgreichen Onlineshop und Unternehmenswachstum nichts mehr im Weg!    

Der Beitrag wurde ursprünglich hier veröffentlicht …

Wie Produktvarianten und Preislisten effizient managen?

Für Marketing & Vertrieb im Sanitär- Heizungs- und Klima- Handwerk (SHK) sind eine Bandbreite an Produktvarianten und seitenstarke Preislisten Alltag. Die Hersteller und Händler sind gefordert, die Produktdaten in allen Kanälen technisch korrekt mit den Branchenstandards (Datanorm, GAEB, ARGE Neue Medien) zu halten. Damit Unternehmen dies effizient leisten können, brauchen sie ein qualifiziertes Produktdatenmanagement. Hierzu bedarf es abgestimmter Prozesse und den Einsatz der passenden IT-Lösung. Product Information Management-Systeme (kurz: PIM) machen, richtig eingesetzt, die Produktkommunikation noch effizienter und schneller.

Lösungen für Hersteller & Händler

Die Hersteller müssen umfangreiche, technische Produktinformationen nach Branchenstandards samt begleitenden Dokumenten strukturiert zusammenfügen und den Händlern schnell und qualitativ hochwertig zur Verfügung stellen.

Ein ganzheitlich integriertes PIM-System bietet Herstellern u.a.:

  • Konsistente Daten durch integrierte Freigabeprozesse
  • Zeitersparendes Übersetzungs- und Terminologiemanagement
  • Publishing umfangreicher Preislisten und Kataloge mit wenig Aufwand

Um zehntausende Produktinformationen technisch korrekt und in allen Kanälen aktuell zu halten, brauchen die Händler ein effizientes Produktdatenmanagement.

Ein ganzheitlich integriertes PIM-System bietet Händlern u.a. :

  • Harmonisierung von gelieferten Herstellerdaten
  • Mehr Cross-Selling für Zubehör und Ersatzteile
  • Länderspezifische oder kundenindividuelle Sortimentsbildung
  • Gesicherter Preisabgleich mit Lieferantenkontrakten

Nutzen und Vorteile mit PIM

Beim stetig wachsenden Einfluss internationaler und auf Massenabsatz fokussierter Hersteller, wird der Einsatz eines professionellen Product Information Managements (PIM) zum klaren Wettbewerbsvorteil für den Vertrieb und die Erschließung neuer Märkte. Ob DIN- und Normteile oder individuell nach Kundenwunsch gefertigte Teile – Produktdaten lassen sich im PIM schnell und einfach pflegen. Dank integrierter Freigabe- und Übersetzungsfunktion lassen sich in kurzer Zeit neue Märkte erschließen. Funktionen für Produkt-Sets, Ersatzteile und Zubehör steigern wirkungsvoll den Pro-Kopf-Umsatz.

Alle Vertriebskanäle und –materialien wie Webshop, Marktplatz, Print-Katalog, Broschüre und Datenblatt sind jederzeit einsetzbar. Die umfangreichen Preislisten können hochautomatisiert erstellt werden, was zu einer enormen Zeitersparnis führt.

Damit gehört das Unternehmen zu den erfolgreichsten Beratern und Integratoren für Lösungen dieser Art.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Digitale Verwaltung neu gedacht: KI ist der Wegbereiter

Wenn es um die digitale Transformation in der öffentlichen Verwaltung geht, rückt Künstliche Intelligenz immer stärker in den Fokus. Initiativen und Förderprogramme zeigen, dass die Technologie als Schlüsselfaktor für die Modernisierung massiv an Bedeutung gewinnt – ein Umstand, der jedoch nicht nur Chancen, sondern auch dringenden Handlungsbedarf mit sich bringt. Christof Orth, Director Sales Government, Health Care, Education and Research bei Red Hat, beantwortet die wichtigsten Fragen

Wo steht die öffentliche Hand in Sachen KI?

Das Thema Künstliche Intelligenz beschäftigt die Verwaltung schon länger – sei es bei der Dokumentenerfassung, der Bildauswertung oder aktuell mit der generativen KI. Auf Bundesebene laufen derzeit zwei interessante Projekte: Mit KIPITZ, dem KI-Portal des ITZBund, wurde eine behördenübergreifende Plattform für den Einsatz KI-basierter Anwendungen geschaffen, die auf die Anforderungen der öffentlichen Verwaltung zugeschnitten sind. Dazu gehören die KI-gestützte Erstellung, Zusammenfassung, Kategorisierung und Übersetzung von Texten und Dokumenten sowie die Möglichkeit, Wissen aus anderen Quellen abzufragen. Sensible Informationen aus behördeneigenen Wissensdatenbanken werden mittels RAG (Retrieval Augmented Generation) verarbeitet, was den Nutzen, die Zuverlässigkeit und die Nachvollziehbarkeit der Ergebnisse erhöht. Parallel dazu haben die Bundesdruckerei und die Auslands-IT des Auswärtigen Amts „PLAIN“ gestartet. PLAIN steht für Platform Analysis and Information Systems und soll die Datenanalyse und -visualisierung verbessern. Beide Systeme sind nach dem Einer-für-Alle-Prinzip (EfA) konzipiert. Das bedeutet, dass die Wiederverwendung von Daten, Anwendungen und Analysen bis hin zum Code technisch möglich und vor allem erwünscht ist.​

Welche Anwendungen sind für die Verwaltung interessant?

Mit Künstlicher Intelligenz lassen sich bekanntlich nahezu alle Arbeitsabläufe optimieren. Ein Beispiel ist die intelligente Dokumentenverarbeitung. Mit Hilfe von KI werden zum Beispiel Antragsdaten und Unterlagen analysiert und dem Sachbearbeiter Handlungsempfehlungen zur Verfügung gestellt. Die Verantwortung liegt weiter in seiner Hand, grundlegende Abläufe werden aber deutlich beschleunigt. Ein anderer Anwendungsfall ist die Betrugserkennung in den unterschiedlichsten Verwaltungsbereichen: KI hilft dabei, Unregelmäßigkeiten und Betrugsfälle bei der Sozialversicherung oder beim Krankengeld aufzudecken. Aber auch bei der Erfassung von Schäden an der Infrastruktur ist die Technologie ein nützlicher Helfer. Mit Kameras ausgestattete Müllwagen nehmen auf ihrer wöchentlichen Tour den Straßenzustand auf, die Bilder werden anschließend anonymisiert ausgewertet. Das reicht von verschmutzten Straßenschildern, die dringend gereinigt werden müssen, bis hin zu Schäden an Gehwegen oder Fahrbahnen. KI-Technologien können zudem baustatische Daten von Brücken, deren Umgebung und weitere Einflussfaktoren auswerten. Durch dieses kontinuierliche Monitoring lässt sich schneller und kostengünstiger als bisher erkennen, ob eine Brücke saniert werden muss. 

Wie geht der öffentliche Sektor bei der Umsetzung eines KI-Projekts am besten vor?

Um ein KI-Projekt erfolgreich umzusetzen, bedarf es einer sorgfältigen Vorbereitung und strategischen Planung. Zunächst müssen klare Ziele definiert und eine umfassende Datenanalyse durchgeführt werden. Der Aufbau eines interdisziplinären Teams ist dabei entscheidend, um sowohl die technologischen als auch die fachlichen Herausforderungen zu meistern. In der Praxis vergessen viele Behörden und Verwaltungen bei aller Begeisterung für die Möglichkeiten der Technologie, eine entsprechende Strategie zu entwickeln. Was sie damit erreichen wollen oder welcher Use Case sich für den Einstieg in KI eignet, bleibt dabei oft auf der Strecke. Deshalb ist es sinnvoll, frühzeitig Experten einzubinden, die mit ihrer Erfahrung einen ganz neuen Blick auf eine Projektidee werfen.

Welches Modell ist das richtige?

Der nächste Schritt ist die Klärung der Modellfrage. Soll zum Beispiel eines der großen generalistischen Sprachmodelle zum Einsatz kommen oder eher ein beziehungsweise mehrere kleine Modelle, die sich auf spezielle Anwendungsszenarien konzentrieren. LLMs haben ihre Vorteile bei der natürlichsprachlichen Kommunikation oder der Bildgenerierung. Sie sind aber extrem ressourcenhungrig und zu wenig spezialisiert, um verwaltungsspezifische Aufgaben optimal lösen zu können. Daher ist eine Kombination mit spezialisierten, kleineren Modellen ideal. Immer wieder in der Diskussion ist ein „nationales“ LLM. Ein Problem gibt es dabei: Daten dürfen nur zweckgebunden erhoben werden – das heißt, die Informationen aus einem Verwaltungsvorgang stehen einem anderen nur dann zur Verfügung, wenn ein berechtigtes Interesse vorliegt. Ein Punkt ist bei der ganzen Diskussion entscheidend: Für die Beweispflicht ist die Nachvollziehbarkeit der KI-Ergebnisse extrem wichtig. Diese Nachvollziehbarkeit muss in der öffentlichen Verwaltung über einen langen Zeitraum gewährleistet sein: KI-basierte Entscheidungen, etwa im Katasterwesen, müssen auch in zehn Jahren noch erklärbar sein. Das wiederum erfordert Einblicke in die Algorithmen und Trainingsdaten des Modells sowie eine entsprechende Infrastruktur für deren zuverlässige Speicherung.

Stichwort „Demokratisierung der KI“ – wie wichtig sind Open-Source-Lösungen?

Ein weiterer zentraler Aspekt im Kontext behördlicher KI-Anwendungen ist die Demokratisierung der Technologie. Das bedeutet, dass alle Akteure – von IT-Entscheidern bis hin zu den Bürgerinnen und Bürgern – Zugang und Einblick in die Funktionsweise erhalten. Quelloffene Technologien tragen dazu bei, Barrieren abzubauen und gleichzeitig eine sichere Kontrolle des Datenflusses zu gewährleisten. Open-Source-Lösungen fördern den Austausch von Best Practices und ermöglichen die kontinuierliche Verbesserung bestehender Anwendungen. Auf diese Weise wird nicht nur Innovation gefördert: Lösungen wie Red Hat OpenShift AI mit ihren integrierten Sicherheitsfunktionen für einen geschützten und verantwortungsvollen Umgang mit Künstlicher Intelligenz sorgen dafür, dass KI-Implementierungen transparent, vertrauenswürdig und rechtskonform sind. Das von Red Hat initiierte InstructLab-Projekt sowie die Granite-Familie von Open-Source-Modellen senken die Einstiegshürden und ermöglichen es Experten aus den unterschiedlichsten Bereichen, ohne spezielle KI-Kenntnisse ihr Wissen und ihre Fähigkeiten einzubringen. Dies beschleunigt nicht nur das Training von KI-Modellen, sondern schafft auch die Grundlage für einen souveränen Umgang mit Künstlicher Intelligenz im öffentlichen Sektor.

Die öffentliche Verwaltung steht an der Schwelle zu einer neuen Ära, in der KI weit mehr als ein weiterer technologischer Trend ist. Mit einer gezielten Integration von KI in bestehende Prozesse und einem offenen Dialog über Herausforderungen und Lösungsansätze können IT-Entscheider den Weg zu einer modernen, effizienten und transparenten Verwaltung ebnen. Eine Herausforderung bleibt jedoch: Gute Ideen müssen auch umgesetzt werden. Gleichzeitig gilt es, die richtigen Rahmenbedingungen zu schaffen. 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Gibt es die optimale Zahlungsart für Webshops?

Die Antwort klingt sicher erst einmal ernüchternd: Alle – oder aber Keine Zahlungsart für Webshops!

Die Antwort der Novalnet AG im Detail zum Thema Zahlungsart für Webshops

Die pauschale Antwort Alle oder aber Keine spiegelt bei näherer Betrachtung die unterschiedlichsten Problemstellungen wieder, z .B. was bei der Wahl der Zahlungsart für den einzelnen Online-Händler im Vordergrund steht. Schnell kann man daran dann erkennen, dass jeder Online-Händler seine eigenen Anforderungen an die Bezahlungsarten stellt.

Für den einen Händler ist es die Kundenfreundlichkeit – kombiniert mit einer komfortablen Zahlungsart kann dies zusätzlichen Umsatz bedeuten. Der andere Onlineshop-Betreiber setzt indes viel lieber auf seine Sicherheit, was wiederum Einfluss auf die Wahl und die Missbrauchsmöglichkeiten seiner Zahlungsarten hat

Genau hier liegt die Krux: Sollte der Online Händler seinen Fokus ausschließlich oder vorwiegend auf die Vermeidung von Zahlungsausfällen setzten und daher ausschließlich die „sicheren“ Zahlungsarten anbieten, dann verzichtet er möglicherweise auf einen großen Teil seiner Umsätze. Sollte er aber das Risiko suchen und ausschließlich „unsichere“ Zahlungsarten verwenden, so könnte dies hohe Umsatzeinbußen aufgrund Betrug oder Missbrauch bedeuten. Hier ist stets der Einzelfall zu betrachten. Es mag durchaus Zielgruppen geben, bei denen es sinnvoller ist, vermeintlich risikobehaftete Zahlungsarten zu integrieren. So ist die Wahrscheinlichkeit eines Zahlungsausfalls bei einem Online-Händler der mit Garn oder Wolle handelt bei einer Zielgruppe von 50+ Jahren sicherlich geringer, als bei einem Webshop, der sich auf den Download von Online-Videospielen spezialisiert hat und eine durchschnittlichen Zielgruppe von 18-25 Jahren hat.

Nicht zu vergessen ist auch die technische Seite: Nicht alle Zahlungsarten lassen sich reibungslos und einfach in den Online-Shop integrieren. Sei es dass der Händler die Anforderungen der Kreditkartenorganisationen nicht erfüllt, wie z.B. die notwendige PCI DSS Zertifizierung. Oder der Händler hat Probleme bei der automatischen Zuordnung von Vorauskassezahlungen mit den einzelnen Bestellungen im Warenwirtschaftssystem. Die Lösung präsentiert hier ein Full Service Payment Provider wie die Novalnet AG. Aufgrund der Dienstleistungen der Novalnet AG kann ein jeder Händler schnell und einfach alle Zahlungsarten sicher in sein System integrieren.

Was man auch nicht außer Acht lassen sollte, ist das Sortiment des Online-Händlers und dessen Lieferfähigkeit. Hier gilt die Faustregel: Je größer der Warenkorb, desto größer auch das Risiko Opfer eines Betruges zu werden. Und ist eine Ware einmal nicht sofort lieferbar, so führt dies bei Vorauskasse-Zahlungen oft zu Frustration und sodann zu aufwändigen Rückabwicklungen.

Wie findet man die optimalen Bezahlarten?

Zunächst gilt: Nichts überstürzen und die Chancen mit den Risiken bzw. die Vorteile mit den Nachteilen gegeneinander abzuwägen. Dabei muss ebenfalls beachtet werden, dass bei einer späteren Einführung neuer Zahlungsarten nicht nur das Warenwirtschaftssystem und das eCommerce-Front-End mit einem erheblichen Integrationsaufwand verbunden sind, sondern dass das auch für die interne Organisation (Arbeitskraft, Buchhaltung etc.) eine enorme Belastung darstellt. Alle Schritte sollten deshalb sorgsam aufeinander abgestimmt und kalkuliert werden. Auch hier kann ein Full-Service-Payment Provider wie die Novalnet helfen: Jahrelange Erfahrungen zeichnen das Unternehmen aus. Die Novalnet AG berät Online-Händler in allen Bereichen rund um das Thema Payment und unterstützt bei der Integration und der Auswahl der Zahlungsarten.

Was sollte noch beachtet werden

Gerade bei eCommerce-Bestellungen „verlangt“ die Entwicklung am Markt, dass man sich auch als Händler mit neuen Zahlungsarten auseinandersetzt, denn der potentielle Kunde hat das im Vorfeld auch getan. Nicht selten fällt die Entscheidung für einen Abbruch im Checkout-Prozess durch eine unzureichende Auswahl an Zahlungsoptionen. Daher bietet die Novalnet AG ihren Kunden alle gängigen Bezahlarten.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Smarte Roboter erobern die Fabrik – Vier Beispiele für das Zusammenspiel von KI und Edge Computing

Die intelligente Fabrik ist längst Realität – und auch der „unwissende“ Roboter von einst gehört mehr und mehr der Vergangenheit an. Eine solche Fabrik zeichnet sich durch die Kombination verschiedener Technologien aus, die nahtlos ineinandergreifen. NTT DATA erklärt, welche Rolle KI und Edge Computing dabei spielen.

Smarte Roboter erobern die Fabrik

Seit mehr als einem halben Jahrhundert sortieren, schrauben, nieten, schweißen und lackieren Industrieroboter in den Fabriken dieser Welt. Bislang folgten sie dabei streng vorgegebenen Bewegungsabläufen, doch inzwischen kann Künstliche Intelligenz (KI) die mechanischen Helfer flexibler, effizienter und zuverlässiger machen. Vor allem im Zusammenspiel mit einem digitalen Zwilling, der die gesamte Produktionsumgebung abbildet, ergeben sich erhebliche Optimierungspotenziale in den unterschiedlichsten Anwendungsbereichen. NTT DATA, ein weltweit führender Anbieter von digitalen Business- und Technologie-Services, stellt vier Beispiele vor. 

Präzise und adaptive Robotersteuerung

In naher Zukunft werden Roboter dank Künstlicher Intelligenz und moderner Sensortechnologie flexibler, autonomer und vollständig ins Industrial Metaverse integriert sein. Mit Hilfe von hochauflösenden Kameras, KI-gestützter Bildverarbeitung, Edge-Computing und Generative AI (GenAI) können sie ihre Umgebung in Echtzeit analysieren und flexibel auf jede noch so unvorhergesehene Situation reagieren. Insbesondere GenAI hilft den Robotern, kreative Lösungen etwa bei Produktionsstörungen oder Materialengpässen zu entwickeln und selbstständig Alternativen auszuwählen. Durch die Integration ins Industrial Metaverse werden zudem physische und digitale Produktionswelten noch stärker miteinander verknüpft: Digitale Zwillinge ermöglichen es beispielsweise, Produktionsprozesse in Echtzeit zu überwachen und zu simulieren, ohne den laufenden Betrieb zu stören. Unternehmen können so fundierte Entscheidungen treffen und ihre Effizienz steigern. Edge-Computing liefert die nötige Rechenleistung für die Datenverarbeitung und Entscheidungsfindung direkt vor Ort, der aktuelle Mobilfunkstandard 5G wiederum sorgt für eine extrem schnelle und zuverlässige Datenübertragung mit geringer Latenz, wie sie Echtzeitanwendungen benötigen.

Qualitätskontrolle in Echtzeit

In der modernen Produktion ermöglicht die Kombination von KI, Edge-Computing und Industrial Internet of Things (IIoT) eine völlig neue Art der Qualitätskontrolle. KI-gestützte Bildverarbeitung und Mustererkennung sorgen dafür, dass Produktionsfehler – etwa falsch montierte Bauteile, Oberflächenfehler wie Kratzer und Risse, Farbabweichungen oder fehlende Komponenten – in Echtzeit erkannt werden. Dazu sammeln Sensoren, die direkt an den Produktionsanlagen und -linien installiert sind, kontinuierlich Daten, die über das IIoT-Netzwerk an lokale Edge-Computing-Systeme übermittelt werden. GenAI wird auch in der Qualitätskontrolle eine wichtige Rolle spielen: Wenn Roboter in der Produktion auf unbekannte oder unregelmäßige Objekte stoßen, können sie diese nicht nur erkennen, sondern auch selbstständig eine Lösung für das Problem finden. So kann der Roboter ein ihm unbekanntes Bauteil anhand von Datenbanken oder Bildern aus dem Internet identifizieren und herausfinden, wie es richtig gehandhabt werden muss, um Beschädigungen oder Produktionsunterbrechungen zu vermeiden.

Vorausschauende Wartung

Die vorausschauende Wartung wird durch den Einsatz der genannten Technologien „revolutioniert“. Sensoren an kritischen Maschinenkomponenten wie Lagern, Motoren und Hydrauliksystemen überwachen kontinuierlich Betriebsparameter wie Temperatur, Vibrationen, Geräusche und Druck. Diese Daten werden in Echtzeit analysiert, um den Zustand der Maschinen zu überwachen und Abweichungen anzuzeigen, die auf einen Verschleiß oder drohenden Ausfall hindeuten. Mit GenAI lassen sich noch fortschrittlichere Wartungslösungen realisieren. GenAI kann nicht nur Anomalien erkennen, sondern auch Vorschläge zur Optimierung der Maschinenparameter entwickeln – mit dem Ziel, den Verschleiß zu minimieren und die Lebensdauer zu verlängern. Droht ein Defekt, schlägt die Technologie zudem in Echtzeit alternative Reparaturstrategien vor

Optimierte Lagerhaltung und Energieeffizienz

Ein weiterer Vorteil ist die automatisierte Bestandsüberwachung. Sensoren erfassen kontinuierlich den Bestand an Materialien und Bauteilen, sodass die Lagerbestände automatisch aktualisiert und angepasst werden. Ein intelligentes Bestandsmanagement in Echtzeit kann verhindern, dass Teile fehlen oder unnötig vorgehalten werden, was Lagerkosten und Kapitalbindung reduziert. In Verbindung mit vorausschauender Wartung und Qualitätskontrolle in Echtzeit trägt ein solches Bestandsmanagement dazu bei, Produktionsprozesse noch reibungsloser zu gestalten. Werden Maschinenausfälle vermieden und Produktionsfehler sofort erkannt, lassen sich Verzögerungen vermeiden und die Lagerhaltung optimal auf den aktuellen Bedarf abstimmen. Eine effiziente Gestaltung des Materialflusses minimiert unnötige Lagerbewegungen und -prozesse, sodass darüber hinaus erhebliche Energieeinsparungen erzielt werden können. Dies trägt direkt zur Reduzierung des CO₂-Ausstoßes bei und hilft Unternehmen, ihre Nachhaltigkeitsziele zu erreichen und gleichzeitig die Betriebskosten zu senken.

„Industrieroboter werden durch Kombination von KI, Generative AI und Edge-Computing zu autonomen, flexiblen Systemen und leiten eine neue Ära der Produktionsoptimierung ein. Mit Integration in das Industrial Metaverse und unterstützt durch digitale Zwillinge können Unternehmen umfangreiche Simulationen durchführen, die zuverlässige Vorhersagen und Prozessanpassungen erlauben – ohne Unterbrechung der realen Produktion. Diese Technologien ermöglichen nicht nur eine dynamische Optimierung von Produktionsparametern und die Reduktion des Energieverbrauchs, sondern führen auch zu einem Paradigmenwechsel im operativen Betrieb und Geschäftsmodell. Produktionsprozesse werden immer dezentraler, anpassungsfähiger und datengesteuerter, während Unternehmen gleichzeitig neue Wertschöpfungspotenziale durch flexible Fertigungslinien und datenbasierte Geschäftsmodelle erschließen. Dadurch schaffen sie eine adaptive, effiziente und nachhaltige Fertigungsumgebung, die optimal für künftige Anforderungen gewappnet ist“, erklärt Jochen Gemeinhardt, Head of Production & Supply Chain bei NTT DATA DACH. 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die Lieferkette als primäres Ziel für Cyberangreifer

Mit dem stetigen Voranschreiten der digitalen Transformation in den letzten Jahren wurden Unternehmen zunehmend abhängig von zahlreichen Partnern und Lieferanten. Diese Verschiebung hat zu einer komplexeren IT-Infrastruktur geführt und signifikant die Angriffsfläche vergrößert, die Cyberkriminelle ausnutzen können. Sie haben es auf das schwächste Glied in der Lieferkette abgesehen, um Zugang zum Gesamtsystem zu bekommen.

Die Lieferkette als primäres Ziel für Cyberangreifer

Ein Beispiel: Im November 2024 wurde der US-amerikanische Software-Provider Blue Yonder Opfer einer Ransomware-Attacke, die sich auf den Betrieb von 3.000 Firmen in 76 Ländern auswirkte. Das führt zu der Frage: Wie können wir die gesamte Lieferkette vor immer häufigeren und anspruchsvolleren Cybergefahren schützen?

Chancen und Risiken bei Open Source und KI

Angesichts des vernetzten Charakters von Unternehmens-, Lieferanten- und Partnersystemen suchen sich Cyberkriminelle immer stärker Drittparteien als Ziel aus, um ihre Attacken auszuführen und Unternehmensdaten und -systeme zu kompromittieren. KMUs und Subunternehmer sind aufgrund ihrer limitierten Ressourcen im Bereich Cybersicherheit besonders verwundbar. Gerade Open-Source-Softwarekomponenten bieten eine Angriffsfläche. Da der Codiercode öffentlich ist, können Angreifende diesen nach Mängeln erforschen und zeitgleich möglicherweise viele Software-Anwendungen ausnutzen, indem sie kritische Fehler entdecken. Der offene Ansatz bietet aber auch Vorteile. Beliebte Open-Source-Bibliotheken werden kontinuierlich geprüft und verbessert, und zwar durch Hunderte Mitwirkende, was zu einem schnelleren Aufdecken von Problemen und rascheren Updates führt.

Remote-Arbeit, KI, Arbeits-E-Mails auf dem Privathandy: alles Angriffsflächen

Cyberkriminelle nutzen zudem vermehrt Social Engineering, um Arbeitnehmende mit strategischem Zugang oder hochprivilegiertem Status innerhalb der IT-Infrastruktur ins Visier zu nehmen. Das erlaubt ihnen, die technische Abwehr mithilfe von menschlichen Manipulationstaktiken zu umgehen. Die rasante Entwicklung Künstlicher Intelligenz hat diese Techniken weiter verfeinert, indem es ultra-zielgerichtete Phishing-Kampagnen, Deepfakes und überzeugende mobile Angriffe ermöglicht. Schlussendlich haben der Anstieg an Fernarbeit und der Gebrauch von persönlichen Geräten wie Mobiltelefone für den professionellen Nutzen die Angriffsfläche für Cyberkriminelle vergrößert.

Verteidigungsstrategien vertrauen auf Zero Trust und MFA

Um diese Risiken zu verringern, müssen Unternehmen umfassende Verteidigungsstrategien implementieren. Es gilt, durch die Anwendung der richtigen Konzepte, Werkzeuge und Partner, mögliche Attacken zu bekämpfen. Der Zero-Trust-Ansatz ist ein Eckpfeiler einer starken Cybersicherheits-Strategie. Er basiert auf dem Prinzip „niemals vertrauen, immer überprüfen“. 

Das beinhaltet auch, starke Authentifizierungsmethoden wie zum Beispiel Multifaktortechnologien zu realisieren, kombiniert mit strengen Kontrollen und segmentierter Zugangsverwaltung. Es ist essenziell, sicherzustellen, dass nur die richtigen Mitarbeitenden den angemessenen privilegierten Stand haben. Zudem sind Zugänge regelmäßig zu überprüfen und gegebenenfalls anzupassen, besonders für externe Lieferanten oder Partner.

Regulierungen helfen, Lieferkettenangriffe zu bremsen

Es ist gleichermaßen wichtig, zu gewährleisten, dass alle Mitglieder des Ökosystems über adäquaten Sicherheitsschutz verfügen, sowohl aus Cybersicherheitsgründen als auch zur Einhaltung von gesetzlichen Auflagen. So müssen etwa auf Grundlage der DORA Regulierung (Digital Operational Resilience Act) zum Beispiel Finanzdienstleister zusichern, dass all ihre Lieferanten und Partner die etablierten Sicherheitsstandards erfüllen. 

Cyberkriminelle greifen mit wachsender Vorliebe Lieferketten an, um sichere Systeme zu infiltrieren – indem sie kleinere, weniger gut ausgestattete Lieferanten und Partner ausnutzen. Um die Geschäftskontinuität zu gewährleisten und zunehmend komplexe und vernetzte IT-Infrastrukturen zu schützen, müssen Unternehmen effektive Cybersicherheitsstrategien und bewährte Verfahren entwickeln und umsetzen. Das beinhaltet Zusammenarbeit nicht nur mit Dritten, sondern auch mit Cybersicherheitsexperten, die zugeschnittene Lösungen bereitstellen, beraten und unterstützen, um den technischen Rahmen zu schaffen, der nötig ist, um das gesamte Ökosystem unter Einhaltung gesetzlicher Regelungen zu schützen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

DocuWare stellt Unternehmensführung neu auf

DocuWare, ein führender Anbieter von Lösungen für Dokumentenmanagement und Workflow-Automatisierung, kündigt zum 1. April 2025 Veränderungen in der Unternehmensführung an. Nach dem angekündigten Rücktritt von Max Ertl als Co-President übernimmt Dr. Michael Berger die Position des CEO und wird bei der strategischen Weiterentwicklung des Unternehmens von einem neu zusammengesetzten Führungsteam unterstützt. Mit ihrer umfangreichen Erfahrung und klaren Vision wird das Führungsteam nicht nur Wachstum und Innovation vorantreiben, sondern auch die globale Präsenz von DocuWare stärken und sicherstellen, dass das Unternehmen weiterhin an der Spitze technologischer Entwicklungen bleibt.

Docuware stellt Unternehmensführung neu auf

Neben Dr. Michael Berger, CEO, besteht das neue Führungsteam aus: Michael Bochmann, Chief Product & Technology Officer; Benedikt Dischinger, Chief Financial Officer; Uta Dresch, Chief Operating Officer, und Hermann Schäfer, Chief Sales & Marketing Officer. 

Dr. Michael Berger: „Ich fühle mich geehrt, mit diesem außergewöhnlichen Team zusammenzuarbeiten. Ich bin mir sicher, dass die gemeinsame Expertise und das Engagement für DocuWare und die gesamte Belegschaft maßgeblich dazu beitragen werden, unser Unternehmen zu neuen Höhen zu führen. Da Co-President Max Ertl zum 31. März 2025 von seiner Funktion zurücktritt, möchte ich mich im Namen aller bei DocuWare für sein Engagement und seinen wertvollen Beitrag in den letzten 24 Jahren, seine großartigen Leistungen als Vertriebs- und Marketingleiter und für unsere enge Zusammenarbeit während unserer Zeit als Co-Presidents bedanken.“ 

Weitere Informationen zu den Mitgliedern des Führungsteams

Dr. Michael Berger, Chief Executive Officer (CEO), begann seine Karriere in Innovations- und Managementfunktionen bei Siemens. 2008 wechselte er zu DocuWare und übernahm zunächst die Rolle des Vice President R&D, später die des CTO am Hauptsitz in Germering. Nach der Übernahme von DocuWare durch Ricoh im Jahr 2019 wurden sowohl Dr. Michael Berger als auch Max Ertl zu Geschäftsführern der DocuWare GmbH und Co-Presidents der globalen DocuWare Gruppe ernannt. In seiner Rolle als President of Product, Services und Finance leitete Berger das Unternehmen gemeinsam mit Ertl, der für Sales & Marketing verantwortlich war. Dr. Berger erweiterte das Produktportfolio, leitete strategische Initiativen und Akquisitionen und trug so zum Wachstum des Unternehmens bei. 2024 wurde er von Ricoh zum CTO-Berater ernannt. 

Michael Bochmann, Chief Product & Technology Officer (CPTO), Mitbegründer des von DocuWare übernommenen Unternehmens DocuScan, spielt seit seinem Einstieg 2023 eine zentrale Rolle bei der Identifizierung und Implementierung neuer, innovativer Technologien. Nach der Fusion von DocuScan und DocuWare Anfang 2025 trat er seine neue Position als CPTO an. In dieser Funktion wird Bochmann die Produktstrategie und Technologieentwicklung von DocuWare leiten und durch Produktinnovationen den Wettbewerbsvorsprung von DocuWare auf dem globalen Markt sichern. 

Benedikt Dischinger, Chief Financial Officer (CFO), hat seit seinem Einstieg bei DocuWare im Jahr 2016 eine Vielzahl von Aufgaben im Unternehmen übernommen – von der Überwachung strategischer Initiativen und der globalen Budgetplanung bis hin zur Gestaltung einer positiven und kollaborativen Unternehmenskultur durch Talentakquise und -entwicklung. In seiner neuen Rolle als CFO wird Dischinger die Abteilungen People & Culture, Corporate IT, Legal & Compliance sowie Strategy & Controlling leiten und weiterhin für den Bereich Finanzen verantwortlich sein. Zudem wird er Max Ertl als Mitglied des DocuWare Shareholder Advisory Board ablösen. 

Uta Dresch, Chief Operating Officer (COO), hat seit 2018 erfolgreich den Bereich Client Experience Management bei DocuWare aufgebaut. Die Abteilung entwirft Kunden- und Partner-Journeys, analysiert Feedback und entwickelt Strategien zur Optimierung der gesamten Kundenerfahrung sowie zur Steigerung der Kundenzufriedenheit und -bindung. In ihrer neuen Rolle als COO wird Dresch zusätzlich den globalen Customer Support, Professional Services sowie das Tagesgeschäft von DocuWare leiten. 

Hermann Schäfer, Chief Sales & Marketing Officer (CSMO), ist seit 2008 bei DocuWare tätig und hat seitdem verschiedene Schlüsselpositionen in der Vertriebsorganisation des Unternehmens übernommen. Er spielte eine zentrale Rolle bei der Entwicklung und Stärkung des Partnervertriebs in der EMEA-Region. Sein Engagement und seine Führungsqualitäten führten zu einem signifikanten Anstieg der DocuWare Partner weltweit sowie zu einem beträchtlichen Umsatzwachstum des Unternehmens. In seiner neuen Funktion als CSMO übernimmt Schäfer die globale Verantwortung für Vertrieb und Marketing bei DocuWare.  

Der Beitrag wurde ursprünglich hier veröffentlicht …

Management-Expertin: Kampf der Excel-Wirtschaft

Jane Enny van Lambalgen, CEO der Beratungs- und Managementfirma Planet Industrial Excellence, stellt fest, dass in vielen Unternehmen Excel als heimliches ERP und CRM dient. Sie empfiehlt: „2025 sollten die Unternehmen der betriebsinternen Excel-Wirtschaft endlich den Garaus machen“. Bei Projekten stellt sie immer wieder fest, dass Microsoft Excel in vielen Firmen an unzähligen Stellen für Aufgaben eingesetzt wird, für die das Tabellenkalkulationsprogramm überhaupt nicht gedacht ist. So würden häufig Betriebsprozesse, die „eigentlich“ ins ERP- oder CRM-System gehörten, von den Beschäftigten in Excel-Tabellen durch­geführt.

Management-Expertin: Kampf der Excel-Wirtschaft

Jane Enny van Lambalgen wundert sich: „Die Unternehmen haben Salesforce, Hubspot, Zoho, Pipedrive, Monday, MS Dynamix und sonstige CRM-Systeme, aber gearbeitet wird weiterhin mit Excel.“ Bei Beratungsprojekten hat sie hierfür drei Gründe ausgemacht: Erstens das Beharren auf einmal eingeführten Prozessen aus Bequemlichkeit („Das-haben-wir-schon-immer-so-gemacht-Syndrom“), zweitens die Scheu vor dem Aufwand zur Einarbeitung in ein neues System, und drittens die Angst davor, die Kontrolle über Informationen und Prozesse zu verlieren. Die Managementexpertin weiß aus der Beratungspraxis: „Die ersten beiden Gründe kommen bei behutsamem Nachhaken ans Tageslicht, weil sie im Grunde offensichtlich sind. Aber die Angst vor einem möglichen Kontrollverlust spricht niemand im Betrieb offen aus.“ Dabei sei dieser Angstfaktor der „entscheidende Knackpunkt im Kampf gegen die heimliche Excel-Wirtschaft“. 

Jane Enny van Lambalgen weiß aus vertraulichen Projektgesprächen: „Viele Beschäftigte betrachten die Informationen in ihrer Excel-Tabelle als ihr Besitztum, während die Daten im ERP- oder CRM-System nur der Firma gehören. Aufgrund dieser emotionalen Unterscheidung ist Excel so schwer auszurotten.“

Excel-Schattenreiche losgelöst von ERP und CRM

Daher findet die Managementberaterin bei Projekten in der Regel „unzählige Excel-Inseln mit teilweise abenteuerlichen Tabellen-Varianten“ vor. Jane Enny van Lambalgen: „Häufig stoßen wir auf ganze Schattenreiche völlig losgelöst vom ERP- oder CRM-System, von denen die IT-Verantwortlichen nicht einmal etwas ahnen.“

Die Schatten-IT bringt zahlreiche Probleme mit sich, klärt die Expertin auf, von Produktivitätseinbußen bis hin zu gravierenden Sicherheitslücken. Sie gibt ein Beispiel: „Wir finden bei Projekten immer wieder Excel-Listen mit Login-Daten zum Firmennetzwerk, manchmal nur für eine Person, gelegentlich sogar für ganze Teams oder Abteilungen, um betriebliche Stellvertreterregelungen zu umgehen. Viel leichter kann man es Hackern gar nicht machen.“ Nach Schätzungen der Managementexpertin „schlummern Tausende derartiger Sicherheitsbomben in deutschen Unternehmen.“ Sie verweist auf den IT-Branchen­verband Bitkom, nach dessen Recherchen 2024 acht von zehn Unternehmen in Deutschland von Cyber­angriffen betroffen waren mit einem Gesamtschaden von 267 Milliarden Euro. „Die Excel-Schattenwirtschaft hat dabei zweifelsohne eine nicht unerhebliche Rolle gespielt“, ist die Beraterin überzeugt.

Unternehmensführung mit falschen KPIs 

Unabhängig von den Sicherheitsrisiken erschwerten die Excel-Inseln die Unternehmenssteuerung, sagt Jane Enny van Lambalgen. Sie erklärt die Zusammenhänge: „Viele C-Level-Manager führen ihre Abteilungen und Firmen nach KPIs, also Key Performance Indicators, anhand von ERP- und CRM-Daten, die gar nicht der Realität entsprechen, weil sich die richtigen Informationen in den Excels verstecken.“ 

Bei Projekten stößt die Beraterin eigenen Angaben zufolge „immer wieder auf Vertriebs­entscheidungen, die schlichtweg auf falschen Daten aus der Verkaufsabteilung basieren.“ Die Vertriebsmitarbeiter hielten häufig ihre besten Kundenchancen in geheimen Excel-Tabellen, um erstens den internen Abschlussdruck abzumildern, zweitens sich nicht allzu leicht austauschbar zu machen, und drittens Kontakte für den Fall eines Wechsels zur Konkurrenz in der Hinterhand zu haben, weiß die Beraterin aus vertraulichen Gesprächen. 

„Die geheime Excel-Wirtschaft zieht sich durch alle Abteilungen“, hat Jane Enny van Lambalgen festgestellt, „von der Ablage wichtiger Informationen wie auf einem Notizzettel bis zur umfangreichen Datenanalyse und Visualisierung ist Excel häufig das bevorzugte Werkzeug.“ Die Abschaffung der Schatten-IT 2025 hält die Managementberaterin auch deshalb für wichtig, um „den Weg freizumachen für den Einsatz von KI-Tools in den nächsten Jahren.“ Sie erklärt: „Künstliche Intelligenz funktioniert nur, wenn die zugrundeliegende Datenbasis stimmt. Dazu ist es unerlässlich, die geheimen Excel-Daten in die ERP- und CRM-Systeme zu überführen. Wenn das nicht gelingt, wird die deutsche Wirtschaft von den Produktivitäts-, Effizienz- und Kostenvorteilen der KI nicht profitieren können.“

 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Die ultimative Checkliste für resiliente Netzwerke

Downtimes und langsame Verbindungen sind für viele Unternehmen die Endgegner. Eine hohe Netzwerkresilienz ist das beste Hilfsmittel im Kampf gegen sie. Opengear hat daher eine Checkliste erstellt, die sich Administratoren über den Laptop hängen sollten.

Die ultimative Checkliste für resiliente Netzwerke

Im Arbeitsalltag von Netzwerkadministratoren kommt der Begriff „Langeweile“ nicht vor: Von Updates der Router und Switches bis zur Anbindung neuer Clients und Standorte sowie der Überwachung und Analyse des Traffics – das Aufgabenspektrum ist riesig. Und allein eine dieser Aufgaben zu vernachlässigen, kann zum größten anzunehmenden Unfall führen – die Downtime als Super-GAU sozusagen. Um stabile, sichere und resiliente Netzwerke zu garantieren, sollten Administratoren daher immer wieder die Checkliste von Opengear, Anbieter von Out-of-Band-Managementlösungen zum Schutz kritischer Infrastrukturen, konsultieren und prüfen, ob sie irgendeinen der folgenden Punkte vernachlässigt haben:

1. Allgemeine Netzwerkarchitektur und Redundanz

Netzwerkadmins sollten durch eine Ring- oder Mesh-Topologie sicherstellen, dass ihr Netzwerk redundant aufgebaut ist. Auch die sogenannte Hardware-Redundanz, also der Einsatz redundanter Netzwerkgeräte wie Router, Switches oder Firewalls ist ebenfalls essenziell. Neben topologischer und gerätetechnischer Redundanz ist auch Multi-Homing ein Puzzlestück auf dem Weg zur Redundanz: Es gilt, Netzwerkverbindungen zu mehreren Internet-Providern einzurichten. Nicht zuletzt ist es wichtig, das Load Balancing zu optimieren und Lastverteilungsmechanismen zu implementieren.

2. Resilienz durch Alternativnetze

Konsolenserver und Out-of-Band-Netzwerke zu nutzen, um auch bei Ausfall des Produktivnetzwerks auf die Netzwerkgeräte zugreifen zu können, ist ein Kernaspekt beim Aufbau von Netzwerkresilienz. Mit 4G- oder 5G-Fallbacks können Administratoren zudem den Traffic bei Downtimes über den Mobilfunk umleiten und somit auch beim Ausfall stabile Verbindungen gewährleisten. Im besten Fall gibt es sogar eine Failover-Funktion von einer SIM-Karte zu einer zweiten eines anderen Telekommunikationsanbieters, falls der erste Cellular-Provider auch Probleme haben sollte.

3. Monitoring und Überwachung

Echtzeit-Monitoring-Systeme sind ein wichtiges Asset im Kampf gegen Downtimes, denn sie erlauben die Überwachung des Traffics und der Netzwerkgeräte. Administratoren sollten zudem regelmäßig die Netzwerk- und Sicherheitslogs überprüfen und Alerting-Systeme in Betrieb nehmen, die bei Anomalien oder Ausfällen sofort Alarm schlagen.

4. Sicherheitsmaßnahmen

Eine engmaschige Firewall ist obligatorisch. Jedoch müssen Netzwerkadministratoren die Konfiguration und die angewandten Regeln regelmäßig überprüfen und aktualisieren. Intrusion-Detection- und Intrusion-Prevention-Systeme (IDS/IPS) sollten sie ebenfalls einsetzen, genau wie VPNs. Gerade bei Letzteren ist es wichtig, die VPN-Tunnel für Remote-Zugriffe immer wieder zu kontrollieren. Zu den Aufgaben der Netzwerkadministratoren gehört auch, für die Verschlüsselung aller Daten während der Übertragung zu sorgen und strikte Zugangskontrollen (etwa Multi-Faktor-Authentifizierung) für den Zugriff auf systemrelevante Infrastrukturen zu implementieren.

5. Backups und Wiederherstellung

Regelmäßige Backups von Konfigurationsdateien der Router, Switches, Firewalls und Konsolenserver sind wichtig, um nach einem Ausfall schnell wieder ans Netz gehen zu können. Für eine Beschleunigung dieser Prozesse sorgen Disaster-Recovery-Pläne, die zu festen Zeitpunkten getestet werden sollten. Eine automatisierte Backup-Strategie für wichtige Daten ist ebenfalls empfehlenswert.

6. Software- und Firmware-Management

Wie bei jeder Hardware ist es auch für Netzwerkgeräte wichtig, dass sie regelmäßig Software- und Firmware-Updates erhalten. Administratoren müssen darüber hinaus kontinuierlich die Bedrohungslandschaft checken und Schwachstellenanalysen durchführen – und identifizierte Sicherheitslücken umgehend fixen.

7. Kapazitätsplanung und Leistung

Zu den täglichen Aufgaben von Netzwerkadministratoren gehört auch die regelmäßige Überprüfung der Netzwerkbandbreite und -kapazität sowie die Durchführung von Lasttests. Nur so können sie mögliche Engpässe identifizieren und vorsorgen. Tools und Methoden, um geschäftskritische Anwendungen bei der Nutzung des Netzwerks zu priorisieren (Quality of Service), sind unbedingt zu nutzen.

8. Dokumentation und Prozesse

Um neuen Netzwerkadministratoren das Leben zu erleichtern, ist eine aktuelle und detaillierte Dokumentation der Netzwerktopologie und der entsprechenden Konfigurationen unabdingbar. Auch eine ständig aktualisierte Liste von Notfallkontakten bei Internet-Providern, Hardware-Lieferanten und externen Dienstleistern ist wichtig. Prozesse für den Umgang mit Downtimes oder Sicherheitsvorfällen sollten klar definiert sein.

9. Schulung und Awareness

Zu einer guten Resilienzstrategie gehört auch, alle Mitarbeitenden in Sachen Netzwerksicherheit zu schulen und ihnen Best Practices beizubringen. Regelmäßige Testsimulationen von Netzwerkausfällen sind eine gute Methode, um die Reaktionsfähigkeit der Teams zu überprüfen.

10. Physische Sicherheit

Auf die Netzwerkgeräte sollte grundsätzlich nur autorisiertes Personal physischen Zugriff erhalten, insbesondere auf große Rechenzentren. Gleichzeitig sollten Sensoren installiert werden, die etwa Temperatur und Luftfeuchtigkeit überwachen, damit die Hardware unter optimalen Bedingungen läuft.

11. Audits und Reviews

Zu guter Letzt sind regelmäßige Durchführungen von internen und externen Sicherheitsaudits sowie die kontinuierliche Anpassung der Netzwerkresilienzstrategie von entscheidender Bedeutung.

„Netzwerkadministratoren, die sich an diese Checkliste halten, verringern das Risiko, etwas zu übersehen“, erklärt Dirk Schuma, Sales Manager EMEA North bei Opengear. „So verhindern sie unangenehme Zwischenfälle und vermeidbare Downtimes.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

„Intelligente Zerspanung“ für die fertigende Industrie

Gemeinsam mit dem Fraunhofer-Institut für Produktionstechnologie IPT in Aachen als Projektkoordinator sowie den Firmen gemineers, Innoclamp und Kaitos arbeitet das Kölner RWTH-Startup dataMatters an der „intelligenten Zerspanung“. Ziel ist es, durch den Einsatz von Künstlicher Intelligenz (KI) die hohen Qualitätsanforderungen in der zerspanenden Industrie besser und kostengünstiger zu erfüllen.

„Intelligente Zerspanung“ für die fertigende Industrie

„Real World AI“ nennt dataMatters-Gründer Dr. Daniel Trauth sein Geschäfts­konzept. Er erklärt: „Während sich die breite Öffentlichkeit auf generative KI stürzt, um Texte und Bilder zu erzeugen, legen wir den Fokus auf die Verbindung der KI mit der realen Welt, von der Smart Factory über Smart Buildings bis hin zur Smart City.“

Die Zerspanung, bei dem Werkstoff durch Drehen, Bohren, Fräsen oder Schleifen in die gewünschte Form und Größe gebracht wird, bildet in vielen Industriezweigen eine wesentliche Grundlage der Fertigungstechnik, von der Automobilproduktion bis zur Herstellung medizinischer Instrumente. Fehler im Zerspanungsprozess können schwerwiegende Folgen haben, die von Produkt­ausfällen bis hin zu Sicherheitsproblemen reichen. Strenge Qualitätskontrollen sind daher unerlässlich, aber auch zeitaufwändig und teuer. „Die automatisierte Überwachung und Analyse von Produktions­prozessen mittels KI kann die Prüfzeiten und den Kostenaufwand für die Qualitätssicherung erheblich reduzieren und die Genauigkeit der Qualitätsbewertung verbessern“, erklärt Dr. Daniel Trauth den Nutzen von „Real World AI“ anhand dieses Anwendungsbeispiels.

Die „intelligente Zerspanung“ ist Teil des Forschungsprojekts „FL.IN.NRW“, das von der Europäischen Union und dem Land Nordrhein-Westfalen im Rahmen des EFRE/JTF-Programms NRW 2021-2027 gefördert wird (Europäischer Fonds für regionale Entwicklung EFRE und Fonds für den gerechten Übergang, Just Transition Fund JTF). Das Projekt läuft bis 2027.g

Fraunhofer-IPT erklärt das Projekt genauer:

Im Forschungsprojekt „FL.IN.NRW“ entwickeln wir gemeinsam mit unseren Partnern eine Lernplattform zum dezentralen Training von prädiktiven KI-Modellen. Als ersten Anwendungsfall untersucht unser Projektteam den komplexen Prozess der Zerspanung: Die Vielzahl an Werkzeug- und Prozess­parametern in der Zerspanung ist eine Herausforderung für die Qualitätskontrolle, die sich meist nur durch zeitaufwändige manuelle Prüfungen der Bauteile bewältigen lässt.

Indem wir die Modelle mit Prozessdaten direkt aus der Produktionsmaschine trainieren, kann die KI Qualitätsprobleme während der Zerspanung erkennen: Abweichungen im gewünschten Bauteilprofil aufgrund von Werkzeugverschleiß werden durch Schwankungen in der Spindellast und im Spanndruck erkannt. Das KI-Modell detektiert dieses Werkzeugverhalten sofort als Maßabweichung außerhalb festgelegter Toleranzen. Dadurch können zeitaufwändige Qualitätskontrollen bedarfsgerecht durchgeführt und erheblich reduziert werden, was die Qualitätssicherung und Herstellung effizienter macht.

Datenschutzrisiken und Kostennachteile bei der Nutzung zentraler Cloud-Dienste

Bislang setzen Unternehmen bei der Entwicklung ihrer KI-gestützten Qualitätskontrolle auf zentrale Cloud-Dienste, um teure Anfangsinvestitionen für eine lokale digitale Infrastruktur zu vermeiden. Die große Menge an Produktionsdaten, die in der Cloud gespeichert werden, befinden sich jedoch außerhalb der unternehmenseigenen Kontrolle und sind daher größeren Datenschutz- und Daten­sicherheitsrisiken ausgesetzt. Zudem können die fortlaufenden, serviceabhängigen Gebühren von Cloud-Diensten langfristig zu einem Kostennachteil für die Unternehmen werden.

Dezentrales KI-Training für mehr Kosteneffizienz und Datenhoheit

Das maschinelle Lernverfahren des Federated Learning ermöglicht es kleinen und mittleren Unter­nehmen, die Vorteile von KI für ihre Qualitätskontrolle zu nutzen und gleichzeitig den Datenschutz und die Datensicherheit ihrer sensiblen Produktionsdaten zu gewährleisten:

Die Daten verbleiben sicher auf lokalen Servern, während sie für das dezentrale, kollaborative Training von noch leistungsstärkeren KI-Modellen verwendet werden können. Über mehrere Unternehmens­standorte hinweg wird das KI-Modell in einem Netzwerk lokaler Geräte und Unternehmensserver trainiert, ohne dass die Fertigungsdaten die lokalen Datenbanken verlassen. Nur die Modellparameter werden an einen zentralen Server gesendet, wo sie aggregiert und zu einem globalen Modell zusammengeführt werden, so dass die Datenhoheit bei den Unternehmen verbleibt.

Dr. Daniel Trauth ordnet ein: „Real World AI umfasst drei Komponenten: die Datenerfassung mittels Sensorik, die Sammlung der Informationen in einem geschützten Datenraum und die anschließende Auswertung durch bzw. das Training von KI-Algorithmen. Wir kümmern uns bei Projekten in der Regel um die Erfassung und stellen die benötigten technisch abgesicherten und rechtssicheren Datenräume bereit. Der Kunde kann dann entscheiden, ob er die KI-Auswertung in unseren Datenräumen oder auf seinen eigenen Servern vornehmen will.“

Der Beitrag wurde ursprünglich hier veröffentlicht …