Fünf Schritte für vertrauenswürdige IoT-Daten

Unternehmen, die IoT-Lösungen einsetzen, benötigen eine Datenqualitätsstrategie. Was bei BI und der Analyse sowie Aufbereitung betriebswirtschaftlicher Daten vielfach verbreitet ist, sollten Unternehmen auch bei IoT-Daten etablieren. Wir erläutern die wichtigsten Maßnahmen für Aufbau und Betrieb eines Programms zur Erreichung einer hohen Datenqualität im IoT-Umfeld.

Fünf Schritte für vertrauenswürdige IoT-Daten

Viele IoT-Daten bestehen aus metrischen Messwerten, deren Güte und Qualität mit herkömmlichen Methoden des Informationsmanagements beurteilt werden können. Neue Herausforderungen entstehen durch IoT-Geräte, bei denen Kameras Abläufe aufzeichnen oder die Servicetickets einer Maschine der letzten fünf Jahre und die zugehörigen Reparaturberichte ausgewertet werden; dabei müssen unterschiedlich strukturierte Dokumente und Aufzeichnungen analysiert werden. Die entscheidenden handlungsrelevanten Erkenntnisse entstehen dabei nicht durch die Analyse eines einzelnen Geräts, sondern durch intelligent vernetzte Geräte und Sensoren. Gerade die Integration großer Mengen verschiedenartig strukturierter, zuverlässiger und vertrauenswürdiger Daten ist eine Voraussetzung erfolgreicher IoT-Analytics-Lösungen, die in der Produktion entstehende IoT-Daten mit den Daten aus betriebswirtschaftlichen Applikationen und ERP-Systemen kombinieren. Falsche oder unvollständige Daten verzerren die Einsicht in Fertigungsprozesse. Daraus entstehen technische Fehler, Über- oder Unterproduktion und Produktmängel. Mit einer verbesserten Datenqualität steigern Unternehmen ihre Produktivität und Effizienz. Wir zeigen in fünf Schritten auf, wie Unternehmen vorgehen können.

1. Die Herausforderung verstehen

Die Data Value Chain stellt in IoT-Anwendungsszenarien den Orientierungsrahmen bereit, um in der Wertschöpfungskette eines Unternehmens eine höhere Effizienz zu erreichen. Um diese Vorgabe erfüllen zu können, muss Einigkeit darüber hergestellt werden, wo sich fehlerhafte Daten in den IoT-Prozessen befinden und welche Auswirkungen sie haben. Durch Data Profiling lassen sich unterschiedliche Arten von Defiziten aufdecken: einige Daten sind unvollständig, manche sind doppelt vorhanden, andere sind lückenhaft oder fehlen gar gänzlich.

2. Einen Datenverantwortlichen benennen

Der Data Steward ist die wichtigste Person bei der Umsetzung und der Steuerung von IoT-Datenqualitäts­strategien. Er stellt Regeln auf, wie Daten erfasst, behandelt, gepflegt sowie weitergegeben werden und legt die Prozesse fest, die im gesamten Unternehmen die Qualität in den IoT- und betriebswirtschaftlichen Daten sicherstellen sollen. Darüber hinaus sorgt er für die Umsetzung der Richtlinien, übernimmt die laufende Kontrolle sowie Erfassung der Informationsintegrität und passt die Qualitätsverfahren entsprechend den geänderten Anforderungen und Datenquellen an.

3. Die zu bereinigenden Daten priorisieren

Ein Data Steward kennt den geschäftlichen Wert der Daten in seinem Verantwortungsbereich und kann beurteilen, welche Daten wirklich den Aufwand wert sind, sie zu bereinigen. Ein guter Start ist die Erstellung eines Lebenszyklusdiagramms. Grundlage dafür bilden die beim Profiling ermittelten Daten. Zu klären ist: Woher kommen die Daten? Von welchen Applikationen werden sie genutzt? Welche Konsequenzen haben fehlende oder nicht korrekte Daten? Gibt es manuelle Aktivitäten, die sich auf die Integrität der Informationen auswirken? Um hohe Qualitätsziele zu erreichen, müssen Fachabteilungen möglicherweise einzelne Geschäftsprozesse anpassen.

4. Verfahren für fehlerhafte Daten festlegen

Ausgangspunkt bilden die beim Profiling aufgedeckten Datenqualitätsprobleme. Der Data Steward muss daher Prioritäten setzen. Er sollte Herausforderungen und Risiken skizzieren und eine Methodik für deren Bewältigung entwickeln sowie Verfahren und die notwendigen Maßnahmen implementieren. Der Plan muss folgende Fragen beantworten: Welche Fehler liegen innerhalb tolerierbarer Grenzen? Was geschieht mit den problematischen Fällen? Werden die Daten nicht verwendet oder eingehend geprüft? Sollen korrigierbare Fehler manuell behoben werden? Ein effizientes Datenqualitätsmanagement bedeutet nicht, dass alle Daten fehlerfrei sein müssen. Der Aufwand dazu ist zu hoch. Meist genügt es, dass die Daten für einen bestimmten Kontext „gut genug“ sind.

5. Den Reinigungsprozess mit IT-Prozessen starten

Nachdem in den Fachabteilungen, etwa der Produktion, Instandhaltung, Logistik und dem Vertrieb, die problematischen Daten identifiziert wurden, besteht der nächste Schritt darin, zusammen mit der IT-Abteilung die notwendigen Prozesse und Verfahren zur Bereinigung der Daten umzusetzen. Mit leistungsstarken Bereinigungs-Tools kann die IT die erforderlichen Korrekturen an den fehlerhaften Daten effizient durchführen und die Ergebnisse der Maßnahmen fortlaufend überprüfen und bei Bedarf ein Feintuning vornehmen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Schritt für Schritt zur perfekten Customer Journey Map

Die Customer Journey beschreibt den gesamten Prozess, den ein Kunde in der Interaktion mit einem Unternehmen durchläuft: Von der ersten Kontaktaufnahme bis zum Support nach dem Kauf interagiert er an verschiedenen Touchpoints mit dem Unternehmen.

Schritt für Schritt zur perfekten Customer Journey Map

Um die Customer Journey besser zu verstehen und zu optimieren, helfen sogenannte Customer Journey Maps. Diese visuell dargestellten Karten zeigen die verschiedenen Phasen der Customer Journey, die Touchpoints und die Interaktionen, die der Kunde mit dem Unternehmen hat. Five9 erklärt, worauf es bei der Erstellung ankommt.

Eine Customer Journey Map bietet Contact Centern zahlreiche Vorteile. Sie verbessert das Kundenerlebnis, indem die einzelnen Interaktionsschritte optimiert und mögliche Hindernisse rechtzeitig beseitigt werden. Zudem lassen sich Systemprobleme frühzeitig identifizieren und beheben. Dies führt zu einer effizienteren Problemlösung, zufriedeneren Kunden und weniger Beschwerden. Ressourcen können zielgerichtet und effizient eingesetzt werden, um die Kundenbedürfnisse zu erfüllen. Schließlich liefert die Karte wertvolle Einblicke in das Kundenverhalten, die für Prozessverbesserungen und strategische Entscheidungen genutzt werden können.

Eine gut integrierte Customer Journey Map ist somit ein wertvolles Tool: Es kann Contact Centern helfen, die Kundenzufriedenheit und -loyalität zu verbessern, den Umsatz zu steigern und die Effizienz zu optimieren. Durch die Überwindung von Herausforderungen und die effektive Nutzung der gewonnenen Erkenntnisse können Contact Center ein nahtloses und positives Kundenerlebnis schaffen, das sich von der Konkurrenz abhebt.

Sechs Schritte zur Erstellung einer Customer Journey Map

1. Personas definieren

Um die Customer Journey zu verstehen, muss man sich in die Kunden hineinversetzen. Dazu sollten folgende Fragen beantwortet werden:

  • Welche Kanäle bevorzugen die Kunden (z. B. Telefon, Online)?
  • Wo befinden sich die Kunden im Lebenszyklus und welche Maßnahmen sind erforderlich?
  • Wie sieht der Alltag der Kunden aus, mit welchen Herausforderungen sind sie konfrontiert und welche beruflichen Hintergründe haben sie?
  • Welche inhaltlichen Vorlieben haben die Kunden?

Aus diesen Informationen werden Personas entwickelt, die die Zielgruppe repräsentieren. So können maßgeschneiderte Erlebnisse für die unterschiedlichen Kundenbedürfnisse und -präferenzen geschaffen werden.

2. Kundenkontaktpunkte identifizieren

Jeder Kontaktpunkt, an dem Kunden mit der Marke in Berührung kommen, ist wichtig und sollte identifiziert werden. Dazu zählen Online- und Offline-Kanäle wie Websites, soziale Medien, Anrufe beim Kundenservice und, nicht zu vergessen, Besuche in Geschäften. Das Mapping dieser Berührungspunkte bietet eine klare Visualisierung der Customer Journey von der ersten Wahrnehmung bis zum After-Sales-Support.

3. Feedback und Daten

Kundendaten aus verschiedenen Quellen wie Umfragen, Interviews, sozialen Medien und Website-Analysen bieten wertvolle Einblicke in die Erfahrungen, Präferenzen und Probleme der Kunden an jedem Kontaktpunkt entlang der Reise.

4. Erstellen einer visuellen Darstellung

Die gesammelten Daten können verwendet werden, um eine visuelle Darstellung der Customer Journey Map zu erstellen. Es gibt verschiedene Vorlagen für Customer Journey Maps in Form von Flussdiagrammen, Infografiken oder eines Storyboards, die die Phasen, Berührungspunkte und Interaktionen der Kunden veranschaulichen.

5. Identifizierung von Schwachstellen und Chancen

Die Customer Journey Map kann helfen, mögliche Herausforderungen oder Probleme zu identifizieren. Was könnte die Ursache sein? Ist es eine fehlende Zahlungsmethode, die den Kunden zu einem Wettbewerber abwandern lässt? Wer solche Probleme erkennt, kann Lösungen entwickeln, um sie effektiv anzugehen und sie in Chancen zu verwandeln.

6. Verbesserungen umsetzen und überwachen

Durch geeignete Maßnahmen können erkannte Schwachstellen beseitigt und Verbesserungspotenziale aufgezeigt werden. Änderungen an Prozessen, Produkten oder Dienstleistungen sollten auf Basis der Erkenntnisse aus der Customer Journey Map implementiert werden. Die Wirksamkeit dieser Verbesserungen sollte regelmäßig überwacht und evaluiert werden, um eine kontinuierliche Optimierung des Kundenerlebnisses zu gewährleisten.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Drei Anwendungsfelder für generative Künstliche Intelligenz in der Produktion

Künstliche Intelligenz (KI) hat das Potenzial, unsere heutige Arbeitsweise völlig auf den Kopf zu stellen. Seit Jahren arbeiten branchenübergreifend Unternehmen daran, Machine und Deep Learning und weitere KI-basierte Algorithmen einzuführen, um zum Beispiel mit selbstlernenden Systemen große Datenmassen auszuwerten und mit darauf aufbauender Mustererkennung spezifische Aufgaben zu lösen. Der Hype um Generative AI, kurz GenAI, wirkt seit Ende 2022 als zusätzlicher Katalysator für diese Entwicklung. Zunehmend machen auch produzierende Unternehmen Budgets frei, um die Ressourcen für die Implementierung praxisrelevanter KI-Lösungen zu schaffen. 

Drei Anwendungsfelder für generative Künstliche Intelligenz in der Produktion

Eine aktuelle Studie des IT-Dienstleisters adesso zur Nutzung von GenAI in der deutschen Industrie gibt Aufschluss, wieso: Mehr als 70 Prozent der Befragten gaben an, dass sie wöchentlich mindestens zwei Stunden Arbeitszeit durch die Nutzung von GenAI einsparen. Doch verspricht KI nicht nur Effizienzgewinne. Die Einführung der Technologie bietet auch den optimalen Zeitpunkt, Prozesse neu zu bewerten und sie zu transformieren. „Um das Potenzial von GenAI in der Entwicklung und Produktion voll auszuschöpfen, sollten Verantwortliche nicht nur Möglichkeiten erkennen, sondern auch Projekte konzipieren und Prozesse verfeinern – von der Beschaffung bis zum Service“, so Dr. Olaf Neugebauer, Senior Manager und Head of Competence Center IoT bei adesso. „Die Insights und Handlungsspielräume, die die Marktteilnehmer durch den Einsatz von KI gewinnen, erlauben ihnen, die Qualität ihrer Services sowie Produkte und damit die Kundenzufriedenheit auf ein völlig neues Niveau zu heben.“

Rahmenbedingungen schaffen

Aktuell arbeiten Industrieunternehmen bei der Umsetzung ihrer IT- und Datenstrategien intensiv daran, ihre IT-Landschaft zukunftsorientiert aufzustellen. Die Ziele: Kostensenkung, mehr Flexibilität und Effizienzsteigerungen einerseits sowie die Realisierung von Echtzeitanalysen, Prozessautomatisierung und die Implementierung von KI andererseits.

Die folgenden drei Bereiche bieten der herstellenden Industrie großes Potenzial für den Einsatz von KI und GenAI:

1. Die sprechende Maschine

Das Szenario: Alle Condition-Monitoring-Daten und Meldungen der Maschinen werden effizient über eine IoT-Plattform gesammelt. Ein GenAI-System nutzt dann diese Daten, um über Schnittstellen zielgruppengerechte Informationen in einfacher und verständlicher Sprache zu generieren. So entstehen prägnante sprachliche Zusammenfassungen komplexer Maschinen-Dashboards und -Analysen. In der nächsten Ausbaustufe kann diese Technologie mit einem „Digitalen Wartungsassistenten“ verknüpft werden, der Wartungsprozesse revolutioniert.

2. Digitaler Wartungsassistent

Umfangreiche Anleitungen und Dokumentationen von Maschinen, die oft mehrere Regalmeter füllen und nicht zentral an einem Ort zugänglich sind, sorgen für unnötige Aufwände? Anstatt mühsam nach den richtigen Informationen zu suchen, sollten Mitarbeiter direkt mit Handbüchern und Wartungsberichten chatten und im Fehlerfall schnell die passenden Lösungsvorschläge finden können. Die nächste Ausbaustufe dieses digitalen Wartungsassistenten kann eine Verbindung zur „sprechenden Maschine“ sein, die proaktiv Unterstützung bietet und Wartungsprozesse revolutioniert. So werden Zustandsdaten der Maschinen mit der Wissensdatenbank aus Handbüchern und Wartungsdokumenten effizient verknüpft.

3. Ähnlichkeitsanalyse im Engineering

Ein solches GenAI-System ist speziell darauf ausgelegt, bei der Bearbeitung von Angebots- und Projektanfragen zu unterstützen. Es hilft gezielt bei der Frage: „Wurde bereits etwas Ähnliches gefertigt oder konstruiert?“ Wenn die Antwort ja lautet, liefert das System wertvolle Informationen zu früheren Projekten und gibt Empfehlungen, wie bestehende Teile möglicherweise modifiziert werden können. So sparen Unternehmen Zeit und Ressourcen, während sie gleichzeitig auf bewährte Lösungen zurückgreifen können.

Neugebauer ergänzt: „Wir stehen am Beginn einer Epoche, in der die Marktchancen neu verteilt werden. Einst haben Internet und Mobile Business die Wirtschaftslandschaft verändert und neue Marktführer hervorgebracht. Nun wird GenAI für ähnlich tiefgreifende Veränderungen sorgen. GenAI-Technologien werden in Zukunft so selbstverständlich sein wie heute E-Mail oder Smartphone-Apps. Die herstellende Industrie sollte sich jetzt darauf vorbereiten. Denn es ist an der Zeit, die Faszination für GenAI in konkrete Geschäftserfolge umzuwandeln.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Ausblick künstliche Intelligenz (KI) in Operations, Softwareentwicklung und Compliance

Im Jahr 2025 wird die Rolle der künstlichen Intelligenz (KI) in Operations, Softwareentwicklung und Compliance rasant voranschreiten und transformative Auswirkungen auf verschiedene Branchen haben.

Ausblick künstliche Intelligenz (KI) in Operations, Softwareentwicklung und Compliance

Heath Newburn, Global Field CTO bei PagerDuty, sieht eine nahe Zukunft, in der KI nicht nur sich wiederholende Aufgaben automatisiert, sondern auch grundlegend verändert, wie Abteilungen zusammenarbeiten. Dadurch können sie sich auf Innovation und anspruchsvolle Problemlösungen konzentrieren. Heath Newburn hebt vier Schlüsselbereiche hervor, in denen KI im kommenden Jahr diese Transformation vorantreiben wird.

1. Codegenerierung

Nicht nur operative Tätigkeiten, sondern auch die Generierung von Code wird zunehmend von KI übernommen. Dabei handelt es sich allerdings nicht nur um die nächste Stufe der Automatisierung. KI ist auch eine Technologie zur Verbesserung der Art und Weise, wie Software geschrieben wird. Dies beginnt bei der einfachen Erzeugung von Quelltext und reicht bis hin zu KI-unterstützten Entwicklungsumgebungen (IDEs). Früher oder später wird KI den von KI geschriebenen Code selbst überprüfen. Auch die Rolle des traditionellen Softwareentwicklers wird sich verändern. Statt Code zu schreiben, werden sie zu Lehrmeistern und Prüfern. Eine wichtige Aufgabe wird darin bestehen, KI so zu trainieren, dass sie noch intelligenteren Code schreibt – weit über einfache Syntax- und Semantikregeln hinaus.

2. Zero-Touch-Operations

IT-Operations (Ops) als solche werden sich aufgrund des von KI bereitgestellten Wissens und der Tools verändern. Bekannte Herausforderungen können durch KI (Chatbots) gelöst oder sogar verhindert werden. Sie werden eine große Hilfe bei der Vorhersage von IT-Vorfällen sein, lange bevor diese eintreten. Die Betriebsteams können sich auf komplexere Aufgaben konzentrieren und die KI so trainieren, dass sie zusätzliche Anwendungsfälle unterstützen kann. Analog zu den Softwareentwicklern, wird sich die Rolle eines typischen Ops-Engineers verändern. Das neue Ziel besteht darin, die KI so zu schulen, dass sie die bekannten und weniger heiklen Fälle abdeckt. KI schläft nie und kann rund um die Uhr in Sekundenschnelle reagieren. Ein weiteres neues Ziel – oder vielmehr eine Chance – besteht darin, dass die Ops-Teams nun Zeit und Ressourcen haben, um an den kniffligen Aufgaben zu arbeiten. Vorerst heißt das – keine Ablenkung von der normalen täglichen Arbeit, die die KI übernimmt. Später bedeutet dies: Die künstliche Intelligenz so zu trainieren, dass sie auch diese – nun bekannten – kniffligen Aufgaben abdeckt.

3. Einfachere Compliance

KI wird sich bei der Übernahme und Einhaltung neuer Vorschriften und Richtlinien erheblich verbessern. Sie wird die arbeitsintensive Analysearbeit übernehmen und das menschliche Gehirn nur dann „stören“, wenn es wirklich um echte Knackpunkte geht. KI wird nicht nur helfen, besser zu verstehen, was eine neue Vorschrift verlangt. Sie wird es auch einfacher machen, praktikable Schritte zur Einhaltung zu skizzieren oder zumindest zu verstehen und darzulegen, welche Maßnahmen ergriffen werden müssen. Es wird keinen Grund geben, sich vor neuen Gesetzen, Richtlinien und Vorschriften zu fürchten. KI wird den neuen Kontext analysieren und in umsetzbare Maßnahmen übersetzen, ohne jeglichen Aufwand oder Zeitverschwendung.

4. Konsolidierung

KI wird den verschiedenen Werkzeugen und Frameworks neue Möglichkeiten bieten, die (potenzielle) sogenannten technischen Schulden (Technical Depth) in Bezug auf Software zu bereinigen. Durch die Analyse der bestehenden IT-Landschaft können KI-Systeme neue Wege aufzeigen, um redundante Funktionen, die gekauft, gewartet und verwendet werden, zu identifizieren und zu eliminieren. Und dies in zweierlei Hinsicht: Das heißt: KI kann dabei helfen, den aktuellen Softwarebestand zu analysieren und konkrete Empfehlungen zur Konsolidierung auszusprechen. In kleinerem Umfang könnten einige KI-Bots bereits vorhandene Software mit ausreichenden Empfehlungen versehen oder bei der Lösung eines Problems helfen, das bisher durch zusätzliche Software gelöst wurde. Einfach ausgedrückt: Mit KI kann jeder (Ops-)Softwareanbieter nicht nur Schwachstellen in bestehenden Softwarelandschaften aufdecken, sondern auch konkrete Maßnahmen zur Optimierung vorschlagen und teilweise sogar automatisieren.

Der Beitrag wurde ursprünglich hier veröffentlicht …

GSG Genii erwirbt PLANAT GmbH, einen führenden unabhängigen Anbieter von ERP-Software für die diskrete Fertigung in Deutschland

Die GSG Genii Software Group („GENII“) hat bekanntgegeben, dass sie mit der PLANAT GmbH („PLANAT“) einen der größten unabhängigen Anbieter von ERP-Software für die Fertigung in Deutschland erworben hat. Mit der 1981 gegründeten PLANAT baut GENII neben dem Bereich Prozessfertigung, in dem GENII bereits heute mit GUS ERP eine führende Position besitzt, die Marktpräsenz im Diskreten Fertigungsmarkt, in dem GENII bereits durch den niederländischen ERP-Anbieter, Isah, vertreten ist, auch in DACH weiter aus.

GSG Genii erwirbt PLANAT GmbH, einen führenden unabhängigen Anbieter von ERP-Software für die diskrete Fertigung in Deutschland

Die Kunden von PLANAT, von denen sich die meisten in Deutschland befinden, sind typischerweise mittelständische Fertigungsunternehmen mit bis zu 150 Nutzern. Diese profitieren von der funktional umfassenden Kern-ERP-Suite des Unternehmens, kombiniert mit modularen Ergänzungen, um unterschiedlichste Fertigungsnischen abzudecken. PLANAT bedient seit Jahren erfolgreich Fertigungsspezialisten in den Bereichen Metallverarbeitung, Kunststoffverarbeitung, Elektroengineering und Kabelproduktion, was sich in einem soliden historischen Umsatzwachstum widerspiegelt.

Christian Biebl, Geschäftsführer von PLANAT und Vertriebsleiter, sagte: „Wir freuen uns sehr, nun Teil von GENII Gruppe zu sein. Tiefe Branchenexpertise kombiniert mit umfangreicher Investitionsbereitschaft, werden es uns ermöglichen, unseren Kunden auch weiterhin die besten Fertigungslösungen bieten zu können. Darüber hinaus wird die Expertise innerhalb der Gruppe beispielsweise im Bereich Künstlicher Intelligenz und cloudbasierter Technologien uns helfen, unsere Lösungen zukunftssicher zu machen und so sicherzustellen, dass unsere Kunden sowohl heute als auch langfristig durch bestmögliche Software-Unterstützung ihrer unternehmenskritischen Prozesse erfolgreich sind.“

Matthias Siekmann, Group CEO von GENII, erklärte: „Die Übernahme von PLANAT ist ein weiterer Schritt, ein Dach für marktführende und Spezial-Unternehmenssoftware zu bieten und erste Anlaufstelle für die Unterstützung geschäftskritischer Prozesse zu sein. Wir haben nun ein noch breiteres Angebot innerhalb der Gruppe für die unterschiedlichen Marktsegmente im Bereich Fertigung. Mit unseren starken Investitionsmöglichkeiten sowie der finanziellen Stärke von GENII werden wir PLANAT ermöglichen, zu wachsen und den Marktanteil im DACH-Markt für Diskrete Fertigungslösungen weiter auszubauen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Herkules-Aufgabe Datenbankmanagement: Fünf Aspekte, die Führungskräfte über Datenbanken wissen sollten

Die Datenbanklandschaft hat sich in den letzten zehn Jahren gravierend verändert. Wo früher meist eine einzige Plattform zum Einsatz kam, entsteht in vielen Unternehmen heute geradezu ein Wildwuchs an unterschiedlichen Technologien. Redgate, führender Anbieter von DevOps-Lösungen für End-to-End-Datenbankmanagement, nennt fünf Gründe, wie es dazu kam – und was Business Leader wissen müssen.

Herkules-Aufgabe Datenbankmanagement: Fünf Aspekte, die Führungskräfte über Datenbanken wissen sollten

Bis Mitte der 2010er-Jahre wählten die meisten Unternehmen in der Regel eine der vier großen relationalen Datenbankplattformen entsprechend ihren Bedürfnissen aus. So fiel die Entscheidung entweder auf Oracle, MySQL, SQL Server oder PostgreSQL. Dass dabei oft Kompromisse eingegangen werden mussten, versteht sich von selbst – und dass sehr viel Legacy aufgebaut wurde, die sich bis heute hartnäckig hält. Unter anderem deshalb sind diese „Big Four“ auch heute noch entsprechend häufig im Einsatz. Durch neue Tools und technologische Möglichkeiten wie KI-Unterstützung oder Automatisierung haben Unternehmen inzwischen jedoch die Freiheit, nicht nur eine Datenbankplattform, sondern eine Vielzahl zu verwenden. Die Folge: Die Datenbanklandschaft ist komplexer als je zuvor. Redgate erklärt in fünf Punkten, wie es dazu kommen konnte und was für CTOs und die Geschäftsführungen deshalb heute von essenzieller Bedeutung ist.

Grund 1: Das Datenvolumen steigt

Beinahe jedes Unternehmen hat mit steigenden Datenmengen zu kämpfen. Weltweit gibt es Prognosen, die eine Verdreifachung des gesamten Datenvolumens bis 2027 vorhersagen; angetrieben vor allem durch den rasanten Aufstieg und Verbreitung von künstlicher Intelligenz (KI) und generativer KI. Für Unternehmen wird es immer wichtiger, das volle Potenzial ihres Datenschatzes auszuschöpfen. Genau dabei spielt KI eine immer größere Rolle – das setzt allerdings eine perfekt orchestrierte Datenbanklandschaft voraus.

Grund 2: Daten werden immer komplexer

Nicht nur das schiere Volumen steigt, auch die Komplexität der von Unternehmen gesammelten Daten nimmt zu. Wo früher strukturierte Daten in Tabellen gespeichert wurden, gibt es heute immer mehr halb- oder unstrukturierte Daten wie Dokumente, Videos, Zeitreihen von Sensoren, Mails oder Graphdaten. Die meisten Daten müssen heute daher auf exakt auf sie zugeschnittene Datenbanken verteilt und in ihnen bereitgestellt werden, um sie gewinnbringend zu nutzen. Das führt ebenfalls zu einem Anstieg der eingesetzten Datenbankplattformen.

Grund 3: Daten brauchen mehr als Datenbanken

Ein weiterer Grund für den Anstieg eingesetzter Tools ist, dass die unterschiedlichen Datentypen und Datenbanken auch verwaltet und gewartet werden müssen. Es ist vorteilhaft, wenn Unternehmen in der Lage sind, Daten zu sammeln und zu sichern. Aber es gehört mehr dazu, um aus ihnen auch wirklich Wert zu schöpfen. Es bedarf vor allem geeigneter Suchmaschinen und Anwendungen, die die verschiedenen Daten überhaupt erst konsumierbar machen. Daher müssen CTOs eng mit Datenbankadministratoren zusammenarbeiten, um den optimalen Werkzeugkasten für ihre Datenbanklandschaft zu evaluieren und zu implementieren.

Grund 4: Datenbankteams unter Strom

Eine funktionale Multi-Datenbanklandschaft am Laufen zu halten, ist nicht nur ein Full-Time-Job – es ist eine Herkules-Aufgabe. Gerade in Zeiten von Fachkräftemangel und steigender Komplexität sowie einem immer größeren Aufgabenfeld fällt dies Administratoren schwer. Neben dem Entwickeln und Management der Datenbanken müssen IT-Teams vor allem auch deren Überwachung in den Griff bekommen. Bei der Auswahl entsprechender Tools ist es wichtig, dass diese nicht nur in Echtzeit Einblicke liefern, sondern auch einen umfangreichen Kontext und ein individualisierbares Alerting bieten.

Grund 5: Daten sind geschäftsrelevanter denn je

Lange Jahre war der Datenhaushalt eine eher technische Angelegenheit – das hat sich grundlegend verändert. Heute sind Daten und deren strategische Nutzung entscheidend für den geschäftlichen Erfolg und maßgeblich dafür verantwortlich, ob ein Unternehmen wettbewerbsfähig bleibt. Auch das ist ein Grund, warum Datenbankspezialisten äußerst gefragt sind und eine gut geölte Datenbanklandschaft zur Grundvoraussetzung für erfolgreiches Management geworden ist.

„CTOs und die Geschäftsführung müssen das Thema Datenbanken und ihr Management zu einem Grundpfeiler ihrer Unternehmensstrategie machen“, erklärt Oliver Stein, Geschäftsführer DACH bei Redgate. „Nur Unternehmen, die die Herausforderungen moderner IT-Infrastrukturen aktiv annehmen und meistern, werden auf dem Markt die Nase vorn haben. Das passendes Tool-Set ist dabei zentraler Dreh- und Angelpunkt für den Erfolg.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

5 Tipps zu Non-Conformance Reports mit KI

Im Qualitätsmanagement sind „Non-Conformance Reports“ (NCR) oder Nichtkonformitätsberichte wertvoll, um aus Fehlern zu lernen, diese proaktiv zu verhindern und das Unternehmen dem Ziel der „Predictive Quality“ näherzubringen.

5 Tipps zu Non-Conformance Reports mit KI

Ein KI-gestütztes DMS/QMS wie Approve on Fabasoft PROCECO unterstützt die Abarbeitung der Abweichungen und verknüpft die Learnings entlang der Wertschöpfungskette. Lukas Hengster, QM-Experte und Head of Business Development der Fabasoft Approve GmbH, gibt Tipps zur effizienten und nachhaltigen Bearbeitung von Nichtkonformitäten und zur Erstellung entsprechender Reports (NCRs).

Tipp 1: Nutzen Sie ein cloudbasiertes DMS/QMS für die Erfassung und Bearbeitung von Non-Conformances (NCs)

Eine Non-Conformance oder Nichtkonformität beschreibt jegliche Abweichung, die an jeder Stelle eines Produktionsprozesses auftreten kann. Je nach Automatisierungsgrad des Unternehmens übermittelt eine Maschinenschnittstelle die entsprechenden Daten direkt an Approve, und startet dadurch einen automatischen Prozess, bei dem die Software auch Metadaten aus anderen angebundenen Systemen, beispielsweise dem ERP, verknüpft. Der Vorteil dieser strukturierten Datenerfassung ist wesentlich: Betriebe, die das Ziel der „Predictive Quality“ verfolgen oder KI-gestützte Anwendungen im Einsatz haben, benötigen dafür eine valide und vor allem strukturierte Datengrundlage. Der Einsatz von Cloud-Technologie in zertifizierten Rechenzentren im DACH-Raum macht unternehmensübergreifende Prozesse entlang der gesamten Supply-Chain erst möglich.

Tipp 2: Sorgen Sie für eine effiziente, korrekt dokumentierte Abarbeitung der „Non-Conformances“ (NCs) laut CAPA oder 8D

Um einen Mangel zu bearbeiten, ist zunächst eine präzise Fehleridentifikation erforderlich. Das geschieht über Non-Conformance Reports (NCRs), die als Instrument dienen, um Fragen und Probleme systematisch zu dokumentieren.

Zu Abarbeitung von NCRs haben sich je nach Branche unterschiedliche Methodiken wie CAPA (Corrective and Preventive Action, u. a. in der Medizintechnik) oder der 8D-Prozess (u. a. Automotive, Maschinen- und Anlagenbau) etabliert. Dabei sind die Nichtkonformitäten frei kategorisierbar – je nach Schweregrad des Mangels und Priorisierung des Kunden kann beispielsweise auch nur ein 2D- oder 6D-Prozess gestartet werden. Eine implizierte Root-Cause-Analysis, also Ursachenforschung, ist von entscheidender Wichtigkeit, um in Zukunft ähnliche Fehler durch Vorbeugemaßnahmen zu vermeiden.

Tipp 3: Steigern Sie die Qualität Ihrer Audits durch eine normenkonforme Bearbeitung von Mängeln

Verschiedene ISO-Normen definieren Nichtkonformitäten (NCs) auf unterschiedliche Weise. So beschreibt die ISO 9001 diese als „Abweichungen von den Anforderungen des Qualitätsmanagementsystems (QMS)“. Im Gegensatz dazu klassifizieren die Richtlinien der FDA (Food and Drug Administration) für medizinische Geräte „jede Leistungsabweichung des Geräts“ als Nichtkonformität. Die ISO 9101, die Norm für Organisationen der Luftfahrt, Raumfahrt und Verteidigung, definiert konkret NCRs als Teil der Anforderungen zur Dokumentation von Auditergebnissen.

In Approve können Fachabteilungen eigenständig das Formularwesen betreuen und branchenspezifische BPMN-Prozesse zeichnen. Diese dienen als Dokumentation für Zertifizierungen und lassen sich in Approve gleichzeitig als digitale Workflows ausführen. Durch diese Systemunterstützung halten die Mitarbeitenden automatisch die normierten QM-Prozesse ein.

Die integrierte Zeitreisefunktion macht jeden Bearbeitungsschritt nachvollziehbar und bildet einen wertvollen Baustein im Auditmanagement. Auditor:innen haben so jederzeitigen Überblick über abgeschlossene Prozessschritte.

Tipp 4: Erreichen Sie kontinuierliche Verbesserung durch proaktives, werksübergreifendes Mängelmanagement

Zugehörige Metadaten (wie Bestellinformationen, Lieferanten und Informationen über interne Lieferantenbetreuer:innen) bindet Approve automatisiert – via ERP-Schnittstelle in den NC-Prozess ein.

Am Beispiel der Lieferantenaudits lässt sich dieser Vorgang gut darstellen: Die cloudbasierte Software vernetzt Kund:innen und Zuliefer:innen direkt im Prozess. Das reduziert Medienbrüche und Fehleranfälligkeit. Ein umfassender NCR zu Kundenreklamationen ist für After-Sales-Prozesse hoch relevant. Die gesammelten NCR-Daten können auch als Informationsbasis für Verhandlungen im Einkauf dienen und zur Lieferantenbewertung beitragen.

Diese Learnings fließen dann automatisch in die Datenbasis ein, Approve überführt diese wieder zurück in das ERP bzw. an alle angebundenen Systeme. So rückt die „Predictive Quality“ in greifbare Nähe: Ziel es ist, Fehlerschemata und potenzielle Muster ausfindig zu machen, diese zu erfassen und dann für künftige Prozesse (wie FMEA – Fehlermöglichkeits- und Einflussanalyse) aufzubereiten.

Tipp 5: Gleichen Sie Fachkräftemangel durch KI-Funktionen bei der Bearbeitung von NCRs aus

Im Qualitätsmanagement müssen zur Problemlösung umfangreiche Daten und unzählige Dokumente berücksichtigt werden. Erfahrene Mitarbeiter:innen haben ihr Know-how über lange Jahre aufgebaut und wissen, wo sie Informationen finden und nutzen können. Bedingt durch Fachkräftemangel, Fluktuation sowie Pensionierungen geht dieses implizite Wissen verloren. Qualitätsprozesse entlang der Supply-Chain effizient zu bearbeiten wird zur Herausforderung.

Die nahtlos ins DMS/QMS von Fabasoft Approve eingebettete künstliche Intelligenz von Mindbreeze gleicht diesen Know-how-Verlust aus. 360-Grad-Sichten auf Mängel helfen bei der Fehlerbehebung: Beispielsweise kann eine in einer technischen Zeichnung vermerkte Materialnummer dazu genutzt werden, um Bestellinformationen zum Bauteil einzusehen oder ähnliche Abweichungen zu finden. Im 8D-Prozess analysiert die KI verwandte Mängel und liefert auf Knopfdruck Vorschläge für Korrektur- oder Sofortmaßnahmen.

Mitarbeitende können über den integrierten KI-Chat einzelne Dokumente oder ganze technische Akten befragen. Die KI extrahiert die Information und liefert eine passende Antwort in natürlicher Sprache.

Der Beitrag wurde ursprünglich hier veröffentlicht …

5 Features für eine digitalere HR-Abteilung dank elektronischer Personalakte

Die zunehmende Digitalisierung aller Lebensbereiche erfasst auch die Arbeitswelt und damit die Personalabteilung: von flexiblen Arbeitsmodellen wie Home Office über Recruiting-Prozesse auf Online-Portalen bis hin zur Förderung digitaler Mitarbeiter-Kompetenzen. Wollen Personalverantwortliche diesen wachsenden Anforderungen gerecht werden, müssen sie ihre administrativen Abläufe verschlanken – zum Beispiel durch elektronische Personalakten. Welche Funktionen eine digitale Personalakten-Lösung mitbringen muss, damit sie HRM-Prozesse nachhaltig optimieren kann lesen Sie hier:

5 Features für eine digitalere HR-Abteilung dank elektronischer Personalakte

Personalakten beinhalten alle für HR-Verantwortliche relevanten Daten zu einem Mitarbeiter: Anstellungsverträge, Gesprächsprotokolle, Lohn- und Gehaltsdaten und vieles mehr. Die sachgemäße Lagerung dieser zahlreichen sensiblen Dokumente stellt für viele Unternehmen eine große Herausforderung dar. Setzt das Unternehmen aber eine digitale Personalakten-Lösung ein, werden alle Daten elektronisch bereitgestellt: zentralisiert, zeit- sowie ortsunabhängig und leicht durchsuchbar. Die folgenden fünf Funktionen sind für eine digitale Personalakte essenziell:

Wiedervorlage

Eine Funktion zur Wiedervorlage garantiert, dass HR-Mitarbeiter wichtige Fristen nicht aus den Augen verlieren. Eine E-Mail-Benachrichtigung erinnert rechtzeitig an anstehende Termine.

Dokumenterstellung

Dank einer integrierten Dokumenterstellung können Mitarbeiter beispielsweise Serienbriefe wie Mitarbeiter-Rundschreiben zeitsparend direkt in den Personalakten erstellen und ablegen.

Volltextsuche

Um Dokumente problemlos auf bestimmte Schlagworte prüfen zu können, sollte eine OCR-Texterkennung dafür sorgen, dass alle eingescannten Schriftstücke leicht durchsuchbar sind.

Vertragserstellung

Standardisierte Anstellungsverträge werden am besten über ein Tool zur Vertragserstellung gemanagt, mit vordefinierten Feldern und dynamischen Textbausteinen.

Aufgabenverwaltung

Über Templates können Personalverantwortliche immer gleiche Abläufe, etwa die Rückkehr eines Mitarbeiters aus der Elternzeit, unkompliziert verwalten und tracken.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Drei Tipps für ein besseres Meeting-Transkript mit KI

Mit dem Aufkommen der Remote-Arbeit hat für viele Mitarbeiter die Anzahl von Video-Meetings sprunghaft zugenommen. Eine Folge davon ist die sogenannte „Meeting-Fatigue“. Sie drückt sich in Erschöpfung und Müdigkeit aus, begleitet von Ungeduld und Konzentrationsproblemen. Derweil sorgt künstliche Intelligenz (KI) während Meeting-Marathons für mehr Effizienz. GoTo stellt drei Kernaspekte vor, die Meetingteilnehmer für die optimale Unterstützung durch KI beachten sollten.

Drei Tipps für ein besseres Meeting-Transkript mit KI

Um die Ressourcen der Mitarbeiter zu entlasten, erstellt die Technologie Transkripte der Meetings und stellt den Teilnehmern nach dem Meeting vollständige Notizen zur Verfügung. Die KI kann zudem eigenständig festhalten, wem welche Aufgaben zugewiesen worden sind, ohne dass diese Personen an dem Meeting teilgenommen haben.

Dank Natural Language Processing (NLP) versteht KI gesprochene Sprache und kann den akustischen Input in geschriebenen Text umwandeln. Niemand muss mehr bei geschäftlichen Meetings oder Interviews mitschreiben und dennoch erhalten anschließend alle eine Abschrift. Während der Videokonferenz können sich die Teilnehmer vollständig auf das Meeting konzentrieren – mit dem beruhigenden Gefühl, später Zugriff auf Transkriptnotizen zu haben.

Dennoch gilt es, die nötigen Voraussetzungen zu schaffen, damit die KI-Technologie bestmöglich arbeiten kann. Drei entscheidende Aspekte sind.

1. Klare verbale Kommunikation

Jeder kennt die Situation, dass das Gegenüber während eines Gesprächs nur schwer zu verstehen ist. Gut also, wenn die KI parallel zum Online-Meeting ein Transkript anfertigt. Doch wenn sich bereits Team-Mitglieder nur schwer gegenseitig verstehen, wird auch die KI Schwierigkeiten haben. Natural Language Processing-Technologie ist in den meisten Fällen noch auf Hochsprache trainiert. Dialekte versteht sie nur nach weiterem Training. Deswegen gilt es, so deutlich wie möglich zu sprechen.

Nach dem Meeting stellt die KI den Teilnehmern dann eine vollständige Mitschrift zur Verfügung. Diese schriftliche Zusammenfassung verschafft allen, die Zugriff zum Transkript haben, die Möglichkeit, das Gespräch nachzulesen, und behebt so grundlegende Missverständnisse und Gedächtnislücken. Auch Kollegen, die nicht am Meeting teilnehmen konnten, erhalten so in Kurzform eine schriftliche Aufzeichnung, ohne sich das Meeting ansehen zu müssen. Das Transkript kann nach bestimmten Begriffen durchsucht werden, was das Auffinden relevanter Informationen zusätzlich vereinfacht und effizienter gestaltet.

2. Internet-Verbindung sicherstellen

Ein weiterer entscheidender Faktor für den Erfolg des Meeting-Transkripts ist die Qualität der WLAN-Verbindung. Damit die KI das Transkript zuverlässig erstellen kann, muss die teilnehmende Partei sicherstellen, dass eine stabile Internetverbindung während des Meetings verfügbar ist. Das vermeidet Sprachaussetzer und Verzerrungen in der Übertragung und trägt dazu bei, dass die NLP-Technologie Worte und Satzstrukturen zuverlässig erkennt.

Dementsprechend wählen sich Teilnehmer idealerweise nicht über mobile Daten oder schwache öffentliche Netzwerke ein. Dies sollte bereits in den IT-Guidelines jedes Unternehmens auch aus Sicherheitsgründen fest verankert sein. Doch auch bei einer sicheren, stabilen WLAN-Verbindung muss auf die Auslastung geachtet werden. Beispielsweise sollte im Homeoffice vermieden werden, dass die Kinder parallel Videospiele spielen oder auf zu vielen Geräten parallel gestreamt wird.

3. Arbeitsumfeld optimieren

Die Qualität eines Online-Meetings hängt zudem von weiteren externen Faktoren ab, die das Arbeitsumfeld betreffen – vor allem im Homeoffice. Dazu zählt etwa konstanter Hintergrundlärm beispielsweise von einer Baustelle oder Autos auf der Straße. Das alles kann Teilnehmer einer Videokonferenz irritieren, aber vor allem den Gesprächsfluss stören und das gesprochene Wort übertönen. Vor einem Meeting das Fenster oder die Zimmertür zu schließen, minimiert diese Geräuschpegel und hilft der KI-Technologie optimale Ergebnisse beim Meeting-Transkript zu erzielen. Wenn Partner oder Kinder über ein wichtiges anstehendes Online-Gespräch Bescheid wissen, lassen sich unerwartete Störungen am Heimarbeitsplatz besser vermeiden.

­­Effiziente Meeting-Transkript-Erstellung mit KI

KI-Tools machen die Transkripterstellung eines Meetings unter optimalen akustischen Voraussetzungen sehr effizient. Damit unterstützt die Technologie räumlich verteilte Teams bei der Zusammenarbeit, entlastet sie in der Teilnahme an Meetings und stellt in der Videokonferenz den menschlichen Austausch in den Vordergrund. Werden die drei Tipps zur optimalen Meetingvorbereitung beachtet, sind die Weichen für das KI-Transkript gestellt und dem Erfolg einer dezentralen Zusammenarbeit steht nichts im Wege.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Sechs Ansätze für eine nachhaltige GenAI-Entwicklung

Generative KI verbraucht Strom, sogar sehr viel Strom. Vor allem das Training der großen Sprachmodelle erfordert aufgrund der benötigten Rechenleistung eine enorme Menge an Energie. Dell Technologies nennt wichtige Maßnahmen, um den Verbrauch und die Umweltauswirkungen zu reduzieren. 

Sechs Ansätze für eine nachhaltige GenAI-Entwicklung

Stattliche 1.287 Megawattstunden soll 2020 das Training des Sprachmodells GPT-3 laut Forschern von Google und der Universität Berkeley verschlungen haben. Das entspricht dem jährlichen Stromverbrauch von 380 deutschen Haushalten. Allein diese Zahl verdeutlicht, welcher enorme Energiebedarf hinter generativer KI steckt. Zwar stoßen die Modelle der meisten Unternehmen nicht in diese Dimensionen vor, doch die hohen Energiekosten und den ökologischen Fußabdruck von generativer KI können auch sie nicht ignorieren. 

Glücklicherweise gibt es Möglichkeiten, den Stromverbrauch zu reduzieren und die GenAI-Entwicklung nachhaltiger zu gestalten:

1. Right-Sizing der KI-Modelle

Auch wenn der Einsatz sehr großer Modelle, die sich für ein breites Spektrum an Anwendungsfällen eignen, spannend sein mag, genügen für die meisten Unternehmen branchen- oder firmenspezifische Implementierungen, deren Energiebedarf deutlich geringer ist. Zudem ist es sinnvoll, diese Modelle nicht von Grund auf selbst zu entwickeln und zu trainieren, sondern vortrainierte Modelle zu nutzen und anzupassen. Dies verringert den Trainingsaufwand – und damit den Stromverbrauch – erheblich. 

2. Energieeffiziente Systeme

Moderne Server sind leistungsstärker und energieeffizienter als frühere Generationen. Dadurch werden nicht nur weniger Systeme für das Training der Modelle benötigt, sondern diese verbrauchen in Relation zu ihrer Leistung auch weniger Strom. Zudem lassen sie sich mit spezialisierten Komponenten ausstatten, die die aufwendigen KI-Berechnungen schneller und energieeffizienter durchführen als Standard-CPUs und -GPUs. 

3. Optimale Auslastung

Server, die schlecht ausgelastet sind, zählen zu den größten Energieverschwendern im Rechenzentrum. Umweltfreundlicher, als leistungsstarke Systeme zu betreiben, die nur für ein gelegentliches KI-Training gebraucht werden, ist es daher, solche Höchstlasten in der Cloud oder mit As-a-Service-Lösungen zu verarbeiten. Auf diese Weise können Unternehmen ihre eigene Infrastruktur optimal auslasten und flexibel skalieren, wenn sie zusätzliche Ressourcen benötigen.

4. Intelligentes Datenmanagement

Weil das Training von KI-Modellen viel Rechenleistung erfordert, liegt der Fokus von Optimierungen meist auf der GenAI-Entwicklung. Allerdings hat auch die Speicherung und Bereitstellung der Trainingsdaten einen nicht unerheblichen Anteil am Energieverbrauch, da die Datenmengen üblicherweise sehr umfangreich sind. Moderne Storage-Systeme nutzen deshalb leistungsstarke Kompressions- und Deduplizierungsalgorithmen, um die Datenmengen zu reduzieren. Darüber hinaus verlagern sie die Trainingsdaten bei Bedarf automatisch auf schnelle Flash-Medien, die mehr IOPS pro Watt als Festplatten liefern, sodass sie die Daten schneller und energieeffizienter bereitstellen können.

5. Energieeffizienz durch Software

Moderne Server bieten intelligente Stromsparmodi, die verhindern, dass die Systeme mehr Energie verbrauchen als notwendig. Unternehmen sollten diese tatsächlich nutzen und nicht aus Sorge um Leistungseinbußen abschalten. Die Energiesparmodi sorgen lediglich dafür, dass Komponenten bei geringer Systemlast ihre Leistung absenken oder in einen Ruhemodus wechseln können – sobald für das GenAI-Training die maximale Performance benötigt wird, erwachen sie in Sekundenbruchteilen. Weiteres Optimierungspotenzial steckt in intelligenten Lösungen für das Energiemanagement, die Leistung, Stromverbrauch und Kühleffizienz der Systeme detailliert erfassen und das Energie- und Wärmemanagement automatisieren.

6. Strom aus erneuerbaren Energiequellen

Trotz aller Nachhaltigkeitsbemühungen bleiben GenAI und Rechenzentren große Stromfresser. Eine weitere wirkungsvolle Maßnahme, ihren ökologischen Fußabdruck zu reduzieren, ist daher der Umstieg auf Strom aus erneuerbaren Energiequellen. Die meisten Stromanbieter bieten entsprechende Verträge an. Abgesehen davon kann natürlich auch das Dach des Rechenzentrums mit Photovoltaik bestückt werden – schließlich handelt es sich meist um große Hallen mit Flachdach, die sich optimal dafür eignen. Auf diese Weise kann ein Teil des Strombedarfs selbst erzeugt werden, und das nachhaltig direkt vor Ort.

 „Generative KI kann Unternehmen helfen, ihre betriebliche Effizienz zu verbessern und nachhaltiger zu werden. Zugleich erhöhen GenAI-Anwendungen aber auch den Energieverbrauch im Rechenzentrum“, erläutert Christian Winterfeldt, Senior Director, Data Center Sales bei Dell Technologies in Deutschland. „Allerdings stehen Unternehmen dem nicht machtlos gegenüber und können die Entwicklung und den Einsatz von generativer KI durchaus umweltschonend gestalten.“  

Der Beitrag wurde ursprünglich hier veröffentlicht …