Die wichtigsten Fragen zu RPA, hier beantwortet

UiPath, führender Anbieter für Enterprise Robotic Process Automation, beleuchtet kurz und bündig die zentralen Aspekte rund um RPA

UiPath beantwortet die wichtigsten Fragen zu RPA

Robotic Process Automation (RPA) ist derzeit das IT-Buzzword schlechthin. Aber was genau hat es mit dieser Technologie eigentlich auf sich? UiPath beantwortet die wichtigsten Fragen.

Was ist RPA?

Die Arbeitsabläufe der meisten Mitarbeiter in Unternehmen sind heute IT-gestützt. Dennoch sind an vielen Stellen nach wie vor manuelle Eingriffe erforderlich, die völlig simpel sind und immer und immer wieder ausgeführt werden müssen. Die Mitarbeiter füllen Formulare händisch aus, lesen Daten aus einem bestimmten System ab und tippen sie in ein anderes ein, oder kopieren vorhandene Dokumente in andere Ordner. Durch RPA werden solche Tätigkeiten nun von Software-Robotern übernommen.

Wie arbeiten Software-Roboter?

Die Software-Roboter machen im Prinzip genau dasselbe wie die Menschen. Sie öffnen etwa ein bestimmtes System, melden sich dort an, lesen benötigte Daten aus, melden sich in einem weiteren System an, und tragen die ausgelesenen Daten dort an den richtigen Stellen ein. Da sie dabei mit den Benutzerschnittstellen der Softwaresysteme arbeiten, muss nicht für jeden einzelnen Teilprozess eine aufwändige und teure Integration geschaffen werden. Die Roboter setzen einfach auf die vorhandene IT-Infrastruktur auf, wodurch eine unkomplizierte und kostengünstige Automatisierung im großen Stil möglich wird.

Was sind die Vorteile von RPA?

Durch die Automatisierung bislang manuell ausgeführter Tätigkeiten hat RPA natürlich das Potenzial zu massiven Kosteneinsparungen und Produktivitätssteigerungen. Sie kann aber auch die Zufriedenheit der Mitarbeiter enorm erhöhen, da sie von lästigen anspruchslosen Routinetätigkeiten befreit werden. Durch die Reduzierung menschlicher Fehlerquellen steigt außerdem die Qualität der Prozesse. Ähnliches gilt für die Compliance. Unternehmen haben die Sicherheit, dass die Prozesse genau so ablaufen, wie es durch ihre internen Richtlinien oder gesetzliche Regelungen vorgeschrieben ist.

Welche Prozesse eignen sich dafür?

Prozesse, die auf klar strukturierten Informationen basieren und eindeutigen festen Regeln folgen, lassen sich mit RPA am besten und im Allgemeinen auch durchgängig automatisieren. Aber auch Abläufe, die komplexer sind oder hin und wieder Ausnahmen aufweisen, können von RPA profitieren, denn sie sind zumindest teilautomatisierbar. Da die bestehenden Prozesse im Laufe von RPA-Implementierungen genau analysiert werden, lassen sie sich außerdem häufig auch noch effizienter gestalten.

Wo liegen die Einsatzgebiete?

Klar definierte, standardisierte und einfache Prozesse, die stark repetitiv sind, finden sich vor allem in branchenübergreifenden Funktionen wie Personalverwaltung, Finanzbuchhaltung oder IT-Administration. Aber auch viele branchenspezifische Prozesse erfüllen diese Kriterien. Dazu zählen etwa die Lagerbestandsführung in der Fertigungsindustrie und im Groß- und Einzelhandel, die Bonitätsbeurteilung im Finanzwesen oder die Änderung von Bürgerdaten in der öffentlichen Verwaltung.

Ist RPA eine künstliche Intelligenz?

Diese Frage ist allein schon deshalb kaum zu beantworten, weil es keine allgemein anerkannte Definition von Künstlicher Intelligenz gibt. Fakt ist aber: RPA nutzt Technologien wie Machine Learning, die gemeinhin als typische KI-Technologien gelten. Sie ermöglichen den Software-Robotern, auch Prozesse zu übernehmen, in deren Verlauf Entscheidungen getroffen werden müssen. Sie können dann beispielsweise eingehende E-Mails thematisch klassifizieren und direkt weiterverarbeiten.

Zerstört sie Arbeitsplätze?

RPA kostet keine Arbeitsplätze, sondern befreit die Menschen von stupiden Routinetätigkeiten, wodurch sie mehr Freiraum für kreative und anspruchsvolle Aufgaben gewinnen. Zudem kann sie die Antwort auf den demografischen Wandel geben. Schon bald gehen sehr viele Mitarbeiter in den Ruhestand und können wegen mangelndem Nachwuchs nicht einfach ersetzt werden. Durch RPA werden Unternehmen und Behörden in der Lage sein, ihre Aufgaben dennoch auch weiterhin zu erfüllen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Agentic AI läutet die 3. KI-Revolution in der Cybersecurity ein

Revolutionen kommen öfter vor, als man denkt. In der Cybersecurity gab es beispielsweise bereits mehrere Revolutionen, in denen neue Technologien wie Künstliche Intelligenz und Machine Learning alles bisher Dagewesene auf den Kopf stellten. Ontinue, der führende Experte für Managed Extended Detection and Response (MXDR), wirft einen Blick in die Geschichte, die Gegenwart und die Zukunft der KI-Revolutionen im Cybersecurity-Bereich.​

Agentic AI läutet die 3. KI-Revolution in der Cybersecurity ein

KI verändert jeden Bereich unseres Lebens – von der Bepflanzungsplanung des heimischen Balkons über die Gestaltung von Geschäftsstrategien bis hin zur Abwehr von Cyberbedrohungen. Tools wie Microsoft Copilot und ChatGPT werden immer mehr zu digitalen Assistenten des Alltags. Doch während sich KI in vielen Branchen wie eine neue Revolution anfühlt, hat sie die Cybersicherheit schon seit Jahrzehnten im Stillen verändert. Ontinue untersucht die drei großen KI-Revolutionen, die uns dorthin gebracht haben, wo wir heute stehen – und wirft einen Blick darauf, was die vierte Revolution für die Cyberabwehr bedeuten könnte.

Muster- und Anomalie-Erkennung: die 1. KI-Revolution in der Cybersecurity

In grauer Tech-Vorzeit war es die Hauptaufgabe von Cybersecurity-Analysten, das Verhalten von Hackern und deren Schadsoftware – also Viren und Trojaner – zu entschlüsseln. Auf welchem Weg hat er sich Zugang zum Sicherheitsperimeter verschafft und wo genau verstecken sich auffällige Dateien? Mit dem Aufkommen Künstlicher Intelligenz, oder in diesem Fall eher des Machine Learning, konnten diese redundanten und aufgrund des Aufwands zunehmend schwierigen Prozesse wie Muster- und Anomalie-Erkennung automatisiert werden. Dadurch war es auch möglich, von der bisherigen Herangehensweise wegzukommen: Es wurde etwa nicht mehr nach der Signatur eines Virus gesucht, sondern Machine-Learning-Algorithmen waren in der Lage, das Verhalten zu erkennen – und Alarm zu schlagen.

KI-Assistenten und GenAI: die 2. KI-Revolution in der Cybersecurity

Zwar steht der Mensch nach wie vor im Mittelpunkt der Cybersicherheit, doch die zunehmende Verbreitung agentenbasierter KI verändert die Arbeitsweise von Analysten. Sie wird diese zwar nicht ersetzen, allerdings ihre Entscheidungsfindung verbessern, indem sie einen reichhaltigen Kontext in Echtzeit bereitstellt. Anstatt nur Bedrohungen zu erkennen und darauf zu reagieren, agieren aktuelle KI-Agenten als intelligente Kollegen. Sie sammeln und analysieren in kürzester Zeit relevante Metriken und Daten aus der gesamten IT-Umgebung und liefern so aussagekräftige Erkenntnisse und Zusammenhänge, die sonst nur mit viel Zeitaufwand aufgedeckt werden könnten. Dadurch können sich Analysten auf höherwertige Untersuchungen und Reaktionen konzentrieren, anstatt sich in der manuellen Datenerfassung zu verzetteln. KI-Assistenten verbessern überdies Präventivmaßnahmen: In eine einheitliche Plattform integriert, können GenAI und LLMs dabei helfen, neue Bedrohungen zu antizipieren und deren Abwehr zu rationalisieren. Dafür greifen sie auf ein breites Spektrum interner und externer Quellen zurück und erhöhen so sowohl die Effizienz als auch die Qualität von Präventivmaßnahmen.

Agentic AI: die 3. KI-Revolution in der Cybersecurity

​Die aktuelle KI-Revolution fußt auf den Errungenschaften der Agentic AI. Gemeint ist, dass Künstliche Intelligenz beginnt, eine „Agency“ zu haben, also agendagetrieben zu handeln. KI-Assistenten sind zunehmend in der Lage, Aufgaben autonom auszuführen. Cybersecurity-Anwendungen mit Agentic AI erkennen daher nicht mehr nur Bedrohungen (und das deutlich schneller als jeder Mensch) und warnen die Verteidiger, sondern können nun auch direkt Gegenmaßnahmen einleiten, etwa einen auffällig agierenden User Account vom Unternehmensnetz ausschließen oder Systeme vom Netz nehmen. Und damit nicht genug, denn Agentic AI kann durch moderne GenAI-Kapazitäten und ständig dazulernende LLMs auch auf bisher unbekannte Situationen reagieren und Schlüsse ziehen, ohne vom Menschen neue Anweisungen zu bekommen. Verändern Hacker also ihre Angriffstaktik, ist es durchaus möglich, dass die KI ihre sinistren Machenschaften trotzdem erkennt.

Agentic Prevention: die 4. KI-Revolution in der Cybersecurity

Die vierte KI-Revolution wird auf Agentic AI beruhen, allerdings noch einen Schritt weiter gehen. Während heute vor allem Präventivmaßnahmen noch fast vollständig in der Hand von Menschen liegen, wird generative KI auch an dieser Stelle immer besser. Agentic AI lebt davon, aus vergangenen Incidents zu lernen und sich neuen Situationen anzupassen. In Zukunft wird KI basierend auf ihrem perfekten Gedächtnis und der Fähigkeit, Schlüsse zu ziehen, die vorhandenen Systeme auch auf potenzielle Schwachstellen hin untersuchen und sie automatisiert schließen – quasi „Agentic Prevention“. 

„Auch wenn gerade der Cybersecurity-Bereich eine eng mit KI verwobene Geschichte hat, verläuft die aktuelle Evolution bahnbrechend schnell“, betont Thierry Aubry, Head of Sales DACH & Nordics bei Ontinue. „Das bringt nicht nur technologische Neuerungen mit sich, sondern verändert auch das Anforderungsprofil und Berufsbild von IT-Security-Spezialisten. So wird der Cybersecurity-Analyst von morgen neben seinen analytischen Fähigkeiten auch KI-Entwickler oder zumindest KI-Model-Coach sein. Wie ein Jedi-Ritter hat dann jeder seinen kleinen Security-R2D2 dabei.“ 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Fünf Gründe für Low Code: Vorteile für die Anwendungsentwicklung im Low-Code-Konzept

Welche Vorteile gibt es die Anwendungsentwicklung im Low-Code-Konzept im Unternehmen selbst zu machen.

Fünf Gründe für Low Code

Mit der Digitalisierung explodiert der Bedarf an kurzfristig verfügbarer Software, nicht zuletzt durch die mobilen Apps. Mit den herkömmlichen aufwändigen Verfahren der Programmierung wird dieser Bedarf nicht zu decken sein: Sie sind zu aufwändig und zu wenig flexibel. Das Konzept des Low Code bietet hier Abhilfe. Damit lassen sich auch komplexe Applikationen in kurzer Zeit aus fertigen Komponenten und Modellen erstellen.

Warum das Low-Code-Konzept für alle Unternehmen interessant ist:

  1. Im Low-Code-Konzept können auch Experten aus den Fachabteilungen an der Software-Erstellung mitarbeiten, auch wenn sie über kein spezifisches Programmier-Know-how verfügen. Dadurch können Unternehmen den Engpass an Applikationsentwicklern überwinden.
  2. Die Nicht-Entwickler, die so genannten Citizen Developer, können fachspezifisches Know-how ohne Umweg in die Applikationsentwicklung einbringen; dadurch verbessert sich die fachliche Qualität der Anwendungen. Außerdem wird die Zusammenarbeit von fachlichen und technischen Experten erheblich vereinfacht. Missverständnisse durch ungenaue Spezifikationen werden reduziert.
  3. Künftige Anpassungen sind einfacher umzusetzen, da Low Code zu einem höheren Grad selbsterklärend ist. Die Abhängigkeit von Experten, die bestimmte Code-Teile in der Vergangenheit geschrieben haben, wird reduziert.
  4. Applikations-Designer können sich viel stärker auf fachliche Fragestellungen konzentrieren. Das verzweifelte, stundenlange Suchen nach einem fehlenden Komma im Code entfällt.
  5. Low Code erleichtert das Prototyping. Es erlaubt die schnelle Erstellung von Prototypen, die man zeitnah durch künftige Anwender testen lassen kann. Low Code vereinfacht die Erstellung von Prototypen, mit denen Innovation und Akzeptanz bei End-Anwendern gefördert werden kann.

Die schnelle, flexible Erstellung von Applikationen brennt vielen Unternehmen auf den Nägeln. Die bisherigen Konzepte der Softwareentwicklung, von den Hochsprachen über die Objektorientierung bis zu SOA, konnten dieses Problem immer nur ansatzweise lösen. Der Weg vom Code zur fertigen Anwendung blieb doch immer zu lang, und ohne die nie ausreichend verfügbaren Programmierexperten bewegte sich letztlich nichts. Das Low-Code-Konzept bietet hier einen überzeugenden Ausweg, in dem es die Applikationserstellung radikal automatisiert und die Citizen Developer konsequent einbindet.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Onlineshop erstellen: Mit Shopsystemen einfach Umsatz online generieren

eCommerce ist nicht nur im letzten Jahr stark gewachsen. Der Webshop-Trend boomt schon seit langer Zeit, und auch hier gilt: besser spät als nie! Unternehmen profitieren massiv von einem Shop auf ihrer Website. Solange dieser richtig erstellt sind und das Marketing den Onlineshop auch voll ausnutzt. Doch um online einen erfolgreichen Shop zu erstellen, müssen Unternehmen einiges beachten:

Onlineshop erstellen: Mit Shopsystemen einfach den Webshop gestalten

Im Zuge der weltweiten Digitalisierung, dem alles-durchdringendem Internet und Generationen, die in genau diesen Umständen aufwachsen ist es inzwischen für niemanden mehr eine Überraschung, dass eCommerce zu einem Hauptpfeiler der Wirtschaft geworden ist. Onlineshops – auch Webshop oder Online Shop – stellen zurzeit die einzige Möglichkeit für Kunden dar, überhaupt einzukaufen oder Umsatz zu machen. Aber auch in Zukunft wird die Rolle von eCommerce weiter wachsen. Deshalb sollten alle Unternehmen, bei denen das Verkaufen von einem Produkt oder einer Dienstleistung online in Frage kommt, ernsthaft darüber nachdenken, ob sie einen Onlineshop erstellen sollten.

Dabei stellen sich viele wahrscheinlich die Frage: „Brauche ich überhaupt meinen eigenen Onlineshop?“ Klar, es gibt auch etliche beliebte Online-Markplätze, wie eBay, Etsy oder Amazon. Aber wenn Anbieter ihre Produkte beispielsweise über Amazon verkaufen, haben sie keinen Zugriff auf viele Vorteile eines eigenen Shops. Nicht nur geht ein Teil des Profits an den Plattformbetreiber, auch das Marketing leidet darunter. Denn Daten von Kunden können nicht selbst analysiert werden und auch die Gestaltung des Shops liegt nicht komplett in eigener Hand. Dabei sind die Kunden – die das Zentrum der Marketing-Strategie bilden sollten – davon direkt betroffen. Außerdem ist es einfacher die eigene Marke zu stärken und das Firmenimage zu verbessern, wenn sie auch unabhängig von einer großen Plattform wie eBay und Amazon als eigener Shop auftritt und wachsen kann.

Grundlagen für einen erfolgreichen Onlineshop

Damit ein Onlineshop auch die gewünschten Effekte erzielt, das heißt: Umsatz steigert, Kunden anzieht und Kundenzufriedenheit erhöht, muss der Anbieter seine Website auch sorgfältig erstellen und optimieren. Dabei spielen eine Reihe von Faktoren eine wichtige Rolle:

Kompatibilität

Ein wichtiger Punkt dabei ist die Kompatibilität mit vielen verschiedenen Endgeräten. Kunden nutzen heute nicht nur Computer und Laptops, sondern auch verschiedenste Smartphones oder Tablets, um Produkte und Dienstleistungen online einzukaufen. Deshalb sollte sich das Design des Shops auch dem jeweiligen Gerät anpassen und ein angenehmes Kauferlebnis ermöglichen. Genau wie bei einer modernen Website muss auch ein Onlineshop responsive sein und alle Anforderungen für ein optimiertes Kauferlebnis bieten. Das müssen Unternehmen und Anbieter vor allem beachten, wenn sie einen eigenen Onlineshop erstellen.

Personalisierung

Eine weitere Funktion eines hauseigenen Shops ist die personalisierte Customer Experience. Um diese auch richtig umsetzen zu können, müssen Unternehmen natürlich genau wissen, was ihre Zielgruppe bewegt. Anbieter müssen dafür auch die vergangenen Interaktionen von Kunden mit dem Unternehmen oder der Website dokumentieren. Dadurch kann beispielsweise einem Kunden, der kürzlich eine Demo-Version von einem Produkt oder ein Whitepaper zu einem bestimmten Problem heruntergeladen hat, beim nächsten Besuch des Onlineshops direkt ein damit verbundenes Produkt empfohlen werden.

Marketing

Mit dem eigenen Webshop erhöhen Sie so auch die Kundenzufriedenheit. Denn Sie können den Online Shop auch problemlos mit Ihrer restlichen Online-Präsenz verbinden. Denken Sie dabei etwa an Facebook-Seiten, die neben Produkt- und Unternehmensnews auch auf Webshop-Angebote oder ein relevantes Produkt verweisen. Auch sämtliche andere Social-Media-Kanäle sollten den Onlineshop häufig – aber sinnvoll – aufgreifen. So können Kunden an jedem Touchpoint mit dem Unternehmen auch gleich bequem zu dem Produkt und durch den Kaufprozess geführt werden. Eine so klar strukturierte und schlanke Customer Journey sorgt nicht nur für hohe Kundenzufriedenheit, sondern erfreut auch das Marketing.

Besonders relevant für das Marketing für Onlineshops ist nicht nur das gerade erwähnte Facebook und Co, sondern auch Search Engine Optimization (SEO). SEO bezeichnet die Optimierung einer Website, sodass sie besser über Suchmaschinen, allem voran Google, gefunden werden und dadurch mehr Produkte verkaufen kann. Für den Webshop – und eigentlich die gesamte Unternehmenswebsite – ist es wichtig, vor allem bei Suchwörtern, die sich auf eigene Produkte beziehen, weit oben bei Google zu landen. SEO ist ein riesiges Thema, also sollten Sie sich intensiv damit beschäftigen oder von Experten beraten lassen, wenn Sie einen Onlineshop erstellen.

All das von Grund auf selbst aufzubauen ist ein gewaltiges Projekt und praktisch unmöglich für die meisten kleinen und mittleren Unternehmen. Aber das müssen Sie gar nicht, durch vorgefertigte Software-Lösungen zu Shops im Internet kann jeder in eCommerce einsteigen:

Mit einem Shopsystem einen ausgereiften Webshop gestalten

Inzwischen gibt es etliche Software-Systeme, die das Erstellen eines Onlineshops praktisch zu einem Kinderspiel machen. Mit dem Erwerb von einem Shopsystem sind viele Funktionen schon für Sie vorgefertigt und Sie müssen nicht bei Null anfangen. Aber Sie sollten trotzdem darauf achten, dass auch die oben genannten Funktionen in dem System umsetzbar sind.

Da es eine Vielzahl verschiedener Systeme gibt, haben Sie eine große Auswahl. Egal ob Sie ein kleines und simples Shopsystem brauchen oder ein sehr komplexes und umfangreiches System suchen, auf dem Markt für Unternehmenssoftware werden Sie sicherlich fündig. Mit dem richtigen Shopsystem können Sie dann problemlos Ihren Onlineshop erstellen, übersichtlich verwalten und nach Ihrem Willen gestalten. Wenn Sie das auch noch mit Customer-Relationship-Software (CRM) verbinden, mit dem Sie Kundendaten und Marketing-Maßnahmen zentral verwalten und steuern können, steht dem erfolgreichen Onlineshop und Unternehmenswachstum nichts mehr im Weg!    

Der Beitrag wurde ursprünglich hier veröffentlicht …

Wie Produktvarianten und Preislisten effizient managen?

Für Marketing & Vertrieb im Sanitär- Heizungs- und Klima- Handwerk (SHK) sind eine Bandbreite an Produktvarianten und seitenstarke Preislisten Alltag. Die Hersteller und Händler sind gefordert, die Produktdaten in allen Kanälen technisch korrekt mit den Branchenstandards (Datanorm, GAEB, ARGE Neue Medien) zu halten. Damit Unternehmen dies effizient leisten können, brauchen sie ein qualifiziertes Produktdatenmanagement. Hierzu bedarf es abgestimmter Prozesse und den Einsatz der passenden IT-Lösung. Product Information Management-Systeme (kurz: PIM) machen, richtig eingesetzt, die Produktkommunikation noch effizienter und schneller.

Lösungen für Hersteller & Händler

Die Hersteller müssen umfangreiche, technische Produktinformationen nach Branchenstandards samt begleitenden Dokumenten strukturiert zusammenfügen und den Händlern schnell und qualitativ hochwertig zur Verfügung stellen.

Ein ganzheitlich integriertes PIM-System bietet Herstellern u.a.:

  • Konsistente Daten durch integrierte Freigabeprozesse
  • Zeitersparendes Übersetzungs- und Terminologiemanagement
  • Publishing umfangreicher Preislisten und Kataloge mit wenig Aufwand

Um zehntausende Produktinformationen technisch korrekt und in allen Kanälen aktuell zu halten, brauchen die Händler ein effizientes Produktdatenmanagement.

Ein ganzheitlich integriertes PIM-System bietet Händlern u.a. :

  • Harmonisierung von gelieferten Herstellerdaten
  • Mehr Cross-Selling für Zubehör und Ersatzteile
  • Länderspezifische oder kundenindividuelle Sortimentsbildung
  • Gesicherter Preisabgleich mit Lieferantenkontrakten

Nutzen und Vorteile mit PIM

Beim stetig wachsenden Einfluss internationaler und auf Massenabsatz fokussierter Hersteller, wird der Einsatz eines professionellen Product Information Managements (PIM) zum klaren Wettbewerbsvorteil für den Vertrieb und die Erschließung neuer Märkte. Ob DIN- und Normteile oder individuell nach Kundenwunsch gefertigte Teile – Produktdaten lassen sich im PIM schnell und einfach pflegen. Dank integrierter Freigabe- und Übersetzungsfunktion lassen sich in kurzer Zeit neue Märkte erschließen. Funktionen für Produkt-Sets, Ersatzteile und Zubehör steigern wirkungsvoll den Pro-Kopf-Umsatz.

Alle Vertriebskanäle und –materialien wie Webshop, Marktplatz, Print-Katalog, Broschüre und Datenblatt sind jederzeit einsetzbar. Die umfangreichen Preislisten können hochautomatisiert erstellt werden, was zu einer enormen Zeitersparnis führt.

Damit gehört das Unternehmen zu den erfolgreichsten Beratern und Integratoren für Lösungen dieser Art.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Diese Eigenschaften sollte eine RPA-Plattform mitbringen

UiPath, führender Anbieter für Enterprise Robotic Process Automation (RPA), erläutert sieben Kernanforderungen an eine RPA-Plattform!

Diese Eigenschaften sollte eine RPA-Plattform mitbringen

Die Potenziale der Robotic Process Automation sind vielfältig und immens: Sie reichen von massiven Kosteneinsparungen und Produktivitätssteigerungen über höhere Mitarbeiterzufriedenheit und verbesserte Prozessqualität bis hin zur Abfederung des Fachkräftemangels. UiPath zeigt auf, welche Eigenschaften eine RPA-Plattform aufweisen muss, damit Unternehmen diese Potenziale auch optimal ausschöpfen können.

1. Effiziente Skalierung bieten

Die Software-Roboter, welche die Plattform zur Verfügung stellt, sollten in der Lage sein, mehrere und verschiedene Prozesse auszuführen. Dann können Unternehmen ein- und denselben Robotern nach und nach immer mehr Prozesse übertragen und müssen nicht für jede neue Automatisierung einen neuen Roboter anlegen. So lässt sich das Repertoire mit möglichst geringem Aufwand von zunächst einigen wenigen Automatisierungen auf mehrere hundert oder tausend ausbauen.

2. Persönliche Assistenten unterstützen

Unternehmen benötigen nicht nur „Unattended Software Robots“ auf Servern, die unbeaufsichtigt rund um die Uhr Prozesse im Hintergrund automatisiert ausführen. Auch „Attended Software Robots“ für die flexible und benutzerfreundliche Interaktion mit dem Mitarbeiter sind erforderlich. Auf dem Endgerät des Mitarbeiters nehmen sie als persönliche virtuelle Assistenten den Mitarbeitern Routineaufgaben ab, sei es auf direkten Befehl oder ausgelöst durch bestimmte Ereignisse.

3. Drag-and-Drop-Entwicklung ermöglichen

Softwareautomatisierungen sollten nicht nur von der zentralen IT, sondern vor allem auch von den Mitarbeitern in den Fachabteilungen entwickelt werden. Sie kennen die Abläufe, um die es geht, schließlich am besten. Eine RPA-Plattform unterstützt die Mitarbeiter optimal dabei, wenn sie die Prozesse ohne jegliche Programmierkenntnisse einfach per Drag and Drop zusammenbauen können.

4. Künstliche Intelligenz nutzen

Um auch Prozesse zu automatisieren, in deren Verlauf Entscheidungen getroffen werden müssen, braucht eine RPA-Plattform die nötige Offenheit, um unterschiedlichste KI-Services einfach zu integrieren. Dann lassen sich beispielsweise mit Hilfe von Machine-Learning-Verfahren eingehende E-Mails automatisch klassifizieren und direkt von den Software-Robotern weiterverarbeiten.

5. Zentrale Administration erlauben

Verwaltung, Wartung und Updates der automatisierten Prozesse erfolgen am besten mittels einer zentralen Management-Konsole. Die IT-Abteilung kann dann etwa eine bestimmte Sequenz, die in mehreren Prozessen zum Einsatz kommt, zentral aktualisieren und das Update in alle betroffenen Prozesse einspielen. Andernfalls müsste sie die Prozesse – die unter Umständen in die Tausende gehen – manuell abändern.

6. Globale Governance gewährleisten

Mit der Management-Konsole sollten sich auch die von den Mitarbeitern entwickelten Automatisierungen validieren und kontrollieren lassen. Die zentrale IT braucht die Möglichkeit, die Qualität dieser Softwareprozesse sicherzustellen und dafür zu sorgen, dass sie anschließend nicht mehr verändert werden können. Auf diese Weise ist globale Governance sichergestellt.

7. Ökosystem bereitstellen

Idealerweise stellt der Anbieter einer RPA-Plattform einen gemeinsamen Marktplatz zur Verfügung, wo Nutzer aus aller Welt ihre Automatisierungen hochladen, der Anbieter sie prüft und andere Nutzer sie anschließend herunterladen können. Dann profitieren Unternehmen nicht nur von den Ideen ihrer eigenen Mitarbeiter, sondern von denen der gesamten globalen Anwender-Community.

UiPath in München sagt:

„Der Schlüssel für einen erfolgreichen RPA-Einsatz liegt in der Demokratisierung. Die beste und schnellste Automatisierung erreichen Unternehmen, wenn sie die Vorschläge ihrer Mitarbeiter, aber auch der weltweiten Community aufgreifen und in die Tat umsetzen. Die zentrale Aufgabe einer RPA-Plattform ist es, diesen Ansatz umfassend zu unterstützen. Sie muss über Tools verfügen, mit denen sich Softwareautomatisierungen im großen Stil einfach erstellen, teilen, verwalten, kontrollieren und ausrollen lassen.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Digitale Verwaltung neu gedacht: KI ist der Wegbereiter

Wenn es um die digitale Transformation in der öffentlichen Verwaltung geht, rückt Künstliche Intelligenz immer stärker in den Fokus. Initiativen und Förderprogramme zeigen, dass die Technologie als Schlüsselfaktor für die Modernisierung massiv an Bedeutung gewinnt – ein Umstand, der jedoch nicht nur Chancen, sondern auch dringenden Handlungsbedarf mit sich bringt. Christof Orth, Director Sales Government, Health Care, Education and Research bei Red Hat, beantwortet die wichtigsten Fragen

Wo steht die öffentliche Hand in Sachen KI?

Das Thema Künstliche Intelligenz beschäftigt die Verwaltung schon länger – sei es bei der Dokumentenerfassung, der Bildauswertung oder aktuell mit der generativen KI. Auf Bundesebene laufen derzeit zwei interessante Projekte: Mit KIPITZ, dem KI-Portal des ITZBund, wurde eine behördenübergreifende Plattform für den Einsatz KI-basierter Anwendungen geschaffen, die auf die Anforderungen der öffentlichen Verwaltung zugeschnitten sind. Dazu gehören die KI-gestützte Erstellung, Zusammenfassung, Kategorisierung und Übersetzung von Texten und Dokumenten sowie die Möglichkeit, Wissen aus anderen Quellen abzufragen. Sensible Informationen aus behördeneigenen Wissensdatenbanken werden mittels RAG (Retrieval Augmented Generation) verarbeitet, was den Nutzen, die Zuverlässigkeit und die Nachvollziehbarkeit der Ergebnisse erhöht. Parallel dazu haben die Bundesdruckerei und die Auslands-IT des Auswärtigen Amts „PLAIN“ gestartet. PLAIN steht für Platform Analysis and Information Systems und soll die Datenanalyse und -visualisierung verbessern. Beide Systeme sind nach dem Einer-für-Alle-Prinzip (EfA) konzipiert. Das bedeutet, dass die Wiederverwendung von Daten, Anwendungen und Analysen bis hin zum Code technisch möglich und vor allem erwünscht ist.​

Welche Anwendungen sind für die Verwaltung interessant?

Mit Künstlicher Intelligenz lassen sich bekanntlich nahezu alle Arbeitsabläufe optimieren. Ein Beispiel ist die intelligente Dokumentenverarbeitung. Mit Hilfe von KI werden zum Beispiel Antragsdaten und Unterlagen analysiert und dem Sachbearbeiter Handlungsempfehlungen zur Verfügung gestellt. Die Verantwortung liegt weiter in seiner Hand, grundlegende Abläufe werden aber deutlich beschleunigt. Ein anderer Anwendungsfall ist die Betrugserkennung in den unterschiedlichsten Verwaltungsbereichen: KI hilft dabei, Unregelmäßigkeiten und Betrugsfälle bei der Sozialversicherung oder beim Krankengeld aufzudecken. Aber auch bei der Erfassung von Schäden an der Infrastruktur ist die Technologie ein nützlicher Helfer. Mit Kameras ausgestattete Müllwagen nehmen auf ihrer wöchentlichen Tour den Straßenzustand auf, die Bilder werden anschließend anonymisiert ausgewertet. Das reicht von verschmutzten Straßenschildern, die dringend gereinigt werden müssen, bis hin zu Schäden an Gehwegen oder Fahrbahnen. KI-Technologien können zudem baustatische Daten von Brücken, deren Umgebung und weitere Einflussfaktoren auswerten. Durch dieses kontinuierliche Monitoring lässt sich schneller und kostengünstiger als bisher erkennen, ob eine Brücke saniert werden muss. 

Wie geht der öffentliche Sektor bei der Umsetzung eines KI-Projekts am besten vor?

Um ein KI-Projekt erfolgreich umzusetzen, bedarf es einer sorgfältigen Vorbereitung und strategischen Planung. Zunächst müssen klare Ziele definiert und eine umfassende Datenanalyse durchgeführt werden. Der Aufbau eines interdisziplinären Teams ist dabei entscheidend, um sowohl die technologischen als auch die fachlichen Herausforderungen zu meistern. In der Praxis vergessen viele Behörden und Verwaltungen bei aller Begeisterung für die Möglichkeiten der Technologie, eine entsprechende Strategie zu entwickeln. Was sie damit erreichen wollen oder welcher Use Case sich für den Einstieg in KI eignet, bleibt dabei oft auf der Strecke. Deshalb ist es sinnvoll, frühzeitig Experten einzubinden, die mit ihrer Erfahrung einen ganz neuen Blick auf eine Projektidee werfen.

Welches Modell ist das richtige?

Der nächste Schritt ist die Klärung der Modellfrage. Soll zum Beispiel eines der großen generalistischen Sprachmodelle zum Einsatz kommen oder eher ein beziehungsweise mehrere kleine Modelle, die sich auf spezielle Anwendungsszenarien konzentrieren. LLMs haben ihre Vorteile bei der natürlichsprachlichen Kommunikation oder der Bildgenerierung. Sie sind aber extrem ressourcenhungrig und zu wenig spezialisiert, um verwaltungsspezifische Aufgaben optimal lösen zu können. Daher ist eine Kombination mit spezialisierten, kleineren Modellen ideal. Immer wieder in der Diskussion ist ein „nationales“ LLM. Ein Problem gibt es dabei: Daten dürfen nur zweckgebunden erhoben werden – das heißt, die Informationen aus einem Verwaltungsvorgang stehen einem anderen nur dann zur Verfügung, wenn ein berechtigtes Interesse vorliegt. Ein Punkt ist bei der ganzen Diskussion entscheidend: Für die Beweispflicht ist die Nachvollziehbarkeit der KI-Ergebnisse extrem wichtig. Diese Nachvollziehbarkeit muss in der öffentlichen Verwaltung über einen langen Zeitraum gewährleistet sein: KI-basierte Entscheidungen, etwa im Katasterwesen, müssen auch in zehn Jahren noch erklärbar sein. Das wiederum erfordert Einblicke in die Algorithmen und Trainingsdaten des Modells sowie eine entsprechende Infrastruktur für deren zuverlässige Speicherung.

Stichwort „Demokratisierung der KI“ – wie wichtig sind Open-Source-Lösungen?

Ein weiterer zentraler Aspekt im Kontext behördlicher KI-Anwendungen ist die Demokratisierung der Technologie. Das bedeutet, dass alle Akteure – von IT-Entscheidern bis hin zu den Bürgerinnen und Bürgern – Zugang und Einblick in die Funktionsweise erhalten. Quelloffene Technologien tragen dazu bei, Barrieren abzubauen und gleichzeitig eine sichere Kontrolle des Datenflusses zu gewährleisten. Open-Source-Lösungen fördern den Austausch von Best Practices und ermöglichen die kontinuierliche Verbesserung bestehender Anwendungen. Auf diese Weise wird nicht nur Innovation gefördert: Lösungen wie Red Hat OpenShift AI mit ihren integrierten Sicherheitsfunktionen für einen geschützten und verantwortungsvollen Umgang mit Künstlicher Intelligenz sorgen dafür, dass KI-Implementierungen transparent, vertrauenswürdig und rechtskonform sind. Das von Red Hat initiierte InstructLab-Projekt sowie die Granite-Familie von Open-Source-Modellen senken die Einstiegshürden und ermöglichen es Experten aus den unterschiedlichsten Bereichen, ohne spezielle KI-Kenntnisse ihr Wissen und ihre Fähigkeiten einzubringen. Dies beschleunigt nicht nur das Training von KI-Modellen, sondern schafft auch die Grundlage für einen souveränen Umgang mit Künstlicher Intelligenz im öffentlichen Sektor.

Die öffentliche Verwaltung steht an der Schwelle zu einer neuen Ära, in der KI weit mehr als ein weiterer technologischer Trend ist. Mit einer gezielten Integration von KI in bestehende Prozesse und einem offenen Dialog über Herausforderungen und Lösungsansätze können IT-Entscheider den Weg zu einer modernen, effizienten und transparenten Verwaltung ebnen. Eine Herausforderung bleibt jedoch: Gute Ideen müssen auch umgesetzt werden. Gleichzeitig gilt es, die richtigen Rahmenbedingungen zu schaffen. 

Der Beitrag wurde ursprünglich hier veröffentlicht …

Warum CEOs und Entwickler gemeinsam die API gestalten sollten

CEOs und Geschäftsführer haben bisher die Konzeption von Schnittstellen (Englisch: Application Programming Interface, kurz: API) meist in die IT-Abteilung deligiert. Die digitale Transformation muss aber die Unternehmenslenker wach rütteln. Auch CEOs müssen sich mit dieser Thematik beschäftigen.

10 Gründe, warum CEOs die Gestaltung von APIs auf keinen Fall Entwicklern überlassen dürfen

Für CEOs galten APIs (Application Programming Interface) bisher als ein technisches Problem, das delegiert werden kann. APIs werden in rasender Geschwindigkeit zum zentralen Element vernetzter digitaler Geschäftsprozesse. Daher verdienen sie höchste Aufmerksamkeit von Top-Management-Seite. Hier sind 10 gute Gründe warum CEOs sich selbst direkt mit APIs beschäftigen sollten:

1. Kunden als direkte Nutzer der eigenen Software sind ein Auslaufmodell

Nicht zuletzt durch die weite Verbreitung von mobilen Endgeräten und darauf installierten Apps kommunizieren Kunden immer weniger mit Unternehmen direkt. Insbesondere digitale Assistenten wie Cortana, Siri, Google Assistant und Alexa besetzen immer mehr die Schnittstelle zwischen Unternehmen und Kunden. Je mehr diesen kleinen Helfern vertraut wird, desto wichtiger wird es für Unternehmen, ihnen in gut aufbereiteter Form per API Daten und Funktionalität über vielfältige Kanäle zur Verfügung zu stellen.

2. APIs erhöhen den Wert des eigenen Angebots für Kunden

APIs machen die eigene Leistung für Kunden in vielen anderen Umgebungen nutzbar. Beispielsweise lässt sich die Funktionalität des Notizdienstes Evernote mittlerweile eingebettet in etliche andere Anwendungen nutzen. Natürlich ist damit ein gewisser Kontrollverlust verbunden und auch Markenmanager können sich oft nur schwer an den Gedanken gewöhnen, die Kontrolle abzugeben. Dennoch sind APIs für viele Unternehmen der Schlüssel zur Relevanz. Nehmen wir an, ein Unternehmen will in E-Mail-Marketing investieren und sucht dafür einen passenden Partner. Es gibt mittlerweile eine unübersehbare Vielfalt von E-Mail-Marketing-Systemen. Fällt bei der Recherche ein Anbieter auf, dessen API sich nahtlos in das eigene Content-Management-System und CRM-System einklinkt, besitzt es einen unschlagbaren Wettbewerbsvorteil. Bei sonst identischer Funktionalität, springt das Wertangebot dieses Anbieters praktisch von 0 auf 100.

3. APIs eröffnen neue Einnahmequellen

APIs erhöhen die Reichweite des eigenen Angebots, indem sie in Apps und Plattformen Dritter eingebunden werden können. Das allein kann schon zu erheblichen Kundenzuwächsen und Umsatzsteigerungen führen. Darüber hinaus können für APIs eigene Wege der Monetarisierung entwickelt werden, indem die Nutzung des API selbst mit einem Preis belegt wird. Welche Möglichkeiten sich daraus ergeben, zeigt sich oftmals erst, wenn Partner beginnen, mit dem API zu arbeiten. Die Kreativität der Anwender übersteigt in der Regel das Vorstellungsvermögen des API-Anbieters.

4. Jeder Prozess im digitalen Business wird Algorithmus und API werden

Dass Menschen digitale Prozesse steuern, ist ein teures Übergangsmodell. Zahl und Qualität von Algorithmen -mathematisch-programmtechnischen Routinen, die automatisiert Prozesse überwachen und steuern – nimmt exponentiell zu. Die Arbeit dieser Algorithmen auf das eigene Unternehmen zu beschränken, wäre ein Anachronismus. Im Gegenteil, je mehr es gelingt, komplette Prozessketten abzubilden, desto effizienter und besser werden sie. Damit Algorithmen über Unternehmensgrenzen hinweg miteinander interagieren können, brauchen sie zwingend funktionale APIs. APIs sind damit ein Schlüsselelement für Industrie 4.0 und Industrielles Internet of Things (IIoT).

5. Ein API ist das in Programmcode gegossene Kollaborationsmodell des Unternehmens

Unternehmen agieren zunehmend in komplexen digitalen Wertschöpfungs-Ökosystemen. Wertschöpfungsprozesse finden mehr und mehr unternehmensübergreifend statt. Digitale Wertschöpfung verlangt eine Integration von Datenflüssen und Funktionen. Durch API ist das funktional realisierbar, ohne die Hoheit über eigene Daten und Prozesse aufzugeben. Für jede Kooperation werden tonnenweise Vertragswerke ausgearbeitet, um das wechselseitige Handeln zu regeln. Besser als juristische Klauseln wirken klug gestaltete Funktionalitäten und Zugriffsrechte der APIs. Was hier möglich ist oder nicht, hat einen wesentlich stärkeren Einfluss auf das Verhalten der Partner als Vertragswerke.

6. APIs sind die Eintrittskarte zur Plattformökonomie der Zukunft

Die rasante Entwicklung der Plattformökonomie wird weitergehen. Nur Plattformen sind in der Lage, die Komplexität der digitalen Welt beherrschbar und nutzbar zu machen. Egal ob ein Unternehmen selbst Plattformanbieter wird oder an Plattformen teilnehmen will, ein passendes API stellt die Eintrittskarte dafür dar.

7. APIs sparen Kosten machen IT flexibler, Entwickler schneller, Prozesse sicherer

APIs können nicht nur von Partnern, Plattformen oder der Öffentlichkeit benutzt werden. Es gibt auch zahllose Anwendungsbereiche für rein interne APIs. Dadurch, dass APIs eine standardisierte, dokumentierte und eigenständige Funktionalität zur Verfügung stellen, die andere nutzen können, erleichtern sie die Arbeit interner Entwickler, machen komplexe Systeme einfacher realisierbar und sicherer und vereinfachen die Zusammenarbeit von alten und neuen Systemen.

8. APIs bieten Zugang zu Wissen und Kreativität, agile Innovation

Jedes Unternehmen, dass ein API zur Verfügung stellt, wird sich früher oder später darüber wundern, was alles darauf aufgebaut werden kann. Ein breites Feld ist derzeit das Thema Smart City. Barcelona hat bereits viele Smart-City-Auszeichnungen erhalten, nicht zuletzt wegen des aktiven Umgangs mit Datenzugängen. So wurde beispielsweise ein Smart City App Hack ins Leben gerufen und ein API unter dem Namen CitySDK (City Software Development Kit) bereitgestellt. Damit gewinnt Barcelona Entwickler dafür, aktiv an der Stadt der Zukunft mitzuwirken, indem eigenständige Lösungen für die aktuellen Probleme großer Städte entwickelt werden.

9. APIs sind ein Tor zum Unternehmen – auch im negativen Sinne

Jedes API kann auch ein Einfallstor für digitale Angreifer oder ein Objekt des Missbrauchs sein. Aus diesem Grunde ist es wichtig, von Anfang an auf Sicherheit der Schnittstelle zu achten (Security by Design) und die rechtliche Seite der API-Nutzung abzusichern.

10. Selbst die besten Entwickler können die strategische Dimension von APIs nicht bearbeiten

Gute Entwickler sehen sicherlich besser als das Top-Management die technischen Möglichkeiten und Grenzen von APIs. Die API-Strategie eines Unternehmens zu entwickeln bleibt aber Management-Aufgabe. Techniker können dabei als Ratgeber fungieren, die Aufgabe jedoch nicht selbst lösen.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Gibt es die optimale Zahlungsart für Webshops?

Die Antwort klingt sicher erst einmal ernüchternd: Alle – oder aber Keine Zahlungsart für Webshops!

Die Antwort der Novalnet AG im Detail zum Thema Zahlungsart für Webshops

Die pauschale Antwort Alle oder aber Keine spiegelt bei näherer Betrachtung die unterschiedlichsten Problemstellungen wieder, z .B. was bei der Wahl der Zahlungsart für den einzelnen Online-Händler im Vordergrund steht. Schnell kann man daran dann erkennen, dass jeder Online-Händler seine eigenen Anforderungen an die Bezahlungsarten stellt.

Für den einen Händler ist es die Kundenfreundlichkeit – kombiniert mit einer komfortablen Zahlungsart kann dies zusätzlichen Umsatz bedeuten. Der andere Onlineshop-Betreiber setzt indes viel lieber auf seine Sicherheit, was wiederum Einfluss auf die Wahl und die Missbrauchsmöglichkeiten seiner Zahlungsarten hat

Genau hier liegt die Krux: Sollte der Online Händler seinen Fokus ausschließlich oder vorwiegend auf die Vermeidung von Zahlungsausfällen setzten und daher ausschließlich die „sicheren“ Zahlungsarten anbieten, dann verzichtet er möglicherweise auf einen großen Teil seiner Umsätze. Sollte er aber das Risiko suchen und ausschließlich „unsichere“ Zahlungsarten verwenden, so könnte dies hohe Umsatzeinbußen aufgrund Betrug oder Missbrauch bedeuten. Hier ist stets der Einzelfall zu betrachten. Es mag durchaus Zielgruppen geben, bei denen es sinnvoller ist, vermeintlich risikobehaftete Zahlungsarten zu integrieren. So ist die Wahrscheinlichkeit eines Zahlungsausfalls bei einem Online-Händler der mit Garn oder Wolle handelt bei einer Zielgruppe von 50+ Jahren sicherlich geringer, als bei einem Webshop, der sich auf den Download von Online-Videospielen spezialisiert hat und eine durchschnittlichen Zielgruppe von 18-25 Jahren hat.

Nicht zu vergessen ist auch die technische Seite: Nicht alle Zahlungsarten lassen sich reibungslos und einfach in den Online-Shop integrieren. Sei es dass der Händler die Anforderungen der Kreditkartenorganisationen nicht erfüllt, wie z.B. die notwendige PCI DSS Zertifizierung. Oder der Händler hat Probleme bei der automatischen Zuordnung von Vorauskassezahlungen mit den einzelnen Bestellungen im Warenwirtschaftssystem. Die Lösung präsentiert hier ein Full Service Payment Provider wie die Novalnet AG. Aufgrund der Dienstleistungen der Novalnet AG kann ein jeder Händler schnell und einfach alle Zahlungsarten sicher in sein System integrieren.

Was man auch nicht außer Acht lassen sollte, ist das Sortiment des Online-Händlers und dessen Lieferfähigkeit. Hier gilt die Faustregel: Je größer der Warenkorb, desto größer auch das Risiko Opfer eines Betruges zu werden. Und ist eine Ware einmal nicht sofort lieferbar, so führt dies bei Vorauskasse-Zahlungen oft zu Frustration und sodann zu aufwändigen Rückabwicklungen.

Wie findet man die optimalen Bezahlarten?

Zunächst gilt: Nichts überstürzen und die Chancen mit den Risiken bzw. die Vorteile mit den Nachteilen gegeneinander abzuwägen. Dabei muss ebenfalls beachtet werden, dass bei einer späteren Einführung neuer Zahlungsarten nicht nur das Warenwirtschaftssystem und das eCommerce-Front-End mit einem erheblichen Integrationsaufwand verbunden sind, sondern dass das auch für die interne Organisation (Arbeitskraft, Buchhaltung etc.) eine enorme Belastung darstellt. Alle Schritte sollten deshalb sorgsam aufeinander abgestimmt und kalkuliert werden. Auch hier kann ein Full-Service-Payment Provider wie die Novalnet helfen: Jahrelange Erfahrungen zeichnen das Unternehmen aus. Die Novalnet AG berät Online-Händler in allen Bereichen rund um das Thema Payment und unterstützt bei der Integration und der Auswahl der Zahlungsarten.

Was sollte noch beachtet werden

Gerade bei eCommerce-Bestellungen „verlangt“ die Entwicklung am Markt, dass man sich auch als Händler mit neuen Zahlungsarten auseinandersetzt, denn der potentielle Kunde hat das im Vorfeld auch getan. Nicht selten fällt die Entscheidung für einen Abbruch im Checkout-Prozess durch eine unzureichende Auswahl an Zahlungsoptionen. Daher bietet die Novalnet AG ihren Kunden alle gängigen Bezahlarten.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Smarte Roboter erobern die Fabrik – Vier Beispiele für das Zusammenspiel von KI und Edge Computing

Die intelligente Fabrik ist längst Realität – und auch der „unwissende“ Roboter von einst gehört mehr und mehr der Vergangenheit an. Eine solche Fabrik zeichnet sich durch die Kombination verschiedener Technologien aus, die nahtlos ineinandergreifen. NTT DATA erklärt, welche Rolle KI und Edge Computing dabei spielen.

Smarte Roboter erobern die Fabrik

Seit mehr als einem halben Jahrhundert sortieren, schrauben, nieten, schweißen und lackieren Industrieroboter in den Fabriken dieser Welt. Bislang folgten sie dabei streng vorgegebenen Bewegungsabläufen, doch inzwischen kann Künstliche Intelligenz (KI) die mechanischen Helfer flexibler, effizienter und zuverlässiger machen. Vor allem im Zusammenspiel mit einem digitalen Zwilling, der die gesamte Produktionsumgebung abbildet, ergeben sich erhebliche Optimierungspotenziale in den unterschiedlichsten Anwendungsbereichen. NTT DATA, ein weltweit führender Anbieter von digitalen Business- und Technologie-Services, stellt vier Beispiele vor. 

Präzise und adaptive Robotersteuerung

In naher Zukunft werden Roboter dank Künstlicher Intelligenz und moderner Sensortechnologie flexibler, autonomer und vollständig ins Industrial Metaverse integriert sein. Mit Hilfe von hochauflösenden Kameras, KI-gestützter Bildverarbeitung, Edge-Computing und Generative AI (GenAI) können sie ihre Umgebung in Echtzeit analysieren und flexibel auf jede noch so unvorhergesehene Situation reagieren. Insbesondere GenAI hilft den Robotern, kreative Lösungen etwa bei Produktionsstörungen oder Materialengpässen zu entwickeln und selbstständig Alternativen auszuwählen. Durch die Integration ins Industrial Metaverse werden zudem physische und digitale Produktionswelten noch stärker miteinander verknüpft: Digitale Zwillinge ermöglichen es beispielsweise, Produktionsprozesse in Echtzeit zu überwachen und zu simulieren, ohne den laufenden Betrieb zu stören. Unternehmen können so fundierte Entscheidungen treffen und ihre Effizienz steigern. Edge-Computing liefert die nötige Rechenleistung für die Datenverarbeitung und Entscheidungsfindung direkt vor Ort, der aktuelle Mobilfunkstandard 5G wiederum sorgt für eine extrem schnelle und zuverlässige Datenübertragung mit geringer Latenz, wie sie Echtzeitanwendungen benötigen.

Qualitätskontrolle in Echtzeit

In der modernen Produktion ermöglicht die Kombination von KI, Edge-Computing und Industrial Internet of Things (IIoT) eine völlig neue Art der Qualitätskontrolle. KI-gestützte Bildverarbeitung und Mustererkennung sorgen dafür, dass Produktionsfehler – etwa falsch montierte Bauteile, Oberflächenfehler wie Kratzer und Risse, Farbabweichungen oder fehlende Komponenten – in Echtzeit erkannt werden. Dazu sammeln Sensoren, die direkt an den Produktionsanlagen und -linien installiert sind, kontinuierlich Daten, die über das IIoT-Netzwerk an lokale Edge-Computing-Systeme übermittelt werden. GenAI wird auch in der Qualitätskontrolle eine wichtige Rolle spielen: Wenn Roboter in der Produktion auf unbekannte oder unregelmäßige Objekte stoßen, können sie diese nicht nur erkennen, sondern auch selbstständig eine Lösung für das Problem finden. So kann der Roboter ein ihm unbekanntes Bauteil anhand von Datenbanken oder Bildern aus dem Internet identifizieren und herausfinden, wie es richtig gehandhabt werden muss, um Beschädigungen oder Produktionsunterbrechungen zu vermeiden.

Vorausschauende Wartung

Die vorausschauende Wartung wird durch den Einsatz der genannten Technologien „revolutioniert“. Sensoren an kritischen Maschinenkomponenten wie Lagern, Motoren und Hydrauliksystemen überwachen kontinuierlich Betriebsparameter wie Temperatur, Vibrationen, Geräusche und Druck. Diese Daten werden in Echtzeit analysiert, um den Zustand der Maschinen zu überwachen und Abweichungen anzuzeigen, die auf einen Verschleiß oder drohenden Ausfall hindeuten. Mit GenAI lassen sich noch fortschrittlichere Wartungslösungen realisieren. GenAI kann nicht nur Anomalien erkennen, sondern auch Vorschläge zur Optimierung der Maschinenparameter entwickeln – mit dem Ziel, den Verschleiß zu minimieren und die Lebensdauer zu verlängern. Droht ein Defekt, schlägt die Technologie zudem in Echtzeit alternative Reparaturstrategien vor

Optimierte Lagerhaltung und Energieeffizienz

Ein weiterer Vorteil ist die automatisierte Bestandsüberwachung. Sensoren erfassen kontinuierlich den Bestand an Materialien und Bauteilen, sodass die Lagerbestände automatisch aktualisiert und angepasst werden. Ein intelligentes Bestandsmanagement in Echtzeit kann verhindern, dass Teile fehlen oder unnötig vorgehalten werden, was Lagerkosten und Kapitalbindung reduziert. In Verbindung mit vorausschauender Wartung und Qualitätskontrolle in Echtzeit trägt ein solches Bestandsmanagement dazu bei, Produktionsprozesse noch reibungsloser zu gestalten. Werden Maschinenausfälle vermieden und Produktionsfehler sofort erkannt, lassen sich Verzögerungen vermeiden und die Lagerhaltung optimal auf den aktuellen Bedarf abstimmen. Eine effiziente Gestaltung des Materialflusses minimiert unnötige Lagerbewegungen und -prozesse, sodass darüber hinaus erhebliche Energieeinsparungen erzielt werden können. Dies trägt direkt zur Reduzierung des CO₂-Ausstoßes bei und hilft Unternehmen, ihre Nachhaltigkeitsziele zu erreichen und gleichzeitig die Betriebskosten zu senken.

„Industrieroboter werden durch Kombination von KI, Generative AI und Edge-Computing zu autonomen, flexiblen Systemen und leiten eine neue Ära der Produktionsoptimierung ein. Mit Integration in das Industrial Metaverse und unterstützt durch digitale Zwillinge können Unternehmen umfangreiche Simulationen durchführen, die zuverlässige Vorhersagen und Prozessanpassungen erlauben – ohne Unterbrechung der realen Produktion. Diese Technologien ermöglichen nicht nur eine dynamische Optimierung von Produktionsparametern und die Reduktion des Energieverbrauchs, sondern führen auch zu einem Paradigmenwechsel im operativen Betrieb und Geschäftsmodell. Produktionsprozesse werden immer dezentraler, anpassungsfähiger und datengesteuerter, während Unternehmen gleichzeitig neue Wertschöpfungspotenziale durch flexible Fertigungslinien und datenbasierte Geschäftsmodelle erschließen. Dadurch schaffen sie eine adaptive, effiziente und nachhaltige Fertigungsumgebung, die optimal für künftige Anforderungen gewappnet ist“, erklärt Jochen Gemeinhardt, Head of Production & Supply Chain bei NTT DATA DACH. 

Der Beitrag wurde ursprünglich hier veröffentlicht …