Was das Ende der Third-Party-Cookies für Unternehmen bedeutet

Was das Ende der Third-Party-Cookies für Unternehmen bedeutet

Dass es sich bei Cookies nicht immer um Kekse handeln muss, wissen mittlerweile die meisten Menschen. Beim Besuch von Internetseiten erfolgt schließlich in der Regel die Aufforderung, der Verwendung von Cookies zuzustimmen beziehungsweise die Verarbeitungszwecke anzupassen. Cookies sind Textdateien, deren Speicherung im Browserverlauf zur jeweils besuchten Seite erfolgt.

Es gibt beispielsweise Cookies, die für ein reibungsloses Funktionieren von Websites notwendig. Deshalb sind sie deshalb auch ohne Einwilligung des Users erlaubt. Login-Cookies, Warenkorb-Cookies oder Cookies für die Länder- oder Sprachauswahl zählen dazu. „Es gibt außerdem sogenannte Third-Party-Cookies, die Werbetreibende nutzen, um auf Internetseiten Nutzerinformationen zu sammeln. Deshalb müssen Seitenbesucher der Verwendung aktiv zustimmen. Für Website-Betreiber bietet sich über die Third-Party-Cookies die Möglichkeit, ihre Seite zu optimieren, personalisierte Werbung auszuspielen und die Website als Werbefläche zu nutzen und so Einnahmen zu erzielen“, erklärt Mike Warmeling, Speaker und Erfolgstrainer aus Osnabrück sowie Gründer von Warmeling Consulting. Er ergänzt: „Online-Marketing und E-Commerce basierten in gewisser Weise auf diesen Cookies, doch nun sollen sie ganz abgeschafft werden.“

Mehr Transparenz und Kontrolle für Verbraucher

Die Browser Safari und Firefox haben Third-Party-Cookies bereits abgeschafft, Google verkündete, diese ab 2023 nicht mehr einsetzten zu wollen. Der Online-Konzern will nach eigenen Angaben auch keine alternative Technologie nutzen, um User über mehrere Websites zu verfolgen und ihr Nutzungsverhalten zu analysieren. So erfolgt auch die Erfüllung der zunehmenden Datenschutzstandards in Europa und den USA. Die Europäische Union versucht beispielsweise schon seit Jahren, einheitliche Regeln im digitalen Binnenmarkt zu schaffen. Sie sollen die Verbraucher online besser schützen.

„Dafür sollte unter anderem die ePrivacy-Verordnung, kurz ePVO, 2018 zusammen mit der DSGVO in Kraft treten. Es musste allerdings die Ausarbeitung eines neuen Vorschlags erfolgen, den das Europaparlament diskutiert . Mit der ePOV soll auch das Ablehnen nicht notwendiger Cookies für Website-Besucher einfacher werden“, berichtet Warmeling. Dass viele Internetnutzer solch eine Regelung wünschen, zeigt sich in einer Studie von „The Trade Desk“: 71 Prozent der Teilnehmer haben das Gefühl, im Cookie-basierten System nicht mehr die Kontrolle über ihre Daten zu haben. 80 Prozent jedoch wünschen sich mehr Transparenz und Kontrolle.

Was das Ende der Third-Party-Cookies für Unternehmen bedeutet

Ende der personalisierten Werbung?

In der Werbebranche löste die Entwicklung um die Third-Party-Cookies ein mittelschweres Erdbeben aus. Zwar war sie seit Längerem absehbar, doch stellt sich für viele Marken und Werbetreibende seither die Frage, welchen Einfluss sie auf das Advertising-System hat. User-Tracking und personalisierte Online-Werbung gehörten für viele Unternehmen zu ihren Marketingmaßnahmen, um Kundengewinnung sowie Kundenbindung zu fördern und somit die Vorteile der Digitalisierung für den Erfolg der eigenen Firma zu nutzen. „Auf der einen Seite steht selbstverständlich die Privatsphäre der Nutzer im Fokus – Website-Betreiber sind schließlich auf das Vertrauen von Kunden beziehungsweise interessierten Besuchern angewiesen. Auf der anderen Seite wird Unternehmen Werbefläche auf ihren Internetseiten genommen, die sie an Drittanbieter verkaufen konnten. Dadurch ließ sich beispielsweise auch frei zugänglicher Content und frei zugängliche Unterhaltung auf Seiten und Plattformen finanzieren. Es ist nun also an der Zeit, Alternativen für individuell ausgespielte Online-Werbung zu suchen“, so Warmeling.

Potenziale des Online-Marketings ohne Third-Party-Cookies

Die aktuelle Entwicklung bietet eine Gelegenheit, das Tracking und die Ausspielung von individuellen Anzeigen neu aufzustellen, sodass gleichzeitig User mehr Kontrolle über ihre Daten haben, Werbung optimal an die jeweilige Zielgruppe ausgespielt ist und sie ihren Wert für Marken bewahrt. „Internetnutzer beziehungsweise die Konsumenten im Allgemeinen sollten wieder stärker in den Fokus rücken. Je relevanter die ausgespielte Werbung nämlich ist, desto wertvoller ist sie für Werbetreibende und letztlich auch für die Website-Betreiber“, berichtet Warmeling.

Das Open-Source-Projekt „Unified ID 2.0“ verwendet beispielsweise keine Cookies zur Identifizierung von Nutzern, sondern nutzt verschlüsselte E-Mail-Adressen. So sollen sich User beim Erstkontakt anmelden und gleichzeitig ihre Einwilligung für personalisierte Werbung geben können. „Egal in welcher Form – digitales Marketing bleibt für mehr Sichtbarkeit und Reichweite im Web unabdingbar. Unternehmen sollten auch unabhängig von der Entwicklung um die Third-Party-Cookies auf eine professionell gestaltete Website, SEO-Maßnahmen und möglicherweise zusätzlich auf E-Mail-Marketing, Anzeigen in Social Media und Suchmaschinen setzen“, sagt Warmeling abschließend.

Der Beitrag wurde ursprünglich hier veröffentlicht …

3 Aspekte für die Entwicklung Cloud-nativer Anwendungen

3 Aspekte für die Entwicklung Cloud-nativer Anwendungen

Cloud Computing – das war für viele Unternehmen in Deutschland lange Zeit nur eine Zukunftsvision. Der Ausbruch von COVID-19 und der folgende Lockdown haben dies schlagartig geändert. Um den Mitarbeitern die Arbeit im Homeoffice zu ermöglichen, mussten Unternehmen ihre IT-Infrastruktur schnellstmöglich in die Cloud verlagern. Die Vorteile der Cloud überzeugen seitdem auch viele Skeptiker. Mehr noch: immer mehr Unternehmen wollen sich die Möglichkeiten der Cloud Zunutze machen, um neue Anwendungen „Cloud-native“, also direkt in der und für die Cloud, zu konzipieren, entwickeln und zu betreiben. Was bei der Entwicklung effektiver und zuverlässiger Cloud-nativer Anwendungen zu beachten ist, erklärt Mike Tria, Head of Platform Engineering bei Atlassian.

1. Microservices sind die Basis des Cloud-native-Prinzips

Als Folge des letztjährigen Digitalisierungsschubs sehen immer mehr Unternehmen die Notwendigkeit, ihren Kunden oder Mitarbeitern eigenen Applikationen anzubieten. Beispielsweise um neue Produkte und Dienstleistungen zur Verfügung zu stellen oder um interne Abläufe zu optimieren. Dafür bietet sich der Cloud-native-Ansatz an, bei dem die Softwarearchitektur auf Microservices basiert. Diese kleinen Einheiten erfüllen jeweils nur eine einzige oder eine sehr begrenzte Anzahl an Aufgaben und kommunizieren miteinander. Auf den ersten Blick scheint dadurch die Komplexität der Anwendung massiv zu steigen.

In der Realität machen es Microservices allerdings erheblich einfacher, Applikationen zu verbessern oder Ausfälle zu beheben. Die Entwickler müssen nur an einzelnen Stellschrauben drehen, statt die ganze Software zu überarbeiten. Dadurch steigert sich die Flexibilität und Agilität und Continous Delivery wird möglich: ein konstanter Strom neuer Features.

2. Für die Instandhaltung und Skalierung von Microservices braucht es ein Team

Ein ganzes Team ist vonnöten, um einen Microservice gesund und funktionsfähig zu halten, einschließlich der Instandhaltung seiner Sicherheitsfunktionen, Leistung und Zuverlässigkeit. Sind in einem Unternehmen Hunderte oder sogar Tausende Microservices im Einsatz, ist es besonders wichtig, die richtigen Strukturen für die Zuständigkeit zu implementieren. Um die Microservices unabhängig voneinander zu betreiben, sollte die Verantwortung für jeden Service nicht zwischen verschiedenen Teams geteilt werden. Das ermöglicht ihnen, sich auf einzelne Microservices zu konzentrieren und sie müssen nicht das gesamte System im Blick behalten. Dadurch können die Entwickler schneller neue Features entwickeln und in höherer Qualität. Gleichzeitig wird die Maintenance und Kontrolle der Microservices, wie ihrer Abhängigkeiten und Alerts, auf mehrere Schultern verteilt. Nimmt sich ein Entwickler frei, kann der Rest des Teams diese Aufgaben problemlos auffangen.

Entwicklung Cloud-nativer Anwendungen

3. SLOs und Automation sorgen für Sicherheit und Verlässlichkeit

Bei der Entwicklung Cloud-nativer Anwendungen darf trotz dem erhöhten Tempo und der verteilten Architektur die Sicherheit nicht vernachlässigt werden. Dafür können Unternehmen Service Level Objectives (SLOs) – Ziele, an denen die Servicequalität gemessen wird – für jeden einzelnen Microservice formulieren. Damit sorgen sie dafür, dass sich keine Fehler einschleichen, die Auswirkungen auf die Verlässlichkeit der gesamten Anwendung haben. Darauf aufbauend sollten Unternehmen für einen genauen Blick auf die Sicherheit ihrer Cloud-native Applikationen auf ein zentrales, automatisiertes Monitoring-Tool setzen. Dieses überwacht eigenständig alle Microservices, erkennt, wenn Anomalien auftreten oder die SLOs nicht mehr erreicht werden und informiert die entsprechenden Teams. In Verbindung mit einer Incident-Management-Plattform kann jedes Problem unmittelbar von den Verantwortlichen behoben werden. Dadurch bieten die Anwendungen ein hohes Maß an Sicherheit und einen durchgängig zuverlässigen Service.

Die Zukunft der Cloud entwickeln

Aufgrund des rasanten Wachstums bei der Cloud-Einführung ist es für Unternehmen unerlässlich geworden, moderne IT-Architekturen aufzubauen, die diese neue Realität unterstützen und ihnen ermöglichen, die Vorteile der Cloud auszuschöpfen. Dazu gehört auch die Entwicklung von Anwendungen direkt in der Cloud, also Cloud-native. Vor allem für SaaS-Anwendungen ist die Continous Delivery ein enormer Vorteil, um schnell Innovationen auszurollen und Nutzern eine moderne und reibungslose digitale User Experience zu bieten. Atlassian hat so die Entwicklung seiner Cloud Plattform und der darauf basierenden Anwendungen massiv beschleunigen können. Dieser Cloud-native-Ansatz ist aber nicht nur für große Softwarefirmen wichtig, sondern für jedes Unternehmen, das moderne Software entwickelt.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Digitalisierung ohne Business Intelligence ist wie Tennis ohne Schläger

Digitalisierung ohne Business Intelligence ist wie Tennis ohne Schläger

Die Digitalisierung ist für viele Unternehmen das größte und wichtigste Modernisierungsprojekt seit Jahrzehnten. Da darf nichts schiefgehen. Der IT-Dienstleister Consol nennt fünf Gründe für die Nutzung von Business Intelligence bei der Digitalisierung und dem Aufbau digitaler Geschäftsmodelle.

5 Gründe, warum Business Intelligence eine wichtige Rolle bei der Digitalisierung von Geschäftsmodellen spielt

Der Digitalisierungsdruck auf Unternehmen, Branchen und ganze Wirtschaftszweige wächst nicht linear, er verschärft sich angesichts der weltweiten Wettbewerbssituation vielmehr von Tag zu Tag. Bei der strategischen Planung und Umsetzung von Digitalisierungsprojekten ist Business Intelligence ein elementarer Erfolgsfaktor. Kai Hinke, Leiter Consol CM Software beim IT-Dienstleister Consol, hat fünf Phasen von Digitalisierungsprojekten identifiziert, bei denen BI einen entscheidenden Einfluss auf den Erfolg hat:

Anzeige: Whitepaper der DIGITAL-WEBER

1. Dokumentation des Status Quo:

Viele existierende Prozesse sind historisch gewachsen, häufig situativ, spontan und ohne entsprechende Planungsunterlagen und Dokumentation. Die sind jedoch für die Vorbereitung der Prozessdigitalisierung unerlässlich. Ohne einen Überblick über die Prozesslandschaft fehlt die Grundlage für deren Digitalisierung. Je manueller und „hemdsärmeliger“ Prozesse gelebt werden, desto schwieriger ist die Erhebung belastbarer Kennzahlen. Business Intelligence hilft bereits in dieser frühen Phase, verfügbare Daten zusammenzuführen und ein möglichst objektives Bild der Ist-Situation zu schaffen.

2. Analyse des Status Quo:

Im zweiten Schritt müssen alle aktuellen Prozesse für eine ehrliche und selbstkritische Analyse auf den Prüfstand. Nur aus dem tiefen Verständnis der Stärken und Schwächen existierender Prozesse heraus können die Weichen für deren erfolgreiche Digitalisierung, respektive die Ablösung durch neue, besser geeignete digitale Prozesse, richtig gestellt werden. BI-Programme zeigen anhand von KPI-Messungen auf, inwieweit Prozesse auf die strategischen Vorgaben einzahlen und analysieren ihre Werthaltigkeit.

3. Definition der Digitalisierungsstrategie:

Auf Basis dieser Erkenntnisse wird dann eine für das jeweilige Unternehmen, dessen Geschäftsmodell und Prozesslandschaft passende Digitalisierungsstrategie entworfen. Auch hier sorgt Business Intelligence für die nötige Prozesstransparenz. Die Prozesse werden nach ihrer Bedeutung und dem Nutzenfaktor für das Unternehmen analysiert und hierarchisiert. Daraus leitet sich dann die Reihenfolge der Digitalisierungsschritte ab. Zur Digitalisierungsstrategie gehört auch die Prozessselektion. Dabei werden Prozesse identifiziert und eliminiert, die sich bei kritischer Prüfung als untauglich, überflüssig oder sogar hinderlich erwiesen haben. Das vermeidet unnötigen Aufwand für die Digitalisierung dieser Prozesse und optimiert gleichzeitig die Prozesskette.

4. Operative Umsetzung der Digitalisierungsstrategie:

Bei der anschließenden Digitalisierungspraxis analysiert Business Intelligence als zentrales Mess- und Steuerungsinstrument die unternehmenskritischen und den größten Nutzen bringenden Prozesse. Sie erhalten die größte Priorität, denen dann weitere, für den Unternehmenserfolg weniger relevante Prozesse sukzessive folgen. Diese Digitalisierungsarbeit am Kern des Unternehmens trägt gleichzeitig aber auch das größte Risiko. Deshalb ist es sinnvoll, das Prinzip der „low hanging fruits“ zu nutzen. Dabei werden mit BI-Hilfe zuerst relativ einfache, überschaubare Prozesse mit begrenzten Kollateraleffekten selektiert und für die Digitalisierung vorgesehen.

5. Prozessautomatisierung:

Die Digitalisierung eröffnet nicht nur neue Wege zur Automatisierung von Prozessen – sie ist einer der größten Vorteile, die sich daraus generieren lassen. Business Intelligence liefert die nötigen Informationen, inwieweit die potenziellen Effizienz-, Fehlerreduzierungs- und Geschwindigkeitseffekte durch die Prozessautomatisierung tatsächlich ausgeschöpft wurden. Da sie besonders anspruchsvoll ist, sollte sie nicht gleich am Anfang stehen, aber von vornherein Teil der Digitalisierungsstrategie sein.

Business Intelligence spielt bei der Digitalisierung von Geschäftsmodellen eine wichtige Rolle. (Quelle: iStock)
Graphs diagram and charts

Fazit: Business Intelligence als Gradmesser der Digitalisierung

Für die technisch-operative Umsetzung bei der Digitalisierung von Geschäftsmodellen sind BI-Tools unverzichtbare Gradmesser und Kontrollinstrumente zur Messung und Steuerung der operativen Auswirkungen von Digitalisierungsmaßnahmen. Sie zeigen durch Analyse der Kennzahlen zu Vertrieb und Marketing, zum Kundendienst und zu den internen Prozessen und Ressourcen verlässlich den Stand der Digitalisierungsfortschritte oder -versäumnisse an und geben Hinweise zu Verbesserungspotenzialen. Auswahlkriterien für ein zielführendes BI-Tool sind unter anderem die flexible Anpassbarkeit und Ausbaufähigkeit für spezifische Anforderungen und künftige Updates, ein offenes Datenmodell für Datenanalysen und Auswertungen sowie standardisierte Schnittstellen für die Interaktion mit Legacy-Systemen und anderen Software-Tools.

„Die Bedeutung von Digitalisierungsprojekten für Unternehmen beziehungsweise ihre Geschäftsprozesse ist hoch“, erklärt Kai Hinke, Leiter Consol CM Software bei Consol. „Sie sind strategisch lebenswichtig und technisch anspruchsvoll. Daher müssen Unternehmen auch bei der Wahl der richtigen Tools und Dienstleister die höchsten Qualitätskriterien anlegen. Mit Consol CM bietet Consol ein eigenes flexibles Toolset zur Digitalisierung und kontinuierlichen Verbesserung von Geschäftsprozessen mit integrierter BI-Lösung.“

Der Beitrag wurde ursprünglich hier veröffentlicht …

Mobile Marketing: Mit drei App-Features zum treuen Begleiter

Mobile Marketing: Mit drei App-Features zum treuen Begleiter

Die meisten Apps werden nur heruntergeladen, um dann in einen Dornröschenschlaf zu fallen. Sollen die User eine App regelmäßig aufrufen und nutzen, bedarf es einiger Voraussetzungen: Wichtig ist, dass sie sich leicht bedienen lässt, noch wichtiger: dass sie etwas Brauchbares anzubieten hat. Aber in jedem Fall muss sie erst einmal auf sich aufmerksam machen. Mobile Marketing ist das Stichwort

Mobile Marketing: Mit drei App-Features zum treuen Begleiter

Was bringt einen Anwender dazu, sich eine App auf das Handy zu laden? Oft ist es eine reine Impulshandlung. Manche fühlen sich von den Bildern im App- oder Play Store angezogen, andere lassen sich von einem „App-only“-Rabatt verführen, wieder andere haben einfach Langeweile. Einige User suchen gezielt nach bestimmten Funktionen. Gibt es dafür unterschiedliche Apps, werden sie sich vermutlich für die entscheiden, die von anderen am besten bewertet oder von Apple „gefeatured“ wurde. Für den Anbieter lohnt es sich also, seine App technisch einwandfrei zu designen und mit aktuellen Features auszustatten, beispielsweise Dark Mode Support, Unterstützung für Smart Watches, App Indexing oder Widgets. Hierzu später mehr.

Gutes Design und intuitive Bedienbarkeit helfen definitiv, einen Platz ganz oben auf der Beliebtheitsskala zu belegen. Klappt das nicht auf Anhieb, empfiehlt es sich, Nutzer-Feedback nicht nur zu lesen, sondern auch zu berücksichtigen. Für viele Anwender ist es zudem wichtig, dass der App-Anbieter seine Datensammelwut im Zaum hält. Seit Ende vergangenen Jahres verlangt Apple für jede im App Store gelistete iOS-App bereits eine Datenerklärung.

Die Zahl der Downloads ist ein schwacher KPI

Wie geht es nach der Installation weiter? Neue Apps müssen sich meist erst mal hinten anstellen. Sie landen auf der letzten Seite des App-Bildschirms. Ein Download allein ist noch kein Erfolgsnachweis. Entscheidend ist vielmehr, wie häufig die App aufgerufen wird. Und dazu sollte sie sich durch Mobile Marketing mindestens einmal lautstark in Erinnerung bringen. Diese drei technischen Features können dabei extrem hilfreich sein.

1. App Indexing: User bekommen, was sie suchen

Wann wird eine App aufgerufen? Vor allem dann, wenn sich Nutzer davon einen Mehrwert versprechen. Das gilt unabhängig davon, ob es sich um reine Unterhaltung oder einen geschäftlichen Vorteil handelt. In jedem Fall ist es optimal, wenn die App genau das offeriert, was sich der User in diesem Augenblick wünscht. Die Herausforderung besteht darin, Nutzer und ihre Bedürfnisse mit der entsprechenden App zusammenzubringen. Hier kommt das erwähnte App Indexing ins Spiel: Wer seine App mit dieser Funktion ausstattet, macht ihre Inhalte für den Google-Crawler zugänglich. So erscheint die App in den Suchergebnissen, sobald der Handy-Besitzer einen passenden Begriff googelt. Ein Klick auf den Link, und die mobile Anwendung öffnet sich an der entsprechenden Stelle.

Idealerweise finden sich dieselben Inhalte zusätzlich auch auf der Website des Anbieters – nur für den Fall, dass der User die App noch gar nicht heruntergeladen hat. Ist ein sogenannter Universal Link installiert, wird der Anwender automatisch auf die Website umgeleitet. Für ihn es damit einfacher denn je, Inhalte in der jeweils passenden Form präsentiert zu bekommen. Wie sich das Ranking der App-Inhalte in den Suchergebnissen verbessern lässt, ist ein Thema für sich. Experten für Suchmaschinenoptimierung (SEO) können hier weiterhelfen, wenn interne Ressourcen fehlen.

Mobile Marketing

2. Widgets: stets aktuell und permanent sichtbar

Was aber, wenn User nicht nur ab und zu, sondern am besten ständig an die App erinnert werden sollen? In diesem Fall haben sich Widgets bewährt. Das sind zu einer App gehörige Mini-Anwendungen, die direkt auf dem Homescreen des Handys platzierbar sind. Auch das gehört zu Mobile Marketing.

Widgets laufen im Hintergrund und aktualisieren sich im günstigsten Fall permanent selbst. Sie sammeln aktuelle Daten zu bestimmten Interessengebieten, die sie dann laufend zur Verfügung stellen. Das können Rezeptvorschläge, Fitness-Tipps oder simple Wettervorhersagen sein. Der konkrete Mehrwert ist entscheidend für eine erfolgreiche Widget-Integration: Sofern Anwender die Informationen als nützlich empfinden, betrachten sie die Widgets auch nicht als Belästigung. Für den App-Anbieter bedeutet das, ständig einen Fuß in ihrer Tür zu haben. Seine Leistung besteht also darin, das Widget für Kunden so relevant zu machen, dass sie es auf dem Bildschirm platzieren und behalten wollen.

3. Instant Apps und App Clips: kleine Helfer, großer Nutzen

Wie können sich Apps für den User unentbehrlich machen? Am besten, indem sie ihn von langweiligen Routinearbeiten befreien, sprich: alltägliche Abläufe mehr oder weniger automatisch begleiten. Hier haben die App Clips (für iOS) und die Instant Apps (für Android) ihren großen Auftritt. Diese winzigen, nativen Apps müssen nicht einmal installiert werden. Sie werden aktiv, sobald sie ins Wirkungsfeld eines im Smartphone hinterlegten Auslösers geraten, sei es ein Link in einer Nachricht, ein Visual Code oder ein NFS-Sender.

Vor allem in den App Clips steckt heute schon viel Potenzial. Sie lassen sich mit anderen Apple-Services wie dem Bezahldienst Apple Pay oder dem Identitätsservice „Mit Apple anmelden“ zu einfachen Abläufen verketten. So lässt sich etwa der Besuch eines Restaurants von der Tischbuchung über die Getränkebestellung bis zur Bezahlung digital abdecken. Ein anderes Beispiel ist das Ausleihen eines Fahrrads: Nähert sich der Kunde dem Rad, wird via NFC der App Clip geöffnet. Hat er Identitäts- und Bezahl-Service in den Clip integriert, kann er ohne weitere Formalitäten aufsteigen und losradeln. Übrigens: Laut Nutzervereinbarung dürfen App Clips nach dem ersten Öffnen noch acht Stunden lang Push-Nachrichten auf das Handy des Users schicken, ohne dass sie dafür um Erlaubnis bitten müssen. Was der Anbieter seinen Kunden schon immer sagen wollte – jetzt und hier hat er die Gelegenheit dazu.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Low-CodeOps schafft mehr Effizienz für den IT-Betrieb

Low-CodeOps schafft mehr Effizienz für den IT-Betrieb

Laut Siemens-Tochter Mendix wird das nächste Kapitel der Low-Code-Adoption die traditionellen DevOps-Praktiken für den IT-Betrieb – einschließlich Softwarebereitstellung, -test, -sicherheit und -wartung – verändern und die Betriebs- und Kosteneffizienz radikal steigern. Die Führungskräfte von Mendix haben den Begriff „Low-Code Operations“ oder Low-CodeOps geprägt.

Low-CodeOps schafft mehr Effizienz für den IT-Betrieb

Low-CodeOps beschreibt die Fähigkeit von Low-Code-Entwicklungsplattformen, den operativen Aufwand eines Unternehmens zu automatisieren und zu reduzieren.

Die Analysten von Forrester sehen in der zunehmenden Automatisierung eine der für IT-Infrastruktur- und Betriebsexperten wichtigsten Entwicklungen des Jahres. Der jüngste Forrester Wave-Bericht lobt Low-Code als umfassendsten Automatisierungsansatz der Branche .

„Unsere übergreifende Vision ist, die bewährte Fähigkeit von Low-Code, digitale Lösungen schnell auf den Weg zu bringen. Wir weiten sie auf die angrenzenden Bereiche der IT-Wartung und des Betriebs in großen, hybriden Umgebungen aus“, sagt Maarten Smeets, VP of Cloud Deployment and Operations bei Mendix. „Damit maximieren wir die Geschwindigkeit und Agilität, die zu den Kernvorteilen der Low-Code-Plattform gehören, für den gesamten Anwendungslebenszyklus.“

Hans de Visser, VP of Product Management bei Mendix, fügt hinzu: „Low-CodeOps bietet die Möglichkeit, DevOps wirtschaftlicher zu gestalten. Dabei schaffen sie einen nahtlosen Ausgleich zwischen Risikominderung und der geschäftlichen Notwendigkeit, digitale Lösungen für neue Geschäftsanwendungen schnell zu skalieren.“

Der Wechsel von vollständig verwalteten aPaaS zu privaten und hybriden Clouds

Zu den Marktkräften, die den Wechsel zu Low-CodeOps vorantreiben, gehört die rasante Beschleunigung der Einführung von Hybrid- und Multi-Clouds. Die Analysten von Gartner prognostizieren, dass 75 % der mittleren und großen Unternehmen in diesem Jahr Hybrid- oder Multi-Clouds einführen werden. Unternehmen setzen zunehmend auf infrastrukturunabhängige Strategien, um umfangreiche Sicherheitsanforderungen in Branchen wie dem Finanzwesen, der Verteidigungsindustrie und dem Gesundheitswesen zu erfüllen. Dabei weiten sie Cloud-Implementierungen in neue geografische Regionen aus.

Dieser Trend verschärft jedoch eine Herausforderung, mit der Unternehmen schon seit Jahren zu kämpfen haben: Den Mangel an Softwareingenieuren und IT-Spezialisten, die über das Fachwissen verfügen, um Software-Implementierungen auf Kubernetes-Clustern bereitzustellen und zu orchestrieren oder andere Anforderungen von privaten und virtuellen privaten Cloud-Workloads zu erfüllen.

Low-CodeOps automatisiert und abstrahiert diese Komplexität und demokratisiert DevOps, indem es die Fähigkeiten zur Container-Verwaltung und -Bereitstellung in die Hände von mehr Menschen legt, wie zum Beispiel IT-Systemadministratoren und Software-Entwicklern“, so de Visser.

Laut de Visser haben sich Unternehmen im letzten Jahrzehnt von On-Premise-Rechenzentren wegbewegt. Sie haben sich Application Platform as a Service (aPaaS) samt Ein-Klick-Bereitstellung in vollständig verwalteten Public Clouds zugewandt. „Aber jetzt schwingt das Pendel mit neuen Anwendungsfällen für private Clouds zurück“, so de Visser weiter. „Unternehmen, die Low-Code für die Softwareentwicklung nutzen, sollten sich keine Gedanken über das zugrunde liegende Framework machen oder ihre eigenen CI/CD-Pipelines von Hand aufbauen müssen, um ihre Anwendungen in eine private Cloud zu übertragen. Sie sollten dafür eine ähnliche Ein-Klick-Option zur Verfügung haben.“

Die wichtigsten Aspekte von Low-CodeOperations

„Die Anwendungsbereitstellung ist nur ein Punkt auf der gesamten DevOps-Checkliste“, so Smeets. Die Teams müssen auch sicherstellen, dass Software immer verfügbar ist und ordnungsgemäß läuft. Kontinuierliche Performance-Überwachung, Ressourcenbereitstellung für Infrastruktur und Daten, Sicherheits-Compliance und andere Prozesse „fressen unzählige Stunden Software-Engineering-Zeit, die besser für Innovationen genutzt werden könnte.“

Automatisierte Workflows, die mit visuellen Low-Code-Modellierern entwickelt werden, können zentrale DevOps-Aufgaben rationalisieren:

Komplexe Compliance-Vorgaben

Jede Branche hat ihre eigenen Anforderungen an maßgeschneidertes Monitoring und Compliance. Finanzunternehmen zum Beispiel müssen ausgiebig auf Datenvalidierung und Sicherheit testen. Auch die Datenschutzgesetze variieren von Land zu Land. Die Einhaltung von Exportkontrollen und Vorschriften zum Schutz geistigen Eigentums ist für Unternehmen, die ihre Produkte weltweit verkaufen, von grundlegender Bedeutung.

„Wenn Sie Low-CodeOps nicht nutzen, um diese Funktionen zu automatisieren, werden sich die Release-Zeitpläne von Tagen auf mehrere Monate ausdehnen. Sie geben damit einen der wichtigsten Vorteile von Low-Code auf – die schnellere Bereitstellung und damit kürzere Time-to-Value“, so Smeets.

Performance-Monitoring

Planung, systemweite Benachrichtigungen, ereignisgesteuertes Monitoring und Log-Checks der Plattform-Infrastruktur sind die Grundpfeiler von modernem DevOps, um die Verfügbarkeit und die Betriebsstandards von komplexen, voneinander abhängigen IT-Landschaften zu bestätigen. Darüber hinaus sollte sich die Systemüberwachung leicht an die geschäftlichen KPIs anpassen lassen.

Smeets weiter: „Unternehmen brauchen die Flexibilität, die Überwachungsparameter für Anwendungen und Pipelines anzupassen, die bestimmte Geschäftsanforderungen erfüllen. Wenn diese geschäftskritischen Funktionen ins Stocken geraten, sollten die Alarmglocken läuten, um eine schnelle Lösung des Problems zu ermöglichen.“

Low-CodeOps schafft mehr Effizienz für den IT-Betrieb

Sicherheit

In den letzten zehn Jahren haben Sicherheitstests immer mehr Zeit und Ressourcen von DevOps in Anspruch genommen. Laut Smeets haben sich die Anforderungen „weit über das Aufspielen der neuesten Sicherheitspatches hinaus aufgebläht.“. Schwachstellen-Scans für Sicherheit und Compliance müssen in den frühesten Stadien der Anwendungsentwicklung durchgeführt werden. Zudem müssen sie sich durch die Betriebsphasen des Testens und der Wartung fortsetzen, wobei alle Probleme innerhalb eines streng geregelten Zeitrahmens gelöst werden müssen.

„Unternehmen können die richtige Balance zwischen Risikominderung und Geschwindigkeit finden und schnellere Release-Zeiten erreichen, wenn sie auch über die entsprechenden Werkzeuge verfügen. So stellen sie sicher, dass ihre Technologielandschaft sicher ist und die Stabilität nicht beeinträchtigt wird“, so Smeets.

Infrastruktur als Code

Die Vorstellung, dass Infrastruktur flexibel und formbar sein kann, ist IT-Profis vertraut. Sie haben im letzten Jahrzehnt den Übergang von Bare-Metal-Servern zu softwaredefinierten virtuellen Rechenzentren vollzogen. Heute nutzen Hyperscaler wie Amazon Web Services, Alibaba, Microsoft Azure, Google Cloud Platform und IBM Hybrid Cloud virtuelle Infrastruktur, einschließlich Containerisierung und API-Services, um unzählige Cloud-basierte Operationen durchzuführen.

Dennoch kann es für DevOps-Teams zeitaufwändig sein, den Anbieter oder die Plattform zu wechseln. Allerdings ist es auch aufwendig, neue Cloud-Operationen an unterschiedlichen Standorten einzurichten. Mit Low-CodeOps kann DevOps das Prinzip „einmal erstellen und überall ausführen“ anwenden. Das erfordert weniger Aufwand und eine geringere Anzahl an Mitarbeitern .

„Durch die Automatisierung dieser Funktionen mit Low-Code können wir neue Cloud-Dienste in verschiedenen Teilen der Welt einrichten. Per Knopfdruck führen wir ein Skript auf einer externen Cloud-Plattform aus. Damit richten wir ein ganzes virtuelles Rechenzentrum innerhalb von Stunden statt Monaten ein. So funktioniert Infrastruktur mit Low-Code“, sagt Smeets.

Zukunftssicheres DevOps mit Low-Code

Im vergangenen Jahr hat der Branchentrend zur Nutzung sicherer, hochverfügbarer cloudbasierter Softwarebereitstellung Unternehmen in die Lage versetzt, die Anforderungen von Remote-Mitarbeitern und Online-Kunden zu erfüllen. Unternehmen nutzen diese Dynamik , um digitale Anwendungen und Prozesse zu verfolgen, die Legacy-Systeme mit Edge Computing, IoT-Konnektivität, KI-Befähigung, Virtual- und Augmented-Reality-Integrationen sowie neuen Formen des Data Mining integrieren, sind die Effizienzen von Low-Code-Entwicklung und Operations von größter Bedeutung.

Low-CodeOps sichert DevOps-Teams ab, indem es die leistungsfähigste Softwareentwicklungsplattform mit effizienten und flexiblen Betriebswerkzeugen kombiniert. Low-CodeOps versieht beide Bereiche mit soliden Leitplanken für operative Kontrolle und Vorhersagbarkeit. Die Einführung dieses Ansatzes verkürzt die Time-to-Value für Unternehmen erheblich. Sie entlastet die IT-Abteilungen und legt innovative digitale Lösungen per Mausklick direkt in die Hände der Nutzer.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Interview: Karl Gerber (Step Ahead) über das neue STEPS.CRM

Interview: Karl Gerber (Step Ahead) über das neue STEPS.CRM

Am 1. Juli 2021 hat Step Ahead sein eigenes CRM-System gelauncht. Das STEPS.CRM bezeichnet sich selbst als smart, intuitiv, flexibel und sexy. Starre Strukturen und langwieriger Aufwand werden damit aufgebrochen, das Ziel ist ein modernes Datenmanagement mit Weitblick. Denn die innovative Technologie Multi Relation Management (MRM) lässt eine freie Verknüpfung sämtlicher Daten zu – für ein völlig unabhängige Datenbank-Kommunikation. Wir haben das zum Anlass genommen und Karl Gerber, CEO von Step Ahead, einige Fragen gestellt.

1. Was war der auslösende Moment für die Entwicklung eines eigenen CRM-Systems?

Mit STEPS, godesys ERP und IN:ERP bieten wir bereits seit über 30 Jahren bewährte ERP + CRM Lösungen, die sich über die Jahre einen guten Ruf am Markt erarbeitet haben. Dennoch stoßen auch wir mit unseren Systemen an Grenzen, an denen Kunden seit Jahren nach Antworten suchen. In unseren Systemen STEPS, godesys ERP und IN:ERP haben wir – wie alle anderen ERP- und CRM-Hersteller vor vielen Jahren – die Entscheidung getroffen, auf relationale Datenbanken zu setzen. Diese Entscheidung passt nicht mehr zu den heutigen Bedürfnissen der Kunden.

Ein neues System muss den Anforderungen der Vergangenheit ebenso gerecht werden wie denen der Zukunft. Daher haben wir uns für ein neues ERP basierend auf einer Objektdatenbank entschlossen. Mit unserer eigens dafür entwickelten Plattform WFX haben wir genau dies umgesetzt und nun als erstes Modul eine Kundendatenbank entwickelt. Bei den ersten Demos erhielten wir ein so gutes Feedback unserer Kunden, dass wir gleich ein vollwertiges CRM daraus gemacht haben. Bei den Funktionen haben wir uns an den Besten des Marktes orientiert und bei der Umsetzung die komplette Bandbreite unserer Plattform genutzt.

2. Wie hebt sich Ihr CRM vom Mitbewerb ab?

Die bisher bekannten CRM-Systeme basieren auf festen Beziehungen nach dem „Legal Entity Tree“. Ein Kontakt muss immer einem Unternehmen zugeordnet sein, eine Verkaufschance benötigt immer einen Verantwortlichen, ein Prozess ist immer gleich usw. Mit all diesen festen Vorgaben und Zwängen, die primär aus dem Datenbankmodell resultieren, haben wir gebrochen und mit unserer MRM-Technologie bestehende Grenzen gesprengt. Der Anwender erlebt bei uns ungeahnte Möglichkeiten, mit dem System so zu arbeiten, wie es für ihn am besten ist. So treiben wir nicht einzelne Verkaufschancen stupide voran. Wir erzeugen um die Verkaufschance vielmehr automatische Aufgaben, die dann von den verschiedenen Beteiligten abgearbeitet werden. Die Verkaufschance entwickelt sich dadurch quasi automatisch. Apropos: Wir haben so viele Funktionen wie möglich automatisiert und alles getan, damit unsere Kunden Prozesse automatisieren und fernsteuern können. Das macht einfach nur Spaß!

3. Was ist die Zielgruppe des neuen CRM? Nur bestehende ERP-Kunden?

STEPS.CRM

Unser Anspruch war es, ein schnelles und flexibles System zu entwickeln, das die Basis für unser neues ERP wird. Bei jedem einzelnen Feature, bei jeder einzelnen Oberfläche haben wir genau darauf geachtet, nicht nur eine Zielgruppe anzusprechen. Unser CRM eignet sich für kleine Händler ebenso wie für produzierende Unternehmen, Dienstleister oder Großkonzerne. 

4. Wie gut ist der Automatisierungsgrad für Marketing-Prozesse?

Wir haben eine komplette Automatisierung für die Verarbeitung jeglicher Daten integriert. Von der einfachen Version für die Neuanlage oder die Änderung von Daten bis zu unserer Process Engine, in der wir die Business Logic entwickeln. Alle Prozesse können damit einfach und unkompliziert an die individuellen Bedürfnisse angepasst werden und natürlich kann jeder Prozess auch mehrfach in unterschiedlicher Form existieren. Wir bieten zudem eine komplette Mailintegration mit einer vollwertigen Historie, die alle Änderungen erfasst. Was den Newsletterversand anbetrifft, arbeiten wir aktuell noch am Kampagnenmodul. Wir entwickeln das System ja zusammen mit Kunden und hier erhoffen wir uns noch weiteren wertvollen Input.

5. Mit welchen Kosten müssen Interessenten rechnen?

Wir wollen besser sein als die Besten, aber wir wollen nicht die Teuersten sein. Wir haben den Preis so gestaltet, dass jeder Unternehmer schnell erkennen wird, dass die Kosten niedriger sind als der Nutzen. Im Marktvergleich spielt das CRM von Steps im preislichen Mittelfeld.

Für diese Werbung sind DIE DIGITAL-WEBER (part of mwbsc GmbH) verantwortlich.

Der Beitrag wurde ursprünglich hier veröffentlicht …

Managed Services in Unternehmen

In Zeiten der digitalen Transformation wachsen die Herausforderungen für Unternehmen stetig weiter. Allen voran die Anforderungen der Kunden verändern sich kontinuierlich. Sowohl Führungskräfte als auch Mitarbeiter müssen flexibler auf die individuellen Wünsche der Auftraggeber eingehen und diese gleichzeitig in kürzerer Zeit bearbeiten. Doch viel zu oft sind die zuständigen Personen mit anderweitig anfallenden Aufgaben beschäftigt und können sich nicht auf das Kerngeschäft konzentrieren.

Managed Services in Unternehmen – Individualität ist Trumpf

Die steigenden Kommunikationsanforderungen sowie Ineffizienzen in der Büroorganisation führen zudem dazu, dass lediglich drei Tage pro Arbeitswoche für produktives Arbeiten übrig bleiben. Unternehmen müssen ihrer Belegschaft den entsprechenden Rahmen zur effektiven Erledigung anfallender Aufgaben ermöglichen. Einen Lösungsansatz bieten Managed Services. Doch welche Arten von Managed Services gibt es? Und welche Weichen müssen Unternehmen stellen, um diese in ihrem Unternehmen erfolgreich nutzen zu können?

1. Freiraum bieten

Flexibel und schnell auf Veränderungen und individuelle Kundenwünsche zu reagieren, ist das A und O für Unternehmen im digitalen Zeitalter. Mithilfe der Auslagerung bestimmter Segmente aus dem Informations- und Kommunikationsbereich an einen externen Dienstleister schaffen Manager ihren Mitarbeitern den notwendigen Freiraum, der zur Aufgabenbearbeitung benötigt wird. So können die Arbeitnehmer sich auf das Tagesgeschäft konzentrieren. Angeboten werden die Dienste meist von einem sogenannten Managed Service Provider, kurz MSP, der die Verwaltung für die Bereitstellung zuvor definierter Dienstleistungen für den Kunden übernimmt. Das können beispielsweise regelmäßige Kontrollen der IT-Infrastruktur sein sowie das Durchführen relevanter Updates wie Antiviren-Programme. Auch die fachgerechte Installation, Spam-Filterung sowie Online-Back-ups zählen zu den Aufgaben, die diese Services abdecken. Konzernen jeder Größenordnung wird so die Instandhaltung und Verwaltung ihrer Server und Systeme erleichtert.

2. Individueller arbeiten

Durch Managed Services stellen Unternehmen sicher, immer mit einer funktionstüchtigen, aktualisierten und individuell zugeschnittenen IT zu arbeiten. So lassen sich etwa komplette Firmennetzwerke inklusive der PCs, Notebooks, Firewalls, Server und anderer wichtiger Komponenten aus der Ferne beobachten. Positive Auswirkungen zeichnen sich bereits nach kurzer Zeit ab. So profitieren die Auftraggeber nicht nur vom Erfahrungsschatz des externen Dienstleisters, sondern auch von einer Effizienzsteigerung im eigenen Unternehmen, denn: Die Freiräume bieten den Mitarbeitern die Möglichkeit, Kundenanfragen individueller und schneller zu bearbeiten. Damit steht der Belegschaft mehr Zeit für das Kerngeschäft zur Verfügung. In Kombination führt dies im besten Fall zu einer steigenden Nachfrage, die wiederum langfristig dafür sorgt, dass die Anzahl der Mitarbeiter und Arbeitsplätze im Unternehmen konstant bleibt oder sogar wächst. Doch Führungskräfte sind angehalten darauf zu achten, dass mehr Arbeitsplätze auch mehr Schnittstellen im bestehenden Kommunikations- und Informationssystem bedeuten. Es gilt, die Infrastruktur stets an die Firmengröße anzupassen und Mitarbeitern einen reibungslosen Zugang zu gewährleisten. Aus diesem Grund sollte sich immer ein Fachmann um die Erweiterungen des Systems kümmern, um so alle Aspekte berücksichtigen zu können und den nahtlosen Betrieb sicherzustellen. Auch hier setzen Managed Services an und bieten entsprechende Möglichkeiten.

3. Kosten kalkulieren

Ein Vorteil von Managed Services liegt darin, dass sie auf das jeweilige Unternehmen zugeschnitten werden können. So sind sie flexibel einsetzbar und mit anpassungsfähigen Kostenmodellen, wie sie von der readypartner GmbH beispielsweise angeboten werden, auch finanziell eine gute Wahl. Denn entgegen zahlreicher Thesen, wonach Managed Services häufig mit hohen Kosten in Verbindung stehen, besteht beim entsprechenden Managed Service Provider die Möglichkeit, die monatlich laufenden Kosten zu kalkulieren. Zudem lägen die finanziellen Einbußen bei einem Totalausfall beträchtlich höher als die stetigen Ausgaben. Für die Regulierung benötigen die Unternehmen bereits im Vorfeld eine entsprechende Analyse, für welche IT-Services sich eine Auslagerung anbietet und rentiert. Daraus ergibt sich, welche Arten von Managed Services die Verantwortlichen brauchen. Dies kann eine Vielzahl von Segmenten der Kommunikations- und Informationsbereiche betreffen. Im Bereich IT-Security zählt beispielsweise das Betreiben entsprechender Lösungen wie Antiviren- und Antispam-Programme sowie Firewalls zu den ausgelagerten Services. Auch die Bereitstellung, Konfiguration und Wartung von Storage-Kapazitäten sowie auch Server-Applikationen zählen zu den Dienstleistungen, die externe Partner übernehmen können. Aber Achtung: Nicht jeder MSP bietet alle Arten an.

4. Kosten im Blick

Häufig spezialisieren sich MSP auf bestimmte Bereiche und haben hier entsprechendes Expertenwissen vorzuweisen. Ein Schwerpunkt können Managed-Communication-Lösungen sein, wie sie beispielsweise die readypartner GmbH bereitstellt. Kommunikationsservices beinhalten dabei sowohl Festnetz- als auch Mobiltelefonie sowie Lösungen für Unified Communication (UC) und Unified Communication and Collaboration (UCC), auch aus der Cloud. Die Dienste richten sich dabei unter anderem nach der Größe des Unternehmens, was eine flexible und skalierbare Buchung der Funktionen und Services ermöglicht. So können die Kunden ihre Kosten stets im Blick behalten und sind zusätzlich weiterhin in der Lage, ihre Kommunikation zu steuern – Denn sie bestimmen selbst, wann und über welches Gerät sie erreichbar sein wollen. Alle Funktionen und Services lassen sich zudem einfach in dem bereitgestellten Webtool „Operator Online“ verwalten. In diesem Modell sind interne Telefonate auch zwischen verschiedenen Standorten enthalten und kostenfrei. So sparen Unternehmen zusätzliche Kosten ein, denn durch eine feste monatliche Grundgebühr, die sich pro Arbeitsplatz ergibt, sind die Ausgaben stabil und kalkulierbar. Das Ergebnis: eine übersichtliche und transparente Kostenstruktur für den Auftraggeber.

5. Stichwort Transparenz durch Managed Services

Für effektive Ergebnisse im Bereich Managed Services ist jedoch ein Aspekt elementar: Vertrauen. Um dies zu erlangen, müssen sich Auftraggeber ebenso wie externer Dienstleister über alle notwendigen Aspekte der Zusammenarbeit klar sein. Als Basis wird ein sogenanntes Service Level Agreement (SLA) aufgesetzt. In diesem Vertrag legen die Beteiligten fest, welche Leistungen wie und in welchem Zeitraum zu erbringen sind. Dazu zählt auch, wem welche Verantwortlichkeiten obliegen. Unternehmen sollten bei der Auswahl des passenden MSP auf bestimmte Punkte achten, um sich über Qualität und Professionalität sicher zu sein. Dazu zählt vor allem die offene Kommunikation des aktuellen Stands der Aufgaben. Transparenz lautet das große Stichwort. Denn auch wenn Manager weiterhin über die Gesamtkontrolle der IT verfügen, ist es für sie wichtig, stets über die neuen Entwicklungen informiert zu sein. Diese Art der Qualitätskontrolle kann beispielsweise über Berichte zum Fortschritt der Arbeit geschehen. Eine hohe Anzahl an Standardisierungen muss zudem kein Ausschlusskriterium sein. Vielmehr sind diese ein Zeichen für geringe Kosten und wenig Komplexität. Ebenfalls positive Merkmale eines MSP sind das Anbieten eines Rund-um-die-Uhr-Services sowie die Nutzung eines sicheren Hochleistungsrechenzentrums nach deutschem Recht. Mit der Kontrolle von Kundenreferenzen sowie dem Beachten von Rankings sowie Benchmarks können potenzielle Auftraggeber zusätzlich die Kompetenzen des MSP überprüfen.

6. Outsourcing vs. Managed Services

Häufig kommt es in Bezug auf Managed Services noch zur Verwechslung mit Outsourcing. Dabei ist die Unterscheidung elementar: Während beim Outsourcing firmeneigene Stellen oder gar ganze Abteilungen ausgelagert werden, setzen Managed Services vielmehr auf Entlastung der internen Mitarbeiter. Das bedeutet, dass die Arbeitnehmer im Unternehmen selbst bleiben und hier von Gewohnheits-Aufgaben entbunden werden. Denn fallen diese Routinearbeiten, die sonst den Arbeitsprozess aufhalten, weg, können sich die Arbeitnehmer auf das Kerngeschäft konzentrieren und effektiver arbeiten. Das wiederum erhöht die Effizienz und macht auch das Unternehmen auf Dauer erfolgreicher. Die Kontrolle der Soft- und Hardware sowie des Services bleibt dabei stets im eigenen Unternehmen. Outsourcing hingegen bedeutet die komplette Auslagerung von Teilbereichen oder der gesamten IT. Das kann auch mit personellen Einsparungen verbunden sein. Die Kosten werden beim Outsourcing zudem auf Basis der genutzten Services auf Grundlage von Pauschalen berechnet.

7. Kontrolle in eigener Hand

Bei einer Auslagerung von IT-Services sollten die Beteiligten jedoch auch Störungen bedenken. Am häufigsten kommen Schwankungen im Stromnetz oder eine unsachgemäße Lagerung der Hardware vor und führen zu Ausfällen moderner Informations- und Kommunikationsanlagen. Deshalb sollte in jedem Managed Service Konzept ein Reporting-Modul enthalten sein. Es gibt Aufschluss über die Art sowie den Schweregrad der vorliegenden Störung(en) und beschleunigt den Entscheidungsprozess in der externen Verwaltung, ob ein Termin vor Ort nötig ist oder ob sich das Problem aus der Ferne beheben lässt. Auch in Zukunft spielt die Auslagerung von Teilbereichen der IT eine große Rolle in der Unternehmenswelt – und wird sogar an Bedeutung gewinnen. Denn mit dem digitalen Wandel folgen weitere neue Anforderungen und stets wachsende Herausforderungen. Beschleunigte Prozesse und Technik entwickeln sich ebenso weiter wie auch Unternehmen, Mitarbeiter und Kunden. Es gilt, die Strukturen stets verfügbar abrufen zu können und flexibler sowie leistungsfähiger zu gestalten. Dafür benötigen Unternehmen jedoch auch entsprechendes Personal mit dem dazugehörigen Know-how. Dabei bietet es sich an, die standardisierten IT-Services von einem externen Partner, eben einem MSP, betreiben und verwalten zu lassen – ohne je die Kontrolle über die Unternehmens-IT abzugeben.


Autor: Björn Blatt

Der Beitrag wurde ursprünglich hier veröffentlicht …

So gelingt Filialisten die Verknüpfung von digitalen & stationären Touchpoints

So gelingt Filialisten die Verknüpfung von digitalen & stationären Touchpoints

Der Einzelhandel befindet sich im Wandel – und das nicht erst seit Beginn von Corona. Das weiß inzwischen vermutlich jeder. In Zeiten, in denen Verbraucher größtenteils online nach Produkten suchen und innerhalb weniger Minuten auf den bekannten Plattformen der Big Player fündig werden, wird es für stationäre Händler immer dringender, digital sichtbar zu sein. Eine Verknüpfung von digitalen & stationären Touchpoints wird immer wichtiger.

So gelingt Filialisten die schrittweise Verknüpfung von digitalen & stationären Touchpoints

Wer glaubt, gegenüber den großen Anbietern sowieso keine Chance (mehr) zu haben, der täuscht sich. Laut einer aktuellen Bitkom-Studie wünschen sich 65 Prozent der Verbraucher, dass mehr regionale Einzelhändler ihre Produkte über einen Onlineshop anbieten. Denn, die Bereitschaft lokal zu kaufen und Händler in der direkten Umgebung zu unterstützen, ist grundsätzlich da. Nicht zuletzt aufgrund des sogenannten ROPO-Effekts (‚Research online, purchase offline‘) sollten stationäre Händler ihre lokalen Standortvorteile nutzen und online sichtbar werden. Die folgenden Tipps können bei diesem Vorhaben helfen.

Tipp 1: Produkte online präsentieren – mit einer Art digitalem Schaufenster

Damit (potentielle) Kunden die Angebote stationärer Händler online finden, ist digitale Sichtbarkeit das A und O. Doch nur 39 Prozent der Befragten haben zum Beispiel einen eigenen Onlineshop. Das ergab jüngst eine Umfrage des Forschungsinstituts ibi research und des Deutschen Industrie- und Handelskammertags (DIHK) unter 1.450 Händlern. Bei den restlichen Händlern sind vor allem mangelnde personelle oder zeitliche Ressourcen der Grund für die fehlende digitale Präsenz. Sie sollten im ersten Schritt eine Storefront, also eine Art digitales Schaufenster, für ihre Filiale nutzen. Diese ressourcenschonende Variante ist im Prinzip ein vereinfachtes Shopsystem, das alle notwendigen Funktionen für Bestellungen und Zahlungen beinhaltet, und die (lokalen) Produkte mit Bildern, Details sowie zusätzlichen Informationen abbildet. Anders als komplexe Shopsysteme am Markt bedarf es keiner langwierigen Integrationsprozesse, sodass Filialisten direkt in Sachen digitale Sichtbarkeit durchstarten können.

Tipp 2: Die Sichtbarkeit in Google stärken

Die Filialen eines stationären Händlers müssen im Google Ökosystem sichtbar sein. Ein Google My Business Account ist die öffentliche Identität eines Händlers und unabdingbar für die Sichtbarkeit in Google Maps. Darin sind Unternehmensdaten, wie Adresse, Kontaktdaten und Öffnungszeiten einzupflegen und zu verwalten. Es ist zwingend darauf zu achten, dass die Informationen einheitlich, vollständig und vor allem stets aktuell sind. Zusätzlich zum My Business Account sollten Händler auch einen Google Merchant Account anlegen, um stationäre Produkte direkt in Google Shopping sichtbar zu machen. Hier besteht neben der Möglichkeit Produktdaten hochzuladen und so für ihre Sichtbarkeit zu sorgen, auch die Option, Artikel direkt über Google reservier- und/oder bestellbar zu machen. Darüber hinaus bieten Local Inventory Ads die Chance, dass Nutzer die Angebote der Filiale zum Beispiel direkt an oberster Stelle finden. Zusätzlich zu der kostenlosen Sichtbarkeit in Google Shopping.

Tipp 3: Für transparente Filialbestände sorgen

Es hat sich gezeigt, dass Händler mehr Verkäufe abschließen, wenn die Warenverfügbarkeit online transparent einsehbar ist. So können Konsumenten prüfen, ob die gewünschten Artikel in der Filiale vorrätig sind und sich folglich der Weg zu ihr lohnt. Eine solche Transparenz zahlt wiederum auf den eingangs erwähnten ROPO-Effekt ein. Eine einheitliche und stets aktuelle Bestandsverwaltung ist daher sehr zu empfehlen. Zum Anfang ist eine einfache Excel- oder CSV-Datei völlig ausreichend. Diese können Händler zum Beispiel nutzen, um Ihre lokalen Warenbestände mithilfe des Google Merchant Centers in Google Shopping sichtbar zu machen oder direkt im Onlineshop (oder dem digitalen Schaufenster) abzubilden. Empfehlenswert sind beide digitalen Touchpoints, um ein konsistentes Kundenerlebnis zu schaffen.

Tipp 4: Mit “Click & Reserve“ starten

Filialisten sollten es Kunden ermöglichen, Produkte online zu reservieren und vor Ort abholen zu können. Dabei sind manuelle Aufwände auf beiden Seiten unbedingt zu vermeiden. Etwa, dass der Kunde für die Reservierung im Geschäft anrufen oder der Mitarbeiter eine E-Mail mit den Wunschartikeln abarbeiten muss. Besser ist es, wenn die Reservierung über eine entsprechende Funktion im Onlineshop komplett automatisiert (im Idealfall mit der Anzeige des aktuellen Bestandes aus der Filiale) – und damit unkompliziert für den Kunden – abläuft. “Click & Reserve” hat zudem den Vorteil, dass man keinen zusätzlichen Zahlungsanbieter implementieren muss: Da die Umsätze und Warenentnahmen ausschließlich stationär generiert werden, also die Bezahlung direkt in der Filiale erfolgt, lassen sich Bestellungen über “Click & Reserve” buchhalterisch einfacher verbuchen. Durch den Aufenthalt in der Filiale besteht außerdem ein weiteres Up- und Cross-Selling-Potential. Es muss also nicht immer direkt “Click & Collect” sein.

Tipp 5: “Clean Shopping“ mit “Click & Collect“ ermöglichen

“Click & Collect” ist ideal, um Einkäufe gezielt zu tätigen, direkt online zu bezahlen und anschließend in der Filiale nur noch abzuholen. Kunden profitieren ähnlich wie bei “Click & Reserve” gleich mehrfach: Sie sparen die Versandkosten, sind hinsichtlich der Abholung zeitlich flexibel und sowohl Kauf als auch Bezahlung gehen schnell und digital vonstatten. Hinzu kommt, dass gerade in Pandemie-Zeiten viele Kunden “Clean Shopping”, das heißt kontaktloses, sicheres Einkaufen ohne Wartezeiten, bevorzugen. Zu guter Letzt bietet sich für lokale Händler mit “Click & Collect” die Möglichkeit, ihren Standortvorteil und somit die schnellere Produktverfügbarkeit gegenüber Online Pure Playern auszuspielen. Händler sollten jedoch im Blick haben, dass Umsätze online generiert werden und Warenentnahmen stationär erfolgen. Hier lohnt es sich also auch Schritt für Schritt vorzugehen.

So gelingt Filialisten die Verknüpfung von digitalen & stationären Touchpoints

Tipp 6: Schrittweise verschiedene Online-Bezahlmöglichkeiten einrichten

Für Click & Collect” muss der Händler einen Zahlungsanbieter in sein Shopsystem einbinden – kurzum: Online-Bezahlungsmöglichkeiten bereitstellen. Anstatt von Anfang an die ganze Palette an Payment-Anbietern bzw. Zahlarten zu integrieren, ist es ratsam, sich zunächst auf einige wenige zu beschränken. Händler können auf diese Weise herausfinden, welche Bezahlmöglichkeiten die eigenen Kunden aktiv nutzen und welche ggf. noch fehlen. So vermeiden Sie unnötige Gebühren bei ungenutzten Payment-Anbietern und können trotzdem mit Services wie “Click & Collect” starten.

Tipp 7: Online-Bestellungen effizienter abwickeln

Hat man ein ganzes Filialnetz, auf das man als Händler zurückgreifen kann, dann bietet sich “Ship from Store” an. Dabei werden die einzelnen Geschäfte als Fulfillment-Hubs genutzt. Im Falle, dass die Ware in der Wunschfiliale vor Ort oder im Zentrallager gerade nicht vorrätig ist, wird sie dank eines intelligenten Order-Routings aus der nächstgelegenen Filiale mit dem entsprechenden Artikel direkt zum Kunden geschickt. Dadurch können Einzelhändler Online-Bestellungen nicht nur effizienter abwickeln, sondern ihren Kunden eine schnellere Lieferung garantieren. Neben der möglichen Versandkostenersparnis beim Endverbraucher lässt sich auf Händlerseite zudem eine langfristige Kapitalbindung in den einzelnen Filialen verhindern und die Lagerumschlagshäufigkeit erhöhen. Im Umkehrschluss könnten Händler dann wiederum “Return in Store“ in Betracht ziehen. Damit können Verbraucher die online bestellten Waren direkt im Geschäft ihrer Wahl wieder zurückgeben, anstatt sie postalisch retournieren zu müssen.

Fazit: Mit ganzheitlichem Einkaufserlebnis stationäre Umsätze ankurbeln

Ein ganzheitliches Einkaufserlebnis meint nicht nur, die Filiale mit einem Onlineshop zu verknüpfen, Warenbestände transparent zu machen oder Services wie “Click & Reserve” und/oder “Click & Collect” anzubieten. Vielmehr bedeutet es, für Endkunden eine nahtlose Customer Experience zu gewähren, die in sich stimmig ist – unabhängig vom gewählten Endgerät, Kommunikationskanal oder Touchpoint. Aber auch, dass Händler Synergieeffekte ihrer digitalen und stationären Vorteile nutzen und somit Prozesse effizienter und einfacher gestalten.

Anzeige: Service der DIGITAL-WEBER

Der Beitrag wurde ursprünglich hier veröffentlicht …

Rechnungen bei Langzeitverträgen – Überblick im Vertragsmanagement

Rechnungen bei Langzeitverträgen – Überblick im Vertragsmanagement

Kündigungs- und Verlängerungsfristen, Laufzeiten, Termine für Neuverhandlungen: Für die Verwaltung eines Vertrages müssen zahlreiche Daten und Zeiträume im Blick behalten werden. Allzu schnell verstreicht eine Kündigungsfrist oder die Laufzeit eines Vertrages läuft unbemerkt aus. Auch bei der Beschaffung im Rahmen des Purchase-to-Pay-Prozesses werden zahlreiche Verträge mit unterschiedlichsten Lieferanten geschlossen. Eine digitale Lösung zum Vertragsmanagement im Rahmen eines Enterprise Information Management Systems (EIM) unterstützt vor allem bei der Rechnungsprüfung.

Rechnungen bei Langzeitverträgen – Überblick im Vertragsmanagement

Vier von zehn: Laut einer Studie von techconsult, die sich exemplarisch mit dem Purchase-to-Pay-Prozess beschäftigt, nutzt bisher weniger als die Hälfte der befragten Unternehmen eine digitale Lösung für das Vertragsmanagement. Dabei sind die Vorteile, die dadurch entstehen würden, immens. Führende Lösungen wie nscale von der Ceyoniq Technology sorgen für mehr Transparenz, geringere Haftungsrisiken und hohe Kosteneinsparungen. Am Beispiel von Waren aus Langzeitverträgen lassen sich diese Mehrwerte darstellen.

Anderer Ablauf bei Langzeitverträgen

Für einmalige Anschaffungen und Produkte, die in unregelmäßigen Abständen benötigt werden, ist immer eine neue Bedarfsanforderung nötig. Doch in jedem Unternehmen fallen auch Rechnungen an, die auf Grundlage laufender Verträge generiert sind. Beispiele sind die Miete, die Stromversorgung, aber auch die wöchentliche Lieferung eines Obstkorbs oder die monatliche Ladung Toilettenpapier. In all diesen Bereichen fällt der Beschaffungsprozess mit der Bedarfsanforderung, dem Einholen von Angeboten und der Lieferantenauswahl weg. Vielmehr basieren die Lieferungen auf zum Teil über Jahre bestehenden Verträgen.

Damit muss sich auch der Ablauf der Rechnungsprüfung ändern. Denn anders als im Vertragsmanagement gewohnt, gibt es nicht für jede Lieferung eine eigene Bedarfsanforderung und Bestellung, die gemeinsam in einer eigenen Bestellakte hinterlegt sind. Entsprechend kann zur Prüfung nicht der Bedarfsanforderer herangezogen werden. Vielmehr besteht sogar die Möglichkeit, dass der Mitarbeiter, der den Vertrag geschlossen hat, das Unternehmen mittlerweile verlassen hat.

Zentrale Verfügbarkeit von Vertragsdaten

Damit eine reibungslose Rechnungsprüfung dennoch möglich ist, sind Überblick und Transparenz über die laufenden Verträge unerlässlich. So muss nicht nur jederzeit der Zugriff auf die Verträge gewährleistet sein, auf deren Basis die Rechnungen entstanden sind, sondern diese müssen einfach auffindbar sein. Ein EIM dient als zentrale Plattform, auf der alle relevanten Informationen zu einem Vertragsverhältnis abgelegt sind. Dazu gehören neben Stammdaten wie beispielsweise den Adressdaten des Lieferanten auch alle bisherigen und aktuellen Verträge. Sie sind dank einer modernen Lösung für das digitale Vertragsmanagement softwareseitig Compliance-konform und revisionssicher in einer entsprechenden Vertragspartnerakte gespeichert. Dabei ist stets ersichtlich, welches Dokument die aktuellen und korrekten Informationen enthält. Damit können Rechnungen schnell und sicher geprüft werden.

Vertragsmanagement leicht gemacht

Vertragsmanagement leicht gemacht

Dafür müssen die Verträge einwandfrei gepflegt sein. Dazu gehört beispielsweise die Einhaltung von Verlängerungsfristen. Werden diese verpasst, läuft das Vertragsverhältnis aus. Führende Lösungen für das digitale Vertragsmanagement bieten Erinnerungsfunktionen. Sobald Fristen abzulaufen drohen, werden die verantwortlichen Mitarbeiter darauf aufmerksam gemacht, sodass sie rechtzeitig handeln können. Gleiches gilt auch für den umgekehrten Fall, wenn eine Kündigung nötig wird und die dafür entsprechende Frist eingehalten werden muss. 

Doch damit nicht genug: So können beispielsweise neue Gesetzesvorgaben eine Änderung eines Vertrages nötig machen. Dank der zentralen Ablage ist der Vertrag im Vertragsmanagement schnell und einfach auffindbar. Sollte die verantwortliche Person abwesend sein, kann die Anpassung durch eine festgelegte Vertretung vorgenommen werden. Etwaige Strafzahlungen sind verhindert. Darüber hinaus ist für alle involvierten Mitarbeiter ersichtlich, welches Dokument aktuell gültig ist, sodass die Arbeit mit veralteten Verträgen ausgeschlossen ist. Ebenfalls auf der Kostenseite schlägt auch die Erinnerung an Termine wie Neuverhandlungen zu Buche. Erfolgt eine Anpassung, können sich die Konditionen bei einem Lieferanten negativ entwickeln oder bisherige Sonderkonditionen auslaufen. Es heißt also, rechtzeitig nachzuverhandeln. Um hierbei kompetent auftreten zu können, ist es jedoch wichtig, über alle bisherigen Verträge im Bilde zu sein und aktuelle Konditionen und Preise schnell finden zu können.

Fazit

Führende Lösungen für das digitale Vertragsmanagement überzeugen durch eine zentrale Fristen- und Terminverwaltung, eine strukturierte Stammdatenverwaltung und die Speicherung der Verträge auf einer zentralen Plattform. Damit ist, im Rahmen eines Rechtekonzeptes, der Zugriff auf alle relevanten Daten und Informationen sichergestellt. Es ist immer ersichtlich, welches die aktuellen Daten sind. So ist auch bei Langzeitverträgen eine einfache und schnelle Rechnungsprüfung möglich. Höchste Zeit für Unternehmen, diese Mehrwerte für sich zu entdecken.   

Der Beitrag wurde ursprünglich hier veröffentlicht …

Trends im Manufacturing

In der industriellen Fertigung lassen sich die Anforderungen hinsichtlich Qualität und Flexibilität ohne entsprechende Software-Systeme nicht erfüllen. DiIT hat die wichtigsten Trends in der Produktion zusammengefasst.

Die Digitalisierung schreitet auch in der industriellen Produktion zügig voran. Hier die wichtigsten Trends, mit denen zu rechnen ist:

1. Künstliche Intelligenz (KI)

Die Anwendung von KI wird deutlich zunehmen. In der Industrieautomatisierung und in der Qualitätssicherung können mit neuronalen Netzen und Machine Learning erhebliche Kosteneinsparungen erreicht werden. So können beispielsweise Anlagen aus den Betriebszuständen selbstständig „lernen“ und so vorausschauende Wartung vereinfachen; durch intelligente Lösungen der Bildverarbeitung und der Mustererkennung können zerstörungsfreie Prüfverfahren angewandt werden, die in der Lage sind, Anomalien sehr schnell zu erkennen.

2. Agile Manufacturing

Agile Manufacturing löst mehr und mehr Lean Manufacturing ab. Hersteller können damit schnell auf neue Anforderungen reagieren und Änderungen etwa im Produktdesign oder bei Spezifikationen vornehmen. Damit lassen sich auch kleine und kleinste Losgrößen realisieren, ohne dass dabei die Produktionskosten explodieren. Der Trend zu individueller Produktion führt direkt zum Agile Manufacturing.

3. Qualität 4.0

Qualitätssicherung wird zu einem zentralen Thema der Produktion. Qualität muss dabei von Anfang an in das Design der Produkte integriert werden. Ein erfolgreiches Qualitätsmanagement durch qualifizierte Software hilft, potenzielle Produkt- oder Prozessfehler schon während der Planung zu vermeiden. Nur auf diese Weise können sichere, robuste Produkte und effiziente Prozesse entwickelt und der Prüfaufwand während und nach der Fertigung minimiert werden. Wie heute schon bei der PC-Ferndiagnose können Spezialisten direkt auf die Produktionsmaschinen zugreifen, um Fehler zu identifizieren und zu beheben. Produkte speichern Produktionsdaten, Messwerte und Spezifikationen der einzelnen Fertigungsschritte. So können sie quasi selbstständig Produktionsstationen ansteuern, die Bearbeitung einleiten sowie Einsatz- und Verschleißparameter über den gesamten Lebenszyklus erfassen und auswerten.

4. Traceability

Vor dem Hintergrund steigender Qualitäts-Anforderungen wird die durchgängige Rückverfolgbarkeit für mehr und mehr Bauteile unabdingbar. Rückverfolgbarkeit ermöglicht eine genaue Fehlerermittlung, weil sich exakt feststellen lässt, welche Charge an welcher Maschine für eventuelle Fehler verantwortlich ist, so dass Gegenmaßnamen schnell umgesetzt werden können. So können Fehler eng eingegrenzt werden, so dass Hersteller bei größeren Störungen nicht gleich komplette Serien zurückrufen müssen, sondern sich auf bestimmte Chargen beschränken können.

5. Big Data

Die effiziente Verarbeitung und Analyse sehr großer Datenmengen wird für die industrielle Produktion immer wichtiger. Die mittlerweile in fast allen Betrieben hochvernetzte Produktion generiert riesige Datenmengen, die in Echtzeit aufgenommen und verarbeitet werden müssen. Eine vollständige Maschinendatenauswertung bietet die Möglichkeit, während eines Prozesses Leistungsabweichungen und Verschleiß festzustellen. Die Maschinen können dann selbst vorbeugend Instandhaltungsmaßnahmen anfordern.

Der Beitrag wurde ursprünglich hier veröffentlicht …