In diesem Blogartikel verraten wir euch fünf Tipps für erfolgreiche CRM-Länder-Rollouts:
Ein wesentlicher Punkt bei internationalen CRM Rollouts ist die eigenen Länder bzw. Märkte zu kennen. Damit ist gemeint, dass Vertriebsprozesse und die IT-Landschaft gut beleuchtet werden sollen, damit der Reifegrad für Rollouts festgelegt werden kann. Dazu helfen unter anderem folgende Fragen:
Diese sind (unter vielen anderen) essenzielle Informationen, die man in Form eines globalen Questionnaire abfragen kann. Dies spielt für die Planung der Rollouts eine wichtige Rolle, denn anhand dessen kann die Schwierigkeit und der Aufwand des der Rollouts geschätzt und so entschieden werden, welcher Markt in welchem Quartal/Jahr ausgerollt wird. Tipp am Rande: Es empfiehlt sich den ersten Rollout mit einem leicht- bis mittel-schwierigen Markt zu starten. Zuletzt können auch technische, personelle, oder gar legale Voraussetzungen definiert werden, welche für ein Ausrollen gegeben sein müssen.
Wurde ein Markt zum nächsten Rollout auserwählt, liegt der Fokus nun in der Betreuung des Marktes. Dafür sollte man sich Zeit nehmen und dem Rollout intern die nötige Aufmerksamkeit und Ressourcen zuteilen, damit dieses vorangeht. Auf keinen Fall sollte dem Markt das Image eines “technischen Rollouts mit allen Mitteln” vermittelt werden, denn das würde sich früher oder später in der Adoption des CRMs widerspiegeln.
Stattdessen: Reist in das Land vor Ort, ladet alle nötigen Rollen (GeschäftsführerIn, IT ManagerIn, Leitungen aus Sales, Service, Marketing,..) zu einer vorgezogenen Fit/Gap Analyse ein, und besprecht offen den Scope, die Ziele und die bevorstehenden Herausforderungen des Rollouts. Definiert vorab Key-User, die ihr Business vertreten und sich gerne dieser Rolle annehmen, und welche im späteren Projektverlauf auch ihre KollegInnen trainieren werden.
Besprecht weiters, wie sich ein neues CRM und dessen (eventuell) neuen Prozesse auf die bestehende Arbeitsweise auswirken, und was sich dadurch grundlegend ändert. Dies ist wahrscheinlich ein Knackpunkt, was die spätere Auffassung des Marktes zum neuen CRM erheblich beeinflusst. Deshalb gilt – so früh wie möglich, mit Informationen und Transparenz das Land ins Boot holen!
Oft geht den internationalen Rollouts ein initiales, nationales CRM Projekt voraus. Hier wird oft das Land des Hauptsitzes, manchmal auch ein anderer wichtiger Markt, als Grundlage für das sogenannte “Globale Template“ hergenommen. Dessen Prozesse sind möglichst generell und global gehalten, um später leichter international ausgerollt werden zu können. Dies ist ein Ansatz einer globalen CRM Strategie, mit dem Nachteil, dass sich der Markt den globalen Prozessen beugen muss.
Ein weiterer Ansatz ist, jedem Markt (mehr oder weniger) lokale Anpassungen zu gewähren. Nachteil dieser Methode: Das CRM wird bereits nach den ersten Rollouts “schwer”, kompliziert und oft teuer zu warten. Im schlimmsten Fall konfiguriert man sich in eine Einbahnstraße, aus der man so leicht nicht mehr hinauskommt.
Beide Ansätze haben ihre Vor- und Nachteile, wobei meistens ein Mittelweg eingeschlagen wird. Ratsam ist, so wenig lokale Anpassungen wie möglich, aber so viele wie nötig zu gewähren. Je näher der Markt am globalen Template bleibt, desto einfacher bleibt das gesamte System zu warten und desto leichter lässt es sich in Zukunft auch weiterentwickeln.
So gut wie jedes Tool bietet heutzutage mittels Rollen und Profilen, die Möglichkeit IT-ManagerInnen aus den Ländern gewisse Rechte einzuräumen. Nimm diese Funktion in Anspruch und bilde Verantwortliche zu lokalen Administratoren aus.
Ihre Tätigkeiten:
Die Möglichkeit neue Felder und Prozesse zu erstellen, sollte dabei weiterhin ausschließlich in der globalen Administration liegen.
Außerdem: Biete dem Markt nach dem Rollout einen kontinuierlichen Support. Dieser kann mittels eines Ticketsystems, aber besser noch in Form einer öffentlichen Gruppe gleich im CRM stattfinden. User können Probleme melden, Fragen stellen, bereits gelöste Probleme einsehen und Updates erhalten.
Die großen Softwarehersteller machen es vor: Eine transparente Roadmap über geplante Features und die Möglichkeit selbst neue Features einzubringen. Dies sind zwei Funktionen, die mittlerweile schon vorausgesetzt werden, und zu einem guten Tool-Management dazu gehören.
Entwickle die Key-User aus den Ländern also zu CRM-Ambassadors, die Ideen und Wünsche aus dem Markt sammeln, und gib ihnen die Möglichkeit diese regelmäßig anzumelden. Nun fehlt noch eine Roadmap, mit derer man die Märkte über Releases und neue Features up-to-date hält. Die User werden es danken.
Solltest du im Hinblick auf diese Thematik weitere Informationen benötigen, lies unsere gemeinsamen Erfolgsgeschichten mit unseren KundInnen oder kontaktiere uns gerne für ein kostenloses Beratungsgespräch!
2019 hat Salesforce die Consumer Goods Cloud (CGC) auf den Markt gebracht, eine digitale Plattform, mit der du die Besuchsplanung, die Routenoptimierung und das Aufgabenmanagement in Verbindung mit künstlicher Intelligenz (KI) und erweiterten Analysefunktionen verwalten können.
In diesem Blogartikel erfährst du fünf Tipps für eine erfolgreiche Umsetzung:
Listen von Einzelhandelsgeschäften können lang sein und dir in verschiedenen Formaten übergeben werden. Auch die Benennung der Einzelhandelsgeschäfte könnte aus dem System des Einzelhändlers stammen und unterstützt daher nicht unbedingt die Logik, die für dein eigenes CRM am besten geeignet ist.
Mit Tausenden von Filialen und Standorten sind wir natürlich in der Lage, unsere Daten in Feldern und Listen zu organisieren. Aber eigentlich ist es die Leistung von Salesforce Maps in Kombination mit den Daten, die wir in die Consumer Goods Cloud hochladen, die Vertriebsleitern hilft, Filialzuweisungen zu visualisieren und anzupassen. Wenn deine Gebietsplanung komplexer ist, kannst du ein Add-on namens Territory Planning verwenden.
Einer der größten Vorteile für unsere Kund*innen war die Möglichkeit der erweiterten Besuchsplanung mit Maps. Mit dieser Funktion kannst du die besten Routen und Besuche für deine Außendienstmitarbeiter auf der Grundlage von Verkaufsgebieten, Filialprioritäten und erwarteten Besuchszahlen erstellen. Die Einrichtung der Planungsmaschine nimmt einige Zeit in Anspruch, um die Prioritäten, die Größe der Verkaufsgebiete und die erwartete Anzahl der Besuche zu ermitteln. Es ist ein guter Tipp, mit deinem Salesforce-Partner verschiedene Szenarien durchzuspielen und die unterschiedlichen Ergebnisse zu sehen, die sich aus der Änderung der Eingaben in das System ergeben.
Zweitens müssen die Vertriebsmitarbeiter, die die Routen fahren, ein grundlegendes Verständnis dafür entwickeln, wie die Routenplanung funktioniert und warum es die richtige Entscheidung sein könnte, an bestimmten Geschäften vorbeizufahren. Dennoch ist es ein guter Tipp die Routen vor allem als Vorschlag zu sehen, und Vertriebsmitarbeiter*innen müssen gflexibel sein, bei Bedarf einfach Ad-hoc-Besuche zu erstellen.
Der direkte Kontakt mit dem Einzelhändler am Point of Sales ist für FMCG-Unternehmen nach wie vor ein entscheidendes Umfeld für den Aufbau ihrer Marke und die Interaktion mit Endverbraucher*innen. Bei der Umsetzung im Einzelhandel ist der Aufbau von Markenblöcken und die Positionierung von Produkten und Kampagnen eine wichtige und unterhaltsame Aufgabe. Für unsere Kund*innen war es wichtig, dass Vertriebsmitarbeiter*innen Erkenntnisse von einem Ladenbesuch leicht austauschen und sie bei miteinander vergleichen können. Zudem ist es ein wichtiges Instrument für sofortiges Feedback von Kolleg+innen oder Vorgesetzten zu erhaltne.
Consumer Goods Cloud (CGC) wurde speziell für Konsumgüterunternehmen entwickelt und Ende 2019 von Salesforce als Teil seiner branchenspezifischen Lösungen eingeführt. Als offizieller Salesforce-Partner hat Deloitte Digital eine der ersten Implementierungen der Consumer Goods Cloud für einen internationalen Tabakkonzern durchgeführt.
Unsere zertifizierten Salesforce Consultants stehen dir gerne zur Seite! Von der Implementierung, über die Einarbeitung deiner Nutzer*innen bis hin zur regelmäßigen Wartung deiner individuellen Consumer Goods Cloud (CGC) Lösung begleiten wir dich gerne. Hier kannst du die Erfolgsgeschichten von uns und unseren Kund*innen nachlesen!
Mit dynamischen Formularen können Felder und Bereiche im Lightning App Builder ganz einfach vom herkömmlichen Page Layout in einzelne individuelle Komponenten gegliedert werden. Diese können dann, wie jede andere Komponente bearbeitet werden und einzelne Felder können User*innen bereitgestellt werden, wenn sie es brauchen. Dabei können extra Page Layouts und extra Profile vermieden werden. Mit dynamischen Formularen kann in einer Record Page die Visibility für einzelne Felder eingestellt werden, so dass diese erst für User*innen sichtbar sind, wenn es nötig ist.
Es ist nicht mehr nötig mehrere Page Layouts und Profile zu erstellen, denn das Feature bietet folgende Vorteile:
Quelle: https://help.salesforce.com/s/articleView?id=sf.dynamic_forms_overview.htm&type=5
Auf der Lightning Record Page eines Custom Objects klicke auf das Highlights Panel oder auf die Record Detail Komponente, dann erscheint auf der rechten Seite die Option „Upgrade Now“, dort kann ausgewählt werden, ob eine existierende Page migriert oder eine neue erstellt werden soll.
Quelle: https://trailhead.salesforce.com/trailblazer-community/files/0694S000002iJaKQAU?tab=overview
Solltest du weitere Informationen zu Dynamic Forms benötigen oder brauchst du Hilfe bei der Implementierung einer Salesforce Lösung, melde dich gerne bei uns für ein kostenloses Beratungsgespräch!
Wie der Name schon sagt, unterstützen Behavioral Triggers uns darin, auf ein bestimmtes Verhalten von Benutzern zu reagieren. So kann beispielsweise mit minimalem technischem Aufwand in kürzester Zeit eine leistungsstarke Rückgewinnungs-Kommunikation für Warenkorbabbrecher ausgelöst werden. Wie genau das funktioniert und was die Vorteile davon sind, erfährst du im folgenden Artikel.
Salesforce Studien zeigen, dass bis zu 69% von online Warenkörben nicht eingelöst werden. Mit Hilfe verhaltensbasierter, personalisierter Nachrichten werden Käufer*innen daran erinnert, dass sie etwas zurückgelassen haben. So werden Anreize geschaffen in den Shop zurückzukehren und den Einkauf abzuschließen. Somit wird einerseits das Kundenerlebnis gestärkt und gleichzeitig der Umsatz gesteigert.
Was machen Behavioral Triggers im Marketing Cloud Backend? Behavioral Triggers pushen relevante Daten ins Einstein Backend und diese gelangen von dort in eine Marketing Cloud Data Extension. Diese Data Extension kann dann wiederum als Journey Entry Source oder für die Personalisierung von Nachrichten genutzt werden.
Um Behavioral Triggers in der Marketing Cloud umzusetzen, braucht dein Benutzer die entsprechenden Berechtigungen sowie Zugriff auf das Backend deines Webshops. Behavioral Triggers ist für die Pro-, Corporate- und Enterprise-Editionen kostenlos und verwendet Amazon Web Services.
Tracke deine Produkte: Für die Nutzung von Behavioral Triggers muss zunächst der Collect Tracking Code installiert und der Produktkatalog hochgeladen werden.
Nachdem der Produktkatalog und der Tracking Code implementiert sind, geht es an das Setup des Behavioral Triggers.
Setzte Behavioral Triggers beispielsweise für folgende User-Actions auf: Warenkorbabbruch oder schließen einer Browser Session. Ein Behavioral Trigger lässt sich mit folgenden Schritten aufsetzen:
Als Best Practice für eine erfolgreiche Rückgewinnung bei Warenabbruch wird empfohlen, in Summe drei Nachrichten in folgenden Intervallen zu versenden:
Mit dem Salesforce Marketing Cloud Journey Builder ist dies einfach umzusetzen. Dazu wird die im Hintergrund automatisch erstellte Data Extension zum Warenkorbabbruch als Entry Source für die Journey gewählt. Anschließend werden die E-Mail und Wait Activities platziert und die Journey aktiviert. Der Schedule kann dann beispielsweise vorsehen, dass die Data Extension jede Stunde neue Kontakte evaluiert und diese der Journey zugewiesen werden.
Für die in der Journey platzierten E-Mail-Aktivitäten, kann unter anderem der Behavioral Trigger Content Block verwendet werden, um dem Interessenten dessen Produktauswahl noch einmal aufzuzeigen.
Zusammengefasst lässt sich sagen, dass Marketing Cloud Behavioral Triggers ein spannendes Tool für eine leistungsstarke Rückgewinnungskommunikation für Warenkorbabbrecher ist. Denn mit Hilfe von Marketing Cloud Behavioral Triggers können Kund*innen mit nur wenig Aufwand, personalisierte Journeys an gezielten Touchpoints einsetzen und so ihrem Umsatzziel ein großes Stück näherkommen.
Hast du Behavioral Triggers schon ausprobiert? Wir unterstützen dich gerne dabei, deine Kund*innen zurückzugewinnen und deinen Umsatz zu steigern. Sollten wir dein Interesse geweckt haben oder solltest du generell weitere Fragen zu dieser Thematik haben, dann kontaktiere uns gerne für ein kostenloses Beratungsgespräch!
“Asynchron” in Salesforce ist eines dieser technischen Wörter, von denen du entweder genau weißt, was es bedeutet, oder du hast nur irgendwo davon gehört, hast aber keine Ahnung, was es bedeutet.
Während die Details zu diesem Thema für eine Nicht-Programmierer*in ziemlich detailliert und kompliziert werden können, geben wir dir hier einen allgemeinen Überblick über synchrone und asynchrone Prozesse, ohne uns zu sehr in Kodier-Schlagwörtern zu verlieren:
– Synchrone (sync) Prozesse sind diejenigen, die die Ausführung einer laufenden Aktion stoppen und die Fortsetzung der Aktion erst erlauben, wenn der synchrone Prozess abgeschlossen ist.
– Asynchrone (async) Prozesse sind solche, die laufen können, ohne die ursprüngliche Aktion anzuhalten, was die gleichzeitige Arbeit an mehreren Aufträgen ermöglicht.
Ein Beispiel für einen synchronen Prozess wäre jedes Mal, wenn du auf die Schaltfläche “Speichern” klickst, nachdem du etwas in einem Salesforce-Datensatz geändert hast. Du erhälst diesen kurzen Ladebildschirm und dein ganzes Fenster ist für eine Sekunde “eingefroren”. Dieses “Einfrieren” geschieht genau deshalb, weil der Speichervorgang synchron abläuft, und bis er abgeschlossen ist, hast du keine Möglichkeit, weiter mit dem System zu interagieren.
Ein asynchrones Beispiel: Erinnere dich an das letzte Mal, als du eine E-Mail verschickt hast. Musstest du hinter einem Ladebildschirm sitzen und warten, bis dein Empfänger die E-Mail erhalten hat? Nein, und zwar deshalb, weil der asynchrone Prozess des E-Mail-Versands von der Hauptaktion “abgezweigt” wurde und seine Arbeit unabhängig fortsetzte, während du ohne Unterbrechung weiterarbeiten konntest.
Prozess |
Vorteile |
Nachteile |
Synchron |
+ Schnell und reaktionsschnell + Sofortige Rückmeldung |
– Die Benutzer*in muss warten, bis der Prozess abgeschlossen ist – Kann Governor Limits leichter erreichen |
Asynchron |
+ Kann große Datenmengen verarbeiten + Hält den ursprünglichen Prozess nicht an + Höhere Governor Limits |
– Kann Zeit in Anspruch nehmen – Schwierig, den Status der Beendigung zu melden |
Einige Prozesse können länger dauern als andere. Ein einzelner Speichervorgang für einen Datensatz dauert vielleicht nur ein paar Sekunden, aber andere Aktionen wie das Erstellen oder Aktualisieren von Tausenden von Datensätzen können sehr viel mehr Zeit in Anspruch nehmen. In diesen Fällen wäre natürlich eine asynchrone Option angebracht, da sie die Arbeit übernimmt, ohne dass die Benutzer*in warten muss.
Ein weiterer wichtiger Grund, warum die asynchrone Option zu bevorzugen ist, ist die Erhöhung der Governor Limits bei asynchronem Betrieb. Einige Beispiele für erhöhte asynchrone APEX-Limits sind:
|
Synchrones Limit |
Asynchrones Limit |
Anzahl der ausgegebenen SOQL-Abfragen |
100 |
200 |
Gesamte Heap-Größe |
6 MB |
12 MB |
Maximale CPU-Zeit auf SF-Servern |
10,000 Millisekunden |
60,000 Millisekunden |
Mit asynchroner Ausführung erhält man nicht nur höhere Grenzwerte, sondern diese Reglergrenzwerte sind auch unabhängig von den synchronen Grenzwerten, was bedeutet, dass asynchrone Ausführung nur bei Grenzwertproblemen helfen kann.
Die verschiedenen Arten der asynchronen Ausführung verfügen über unterschiedliche intelligente Methoden, um den Prozess sicherer, konsistenter und zuverlässiger zu gestalten. Werfen wir einen Blick auf diese Typen.
Flows erhalten neu die Möglichkeit, Logik auf asynchronen Pfaden auszuführen, was sehr nützlich sein wird und etwas war, das offensichtlich fehlte. Da Flows fast wie die Point-and-Click-Versionen einiger Coding-Lösungen sind, werden wir nur die asynchronen programmatischen Fähigkeiten in Apex analysieren, was uns auch einen guten Einblick in die neuen Fähigkeiten von Flows geben würde.
Asynchroner Apex kann in 4 Typen unterteilt werden: Future Apex, Queueable Apex, Batch Apex und Scheduled Apex.
Mit Future Apex kann ein synchroner Prozess “abgezweigt” und in einen asynchronen Prozess umgewandelt werden. Vielleicht gibt es eine sehr benutzerdefinierte Freigabe, die Sie beim Erstellen eines Datensatzes haben möchten? Warum nicht eine Future Apex-Methode verwenden, die dies im Hintergrund erledigt, nachdem man den Datensatz erstellt hat. Dadurch wird auch das lästige Problem des “gemischten DML-Fehlers” behoben, da die Erstellung des Datensatzes und die Freigabe dafür nun getrennt erfolgen.
Möchte man mehrere asynchrone Prozesse hintereinander “verketten”, um die Reihenfolge der Ausführung zu gewährleisten? Queueable Apex ist hier die Antwort. Es ermöglicht die Trennung komplexerer Prozesse in diesen asynchronen Kontext und bietet gleichzeitig eine Möglichkeit, eine chronologische Reihenfolge Ihrer Logik zu erstellen, während diese im Hintergrund läuft.
Hunderttausende oder sogar Millionen von Datensätzen werden erstellt/aktualisiert und Trigger und Flows explodieren vor Fehlern? Batch Apex teilt diesen großen Datensatz in Teile auf und behandelt jeden Teil entsprechend, ohne sich Gedanken über das Erreichen von Governor Limits zu machen.
Man hat einen periodischen Prozess, der in regelmäßigen Abständen ausgeführt werden muss? Geplanter Apex kann dies tun und gleichzeitig einen Batch-Apex-Prozess aufrufen, was bedeutet, dass man um Mitternacht Prüfungen/Aktualisierungen in der gesamten Organisation und den Datensätzen durchführen kann.
Fast alle Arten von asynchronem Apex können miteinander interagieren und einen Prozess erstellen, der deine hochgradig individuellen Anforderungen erfüllt.
Vielleicht fragst du dich, warum nicht alle Prozesse asynchron sind. Sie haben mehr Möglichkeiten, sie arbeiten mit höheren Governor Limits und bieten einzigartige Lösungen für Probleme, wo ist also der Haken? Wie du dir vorstellen kannst, handelt es sich bei einem asynchronen Prozess um etwas, das nicht sofort geschieht, sondern für einen Zeitpunkt in der Zukunft “versprochen” wird, natürlich so schnell wie möglich. Während diese Wartezeit bei kleinen Aufgaben nur den Bruchteil einer Sekunde betragen kann, kann ein größerer Datensatz viel mehr Zeit in Anspruch nehmen, so dass dieser Hintergrundprozess nie einen genauen Zeitpunkt der Fertigstellung haben wird.
Dies und die Tatsache, dass jeder asynchrone Prozess weiterläuft, ohne dass die Benutzer*innen auf seinen Abschluss warten muss, macht es für dieselben Benutzer*innen unmöglich, eine unmittelbare Rückmeldung über den Hintergrundprozess zu erhalten. Natürlich gibt es viele Möglichkeiten, das Ende eines asynchronen Prozesses anzuzeigen, z. B. durch eine Aktualisierung eines Feldes irgendwo oder durch den Export des Status des asynchronen Auftrags nach dessen Beendigung, aber es ist erwähnenswert, dass diese Ansätze die aktive Beteiligung der Benutzer*in erfordern, indem sie entweder eine Seite aktualisiert oder nach einem bestimmten Indikator sucht.
Glücklicherweise können wir seit der Salesforce Version Winter ’21 auch Glockenbenachrichtigungen in einer Salesforce-Org über Apex erstellen, so dass dies die neue, unmittelbarste Möglichkeit sein könnte, eine Benutzer*in zu benachrichtigen.
Möchtest du weitere Informationen zu dieser Thematik bekommen, dann melde dich gerne bei uns für ein kostenloses Beratungsgespräch! Unsere Salesforce zertifizierten Consultants und Developer helfen dir jederzeit gerne bei allen denkbaren Salesforce spezifischen Problemen!
Digitale Fähigkeiten werden in den meisten Branchen zu einem immer wichtigeren Motor für Wachstum und Differenzierung. Eine neue Studie von Gartner zeigt jedoch, dass…
Wie Geschäfts- und IT-Führungskräfte dieses Problem überwinden und den Wert einer IT-Investition bestimmen können, erfährst du in diesem Beitrag, inklusive einer Reihe von exemplarischen KPIs für diverse Branchen!
Traditionell konzentrieren sich Investitionen in neue Geschäfts- und Technologiefunktionen auf die Verbesserung der Unternehmensleistung in den drei primären Werttreiber:
IT-Manager*innen (CIOs) berichten über den Erfolg von IT-Initiativen meist nur als Einhaltung des Budgets, und das IT-Reporting enthält in der Regel Metriken, die sich auf die betriebliche Leistung der Technologie konzentrieren, ohne dass ein klarer Bezug zu den Geschäftsvorteilen aufgezeigt werden kann, die durch die Investition erzielt wird. Dass eine Quantifizierung des Wertes von IT-Investitionen nicht einfach ist, liegt an folgenden Gründen:
Zuerst soll eine Bestandsaufnahme der aktuellen IT-Metriken und deren Zuordnung zu den Prioritäten der Geschäftsführung erfolgen.
Um eine klare Linie zwischen Technologie und geschäftlichen Ergebnissen herstellen zu können, muss eine strukturierte Hierarchie aufgebaut werden, die es im nächsten Schritt ermöglichen soll, Geschäftsergebnisse und unterstützende Technologieergebnisse miteinander verbinden zu können. Diese Hierarchie besteht aus den Ebenen:
TODMs sind operative IT-Kennzahlen mit direktem Bezug zu den Geschäftsergebnissen. Analog dazu sind BODMs Geschäftskennzahlen mit direktem Bezug zu den primären Geschäftsergebnissen und Werttreibern.
Um die Ermittlung des Geschäftswerts von IT-Investitionen durchzuführen, müssen die einzelnen geschäftsergebnisorientierten Metriken (BODMs) mit den einzelnen technologieergebnisorientierten Metriken (TODMs) verknüpft werden. Die folgende Abbildung zeigt die Hierarchie und Abhängigkeiten.
Beispiele für die Verknüpfung von spezifischen TODMs zu BODMs sind:
Weitere BODMs und TODMs dieser und anderer Branchen können aus der Tabelle am Ende dieses Beitrags entnommen werden.
4. Eine „Metrikbibliothek“ erstellen
Erstelle abschließend eine „Metrikbibliothek“, die das gesamte Spektrum der Technologieunterstützung für die erwarteten Geschäftsergebnisse repräsentiert, indem entlang zweier Dimensionen gruppiert wird: strategische versus operative Geschäftsergebnisse und Risiken versus Chancen.
Bei der folgenden Tabelle handelt es sich nur um eine Auflistung exemplarischer BODMs und TODMs. Es zeigt keine vollständige Auflistung an geschäftsergebnisorientierten und technologieergebnisorientierten Metriken.
Branche | Business-Outcome-Driven Metriken | Gekoppelte Technology-Outcome-Driven Metriken |
Automobil |
|
|
Bankwesen und Investment Services |
|
|
Communication Service Anbieter |
|
|
Handel |
|
|
Manufacturing: CPG |
|
|
Manufacturing: Industrial |
|
|
Transport |
|
|
Versicherungen: Schaden & Unfall |
|
|
Möchtest du weitere Information zur Quantifizierung deiner IT-Investitionen erhalten oder mit uns auf dein Unternehmen abgestimmte BODMs und TODMs definieren und verknüpfen? Dann melde dich gerne bei uns für ein kostenloses Beratungsgespräch!
Ein häufiges Diskussionsthema für alle, die im Salesforce Bereich arbeiten, ist die Frage nach „Click oder Code“. Bei diesem Thema gibt es einiges zu beachten, denn der falsche Ansatz kann zu einer Lösung führen die schwer zu aktualisieren und zu pflegen ist. In Salesforce gibt es zwei Möglichkeiten die Plattform so zu programmieren, dass sie den eigenen Anforderungen entspricht:
Beide Arten der Programmierung sind leistungsfähig und können zur Erfüllung der geschäftlichen Anforderungen eingesetzt werden. Diese Tools unterscheiden sich durch zwei Hauptmerkmale: Einfachheit und Flexibilität. Je einfacher die Einrichtung, desto eingeschränkter ist das Tool. Woher weißt du also, welche die richtige Automation Strategie für dich ist?
In diesem Artikel unserer Best Practice Reihe geben wir dir einen tieferen Einblick, wie man am besten “Clicks vs. Code” angeht, um die richtige Lösung für jede Anforderung zu finden. Die richtige Lösung kann je nach den Bedürfnissen des jeweiligen Kunden variieren. Dazu gibt es einige Punkte, die man gut analysieren muss.
Die Komplexität einer Lösung hängt von einer Reihe von Faktoren ab, z. B. von der Anzahl der enthaltenen Objekte, den erforderlichen externen API-Integrationen und den Algorithmen. Nehmen wir das Beispiel, dass in einem Bereich einige mathematische Berechnungen erforderlich sind. Stößt ein Formula Field auf eine Zeichenbegrenzung? Ist ein Rollup-Summary Field sinnvoll? Deckt die deklarative Entwicklung alle Anforderungen und alle erwarteten Funktionalitäten ab? Wenn du die meisten der oben gestellten Fragen mit „Ja“ beantwortet hast, musst du dich für die deklarativen Methoden entscheiden, andernfalls ist die benutzerdefinierte Programmierung der richtige Weg!
Da es sich um eine Cloud-Umgebung mit mehreren Anwendern handelt, setzt Salesforce eine Reihe von Governor Limits für Plattform Transactions fest. Die Einhaltung dieser Beschränkungen kann schwierig werden, wenn die Größe der betroffenen Daten und der Umfang einer gesamten Transaktion beurteilt werden. Angenommen, ein Update-Vorgang muss für jede der 10 Positionen einer Quote durchgeführt werden, wenn sich ein Feld der Quote ändert. Was passiert, wenn die die entwickelte Lösung in die Produktion geht und der Testfall mit 10 Positionen zu 1000 wird? Kann diese Lösung an die Produktionsdaten angepasst werden? Was ist, wenn das Quote Line Item selbst einen Prozess oder einen Flow enthält? Diese tragen ebenfalls zur Transaktionsmenge bei und führen wahrscheinlich dazu, dass wir die Governor Limits überschreiten. In diesem Fall wäre die Verwendung von Apex die richtige Lösung.
Die Erfüllung der Geschäftsanforderungen ist für jede Lösung wichtig. Genauso wichtig ist es, die Skalierbarkeit einer Lösung im Laufe der Zeit zu berücksichtigen. Es ist möglich, dass ein Flow die heutigen Anforderungen erfüllt, aber wir wissen, dass das Unternehmen Pläne zur Erweiterung der Funktionalität hat. Wird der Flow diese Anforderungen noch erfüllen, wenn in drei Monaten Änderungen erforderlich sind? Diese Frage ist wichtig, denn ihre Beantwortung kann Zeit und Nacharbeit sparen. Auf dieser Grundlage kann man Lösungen empfehlen, die mit den kurzfristigen Zielen übereinstimmen und sich elegant an die langfristigen Ziele anpassen lassen.
Ein weiterer Punkt, der bei der Auswahl des richtigen Ansatzes berücksichtigt werden muss, ist die Kapazität und Fähigkeit, die Lösung im Laufe der Zeit zu warten. Wenn ein Kunde über ein spezielles Salesforce-Entwicklungsteam verfügt, lassen sich custom developed Lösungen möglicherweise leichter einführen und warten. Wenn ein Kunde nur über ein Team von Salesforce Admins mit minimaler Entwicklungserfahrung verfügt, kann es sinnvoller sein, eine No-Code-Lösung zu finden.
Durch die Nutzung von Salesforce Standardtools kann eine Lösung schneller in das Live System gehen. Dies kann eine gute Option sein, da es die Entwicklungszeit und den Gesamtzeitplan verkürzen kann. Wenn wir die Verwendung von Out-of-the-Box-Tools in Betracht ziehen, berücksichtigen wir alle oben genannten Faktoren. Wenn die Lösung im Zusammenhang mit diesen Faktoren und der schnellen Markteinführung sinnvoll ist, dann muss hier keine Custom Entwicklung verwendet werden.
Schließlich ist es wichtig, das Endergebnis für den Nutzer der Plattform zu berücksichtigen. Obwohl es aus technischer Sicht sinnvoll sein kann, die Custom Entwicklung auf ein Minimum zu beschränken, ist es in Szenarien, in denen sie einen großen Einfluss auf die für die Ausführung eines Prozesses benötigte Zeit oder das Design der Anwendung haben kann, wichtig zu bedenken, welche Auswirkungen dies auf die Benutzerakzeptanz haben könnte. Ein mehrstufiger Flow kann in Salesforce “einfach” zu konfigurieren sein, aber wenn der Flow 20 Klicks durch mehrere Screens erfordert, um ihn abzuschließen, ist er für den Benutzer nicht unbedingt besser als eine Codelösung, die die Zeit bis zum Abschluss und die Anzahl der erforderlichen Klicks verkürzen könnte.
Die von Salesforce bereitgestellten Automation Tools wie Process Builder, Workflow-Rules, Flows oder Validierungsregeln können verwendet werden, um Daten einfach zu beeinflussen, sie sauber zu halten und Prozesse zu automatisieren. Eine Zero-Code-Lösung ist jedoch nicht für jeden Fall geeignet, denn je komplizierter das Szenario ist, desto schwieriger ist es, mit den Standardtools eine saubere und fehlerfreie Lösung zu implementieren. In diesen Fällen ist die Custom Entwicklung sehr leistungsfähig und bietet Ihnen die Möglichkeit, fehlerfreie und userfreundliche Automatisierungen, Komponenten und systemübergreifende Integrationen zu erstellen.
Solltest du weitere Informationen zu dieser Thematik benötigen oder brauchst du Hilfe bei der Implementierung einer Salesforce Lösung, melde dich gerne bei uns für ein kostenloses Beratungsgespräch!
Als Data Analyst bin ich es gewohnt, Charts und Dashboards zu erstellen. Eine gut gestaltete Visualisierung ist ein leistungsstarker Ausgangspunkt für datengestützte Konversationen. Letztendlich ermöglichen Datenvisualisierungen, idealerweise als Single Point of Truth, anhand der zugrundeliegenden Daten Entscheidungen zu treffen. Mit einem leistungsstarken Datenvisualisierungstool wie Tableau kann ich KPIs bestens darstellen und Insights generieren. In diesem Artikel zeige ich dir Best Practices der Datenvisualisierung, mit denen du Dashboards zu echten Power-Tools machst.
Auch wenn ich mir manchmal denke: „Ach, das wäre die für mich ideale Darstellung, ich habe den totalen Überblick“, zählt letztendlich nur die bestmögliche Lesbarkeit aus der Perspektive der User*in. Ich stelle mir also immer genauestens die Frage, für wen ich dieses Dashboard erstelle. Ist es für einen vielbeschäftigten Team-Lead, der innerhalb von 20 Sekunden die relevantesten KPIs ablesen möchte, oder verwendet es ein ganzes Team, das über mehrere Stunden hinweg vierteljährliche Ergebnisse prüft? Zusätzlich sind auch die Kenntnisse der Zielgruppe zu überprüfen. Anfänger*innen brauchen vielleicht eine stärker handlungsorientierte Beschriftung als eine fortgeschrittenere User*in.
Gut, ich habe nun die perfekt auf die Zielgruppe ausgerichtete Datenvisualisierung geplant. Plötzlich habe ich eine Vision: Ein wütender Sales Team-Lead, der mein Dashboard auf seinem Smartphone betrachtet und sich lauthals über die Nutzerfreundlichkeit beklagt. Wenn das Dashboard ausschließlich für einen Desktop-Monitor erstellt wurde, die User*innen aber vorwiegend ihre Smartphones verwenden, werde ich wahrscheinlich kein allzu zufriedenes Publikum haben. Ich recherchiere also immer, auf welchen Geräten die Visualisierungen betrachtet werden und bereite mehrere Versionen der Dashboards für unterschiedliche Devices vor. Für Smartphones eignet sich beispielsweise ein Dashboard mit vertikaler Ausrichtung. Auf kleineren Displays ist außerdem ein Drill-down deutlich schwieriger, zeige also nur die relevantesten KPIs.
Eine neue Vision erscheint mir: Mein Dashboard ist endlich fertig, ich habe Tipp 1 und 2 selbstverständlich berücksichtigt. Ich möchte die Visualisierung endlich dem Sales Team-Lead zeigen, doch als wir beisammen sind hört das Dashboard einfach nicht auf zu laden. Eine unangenehme Stille entsteht…
Genauso wie ich möglichst schnell aus dieser ungemütlichen Situation herauskommen möchte, möchten User*innen nicht lange darauf warten müssen, bis Visualisierungen geladen sind. Lange Ladezeiten sind entweder auf die Daten, das Dashboard oder eine Kombination aus beidem zurückzuführen. Die Datenvorbereitung spielt daher eine wichtige Rolle. Folgende Tipps berücksichtige ich hierbei:
One size does not fit all! Daher wähle ich jene Formate für meine Visualisierungen, die User*innen am besten zu spezifischen Insights führen und sie bei der Beantwortung ihrer Fragen unterstützen. Es gibt fast immer einen Trade-off, da jedes Chart Format Vor- und Nachteile hat. Ich stelle mir also immer die Frage, ob das von mir gewählte Chart die Botschaft, die sie vermitteln soll, auch tatsächlich bestmöglich vermittelt. Manchmal kann es ebenfalls Sinn machen, Formate zu kombinieren. Formate von Charts sind beispielswiese:
Wenn ich Dashboards gestalte, überlege ich mir natürlich auch, wie User*innen diese „lesen“. Das Dashboard soll einen sinnvollen Informations-Flow und ein möglichst logisches Layout aufweisen. Menschen scannen Inhalte grundsätzlich, indem sie oben links beginnen. Ich platziere daher die wichtigsten KPIs und Charts so, dass sie die linke obere Ecke einnehmen oder überspannen. Außerdem sollen die einzelnen Teile des Dashboards möglichst zusammenhängende Gruppen bilden. Das Design soll es dabei möglichst vereinfachen, Zusammenhänge schnell erkennen zu können.
Kennst du auch dieses kribbeln, möglichst viel Input in eine Visualisierung packen zu wollen? Ich habe eine Begabung dafür, einen Input-Overload zu verursachen. Genau das möchten wir beim Erstellen von Dashboards aber eigentlich verhindern. Ich versuche also immer das Big Picture im Auge zu behalten. Ist es aber nicht möglich, alle relevanten Informationen in ein übersichtliches Dashboard zu packen, erstelle ich einfach ein weiteres Dashboard oder eine Story (eine Abfolge von zusammenhängenden Visualisierungen, die dem User durch die Informationen führen).
Genauso wie zu viele Charts können auch zu viele Farben für Verwirrung sorgen. Präzise eingesetzte Farben verbessern die Analyse, zu viele Farben verlangsamen die Analyse der vorliegenden Informationen jedoch.
Einem Vollblut Sales Team-Lead ein interaktives Dashboard zu übergeben ist wie einer Hobbywerker*in ein cooles Werkzeug in die Hand zu drücken. Ist es dynamisch und interaktiv anstatt einfach nur statisch, werden User*innen eingebunden und können sich genau die Ansicht zusammenbauen, die sie in diesem Moment benötigen. Praktische Filter (Einfach- oder Mehrfachauswahl in Kontrollkästchen oder Dropdown-Listen, Suchfelder, ein kleiner Zeitstrahl bei Datum-Filtern, etc.) und Drill-down Optionen durch das Anklicken von Werten und Kategorien in Charts eigen sich dafür ideal.
Dieses mit Tableau erstellte Dashboard (klicke hier, um es auszuprobieren) setzt einen Fokus auf die aktuelle Performance, insb. Profit. Links oben können die wichtigsten KPIs als einfache Zahl betrachtet werden. Rechts oben kann man ablesen, für welche Produkt-Kategorien die Profit-Ziele erreicht haben. Ein Drill-down (Klick auf + bei Category) ermöglich einen Drill-down in weitere Sub-Kategorien. Sowohl dieses als auch beide unteren Charts sind als Filter gesetzt, sodass ein Klick auf eine Kategorie, ein Jahr, einen Balken, oder ein US-State die Ansicht runterbricht. Das linke Chart stellt den Profit als hellgrüne Linien und Sales als blaue Balken für die einzelnen Quartale gegenüber (Achtung: die Achsenwerte unterscheiden sich). Ab Q4 2021 ist ein Forecast bis Ende des Jahres 2022 zu sehen. Die Map rechts zeigt den Profit pro US-State. Je dunkler das Grün, desto höher der Profit, he gelblicher desto niedriger (teilweise sind sogar negative Profite zu sehen). User*innen dieses Dashboards können nun z.B. die Performance einzelner US-States und/oder Jahre runterbrechen, um möglichst ins Detail gehen zu können, wo es notwendig erscheint.
Ist das Dashboard erst einmal erstellt, versetze ich mich in die Perspektive von jemanden, der es noch nie gesehen hat. Jedes Element sollte einen Zweck erfüllen. Ist ein Titel, eine Legende oder eine Achsenbeschriftung überflüssig, sollten diese Elemente entfernt werden. Außerdem stelle ich mir auch noch einmal die Frage, ob ich zu viel Inhalt in das Dashboard gepackt habe, die Anforderungen abgedeckt sind und daraus resultierend etwas entfernen, hinzufügen oder neu anordnen muss. Die Vereinfachung des Dashboards ist oftmals ein iterativer Prozess.
Wie bei jedem erfolgreichen Projekt sind gute Tests der Schlüssel. Zunächst einmal teste ich, ob alle Drill-down und Filtermöglichkeiten auch tatsächlich funktionieren, und überprüfe die Richtigkeit der visualisierten Ergebnisse. Nach Übergabe des Dashboards frage ich die User*innen, wie sie das Dashboard letztendlich verwenden und ob es ihnen hilft, ihre Fragen beantworten zu können. Vielleicht gibt es sogar Charts, die gänzlich ignoriert werden. Ich sammle bestmöglich Informationen, die mir dabei helfen, Dashboards zu optimieren oder neue Dashboards zu entwickeln.
Möchtest du weitere Information zur Datenvisualisierung bzw. der Optimierung deiner Dashboards erhalten? Dann melde dich gerne bei uns für ein kostenloses Beratungsgespräch!
Der Schutz der Privatsphäre der Verbraucher*innen hat sich in den letzten Jahren zu einem grundlegenden Thema für datengesteuerte Unternehmen entwickelt, was auf die wachsenden Erwartungen der Verbraucher*innen in Bezug auf Kontrolle und Transparenz sowie auf die zunehmenden Vorschriften und geräte- und plattformspezifischen Änderungen zurückzuführen ist.
Wir betrachten die Einführung der Mail Privacy Protection-Funktion von Apple als einen weiteren Schritt in die richtige Richtung, um die Endverbraucher*innen weiter zu schützen und gleichzeitig langanhaltende Beziehungen zu den Kund*innen aufzubauen. Deloitte Digital vertritt den Standpunkt, dass diese Veränderungen anzunehmen sind und der Datenschutz und die Einwilligung zu einem zentralen Bestandteil des Vertrauens mit den Kund*innen gemacht werden sollten.
Apple Mail ist die Standard-E-Mail-Anwendung auf allen Apple-Geräten und hat einen Marktanteil von 48 Prozent bei den E-Mail-Clients auf diesen Geräten, mit großem Vorsprung auf den Anbieter Gmail, welcher mit 28 Prozent weit abgeschlagen an zweiter Stelle liegt. Die Funktion zum Schutz der Mail-Privatsphäre wird die Nutzer*innen von Apple Mail auffordern, ihre Präferenzen für den Schutz der Privatsphäre auszuwählen, wobei “Mail-Aktivitäten schützen” als eine Option angeboten wird. Diese Option wird zwar nicht automatisch aktiviert, aber wir halten es für wahrscheinlich, dass die meisten Nutzer*innen “Mail-Aktivitäten schützen” wählen werden, wenn sie dazu aufgefordert werden.
Wir erwarten eine Überbewertung der Öffnungsraten in Verbindung mit einem Verlust von IP-Informationen, die Aufschluss über den Standort oder die Online Einblicke in die Online-Aktivität geben. Tests von Litmus, einer Allianz von Deloitte, zeigen, dass, sobald eine Verbraucher*in die Option “Mail-Aktivität schützen” auswählt, Apple die E-Mails zunächst durch einen Proxy-Server leitet, um den Inhalt der Nachricht vorzuladen – einschließlich Tracking-Pixel, bevor sie den Leser*innen zugestellt werden. Dies bedeutet, dass die Öffnungsrate von E-Mails nahezu 100 Prozent für alle Verbraucher*innen beträgt, die die Apple Mail-App verwenden – selbst bei Verbraucher*innen, die nie eine einzige E-Mail von Ihrer Marke öffnen. Aus diesem Grund empfehlen wir eine vorsichtige Skepsis gegenüber dem Wert der Öffnungsraten auf Apple Geräten, wenn diese neue Funktion eingeführt wird.
Wir haben schon lange empfohlen, dass Marketer*innen mehr Wert auf Klicks und Konversionsmetriken legen sollten als auf die Planung und Durchführung von Re-Engagement-Kampagnen, Sendezeit-Optimierungen, Echtzeit Personalisierung, etc. Apples Mail Privacy Protection Funktion macht diesen Rat noch wichtiger. Dennoch sind die Öffnungsraten und die Klickraten immer noch wichtig für eine ganzheitliche Betrachtung der gesamten Marketing-Programme. Vermarkter*innen sollten einfach erkennen, dass sich diese Raten wahrscheinlich ändern werden, wenn der Mail Datenschutz eingeführt wird. Eine “neue Normalität” für diese Metriken wird sich mit der Zeit herauskristallisieren.
Insgesamt empfehlen wir die Umsetzung der folgenden Strategien, um in diesem neuen Umfeld zu testen und zu lernen:
Deloitte Digital verfolgt aufmerksam die Einführung dieser und anderer Tools zur Verbesserung der Privatsphäre und arbeitet mit Allianzen in den Bereichen Spektrum von Kundendaten, Engagement und Messtechnologien zusammen, um sicherzustellen, dass unsere Kund*innen die Auswirkungen verstehen und schnell auf diese Veränderungen reagieren können, die das Geschäftswachstum und bessere Kundenbeziehungen unterstützen.
Möchtest du weitere Informationen zu dieser Thematik bekommen oder solltest du Hilfe benötigen bei dem Umgang mit der neuen Mail Privacy Protection Funktion, dann melde dich gerne bei uns für ein kostenloses Beratungsgespräch!
Dass das Schalten von Ads kein Kinderspiel ist, wissen all jene, die an Kampagnen arbeiten. Damit eine Kampagne tatsächlich eine hohe Klickrate erreicht, darf die Bildoptimierung nicht unterschätzt werden, auch wenn sie oft so simpel klingt. Doch der Effekt kann letztendlich groß sein: Erst kürzlich veröffentlichte Google eine Fallstudie, die zeigt, wie ein einfaches Meta-Tag die Klicks in Google Discover um über 300 % steigern kann. Wie auch du dieses einsetzen kannst und welche Tipps der Bildoptimierung dir noch zu einer verbesserten Klickrate verhelfen können erfährst du hier.
Mit der Einführung des Meta-Tags max-image-preview hat uns Google 2020 mehr Kontrolle darüber gegeben, wie Bilder von der Website in Google Discover angezeigt werden. Die nun veröffentlichte Studie zeigt, wie die Verwendung des Meta-Tags die Klicks und die Click-Through-Rate (CTR) erheblich gesteigert werden können. Wird das max-image-preview:large-Meta-Tag in den Header jeder Seite einer Website aufgenommen, präsentiert Google die Bilder in großen Formaten. Dies steigert die Nutzerfreundlichkeit, sobald die Inhalte auf Suchoberflächen wie Google Discover sichtbar sind.
Der Foodblog Kirbies Cravings konnte seine CTR in Google Discover um 79 % steigern. Der Unterschied in der Darstellung zeigt die folgende Abbildung:
Die CTR des brasilianischen Online-Magazins Istoé verzeichnete einen Zuwachs von 30 % und eine Zunahme der Klicks von 332 % innerhalb von 6 Monaten in Discover.
Neben der Möglichkeit, einfache Meta-Tags wie max-image-preview zur Bildoptimierung heranzuziehen, gibt es auch weitere Tipps und Tricks, deine Klickrate zu steigern.
Durch die Verwendung relevanter, direkter und auf die User ausgerichteter visueller Inhalte kannst du deine Zielgruppe effizienter erreichen. Hierfür muss deine Zielgruppe und ihre visuellen Vorlieben zunächst einmal möglichst genau definiert werden. Ziehen wir dafür wieder den Foodblog Kirbies Cravings als Beispiel heran: dieser fokussiert sich auf gesunde Mahlzeiten und einfache Nachspeisen. Die Bilder sind wie der Inhalt und die Website simpel und transparent dargestellt, genauso wie die Rezepte einfach gehalten sind. Die Zielgruppe erwartet einfache Rezepte und gesunde Alternativen zu bekannten Mahlzeiten und Nachspeisen.
Ein wichtiges Merkmal der Anzeigenoptimierung ist die Dateigröße der Bilder. Hochwertige Bilder mit hoher Auflösung sind zwar wichtig, aber die Ladezeit deiner Website kann sich durch zu große Dateien erheblich erhöhen. Dies beeinträchtigt die Nutzerfreundlichkeit drastisch und kann dazu führen, dass potenzielle KundInnen die Seite vorzeitig verlassen.
Alt-Text ist ein weiteres Tool zur Bildoptimierung, das deine Klickraten-SEO verbessern und zu mehr Anzeigenklicks führen kann. Alt-Texte sind Bildbeschreibungstexte im HTML Code, damit von Search Engine Crawlern das Bild richtig geindexed wird. Sie erhöhen die Zugänglichkeit deiner Website.
Beschriftungen oder Textbeschreibungen für Bilder sind ein weiteres wichtiges Tool zur Bildoptimierung, das die Klickrate Ihrer Website erhöht. Sie tragen dazu bei, deine Website übersichtlich zu gestalten.
Websites enthalten in der Regel Schlüsselwörter, nach denen User häufig suchen. Durch die Optimierung der Bilder und der Bildunterschriften kannst du deine Anzeigenklicks steigern. Keyword-reiche Bilddateinamen sind ebenso wichtig. Ein codiertes IMG_584 ist weniger interaktiv als ein klarer Name, der den Zweck des Bildes direkt erklärt.
Konsistenz ist in jedem Bereich von Bedeutung, ganz besonders aber bei Anzeigen und im Marketing. Indem deine Anzeigen mit einheitlichen Bildern, Farben, Themen, Schriftarten, beworben werden, schaffst du damit einen Wiedererkennungswert bei Usern. Dies kann den Markenwert und auch die Klickrate deutlich steigern.
Möchtest du weitere Information zur Optimierung der Performance deiner Klickraten und ähnlichen Marketing-Metriken erhalten, dann melde dich gerne bei uns für ein kostenloses Beratungsgespräch!