beef4brands

Einmal Data-Driven bitte!
Datenanalyse in der Unternehmenskommunikation

Datengetriebene oder datenunterstützte Kommunikation steht bei vielen Unternehmen ganz oben auf der Liste für das Jahr 2024. Dabei sind Daten nichts neues und der Wunsch ist auch nicht neu. MUNICH DIGITAL listet auf, worauf es ankommt. 


„Wir wollen jetzt auch Data-Driven sein!“ 
„Wir bauen ein Command Center!“
„Wir brauchen ein Dashboard!“

So oder so ähnlich schallt es aktuell aus vielen Kommunikationsabteilungen deutscher Unternehmen. Das ist neu. Denn das Thema Daten und Analytik blubbert seit einigen Jahren an der Oberfläche, hat es zur konkreten Nutzung aber bisher kaum geschafft. Zu abstrakt, zu schwierig, so könnte man wohl sagen. Auch wenn Marketing, Vertrieb oder Service schon lange auf Daten und Analytik setzen, so haben deutsche Kommunikatoren bisher doch eher ihrem Bauchgefühl und ihrer Erfahrung vertraut. 

Bei verschiedenen Datenprojekten haben wir von den Mitarbeitern der Kommunikationsbereiche häufig Sätze gehört wie: „Ich mache den Job jetzt schon viele Jahre und weiß, wer meine Zielgruppen sind und was die interessiert.“ Dennoch ist das Thema gerade en vogue in den Fachmedien und auch bei uns mehren sich die Anfragen. Warum?

 

Warum überhaupt Daten?


Der Haupttreiber der stärkeren Datenfokussierung dürfte die zunehmende Technisierung der Kommunikation sein. Der Begriff „Commtech“ etabliert sich gerade und beschreibt gut, was aktuell passiert. Kein Bereich der Unternehmenskommunikation wird künftig ohne eine stärkere technische Komponente auskommen. Das betrifft das Erstellen und das Ausspielen von Inhalten, die Planung von Prozessen, die Zusammenarbeit in Zeiten von Remote Work – und eben das Arbeiten mit Daten.

Dazu kommt, dass viele Kommunikationsabteilungen einen personellen Wandel erleben. Eine jüngere Garde rückt nach, und diese ist schon durch ihre Ausbildung und Mediennutzung technischen Themen gegenüber deutlich stärker aufgeschlossen.

Und letztlich dürfte sich in den meisten Unternehmen die Erkenntnis durchgesetzt haben, dass in einer solch fragmentierten Medienwelt sämtliche Kontaktpunkte nicht mit menschlichem Auge allein zu beobachten und auszuwerten sind. Es liegen in allen Kommunikationsbereichen ja auch Daten vor, nur oft dezentral, unstrukturiert und nicht für jeden auffindbar oder zugriffsbereit.

 

Welche Daten sind bisher verfügbar? Wie wird ausgewertet?


Die Realität sieht zumeist so aus: Irgendwo liegt ein Google Analytics oder Matomo (Piwik) oder Adobe Analytics Report zur Corporate Website. Dieser wird einem bestimmten Kreis vermutlich automatisiert per Mail zugespielt. Woanders liegt ein selbst zusammengestelltes Excel Sheet mit allen Social Media Performance Daten. Das speist sich aus den heruntergeladenen Reports von LinkedIn, Facebook, Insta & Co zusammen mit einem Social Media Listening Tool wie Brandwatch oder Talkwalker. Dann gibt es noch einen Newsletter, dessen Daten vermutlich im Tool-Backend hängen. YouTube ebenso und falls es einen Podcast gibt, dann auch dort. Der Abteilungsleiter verschickt zusätzlich einmal im Monat eine PowerPoint mit den wichtigsten Leistungszahlen. Diese PPT wurde vor Jahren mal aufgesetzt und wird seitdem von Praktikanten befüllt, die dafür alle Kommunikationsbereiche abfragen.

Eines haben all diese Daten gemein: Sie sind rein deskriptiv. Und sie betrachten nur quantitativ und in der Vergangenheit. Wie viele Leute haben meine Posts gesehen? Wie viele User haben unsere Website besucht und sind wie lange geblieben? Wie viele Abonnenten haben unseren Newsletter erhalten und geöffnet? Kann man reporten, um den eingesetzten Ressourcen einen Output gegenüberzustellen. Wirklicher Erkenntnisgewinn? Nahe Null.


Was fehlt? Ziele, Benchmarks, echte KPIs


An der Stelle macht es Sinn, sich ans Studium, die eigene Diplom-, Bachelor- oder Masterarbeit zu erinnern. Einer wissenschaftlichen Analyse gehen immer Forschungsfragen voraus, ein übergeordnetes Thema. Gleiches gilt für die Datenanalyse. Entscheidend sind die definierten Fragestellungen. Diese orientieren sich in einer Kommunikationsabteilung an den strategischen und auch taktischen Zielen. Dies könnten bspw. folgende Fragen sein:

  • Welcher Kommunikationskanal zahlt am stärksten auf meine Reputation ein?
  • Wo dringe ich mit meinen strategischen Themen am besten durch?
  • Mit welchen Themen oder Angeboten befassen sich Nutzer / Öffentlichkeit am stärksten? 
  • Wie sieht das optimale Format meiner LinkedIn Posts aus? Wann publiziere ich am besten?

Sämtliche deskriptive Daten sind nötig, um diese Fragen zu beantworten. Die alleinige Frage, wie sich meine Impressions oder Visits entwickelt haben, nutzt allein für die die Bewertung von echter Zielerreichung ebenso wenig wie für die Kommunikationsplanung. Sie müssen also kombiniert und in Kontext gesetzt werden.

Dabei muss zunächst zwischen Kennzahlen (Metriken) und echten Indikatoren (KPIs) unterschieden werden. Ein KPI könnte Awareness sein - ich brauche kanalübergreifend aber verschiedene Metriken, um ihn vollständig darstellen zu können, z.B. Impressions, Visits, Views, Streams. Damit wird es auch möglich, kanalübergreifend zu bewerten. Auch wenn die Kennzahlen nicht komplett identisch sind, so lassen sich Videoviews mit Visits von Website Artikeln oder Klicks auf einen Newsletter Beitrag vergleichen, wenn es um die Frage geht, wie viel Aufmerksamkeit ich für meine Kommunikation an sich bekomme und wie sich diese entwickelt.

Für die Bewertung dieser KPIs ist eines unabdingbar: Benchmarks – also Zielwerte. Diese können vorgegeben sein durch eine bestimmte Ergebniserwartung, sie können aber auch statistisch definiert sein. So lassen sich statistische Benchmarks recht simpel auf Basis historischer Werte definieren. Ich kann dem KPI Awareness bspw. den Jahres-Mittelwert des vorausgegangenen Jahres zugrunde legen, dies mit einer gewissen Dynamik versehen und sogar saisonale Schwankungen abbilden. Die meisten BI Tools haben so etwas heute als Grundfunktionalität.

Selbst damit habe ich aber einiges an analytischen Möglichkeiten verschenkt. Denn Kommunikation findet zum einen immer über Inhalte und Themen statt. Die Abteilungen publizieren in der Regel nach strategischen Fokusthemen und taktischen Unterthemen. Einen Teil nehmen immer aktuelle Anlässe, Events, etc. ein. Zum anderen sind Unternehmen heute auch Publisher, das heißt sie gestalten ihre Kommunikation selbst über Kanäle und Formate. Wenn ich für meine Planung also wissen möchte, wie ich die Aufmerksamkeit für mich am ehesten und am effizientesten erreiche, dann stellen sich folgende konkrete Fragen:

  • Mit welchen Themen erziele ich die größte Awareness?
  • Welche Formate funktionieren für die Awareness am besten?
  • Welche Absender erreichen die meisten Nutzer (Corporate Channels, Vorstand, Corporate Influencer)

Wenn die Datenanalyse auf diese Fragen Antworten liefert, dann schafft sie Mehrwert. Dann können Strategen, Redakteure oder Medienverantwortliche mithilfe von objektiven Informationen ihre Planung unterstützen. Erst dann ist es wirklich data-driven!

Open Data: Business Intelligence und Analytics Dashboards

BI Lösungen wie Tableau oder Power BI liefern Ihnen Zugang zu Ihren Daten und machen sie erlebbar.

Woran Dashboards scheitern.


Ein Dashboard ist zunächst einmal nur ein Ort, an dem Daten visualisiert und zur Verfügung gestellt werden. Es löst aber für viele Verantwortliche schon eine Menge Schmerz, denn es bietet im Kern folgende Problemlösungen:

  • Alle Daten gesammelt an einem Ort
  • Strukturierte und harmonisierte Daten (sonst könnte ein Dashboard diese nicht verarbeiten)
  • attraktive und interaktive Datenaufbereitung

Ein Dashboard ist aber nicht gleichzusetzen mit Analytik oder Intelligenz. Aus verschiedenen Kundenprojekten wissen wir, dass Anwender trotz oder besser wegen großer Datenfülle überfordert sind und den Nutzen nicht erkennen. Sie schauen auf diverse Grafiken und Zahlen, können für sich aber keine Insights abstrahieren. Woran liegt das?

Wir sehen ein immer wiederkehrendes Muster, wenn wir im Scoping und bei der Definition der Use Cases abfragen, welche übergeordneten Fragestellungen die Anwender beantwortet sehen möchten. Welche übergeordneten Indikatoren hilfreich sind und welche Vergleichswerte / Benchmarks es gibt bzw. welche hilfreich wären. Die Antworten drehen sich fast immer um einzelne Kennzahlen für einzelne Kanäle, weil es alle über Jahre gewohnt sind, diese in einen Report zu schreiben. Entwicklung der Impressions, der Follower, der Öffnungsrate oder der Watchtime – das verstehen alle im ersten Schritt unter Datenanalyse.

Doch wenn die Nutzer diese Daten dann im Dashboard sehen – so attraktiv sie auch aufbereitet sind – dann sitzen sie ratlos davor. Es fehlen die Erkenntnisse. Die Boards werden kaum genutzt. Die Ursache liegt im falschen Grundansatz, von klein nach groß zu denken. Dabei muss es wie oben geschildert genau andersrum sein. Entscheidend ist, welche übergeordneten Informationen für den Arbeitsalltag und die Planung helfen. Daraus folgt die Definition sinnvoller Metriken und die Datenbeschaffung.

 

Data Science. Alles anders mit ChatGPT?


Für übergeordnete Werte brauche ich letztlich die Modellierung von Einzel-Werten. Damit sind wir bei Data Science. Die meisten Entscheider reagieren abwehrend, wenn man das Thema früh im Projekt adressiert. Es wird als Kür gesehen, als nice-to-have. Es ist aber genau andersherum. Es ist von elementarer Bedeutung, Daten zu modellieren, um echte Aussagen zu bekommen und wirklich bewerten zu können. Dagegen ist die kleinste Kennzahl eines spezifischen Kanals oftmals nahezu egal, weil diese die Gesamt-Erkenntnis kaum beeinflusst.

Bevor also in die oftmals sehr aufwändige Datenbeschaffung und Automatisierung investiert wird, sollten Verantwortliche die übergeordneten Zielwerte betrachten. Praktisches Beispiel:

Möchte ich mithilfe von Daten meine Markengesundheit (Brand Health) evaluieren, so muss ich überlegen, welche Einzelsegmente oder Cluster darauf einzahlen. Das kann Awareness sein, aber auch Reputation oder Wissen um die Marke. Diesen Clustern kann ich dann konkrete Kennzahlen zuordnen. Und mithilfe von Datenmodellen kann ich für diese Cluster auch ganz konkrete Scorings oder Indizes berechnen. In der Data Science schreibt man für so etwas in der Regel einen Code (z.B. in Python), der verschiedene Daten nach einer bestimmten Logik miteinander kombiniert und verrechnet und in einem oder mehreren Zielwerten ausgibt. Dazu an anderer Stelle mehr.

Diese Modellierung wird künftig vermutlich verstärkt von künstlicher Intelligenz übernommen. Schon heute kann man mit ChatGPT zum Beipiel einen Datensatz aus LinkedIn befragen nach der Textlänge oder dem Wochentag der Veröffentlichung, der statistisch die meisten Impressions generiert. Damit bekomme ich auf Basis von Einzeldaten einen Insight, der dem Community Manager dabei hilft, seine Postings optimal auszusteuern. Kleines Beispiel, macht aber deutlich, dass die Impressions allein wenig Mehrwert bieten, sondern erst durch die Kombination mit anderen Werten Erkenntnisse liefern. Mehr dazu von uns demnächst im PR Report

In vielen laufenden Dashboard-Projekten wird dies eines der großen Themen für 2024 sein. Für Unternehmen, die mit dem Gedanken spielen, ein solches Projekt ins Leben zu rufen, gilt es, von Beginn an von groß nach klein zu denken. Es empfiehlt sich, sich bei den Use Cases zunächst im Sinne von Pilotierung zu beschränken, dort aber die übergeordneten Logiken von Beginn an mitzudenken.   
 


Autor: Christian Henne

BI Dashboards

Wir bauen echte Intelligence mit Ihnen auf. Wir strukturieren und harmonisieren Ihre Daten und visualisieren sie in attraktiven Dashboards wie Tableau oder Power BI.


Corporate Influencer Score

Zusammen mit DATEV haben wir den ersten CI Score entwickelt. Ein Modell, das es möglich macht, den Reifegrad von Organisationen und die Effekte der Kommunikation zu evaluieren.


Content Clustering

Content Marketing und Themensetting sind Schlagworte der Kommunikation. Mit der richtigen Analytik wird verständlich, welche Inhalte wann wo und warum besonders gut oder schlecht performen.


phone mail