Mikrotargeting in der Politik – Wie mit Hilfe von personenbezogenen Daten auch in Deutschland Wahlkampf gemacht wird

Karl Rove, der Architekt der Wahlsiege von George W. Bush als Gouverneur von Texas in den Jahren 1994 und 1998, sowie – deutlich bekannter – der Wahlen zum US-Präsidenten 2000 und 2004, gilt als Innovator des datengetriebenen Wahlkampfs. In Vorbereitung auf die 2004 Kampagne kamen er und sein Team zu dem Schluss, dass Bush 3 Millionen mehr Wähler benötigte, als noch im Jahr 2000. Durch die landesweite Ansprache konservativer Priester, jeweils 10-20 Kirchenbesucher zur Wahl George W. Bushs zu überzeugen, gelang die Wiederholung des Wahlsiegs von 2000 im Jahr 2004 mit ziemlich genau 3 Millionen Stimmen Unterschied.

Karl Rove arbeitete hauptsächlich mit Direktmarketing-Methoden, sein Unternehmen hatte zum damaligen Zeitpunkt die größte entsprechende Datenbank mit demographischen Informationen über nordamerikanische Wähler aufgebaut. Wenngleich im Unterschied zu breit gestreuten Marketingmassnahmen im Direkt-Mailing einzelne Personen angesprochen werden, erhalten alle Personen immer noch dieselbe Kommunikationsbotschafft – unabhängig von ihren individuellen Präferenzen.

Was ist Mikrotargeting?

Hierin besteht der Unterschied zum Mikrotargeting, mit dem sich eine politische Partei zwar ebenfalls an Individuen richtet, ihre Botschaft jedoch an den spezifischen Rahmenbedingungen und Präferenzen des Empfängers ausrichtet. Möglich wird Mikrotargeting durch den Zugriff auf erheblich mehr Daten über jeden eizelnen Wähler, als dies noch zu Karl Roves Zeiten der Fall war. In seinen Wahlkämpfen 2008 und 2012 wurde Barack Obama vom Washingtoner Beratungsunternehmen Strategic Telemetry unterstützt. Hillary Clinton setzte 2016 auf die Dienste von Penn, Schoen, Berland (PSB), die neben Büros an Ost- und Westküste der USA auch an drei Europäischen Standorten sowie in Dubai Dependancen unterhalten. Letztgenannte PBS sind allerdings durch den Wahlsieg Donald Trumps medial ins Hintertreffen geraten: die Lorbeeren für die datengetriebenen Wahlkampfstrategie fuhr das bis dato unbekannte Unternehmen Cambridge Analytica ein, das erst im Sommer vom Wahkampfteam Trump beauftragt worden war, nachdem der erste bekannte Kunde, Ted Cruz, das Rennen um den republikanischen Kandidaten verloren hatte.

Die gemischten Resultate der drei genannten Unternehmen lassen bereits erkennen, dass – ganz ohne weitere Sachkenntnis – Mikrotargeting definitiv einen Anteil am Erfolg eines um Wählerstimmen kämpfenden Kandidaten haben kann. Offensichtlich jedoch ist es kein Selbstläufer, sonst hätte sich eine etablierte Firma wie PSB nicht von einem Newcomer wie Cambridge Analytica die Butter vom Brot nehmen lassen. Die Frage lautet also: Welchen Anteil hat Mikrotargeting am Erfolg eines Kandidaten?

Wie funktioniert Mikrotargeting?

(Daten-)Technische Grundlage des Mikrotargeting ist die Vorhersageanalyse aka Predictive Analytics. Die im Vergleich mit Deutschland signifikant andersartigen Datenschutzregeln und das Wahlverfahren erlauben es den Parteien in den USA, Informationen über Einkommen, Konsumgewohnheiten, etc. der Wähler im Wahlkampf zu nutzen. Der republikanische Anwärter auf die Präsidentschaftskandidatur, Ted Cruz, sorgte selbst in dieser aus deutscher Sicht eher freizügigen Umgebung für negative Schlagzeilen, als in seinem Auftrag die oben genannte Cambridge Analytica mit Hilfe spezifischer Persönlichkeitsfragebögen, für deren Ausfüllen auf Facebook jeder Nutzer 1 US-Dollar bekam, detaillierte Persönlichkeitsprofile erstellte. Da dies den Facebook Nutzungsbedingungen zuwider lief, wurde das Verfahren eingestellt. Die erhobenen Daten liegen Cambridge Analytica jedoch weiter vor und wurden im Anschluss im Wahlkamof für Donld Trump eingesetzt. In Deutschland ist es dagegen nicht zulässig, Daten dieser Art zu erheben und im Wahlkampf zu verwenden.

Dies erschwert die Arbeit des Datenanalysten, macht sie jedoch mitnichten unmöglich. Wenn keine entsprechenden Informationen über demographische Daten, Verhalten und Gewohnheiten der Wähler vorliegen, werden entsprechende Annahmen getroffen und mit politischen Empfänglichkeiten korreliert. Für eine erste grobe Einstufung reichen Postleitzahlen – genauere Angaben ergeben sich dann durch zugekaufte Daten, die beispielsweise Verträge, Rabattkarten oder online gestellte Informationen wie oben genannte Quizzes. Da viele Social Media Nutzer regelmässig an derlei Quizzes und Umfragen teilnehmen, reichen diese Angaben aus, um Aussagen über wahrscheinliche Präferenzen von Menschen treffen zu können.

Dazu zählen insbesondere Antworten auf die folgenden Fragen:
– Wie wahrscheinlich ist es, dass ein Mensch Wechselwähler bzw. noch unentschieden hinsichtlich seiner Stimmabgabe ist?
– Für welche Themen interessiert sich die Wählerin besonders stark?
– Wie wahrscheinlich ist es, dass eine Wählerin für den eigenen Kandidaten stimmt?

Auf den über die Wähler bekannten Informationen werden nun statistische Modelle gebaut, die entsprechende Antworten auf die o.g. Fragen vorhersagen – das sogenannte Predictive Modeling. Ausgestattet mit diesen Antworten werden wählerspezifische Wahlbotschaften in Text und Bild entwickelt und den Wählern entsprechend ihrer jeweiligen Präferenzen zugeschickt – per Direktmarketing oder über Social Media Kanäle – in Deutschland hauptsächlich auf Facebook. Auf diese Weise bekommt eine nicht entschlossene 34-jährige Russlanddeutsche Wählerin mit Wohnsitz Berlin-Kreuzberg eine politische Facebook-Anzeige in ihren Stream eingespielt, die ihren Grundbedürfnissen entspricht und für sie die gesuchte Entscheidungshilfe für ihre Stimmabgabe in der Bundestagswahl 2017 ist.
Grundlage für diese letzte entscheidende Kommunikationsbotschaft ist die Fähigkeit, ein Persönlichkeitsprofil des einzelnen Menschen auf Basis der von ihm selbst hinterlassenen Daten zu erstellen, dies mit entsprechender passender Kommunikation zu verknüpfen und ihm die Botschaft in demjenigen Kanal auszuspielen, dem er vertraut und aus dem er News und Infos bezieht – kurz: Mikrotargeting.

Datenschutz und Fake News

Was für viele Menschen insbesondere vor dem Hintergrund der Wahl Donald Trumps und der eher nebulösen Berichterstattung über das Thema in etablierten Medien wie eine bedrohliche Kulisse wirkt, vor der zukünftig politische Akteure handeln, ist Tagesgeschäft von auf Datenanalyse fokussierter Unternehmen. Solange sich die Akteure innerhalb der rechtlichen Rahmenbedingungen aufhalten, ist zumindest juristisch nichts gegen dieses Vorgehen einzuwenden. Wie oben schon angedeutet, ist der aus deutscher Sicht eher laxe Umgang mit Datenschutz in den USA die Basis für einen auch am Rande der Legalität datengetriebenen Wahlkampf.

Aber nicht nur der Datenschutz spielt eine Hauptrolle: auch diejenigen Mittelsmänner in einem Wahlkampf, die zwischen Parteien und Wähler stehen: klassische Medien sowie zahllose Akteure, die via Facebook auf ihre Art Wahlkampf betreiben, indem sie neben faktischen Informationen auch Falschinformationen – Fake News – publizieren und verbreiten. Für den Social Media Nutzer wird es zunehmend schwerer, richtige von falschen bzw. gefälschten Nachrichten zu unterscheiden. Und die immanente Eigenschaft Sozialer Medien, durch stetes millionenfaches Teilen alle möglichen Inhalte in kürzester Zeit unabhängig vom Wahrheitsgehalt zu einer faktischen News zu machen, verstärkt dieses Problem.

Wahlgewinner setzen Mikrotargeting ein

Alle demokratischen politischen Parteien müssen daher einen Weg finden, durch das Dickicht der Mittelsmänner und Falschmelder einen direkten, unmittelbaren Weg zu ihren (potenziellen) Wählern zu finden, um ihre Wahlbotschaft unverfälscht an die Frau zu bringen. Insofern stellt Mikrotargeting keine Bedrohung, sondern letztlich ein unverzichtbares strategisches Instrument für politische Parteien dar. Wer zukünftig Mikrotargeting nicht nutzt, wird zum Kreise der Wahlverlierer gehören.

Small Data? Alter Wein in neuen Schläuchen

In unseren Projekten, aber auch auf Konferenzen, hören wir gelegentlich den Begriff Small Data. In Abgrenzung zu Big Data soll Small Data die Aufmerksamkeit auf einzelne oder wenige Daten lenken, die Kausalzusammenhänge zwischen Variablen abbilden sollen.

Um es kurz zu sagen: das ist alter Wein in neuen Schläuchen. Small Data gab es früher, als keine oder nur wenige Prozesse digitalisiert waren und nur geringe Datenmengen zu Verfügungs standen. Um etwa Neuproduktentscheidungen auf Basis von Daten zu treffen, behalf man sich mit Marktforschungsmassnahmen, die eine ungefähre Ahnung des aktuellen und zukünftigen Kundenverhaltens vermittelten. Das ist die klassische Marktforschung, oder auch Marktforschung 1.0.

Seitdem immer mehr Prozesse digitalisiert werden, stehen Unternehmen und Individuen Daten in Hülle und Fülle zu Verfügung. Oft sind es soviele Daten, dass Unternehmen ihnen nicht mehr Herr werden, in neue Data Warehouse Infrastrukturen investieren und entsprechende neue Datenmanagemen-Prozesse neu aufsetzen müssen. Dies nicht nur, um datengetriebene Produkte zu entwickeln, sonden auch um bestehende Kundenverhältnisse zu optimieren: ein Kunde, dessen Bedürfnisse im Online-Shop, in der E-Mail- oder Call Center-Kommunikation nur unzureichend erkannt und beachtet werden, wechselt den Anbieter.
Vertreter des Small Data Gedankens werden meist von der oft als unüberschaubar wahrgenommenen Komplexität von Big Data abgeschreckt und ziehen sich deshalb auf bewährte Vorgehensweisen zurück: sie erstellen eine Hypothese – beispielsweise über das Verhalten Ihrer Zielgruppe – und suchen nach Daten, die diese Hypothese unterstützen. Sobald sie auch nur die geringsten Datenmengen gefunden haben, die ihre Hypothese unterstützt, nehmen sie dies als Beleg her und bauen darauf eine Marketingstrategie auf.

Aktuelles Beispiel für dieses archaische Vorgehen ist ein Vortrag des Marketing-Experten Martin Lindström auf dem Serviceplan Innovationstag 2016. Anhand von oben skizzierten Beispielen kommt er zu dem Schluss: „Big Data allein ist nutzlos. Im Grunde handelt es sich nur um eine Ansammlung von Daten, in denen Sie nach Korrelation suchen, aber nicht nach Kausalität – was sinnvoller wäre.“

Eine solche Aussage, getroffen von einem international anerkannten Experten, auf einer hochkarätig besetzen Konferenz, ist vermutlich im Jahr 2016 nur noch in Deutschland möglich – in einem Land, in dem das Bewahren von Bewährtem immer noch als deutlich wichtiger eingestuft wird als das Zerstören von Bekanntem, das Umwerfen und das Neu-Denken. Das Aufstellen von Hypothesen mit einer angeschlossenen auf geringen Datenmengen basierten Analyse wurde bis vor ca. 5 Jahren als Marktforschung durchgeführt. Nicht jedoch, weil man wusste, dass dies eine sinnvolle Methode beispielsweise zur Vorhersage von Kundenverhalten wäre, sondern weil auf der Basis der vorhandenen Daten dies damals das bestmögliche Vorgehen war. War.

In der Zwischenzeit hat sich die Welt jedoch geändert: wir haben jetzt die Daten, die uns ein vielfach besseres Bild der Gegenwart, wie auch der Zukunft ermitteln. Und weil wir diese Daten haben, müssen wir uns auch nicht mehr selber als Propheten betätigen und die Zukunft voraussagen, sondern wir sehen uns die Daten an, erkennen Korrelationen (nicht Kausalitäten) und entwickeln daraus Zukunftsoptionen.

Insbesondere der Unterschied zwischen Kausalität und Korrelation scheint sich in einigen Expertenkreisen noch nicht wirklich herumgesprochen zu haben. Der Grund, auf das Erkennen von Kausalitäten zugunsten von Korrelationen zu verzichten, ist einfach: Wenn Martin Lindström berichtet, dass ein Teenager seine Turnschuhe lieber abgetragen trägt, gilt das für genau diesen einen Teenager. Womöglich zeigt sich sogar, dass sich 100 Teenager so verhalten. Für ein Neuprodukt mit „pre-used“ Sohlen reicht das jedoch nicht. Diese „Kausalität“ hilft uns nicht weiter. Sie ist weder übertragbar, noch skalierbar.

Was uns weiterhelfen würde, wäre beispielsweise die Aussage, dass die Zeit, die Teenager durchschnittlich auf dem Skateboard verbringen, signifikant höher ist, wenn ihre Schuhe ein Mindestalter von > 6 Monaten haben und die Sohle um mind. 30% abgenutzt ist. Durch Sensoren im Schuh könnte eine solche Information verfügbar gemacht werden. In diesem Fall hätten wir einen tatsächlichen Beleg für das beschriebene Verhalten – im Fall der Lindströmschen Beobachtung handelt es sich lediglich um eine Anekdote.

Wir haben heutzutage die Möglichkeit, grosse Datenmengen zu erzeugen und zu analysieren. Lassen wir uns diese reichhaltigen Erkenntnis-Pool nicht entgehen! Indem wir uns selbst und unsere eigene Wahrnehmungsfähigkeit zunächst zurücknehmen und Daten sprechen lassen, werden wir unseren Blickwinkel deutlich erweitern und viele erstaunlich und bisher für undenkbar gehaltene Zusammenhãnge erkennen. Hören wir weniger auf Experten, sondern bilden wir uns unsere eigenen Meinungen basierend auf der Analyse von Big Data!

Leitfaden für Big Data Projekte (1) – Der Paradigmenwechsel in der Datenverarbeitung

In unserer täglichen Arbeit werden wir mit wiederkehrenden Fragestellungen konfrontiert, die zwar letztlich indviduell – d.h. für den konkreten Kunden und Anwendungsfall – beantwortet werden müssen, die allerdings auf den gleichen Prämissen und Überlegungen beruhen. Einige grundlegende dieer Überlegungen wollen wir in den folgenden Beiträgen teilen.

Big Data bedeutet einen Paradigmenwechsel
Big Data ist mehr, als nur „mehr Daten“. Hinter Big Data steht das Konzept, Daten an sich als Thema zu setzen, also nicht „Information“ oder „IT“. Daten ans sich stellen den Rohstoff, den Wert dar. Dies hat einige – vorher teilweise undenkbare Konsequenzen: Beispielsweise werden im Big data Zeitalter soviele Daten wie möglich gesammelt und als Rohdaten unverändert abgelegt (Hadoop, „Data Lake“) – die Trennung von Daten und Metadaten wird aufgehoben.

Nicht Hypothesen stehen am Anfang, sondern die Datensammlung und-speicherung. Oft muss dieses Vorgehen im Unternehmen erst akzeptiert und verstanden werden – traditionelle Denkmuster der Datenergebung und -verarbeitung sind noch weit verbreitet und verhindern regelmässig bereits eine saubere und nachhaltige Umsetzung idieses ersten Schrittes.

Anschliessend an Sammlung und Speicherung erfolgt die Datenanalyse. Explorative Verfahren (Clusteranalyse, Mustererkennung, Regressionen) lösen hypothesengetriebene Verfahren (Tests) ab.
Zusammenhänge gelten als flüchtig; statt an der Aufdeckung von Ursache-Wirkungsketten zu arbeiten, werden Korrelationen als zeitweise gültig gesetzt und zur Steuerung verwendet. In vielen, kleinen Teilstichproben werden zufällige Mutationen der gültigen Strategie ständig als a/b-Test gegen dagegen laufen gelassen. Erweist sich so eine alternative Mutation als besser, wird die bisherige Strategie verworfen und mit der neuen Variante weiter gearbeitet, bis diese ihrerseits verworfen wird.(„Agile Analytics“)

Nach möglichkeit wird auf Abstraktionen und Aggregate (wie z.B. Zielgruppen) verzichtet. Stattdessen werden Vorhersagemodelle auf einzelne Personen angewendet.

Die sog. Data Science entwickelt sich dabei in ähnlicher Weise zu einer Querschnittsaufgabe, wie „Computer Science“ seit den 70ern die IT oder Controlling das Thema Finanzplanung durchgehend und übergreifend verantwortet.

n unserer nächsten Folge widmen wir uns daher dem Thema Gründe und Treiber für Datenprojekte in Unternehmen.

Grosses Interesse am Management und Teilen der eigenen Gesundheitsdaten in Deutschland

Eine Befragung von rund 1.300 Personen durch das Marktforschungsinstitut Infratest im Auftrag der Continentale Krankenversicherung zeigt, dass Deutsche zwar vorsichtig im Umgang mit ihren Gesundheitsdaten sind, aber grosses Interesse daran haben, sie mit ihrem Arzt, Verwandten und Freunden sowie anderen, wie beispielsweise Krankenversicherern zu teilen.

Während in allen Altersgruppen eine gewisse Skepsis gegenüber dem Teilen der eigenen Gesundheitsdaten mit Dritten herrscht, so erheben, sammeln und speichern 19% der Befragten ihre Daten. 6% setzen zur Datensammlung bereits technische Hilfsmittel wie Wearables; d.h. Fitnessbänder, Smartwatches und andere am Körper tragbare technischen Geräte und weitere 17% können sich vorstellen, Wearables zukünftig für diesen Zweck einzusetzen. Die gerade zu Ende gegangene IFA mit dem Schwerpunkt Wearables hat womöglich den Startschuss für eine starke Verbreitung von Smartwatch und Co. gegen – wir rechnen damit, dass unter jedem dritten Weihnachtsbaum in Deutschland ein entsprechendes Wearable liegen wird.

Weitergabe von Gesundheitsdaten an Krankenversicherer

Während die bisherige Reaktion auf die Infratest-Umfrage den in Deutschland beliebten skeptischen Blick betont und das Augenmerk auf ausgesuchte Mehrheiten richtet, die (bisher noch nicht) ihre Daten teilen, wollen wir die andere Perspektive betrachten: 23% der Befragten messen jetzt schon ihre Gesundheitsdaten mit Wearables oder wollen dies zukünftig tun – das bedeutet: ein knappes Viertel der Deutschen betreibt Quantified Self! 63% der Befragten geben, ihre Gesundheitsdaten auf keinen Fall an Dritte weitergeben zu wollen. Weitere 22% sind sich unsicher und sagen „wahrscheinlich nicht“. Mit anderen Worten: 15% geben bereits heute ihre Daten weiter oder würde dies tun.

screenshot_163

Die Empfänger der Gesundheitsdaten sind der Arzt (85%), die Familie (74%), die gesetzliche Krankenversicherung (515), Ernährungsberater (33%), die private Krankenversicherung (28%), die Lebensversicherung (24%9 und andere. Über die Hälfte der Befragten (56%) würden ihrer Krankenversicherung ihre Daten aufgrund eines finanziellen Anreizes weitergeben, davon 20% sicher und 36% vermutlich. Mit anderen Worten: weniger als die Hälfte der Befragten schliesst aus, aufgrund eines finanziellen Vorteils der Krankenversicherung ihre Daten zu übermitteln.

Nicht nur die in Antworten zur Frage nach finanziellen Anreizen erkennbare hohe Bereitschaft der Deutschen, Daten weiterzugeben, wenn finanzielle Vorteile daraus entstehen – sondern auch das exponentiell gestiegene Interesse an Wearables und deren Möglichkeiten legt unserer Ansicht nach den Schluss nahe, dass wir hierzulande den ersten entscheidenden Schritt in Richtung einer neuen Autonomie hinsichtlich der eigenen Gesundheit getan haben: die Menschen erkennen, dass sie ohne grossen finanziellen und technischen Aufwand ihren eigenen Körper (besser) kennenlernen und im Krankheitsfalle ihren Arzt rasch, lückenlos und objektiv über ihren Gesundheitszustand informieren können. Unserer Ansicht nach wird in 2 Jahren über die Hälfte der Deutschen Wearables einsetzen, um eine aktivere Rolle bezüglich ihrer eigenen Gesundheit einzunehmen.

Datarella goes East – explore App ab Januar in China, Russland und Japan einsetzbar

Das schönste Weihnachtsgeschenk haben wir uns bei Datarella selbst gemacht: die explore App ist ab Januar nicht nur für den internationalen Einsatz auf englischsprachigen Märkten verfügbar, sondern auch für den Einsatz in China, Russland und Japan bereit. Damit ist Datarella das erste Unternehmen, das mobile Marktforschung in den beiden BRIC-Staaten und dem Land der aufgehenden Sonne für europäische Kunden anbietet. Erste Projekte in den Märkten sind für das erste Quartal 2014 bereits in Vorbereitung.

Gerade China und Russland stehen Marktforscher vor einer grossen Herausforderung: Allein China bietet mit einer Bevölkerung von über 1,3 Milliarden Menschen, auf einer Fläche von rund 9,6 Milliarden Quadratkilometern und über 20 Städten mit mehr als 1 Million Einwohner eine überaus vielfältige Volkswirtschaft, die systematische Marktforschung zu einem absoluten Muss werden lässt. Streng genommen gibt es nicht das eine China, sondern vielfältige, kulturell und ökonomisch stark unterschiedliche Bevölkerungssegmente. Daher empfiehlt es sich auch, Forschung nicht mit in einer übergreifenden Strategie anzugehen, sondern sich zunächst kleinere Regionen auszusuchen und diejenigen Kundensegmente auszumachen, die den grössten Wertbeitrag liefern.

38% der Chinesen nutzt das Internet über mobile Endgeräte – in ländlichen Gebieten steigt dieser Anteil gar auf 45%. Die Nutzung der Gerãte ähnelt der in anderen Kulturen: 90% spielen Games, 40% tun dies täglich. 89% nutzen Soziale Netzwerke wie Renren, Sina Weibo oder Tencent. Über ein Viertel – 27% aller Chinesen – nutzen ihr Mobilgerät für mindestens eine Stunde täglich.

Wir sind sehr gespannt auf die ersten explore Ergebnisse aus China, Russland und Japan. Interessierten Unternehmen bieten wir die Möglichkeit der Teilnahme an Testprojekten – sprechen Sie uns dazu direkt an!

explore App im Feldtest

Testen, testen, testen – so lautet das Motto für jedes neue Produkt, jedes Startup – einfach für alles, was sich in einem großen Markt behaupten will. Nach erfolgreich abgeschlossenen internen Tests, entlassen wir unsere App explore ins wahre Leben – in einen Feldtest mit einer geschlossenen Nutzergruppe, einer Closed Beta. Unser Partner in diesem Tests ist die Serviceplan Gruppe, die grösste inhabergeführte Agenturgruppe Europas.

Serviceplan Gruppe

Mitarbeiter der Münchner Serviceplan Zentrale setzen explore in der Android Version über einen Zeitraum von zunächst drei Wochen ein. Bis Weihnachten wird explore so auf Herz und Nieren getestet: Funktionalitäten und Usability sowie insbesondere die Eignung für den breiten öffentlichen Einsatz der App stehen auf dem Prüfstand. Beide zentralen Aspekte der App werden von den Teilnehmern täglich eingesetzt: die in die App eingespielten manuellen Umfragen sowie die Sammlung von Orts- und Bewegungsdaten über die entsprechenden Smartphone -Sensoren.

Wir sind gespant, welche Ergebnisse uns erwarten! Viele einzelne Tagesergebnisse werden den Teilnehmern tagesaktuell zurückgespielt – einer der zentralen Aspekte von explore. Wie sich explore geschlagen hat und ob die App bereits fit ist für den Marktstart im Januar 2014, wird bis kurz vor Weihnachten feststehen.

Deutschland: das Smartphone ist aus dem Alltag nicht mehr wegzudenken

Heute wurde von Nielsen eine neue Studie über die Smartphone Nutzung in Deutschland veröffentlicht. Der Bericht „Smartphone Insights Report“ zeigt sehr deutlich die kontinuierlich, geradezu explosiv steigende Nutzung von Smartphones bei Deutschen. Ob Einkäufe organisieren, Nachrichten abrufen, Freunde kontaktieren, Termine planen, Reisen buchen, Spielen, alles wird heutzutage mit dem Smartphone erledigt. Hier die Highlights der Studie:

  •  Nur 6 Prozent der Deutschen haben kein Handy
  • 62 Prozent besitzen ein Smartphone, davon sind 41 Prozent Samsung und 21 Prozent Apple iPhone Benutzer
  • Insgesamt beherrscht Samsung den deutschen Mobilfunkmarkt mit einem Anteil von 37 Prozent, gefolgt von Nokia mi 18 Prozent, der nach wie vor Platzhirsch im schrumpfenden Feature Phone Bereicht ist

Was passiert mit den klassischen Industrien?

wash050813

Heute wurde bekanntgegeben, dass amazon Gründer Jeff Bezos den amerikanischen Traditionsverlag „Washington Post“ für 250 Millionen Dollar erwerben wird. Nach 7 Jahren Gewinnrückgang in Folge verkauft eine renommierte Zeitungsdynastie den Kern ihres Imperiums, nämlich das klassische Print Geschäft. Vor gut zwei Wochen wurde in Deutschland bekannt gegeben, dass einer der größten Medienhäuser, der Springer Verlag gleich mehrere Traditionsblätter an die Funke Mediengruppe verkauft. Betroffen sind „Bild der Frau„, „die Programmzeitschrift „Hörzu“ und das renommierte Regionalblatt „Hamburger Abendblatt„.

Nach dem Motto „Tradition Goes Digital“ versuchen klassische Unternehmen eine Antwort auf das schrumpfende Kerngeschäft zu finden. Betroffen ist nicht nur die Medienindustrie. Ähnliches ist für die Marktforschung zu erwarten. Veraltete klassische Umfragen sind nicht mehr zeitgemäß. Neue Methoden müssen her, um repräsentative Marktstudien durchzuführen. Dabei spielt Mobile und Big Data eine entscheidende Rolle. Viele klassische Marktforschungsinstitute versuchen ein Standbein in diesen innovativen Bereichen aufzubauen. Das Problem ist jedoch die klassische Kanibalisierung des eigenen Geschäfts. So zum Beispiel gab das globale Institut GfK bekannt, dass es die Sparte „Location Insights“ aufbauen wird. Mit Hilfe von Smartphones mit GPS Anbindung sollen Einzelhändler eine bessere Einsicht in das Kaufverhalten von Konsumenten erhalten und mit ihnen interagieren können. Der Aufbau erfolgt sehr behutsam, um das eigene, klassische Geschäft nicht zu torpedieren.

Die Medienindustrie hat es uns vorgemacht und das Ende der Fahnenstange ist lange noch nicht erreicht. Man kann gespannt sein, wie es mit der klassischen Marktforschungsindustrie weitergeht. Die Konsolidierung des Marktes in Deutschland von über 200 aktiven Instituten vor gut zehn Jahren auf knapp 140 nach heutigem Stand wird sich in jedem Fall fortsetzen. Wer überleben will, setzt mit Sicherheit auf innovative Forschungsmethoden und Big Data Analytics.

Vorzüge der mobilen Marktforschung

Die mobile Marktforschung, d.h. Umfragen auf mobilen Endgeräten – und dazu zähle ich auch die Tablets, gewinnen immer mehr an Bedeutung. Die heutige Welt sehnt sich, Dinge „on-the-go“ zu erledigen. Von unterwegs werden Emails abgerufen und beantwortet, Einkäufe erledigt und die aktuellen Nachrichten gelesen. Telefonieren ist mittlerweile nicht mehr die Hauptaktivität auf einem modernen Smartphone. Was passiert also in der Marktforschung?

Es gibt zahlreiche Marktforschungsinstitute, die ihr Service-Portfolio Richtung „Mobile Research“ erweitert haben. Gerade in den USA und in UK verbreitet sich diese neuartige Art der Marktforschung ziemlich rasant. Ich persönlich habe mehrere Research Apps auf meinem iPhone installiert, wobei ich mich frage, ob nicht der Begriff „Mobile Survey“ treffender wäre. Denn die meisten Apps bieten nur einfache Umfragen an. Die technischen Möglichkeiten eines Smartphones werden dabei komplett außer Acht gelassen. Es werden keine Sensordaten ermitteln und gesammelt. Ich wurde nicht aufgefordert, Dinge zu fotografieren und irgendwelche Barcodes von meinem letzten Einkauf einzuscannen. All diese technischen Möglichkeiten, um ein Markforschungsprojekt umfangreicher zu gestalten, werden aus heutiger Sicht kaum genutzt.

Was sind also die zusätzlichen Möglichkeiten, die mobile Marktforschung im Vergleich zu einer klassischen Umfrage anbietet. Hier ein paar Beispiele:

  • Kamera: Teilnehmer könnten aufgefordert werden, Fotos von ihren Aktivitäten zu machen.
  • Barcode Scan: Mit Hilfe der Kamera können Barcodes und QR Codes eingescannt werden. So können Einkäufe auf einfache Art dokumentiert werden.
  • GPS Tracking: Mit Hilfe der Verortung des Teilnehmers können Laufwege aufgezeichnet werden.
  • Mikrofon: Wie hoch ist die Stressbelastung des Teilnehmers durch äußerliche Lärmeinflüsse? Oder der Teilnehmer kann ein Audio Tagebuch führen.
  • Geofencing: Umfragen können Location-basiert ausgelöst werden (so z.B. wenn sich ein Teilnehmer einer der großen Einkaufsstraßen in München nähert).
  •  usw.

Wir müssen uns auch im klaren sein, dass die mobile Marktforschung gewisse Einschränkungen hat:

  • Die Länge der Umfrage: die aktuelle Meinung ist, dass eine online Befragung 7-10 Minuten nicht überschreiten sollte.
  • Eingeschränktes Display: das aktuelle iPhone 5 hat eine Bildschirmdiagonale von ca. 10 cm. Die visuellen Möglichkeiten für die Gestaltung einer Umfrage ist dadurch eingeschränkt.
  • Übertragung der Daten: obwohl sich die Flatrate für Datenübertragung immer mehr durchsetzt, könnte bei dem einen oder anderen Kosten für die Übermittlung der Ergebnisse entstehen. Das wäre ein absoluter App-Killer.
  • Batterieverbrauch: Durch die Aktivierung der Sensordaten und Aufzeichnung dieser Informationen wird der Akku zum Teil erheblich belastet.
  • Verzerrung in der Stichprobe: Smartphones sind eben eher bei den Jüngeren beliebt.

Fakt ist, dass „mobile“ auch in der Marktforschung Einzug hält. Zunächst sicherlich als Beimischung zu traditionelle Methoden, aber langfristig sehe ich die Daseinsberechtigung als eigenständige Methodik. Die Attraktivität liegt in der passiven Messung von Sensordaten.

 

Das Big Data Versprechen: Bessere und schnellere Entscheidungen treffen

Big Data verspricht, besser und schneller entscheiden zu können. Während bisher Daten-Stichproben als das Max der Dinge eingesetzt wurden, können wir nun alle relevanten Daten abfragen und verarbeiten. Und die Ergebnisse stehen nicht nach Monaten oder Wochen, sondern nach Minuten oder Sekunden zur Verfügung. Lösen die seit geraumer Zeit aus dem Boden spriessenden Big Data Unternehmen dieses Versprechen ein?

Big Data Issues
Quelle: NewVante Partners

Laut einer NewVantage Partners Big Data Umfrage auf Vorstandsebene in Fortune 500 Unternehmen aus dem Finanzsektor, wie Bank of America, JP Morgan, Wells Fargo, American Express und Fidelity Investments sowie einigen Nicht-Finanzunternehen wie General Electric, meinen über ein Fünftel (22%) der befragten Top-Manager schnellere und bessere Entscheidungen auf Basis von Big Data Initiativen treffen zu können. Diese Ergebnisse wurden in so unterschiedlichen Projekten wie der Zusammenführung vieler unstrukturierter Datenströme wie Sensortasten und Social Media Daten mit strukturierten Daten aus öffentlichen Regierungsinstitutionen, als auch der FRagestellung, wie diese Daten zur Formulierung neuer Marketing Kampagnen eines Kreditkartenunternehmens genutzt werden können.

Übereinstimmend wird der grösste Vorteil in Big Data Projekten darin gesehen, dass zeitaufwendige Tätigkeiten wie das Formulieren einer Hypothese und der Datenaufbereitung nicht zu Beginn eines Projekts anfallen, sondern erst dann zu Tragen kommen, wenn in den Daten interessante Muster erkannt worden sind. Dieser Zeitvorsprung schmilzt die sogenannte  Time-to-Answer TTA auf eine deutlich kürzere Zeitspanne ein. Insofern bedeutet auch die Minimierung der TTA  den grössten Einzelnutzen, den ein Big Data Unternehmen bringen kann.