Mikrotargeting in der Politik – Wie mit Hilfe von personenbezogenen Daten auch in Deutschland Wahlkampf gemacht wird

Karl Rove, der Architekt der Wahlsiege von George W. Bush als Gouverneur von Texas in den Jahren 1994 und 1998, sowie – deutlich bekannter – der Wahlen zum US-Präsidenten 2000 und 2004, gilt als Innovator des datengetriebenen Wahlkampfs. In Vorbereitung auf die 2004 Kampagne kamen er und sein Team zu dem Schluss, dass Bush 3 Millionen mehr Wähler benötigte, als noch im Jahr 2000. Durch die landesweite Ansprache konservativer Priester, jeweils 10-20 Kirchenbesucher zur Wahl George W. Bushs zu überzeugen, gelang die Wiederholung des Wahlsiegs von 2000 im Jahr 2004 mit ziemlich genau 3 Millionen Stimmen Unterschied.

Karl Rove arbeitete hauptsächlich mit Direktmarketing-Methoden, sein Unternehmen hatte zum damaligen Zeitpunkt die größte entsprechende Datenbank mit demographischen Informationen über nordamerikanische Wähler aufgebaut. Wenngleich im Unterschied zu breit gestreuten Marketingmassnahmen im Direkt-Mailing einzelne Personen angesprochen werden, erhalten alle Personen immer noch dieselbe Kommunikationsbotschafft – unabhängig von ihren individuellen Präferenzen.

Was ist Mikrotargeting?

Hierin besteht der Unterschied zum Mikrotargeting, mit dem sich eine politische Partei zwar ebenfalls an Individuen richtet, ihre Botschaft jedoch an den spezifischen Rahmenbedingungen und Präferenzen des Empfängers ausrichtet. Möglich wird Mikrotargeting durch den Zugriff auf erheblich mehr Daten über jeden eizelnen Wähler, als dies noch zu Karl Roves Zeiten der Fall war. In seinen Wahlkämpfen 2008 und 2012 wurde Barack Obama vom Washingtoner Beratungsunternehmen Strategic Telemetry unterstützt. Hillary Clinton setzte 2016 auf die Dienste von Penn, Schoen, Berland (PSB), die neben Büros an Ost- und Westküste der USA auch an drei Europäischen Standorten sowie in Dubai Dependancen unterhalten. Letztgenannte PBS sind allerdings durch den Wahlsieg Donald Trumps medial ins Hintertreffen geraten: die Lorbeeren für die datengetriebenen Wahlkampfstrategie fuhr das bis dato unbekannte Unternehmen Cambridge Analytica ein, das erst im Sommer vom Wahkampfteam Trump beauftragt worden war, nachdem der erste bekannte Kunde, Ted Cruz, das Rennen um den republikanischen Kandidaten verloren hatte.

Die gemischten Resultate der drei genannten Unternehmen lassen bereits erkennen, dass – ganz ohne weitere Sachkenntnis – Mikrotargeting definitiv einen Anteil am Erfolg eines um Wählerstimmen kämpfenden Kandidaten haben kann. Offensichtlich jedoch ist es kein Selbstläufer, sonst hätte sich eine etablierte Firma wie PSB nicht von einem Newcomer wie Cambridge Analytica die Butter vom Brot nehmen lassen. Die Frage lautet also: Welchen Anteil hat Mikrotargeting am Erfolg eines Kandidaten?

Wie funktioniert Mikrotargeting?

(Daten-)Technische Grundlage des Mikrotargeting ist die Vorhersageanalyse aka Predictive Analytics. Die im Vergleich mit Deutschland signifikant andersartigen Datenschutzregeln und das Wahlverfahren erlauben es den Parteien in den USA, Informationen über Einkommen, Konsumgewohnheiten, etc. der Wähler im Wahlkampf zu nutzen. Der republikanische Anwärter auf die Präsidentschaftskandidatur, Ted Cruz, sorgte selbst in dieser aus deutscher Sicht eher freizügigen Umgebung für negative Schlagzeilen, als in seinem Auftrag die oben genannte Cambridge Analytica mit Hilfe spezifischer Persönlichkeitsfragebögen, für deren Ausfüllen auf Facebook jeder Nutzer 1 US-Dollar bekam, detaillierte Persönlichkeitsprofile erstellte. Da dies den Facebook Nutzungsbedingungen zuwider lief, wurde das Verfahren eingestellt. Die erhobenen Daten liegen Cambridge Analytica jedoch weiter vor und wurden im Anschluss im Wahlkamof für Donld Trump eingesetzt. In Deutschland ist es dagegen nicht zulässig, Daten dieser Art zu erheben und im Wahlkampf zu verwenden.

Dies erschwert die Arbeit des Datenanalysten, macht sie jedoch mitnichten unmöglich. Wenn keine entsprechenden Informationen über demographische Daten, Verhalten und Gewohnheiten der Wähler vorliegen, werden entsprechende Annahmen getroffen und mit politischen Empfänglichkeiten korreliert. Für eine erste grobe Einstufung reichen Postleitzahlen – genauere Angaben ergeben sich dann durch zugekaufte Daten, die beispielsweise Verträge, Rabattkarten oder online gestellte Informationen wie oben genannte Quizzes. Da viele Social Media Nutzer regelmässig an derlei Quizzes und Umfragen teilnehmen, reichen diese Angaben aus, um Aussagen über wahrscheinliche Präferenzen von Menschen treffen zu können.

Dazu zählen insbesondere Antworten auf die folgenden Fragen:
– Wie wahrscheinlich ist es, dass ein Mensch Wechselwähler bzw. noch unentschieden hinsichtlich seiner Stimmabgabe ist?
– Für welche Themen interessiert sich die Wählerin besonders stark?
– Wie wahrscheinlich ist es, dass eine Wählerin für den eigenen Kandidaten stimmt?

Auf den über die Wähler bekannten Informationen werden nun statistische Modelle gebaut, die entsprechende Antworten auf die o.g. Fragen vorhersagen – das sogenannte Predictive Modeling. Ausgestattet mit diesen Antworten werden wählerspezifische Wahlbotschaften in Text und Bild entwickelt und den Wählern entsprechend ihrer jeweiligen Präferenzen zugeschickt – per Direktmarketing oder über Social Media Kanäle – in Deutschland hauptsächlich auf Facebook. Auf diese Weise bekommt eine nicht entschlossene 34-jährige Russlanddeutsche Wählerin mit Wohnsitz Berlin-Kreuzberg eine politische Facebook-Anzeige in ihren Stream eingespielt, die ihren Grundbedürfnissen entspricht und für sie die gesuchte Entscheidungshilfe für ihre Stimmabgabe in der Bundestagswahl 2017 ist.
Grundlage für diese letzte entscheidende Kommunikationsbotschaft ist die Fähigkeit, ein Persönlichkeitsprofil des einzelnen Menschen auf Basis der von ihm selbst hinterlassenen Daten zu erstellen, dies mit entsprechender passender Kommunikation zu verknüpfen und ihm die Botschaft in demjenigen Kanal auszuspielen, dem er vertraut und aus dem er News und Infos bezieht – kurz: Mikrotargeting.

Datenschutz und Fake News

Was für viele Menschen insbesondere vor dem Hintergrund der Wahl Donald Trumps und der eher nebulösen Berichterstattung über das Thema in etablierten Medien wie eine bedrohliche Kulisse wirkt, vor der zukünftig politische Akteure handeln, ist Tagesgeschäft von auf Datenanalyse fokussierter Unternehmen. Solange sich die Akteure innerhalb der rechtlichen Rahmenbedingungen aufhalten, ist zumindest juristisch nichts gegen dieses Vorgehen einzuwenden. Wie oben schon angedeutet, ist der aus deutscher Sicht eher laxe Umgang mit Datenschutz in den USA die Basis für einen auch am Rande der Legalität datengetriebenen Wahlkampf.

Aber nicht nur der Datenschutz spielt eine Hauptrolle: auch diejenigen Mittelsmänner in einem Wahlkampf, die zwischen Parteien und Wähler stehen: klassische Medien sowie zahllose Akteure, die via Facebook auf ihre Art Wahlkampf betreiben, indem sie neben faktischen Informationen auch Falschinformationen – Fake News – publizieren und verbreiten. Für den Social Media Nutzer wird es zunehmend schwerer, richtige von falschen bzw. gefälschten Nachrichten zu unterscheiden. Und die immanente Eigenschaft Sozialer Medien, durch stetes millionenfaches Teilen alle möglichen Inhalte in kürzester Zeit unabhängig vom Wahrheitsgehalt zu einer faktischen News zu machen, verstärkt dieses Problem.

Wahlgewinner setzen Mikrotargeting ein

Alle demokratischen politischen Parteien müssen daher einen Weg finden, durch das Dickicht der Mittelsmänner und Falschmelder einen direkten, unmittelbaren Weg zu ihren (potenziellen) Wählern zu finden, um ihre Wahlbotschaft unverfälscht an die Frau zu bringen. Insofern stellt Mikrotargeting keine Bedrohung, sondern letztlich ein unverzichtbares strategisches Instrument für politische Parteien dar. Wer zukünftig Mikrotargeting nicht nutzt, wird zum Kreise der Wahlverlierer gehören.

Mit Big Data von Business Intelligence zum datengetriebenen Unternehmen

„… aber unser Business Intelligence System verarbeitet schon heute ganz viele Daten.“ Mit dieser Antwort regaieren IT-Verantwortliche häufig, wenn das Management oder eine Fachabteilung nach „Big Data“ fragt.

Wenn Datarella um Unterstützung angefragt wird, liegt allerdings meistens schon ein konkretes Problem vor. An einem bestimmten Punkt ist das Unternehmen an die Grenze dessen gestoßen, was seine bestehenden Systemwelt zu leisten vermag. An diesem Punkt stellt sich eine fachliche Herausforderung an die Datenverarbeitung, die über die bestehende Business Intelligence hinausgeht.

Viele Unternehmen haben in den 80er und 90er Jahren in Business Intelligence investiert, ERP, ‚Enterprise Resource Planning‘ und Data Warehouses aufgebaut. Der initiale Aufwand und die Maintenance dieser Systeme ist beträchtlich. Die Strukturen und Prozesse der Unternehmen wurden nicht selten regelrecht um die rigide Architektur der BI heraumgebaut: „Das geht nicht, das bekommen wir nicht umgesetzt“ ist eine des öfteren zu hörende Aussage.

Mangelnde Flexibilität von BI Systemen

Ein wesentlicher Grund für die mangelnde Flexibilität und geringe Anpassungsfähigkeit der BI-Systeme liegt in ihrem Grundkonzept. ETL – ‚Extract, Transform, Load‘ ist der Grundprozess der Data Warehouses. Die Daten werden dabei aus dem Produktionssystem extrahiert, dann geeignet umgeformt und in die Tabellen relationaler Datenbanksysteme wie Oracle oder SAP gespeichert. Jede Veränderung der Datenstruktur, jedes neue Datenfeld, jede neue Datenquelle, die angebunden werden soll, zieht eine lange Kette von notwendigen Änderungen im Data Warehouse nach sich.

Der schwerwiegende Nachteil des klassischen ETL-Prozesses besteht jedoch darin, dass die Rohdaten aus den Produktionssystemen zuerst transformiert werden, in eine geeignete Form gebracht, bevor sie abgespeichert werden. Dabei gehen viele Daten endgültig verloren. Es ist nicht mehr möglich, die fehlenden Daten nachträglich wieder herzustellen.

Unnötiger Datenverlust 

Ein Beispiel sind die Logfiles von Webservers. Viele Unternehmen extrahieren daraus Clicks, die Links, durch die die Nutzer auf die Seite gekommen sind (Referrer) und weitere Daten zur Nutzung. Diese Daten werden dann in Tabellenform gebracht, eine zum Beispiel mit der Summe der Clicks pro Stunde, eine andere mit den verweisenden Links, eine dritte mit den Browser-Typen und den Endgeräten. Die Verbindung, welcher Nutzer mit was für einem Gerät wann auf welchen Link geklickt hat, geht dabei verloren. Genau diese Verbindung aber ist die Grundlage für wirkungsvolle Empfehlungssysteme, wie sie etwa in einem Webshop angeboten werden sollten. Ebenso ist fast niemals mehr nachvollziehbar, wie die Website zum Zeitpunkt des Clicks ausgesehen hatte, welcher Content genau auf der Seite zu finden war.

Data Intelligence 2.0

An diesem Punkt spätestens kommt Datarella ins Spiel: Eine neue Data Intelligence wird entwickelt. Wir bauen für unsere Kunden einen Datenprozess, der so weit wie möglich die Rohdaten der Produktivsysteme beibehãlt. Aus den Live-Systemen fließen die Daten in ein Auffangbecken – ein ‚Bucket‘ – und werden als mehr oder weniger unstrukturierter ‚Datensee‘ – Data Lake – gesichert. Für die unterschiedlichen Anwendungen werden daraus im zweiten Schritt Reportingsysteme wie ERP bzw. das Data Warehouse befüllt, oder auch Echtzeit-Anwendungen wie Targeting, Empfehlungsmarketing oder Systeme zum Schutz vor Betrug betrieben. Anforderungen und Datenstruktur können dabei auch nach Fertigstellung agil angepasst werden.

Unsere Erfahrung aus zahlreichen Projekten der letzten Jahre zeigt: Der Big-Data-Weg zu Business Intelligence ist nicht nur das passende Werkzeug auf die Anforderung nach Flexibilität und Echtzeitfähigkeit, sondern auch wesentlich günstiger und schneller zu realisieren, als die klassische BI. Mit Big Data wird aus Business Intelligence das datengetriebene Unternehmen.

Datarella baut Ressourcen auf und gründet Baltic Data Science in Gdansk, Polen

München/Gdansk, 16. September 2016 – Während wir in der Anfangszeit von Datarella nahezu evangelisierend unterwegs waren und das neue Big Data Paradigma die erste stelle in Workshops einnahm, scheint sich die Notwendigkeit und Fähigkeit zum Management großer Datenmengen auf breiter Front in Unternehmen durchzusetzen.

Analog dazu hat sich unsere Arbeit im Projekt verändert: zwar entwickeln wir heute und auch zukünftig initiale Projektideen und Use Cases gemeinsam mit unseren Kunden, aber die später im Prozess dazukommenden Arbeiten werden häufiger. Zusätzlich steigen die Erwartungen unserer Kunden an die Umsetzungsgeschwindigkeit.

Um diesen Anforderungen gerecht zu werden, haben wir vor geraumer Zeit beschlossen, unsere Data Science Ressourcen signifikant aufzustocken Dieser Entschluss resultierte in der Gründung von Baltic Data Science BDS mit Sitz in Gdansk, Polen. Mit BDS ist Datarella in der Lage, kurzfristig hochqualitative Ressourcen anzubieten, kurz: Data Science As A Service.

Der Grund für uns, BDS in Form eines Joint Ventures mit unseren langjährigen polnischen Geschäftspartnern ins Leben zu rufen, liegt in der erstklassigen Qualität der Arbeit der Gdaansker Entwickler, der Vertrauensbasis, die sich über die Jahre gebildet hat und dem modernen gegenüber Technologie aufgeschlossenen Klima mit leistungswilligen und engagierten Mitarbeitern.

Als unsere erste Auslandsgründung bot der Prozess bis zur Anmeldung der Baltic Data Science eine steile Lernkurve. Wir sind überzeugt, mit BDS den richtigen und zukunftsweisenden Weg zu gehen und freuen uns darauf, genau das unter Beweis zu stellen.

Job Angebote bei Baltic Data Science, Standort: Gdansk

Was Sie im Jahr 2016 von Datarella erwarten können

In den ersten Tagen eines neuen Jahres nehmen wir uns etwas Zeit, um die Ziele für Datarella festzulegen. In diesem Jahr war dies eine überaus angenehme Übung, da das Jahr 2015 sehr erfolgreich verlief und wir die meisten unserer Ziele erreicht haben – wir konnten also ohne Altlasten starten.

So, what to expect from Datarella in 2016?

Was können Sie nun im Jahr 2016 von Datarella erwarten? Neben unserem stetig wachsenden Beratungsbereich mit hochinteressanten Projekten und anspruchsvollen Kunden fokussieren wir uns im neuen Jahr auf unser Produkt Data Trust und das Projekt Data Coach. Aufgrund unseres straffen Zeitplans haben wir bisher nicht viel über Data Trust und Data Coach publiziert. Daher jetzt dieser kurze Einblick.

Data Trust
Allgemein formuliert ist Data Trust ein sicheres Marktmodell für Big Data Projekte.

Daten zwischen Unternehmen zu teilen kann sehr sinnvoll sein. Datenverarbeitung und Analyse skalieren gleichermaßen, während Entwicklung, Qualitätssicherung und Support an Effizienz gewinnen. Viele Unternehmen stehen dem Data Sharing mit Partnern allerdings skeptisch gegenüber – zum einen aus Sicherheitsgründen und Wettbewerbsaspekten, oft sprechen jedoch auch haftungsrechtliche Gründe dagegen.

Datarella Data Trust löst dieses Dilemma auf: unser Marktmodell bietet eine absolut sichere und nachvollziehbare Data Sharing Möglichkeit für Unternehmen. Die Originaldaten jedes einzelnen Unternehmens werden in separaten Buckets organisiert. Ohne Daten wegzugeben, profitieren alle Data Trust Teilnehmer von den Ergebnissen, Analysen und Vorhersagemodellen, die auf der Basis ihrer eigenen Daten und der Daten der Marktpartner erzielt bzw. durchgeführt werden. Daher sprechen wir bei Data Trust von einem Marktmodell: jeder Teilnehmer erhält einen bisher nicht vorhandenen und tiefgehenden Blick auf den Markt.

Datarella-Prediction-Engine-825x596

Auf den einzelnen separaten Data Buckets arbeitet dir Datarella Prediction Engine. Die Prediction Engine ist in den Bereichen Medien, Werbung, eCommerce, Finanzen, Mobilität und Gesundheit einsetzbar.  Mit ihr können präzise Voraussagen hinsichtlich diverser Erfolgsfaktoren in den jeweiligen Märkten getroffen werden. In Kombination bieten Datarella Prediction Engine und Data Trust  eine absolut vertrauenswürdige Plattform für Management und Analyse von Daten im Marktumfeld.

Natürlich kann Datarella Data Trust zertifiziert werden.

Data Coach
Während Data Trust ein bereits wertsteigernd im Einsatz befindliches Produkt ist, befindet sich Data Coach noch in der Entwicklungsphase. Das Endnutzerprodukt des Data Coach ist eine App, die Körperaktivitätsdaten und Umwelt- bzw. Umgebungsdaten des Nutzers sammelt. Der Nutzer teilt diese Daten mit einem geschlossenen professionellen Kreis von Personen, Institutionen oder Unternehmen und erhält von den Teilnehmern Feedback in Form handlungsrelevanter Empfehlungen hinsichtlich seines körperlichen Zustands, seines Trainings  bzw. seines allgemeinen Verhaltens.

Der Kern des Data Coach ist eine Blockchain-Umgebung, die drei elementare Aspekte eines professionellen, sicheren Netzwerks berücksichtigt:

  1. Data Security
  2. Data Provenance
  3. Peer-to-Peer Architektur

Kryptographische Hash-Funktionen und vollständig historisierte Datenketten garantieren absolut sicheres Data Sharing. Der Nutzer besitzt vollständige Kontrolle über seine Daten. Zusätzlich weiß er zu jedem Zeitpunkt, wo seine Daten sind und wer was damit machen kann. Unser Partner Ethereum stellt dabei mit seiner dezentralen Blockchain-Technologie einen essentiellen Baustein des Data Coach.

Derzeit fahren wir erste Tests mit Data Coach in den Bereichen Sport und Entertainment. Für den Gesundheitsbereich suchen wir einen Partner, der gemeinsam mit uns ein Pilotprojekt aufsetzt. Wenn Sie mit Ihrem Unternehmen Interesse am Aufbau eines oben beschriebenen sicheren professionellen Netzwerks haben, kontaktieren Sie uns bitte. Wir freuen uns auf Ihr Feedback!

Leitfaden für Big Data Projekte (2) – Gründe und Treiber für Datenprojekte in Unternehmen

Am Anfang eines Big Data Projekts steht das Bedürfnis im Unternehmen, die meist seit Jahren gesammelten, aber bisher mehr oder weniger ungenutzt gespeicherten Daten sinnvoll zu nutzen. Oft kommen spezifische Anforderungen aus einzelnen Unternehmensbereichen, die brachliegende Wertschöpfungspotenziale in bisher ungenutzten Datenpools vermuten. Im folgenden stellen wir die wichtigsten Treiber für Big Data-Projekte aus unserer täglichen Arbeit vor.

Konkurrenz
Der simpelste Anlass, im eigenen Unternehmen aktiv zu werden. Im Markt wird bekannt, dass der schärfste Konkurrent eine innovative App auf den Markt bringen wird, die datenbasiert eine signifikante Erhöhung der Kundenbindung erzielen soll. Im eigenen Unternehmen sind zwar ebenfalls Apps im Einsatz – diese dienen aber hauptsächlich der Vermarktung der eigenen Produkte und sind nicht aus einer Datenperspektive heraus entstanden.

Innovatoren
Datengetriebene Unternehmen wie Amazon, AirBnB, Uber, Google zeigen sich häufig ihren produkt- oder marketinggetriebenen „Vorgängern“ überlegen. Viele Unternehmen sind daher in Sorge, dass sie einer so unerwarteten, agilen Konkurrenz gegenüber schnell ins Hintertreffen geraten könnten.

Disruption
Eine – oftmals diffuse – Angst vor sog. „Disruption“ sitzt in einigen Branchen tief; beispielsweise sieht sich die Finanzindustrie Innovationen wie Crowdfunding, P2P Lending, Mobile Payment, Blockchain, etc. gegenüber. In der Automobilindustrie stellen Car Sharing, Added Value Services, E-Mobility-Konzepte etc. die Strategieabteilungen vor eine Herausforderung. Im Handel werden die traditionellen Platzhirsche nicht nur von Delivery Services oder innovativen Newcomers wie Amazon bedroht, sondern auch von hochinnovativ agierenden Giganten wie Walmart, die schon seit über 5 Jahren mit datenbasierten Konzepten arbeiten.

Aktionäre
Erwartungen der Shareholder: Welcher Aktionär will sein Unternehmen im Hintertreffen sehen bzw. welcher Vorstand möchte auf der Hauptversammlung erklären, dass man hinsichtlich der eigenen Datenstrategie einen Nachholbedarf in der Größenordnung von Mannjahren habe? Datenkontrolle gilt als Asset, aber auch als Risiko.

Big Data

Data-driven Marketing
Beflügelt von Best Practices entdecken mehr und mehr Marketeers die Vorteile datengetreibender Marketingentscheidungen gegenüber traditionellem Zielgruppendenken oder gar „gut feelings“. Neben der vielversprechenden Validität und Reliablität bieten datenbasierte Marketingentscheidungen auch den Vorteil der besseren Nachvollziehbarkeit. Programmatic Advertising, Social Media, CRM sind längst Teil des Marketing geworden. Der nächste logische Schritt ist die Integration der unterschiedlichen (Daten-)Silos.

Ganzheitliche Betrachtung von Geschäftsprozessen
Mit Big Data betrachten Unternehmen Businessprozesse in ihrer Gesamtheit:
– Zulieferer, Einkauf, Auswahl der Produkte für das Angebot, Logistik, Pricing, Finanzen, Sicherheit sowie Planung
– Insbesondere die Bereiche Planung und Auswahl der Produkte, „Shelf Live“ und damit verbunden Einkauf und Steuerung der Zulieferer wird erstmalig in Zusammenhang mit Marketing- und Salesprozessen gesehen

Nach dem Erkennen des Bedürfnisses hinsichtlich Big Data getriebener Projekte besteht die grösste Herausforderung in der Erkenntnis, dass grundsätzlich wertvolle Daten vorhanden sein müssten, aber diese nicht ohne weiteres zugänglich sind:
– im ETL-Prozess werden Rohdaten umformatiert und aggregiert; die Folge: ein Drill-Down ist nicht mehr möglich
– viele Tools lösen nur ein Teilproblem: beispielsweise ist im Einsatz ein Dashboard der Performance-Marketingagentur sowie ein anderes der Mediaagentur, während das Social Media Monitoring über eine Sentiment-Analyse durch die PR-Agentur abgewickelt wird
– die Datenqualität ist grundsätzlich unbekannt. Dieses Problem tritt typischerweise im Handel auf; beispielsweise finden wenig direkte Daten den Weg aus den Filialen zur Zentrale
– es ist kein oder nicht ausreichend viel Personal bzw. Expertise im Unternehmen vorhanden, um Big-Data-Projekte zu beginnen.

In unserer nächsten Folge widmen wir uns daher dem Thema Wertschöpfungsfeldern in Big Data Projekten.

Bisher in dieser Reihe erschienen:
Leitfaden für Big Data Projekte (1) – Der Paradigmenwechsel in der Datenverarbeitung

Die Datarella Weltkarte des Verhaltens

Jeder Smartphone Nutzer produziert täglich über 20 MB an Daten, die über die Sensoren seines Smartphones gemessen werden. Stellen Sie sich nun die Daten von 2 Milliarden Smartphone Nutzern weltweit vor, übersetzt in Verhalten – in Echtzeit – auf einer Weltkarte. Genau das ist unser Vision der Datarella Weltkarte menschlichen Verhaltens.

Ein typisches Smartphone im Jahr 2015 verfügt über bis zu 25 Sensoren, mit denen so unterschiedliche Aktivitäten und Umwelteinflüsse wie Bewegung, Lärmpegel, Lichtintensität oder magnetische Strahlung gemessen werden. Die meisten Smartphone Nutzer sind sich der Tatsache nicht bewusst, dass die Kamera oder das Mikrophon ihres Phones niemals ganz ausgeschaltet sind, sondern kontinuierlich Daten über die jeweilige Lichtintensitäten bzw. Geräuschpegel sammeln.

Taten sagen mehr als Worte
Actions speak louder than words – Taten sagen mehr als Worte: wenn wir einen anderen Menschen wirklich kennen(lernen) wollen, sollten wir uns seine Handlungen ansehen und nicht nur darauf hören, was er sagt. Dies gilt insbesondere aber nicht nur für Politiker. Viele zwischenmenschliche Probleme haben ihren Ursprung darin, dass Menschen andere aufgrund ihres Äußeren oder ihrer Aussagen beurteilen, anstatt sich anzusehen, wie diese Person tatsächlich handelt. Hinter oberflächlichen Unterschieden wie der äußeren Erscheinung stellen wir oft mit der Zeit fest, dass wir Anderen durchaus ähnlich sind, weil diese ähnlich handeln.

(null)

Die Datarella Vision
Unsere Vision bei Datarella ist es, Verhaltensweisen von Individuen auf einer Weltkarte abzubilden. Indem wir das Verhältnis von Bewohnern aller Kontinente auf einer Landkarte abbilden, wollen die Geschichten der Menschen, ihre Unterschiede und Gemeinsamkeiten – die Basis des Zusammenlebens – zeigen. Es gibt bereits auf Karten abgetragene Ausschnitte menschlichen Verhaltens, bereitgestellt von Unternehmen mit spezifischen Perspektiven auf ausgewählte Lebensbereiche. Beispielsweise beschreibt derWearable Device Anbieter Jawbone weltweite Schlaf- und Bewegungsmuster. Wir lernen, dass Russen morgens am längsten ausschlafen und Japaner mit der geringsten Schlafdauer auskommen. Für Reisende und Diplomaten wird die Welt hinsichtlich des Gefahrenpotenzials ihrer Regionen aufgeteilt.

Mitgestalten
Die Weltkarte menschlichen Verhaltens zu erstellen ist unser ambitioniertes Projekt für 2015. Wir wollen dieses Ziel nicht allein erreichen, sondern bauen auf Ihre Hilfe: wenn Sie ein Entwickler mit Fokus auf mobile Sensordaten sind, oder Ihr Unternehmen in einem der Bereiche Gesundheit, Finanzen, Mobilität oder Tourismus und Transport mit mobilen Sensordaten arbeitet, freuen wir uns über Ihre Kontaktaufnahme! Wenn Sie daran interessiert sind, Teil dieses interessanten Projekts zu werden, sagen Sie uns, welchen Beitrag Sie dazu leisten können. Wir freuen uns auf Sie!

Analyse von Smartphone-Sensordaten mit R – Blogpost zu unserem „Call for Data Fiction“

Als Antwort auf unseren „Call for Data Fiction“ hat Benedik Köhler eine anschauliche Analyse unseres Testdatensatz durchgeführt. Mit dem Paket „Breakout Detection“ für die Statistik-Software R hat er auf einfache Weise die Punkte in den Daten erkannt, an denen sich die Lage unseres Smartphones im Raum verändert hat.

Hier sein Blogpost mit dem Programmiercode:
http://beautifuldata.net

Mit unserer API auf die Smartphone-Daten zugreifen

Für die App ‚explore‘ stellt Datarella ab sofort eine Schnittstelle (eine „API“) zur Verfügung, mit der je Nutzerin und jeder Nutzer zugriff auf die Daten erhält, die von der App gesammelt und abgespeichert werden.

„Application Programming Interface“, kurz API, ist eine Schnittstelle, die es möglich macht, von Außen auf ein Computerprogramm oder eine Datenbank zuzugreifen. Web-APIs, die uns den Zugriff via Internet ermöglichen, sind die Grundlage für die meisten Geschäftsmodelle im Web. Wenn wir mit Kreditkarte bezahlen, greift das Shop-System auf die API des Kreditkartenanbieters zu. Ebay, Amazon, Paypal, sie alle stellen uns APIs zur Verfügung, mit denen wir so gut wie die gesamte Funktion der Angebote in unsere eigenen Websites einbauen können. Auch die meisten Social Networks stellen APIs zur Verfügung. Darüber können wir automatisierte Nachrichten versenden, Daten zur Nutzung und Reichweite abrufen, oder Werbekampagnen steuern.

Die App ‚explore‘ wurde von Datarella entwickelt, um auf die Sensoren („Probes“) des Smartphones zuzugreifen und die von den Sensoren gemessenen Daten zu speichern. Dabei gibt es nicht nur die üblichen Daten zum Ort (Geo-Location), wie sie von Google Maps bekannt sind. ‚explore‘ zeigt die Bewegungen im Raum, über das Gyroskop, die Beschleunigungen und das Magnetfeld in der Umgebung. Auch die Mobilfunk- und Wifi-Netze, die das Smartphone empfangen kann, werden getrackt (über die Sensoren im Smartphone hatten wir zuletzt hier geschrieben). Aus diesen Informationen kann man viele interessante Dinge über sich, die Umgebung und das eigene Verhalten lernen. Damit die Daten nicht losgelöst von jedem Kontext stehen, kann man über die API auch Werte aus den Daten der anderen ‚explore‘-Nutzerinnen abrufen. Die Daten der anderen Nutzer sind aus Gründen des Datenschutz allerdings nur als zusammengefasste Mittelwerte abrufbar, so dass der Rückschluss auf einzelne Nutzer ausgeschlossen ist.

Mit der API für ‚explore‘ bekennt sich Datarella zu Open Data: Daten müssen den Nutzerinnen und Nutzern zur Verfügung stehen, davon sind wir überzeugt.

➜ Hier geht’s zur Dokumentation der API: explore.datarella.com/data_1.0.html

➜ Hier der Link zum Download von ‚explore‘: play.google.com

Wir freuen uns über eure Ideen, was Ihr mit aus den Daten macht!

Die App 'explore' hier herunterladen.
Die App ‚explore‘ hier herunterladen.