Die Blockchain Killer App

Auf der Blockshow Europe, der ersten großen Blockchain Konferenz in Deutschland, habe ich die Blockchain Killer App gesehen. Zumindest war dies auf einer Folie in einem Startup Pitch zu lesen. Oh Lord, won’t you build me a blockchain killer app? My friends all build features, I must make amends. Wirklich?

Der Mensh möchte den Mars bewohnen, unsterblich sein und einzigartige Produkte entwickeln, aus denen Milliardenunternehmen entstehen. Insbesondere die Blockchain als fundamental neue Technologie birgt das Versprechen, weltverändernde Produkte und Services zu schaffen. Naturgemäß begeistert dies die unterschiedlichsten Charaktere: vom für die Infrastruktur zustöndigen Technik-Nerd bis zum Abenteurer, der binnen weniger Monate mit Hilfe eines Initial Coin Offering ICO reich wird. Auf dem Cryptocurrency-Markt ist es derzeit leicht, sein Vermögen rasch zu mehren, da das Thema erst im Jahr 2017 oder gar 2018 für die Mehrheit der Anleger bekannt udn relevant wird und entsprechende Liquidität erhält. In den letzten 6 Monaten allein ist die gesamte Marktkapitalisierung der Cryptocurrencies um 10 Milliarden US-Dollar gestiegen und liegt derzeit be etwa 28 Milliarden US-Dollar. Diese Mischung aus Abteurern und errnstzunehmenden Projekten ist in den Anfängen einer Innovation oft zu beobachten . bis sich dann die relevanten Use Cases herausschälen und sich die Spreu vom Weizen trennt.

Die Funktion der Cryptocurrency ist allerdings nur ein Aspekt eines Digital Token. Die Blockchain kann als eine Art zusätzliche Schicht über dem Internet gesehen werden, die Transaktionen ermöglicht. Aspekte wie Unveränderbarkeit der Daten und eine distribuierte Datenhaltung ermöglichen ein sichereres und kostengünstigeres Datenmanagement, als dies konventionelle Datenbanken erlauben. Die Suche nach dem Heiligen Gral, der Killer App – oder genauer: Killer Dapp, denn: es handelt sich um dezentrale Apps – hat begonnen. Die Start-up Übersicht AngelList verzeichnet derzeit etwa 580 Blockchain Startups mit 770 Investoren und einer durchschnittlichen Bewertung i.H.v. 4,1 Millionen US-Dollar.

Zurückkommend auf die Behauptung des Unternehmensgründers im Pitch, er habe die Killer App entwickelt, sehe ich keine derartige Killer App im Blockchain-Bereich, weder aktuell, noch zukünftig. Der von mir hochgeschätzte Benedict Evans von A16Z hat mein Gefühl kürzlich in einem Tweet so ausgedrückt:

Looking at a strategy doc I worked on in 2006. All the ’next big things‘ weren’t. Then they came back as check-box features in every app

Nach mittlerweile etwa zwei Jahren Arbeit mit der Blockchain mit Industriekunden, Medienunternehmen und Partnern aus dem Finanzbereich sehe ich die Bedürfnisse des Marktes in Produkten und Lösungen, die man vielleicht als langweilig bezeichnen könnte: alle uns bekannten Unternehmen suchen derzeit vorrangig nach inkre,entellen Optimierungen bestehender (Teil-)Prozesse. Das heisst: nicht verheissungsvoll klingende neue Lösungen (für oft nicht existente Probleme) sind gewünscht, sondern harte, in der Realität rasch messbare Vorteile bringende Anwendungen, die neben einer objektiven Verbesserung des Status Quo auch stichhaltige Argumente liefern, um die meist zahlreichen unternehmensinternen Zweifler von der Sinnhaftigkeit der neuen Technologie Blockchain zu überzeugen. Evolutionäre Veränderung und Zusammenarbeit mit den Unternehmensbereichen, die für konventionelle Lösungen stehen, sind sinnvoller, als die gern zitierte Disruption, die über Nacht langjährig bestehende Prozesse ablösen soll und am liebsten alle Mitarbeite mit Beginn des nächsten Tages in einem gänzlich neuen Paradigma arbeiten lassen möchte.

Sicher: mit der Einführung der Blockchain allein wird schon ein Paradigmenwechsel begründet, indem die vielzitierten Mittelsmänner ausgeschaltet werden. Allerdings sind Mittelsmänner seit langem eine vom Aussterben bedrohte Spezies, und die Blockchain nicht der erste Feind, dessen sie sich erwehren müssen.

Die meisten Menschen mögen keine Veränderung. Und auch die meisten Manager in Unternehmen mögen keine Veränderung. Warum also legen wir Blockchain-Enthusiasten nicht einfach das Damoklesschwert Disruption beiseite, versuchen es mit Zusammenarbeit mit den Vertretern des konventionellen Datenmanagements und entwickeln gemeinsam sinnvolle und wertstiftende Anwendungsszenarien? Wenn kostenminimierende Use Cases oder neue Umsatzpotenziale gefunden werden, wird nicht nur mehr Wert erschaffen, auch die Zusammenarbeit der Crypto-Blockchain-Nerds mit den Vertretern der „alten Schule“ verläuft reibungsloser und konstruktiver; dann ist die Vermittlung von Wissen in beide Richtungen möglich: gestandene Ingenieure lernen Vor- und Nachteile von Pow und PoS kennen und zeigen ihrerseits den Blockchain-Enwticklern Grenzen und Potenziale bei der Implementierung von Blockchains und der Anbindung von Legacy-Systemen in Unternehmen auf.

Im Jahr 2017 sind etablierte Unternehmen bereit und willens, die Blockchain als innovative Technologie zu implementieren. Meiner Ansicht nach heißt das für Startups: analysiert die Bedürfnisse der Unternehmen und stellt ihnen Eure spezifische Lösung vor mit dem Ziel, Eure hochinnovative Idee einem unmittelbaren Praxistest in der Realität zu unterziehen und ein ernstzunehmenderr Partner etablierter Unternehmen zu werden. Denkt evolutionär, nicht revolutionär!

That’s it.

Die Blockchain Revolution

1926 veröffentlichte der sowjetische Wissenschaftler Nikolai Kondratjew seinen Aufsatz „Die langen Wellen der Konjunktur“. Auf Basis der von ihm in Deutschland, Frankfeich, England und den USA gesammelten Daten hatte er festgestellt, dass kurze konjunkturelle Zyklen von längeren Wellen überlagert werden, die zwischen 40-60 Jahre andauern. Zum Zeitpunkt der Veröffentlichung seines Aufsatzes befand man sich etwa in der Mitte der dritten Welle, die schliesslich mit dem zweiten Weltkrieg ihr Ende fand.

Die einzelnen Wellen lassen in den Aufschwungsperioden durch Jahre mit überwiegend guter Konjunkturund in den Abschwungsphasen durch einen Überhang an Rezessionsjahren beschreiben. Zugrunde liegen diesen Entwicklungen Basisinnovationen wie die Erfindungen der Dampfmaschine, der Eisenbahn, etc., die mit nachhaltigen Produktivitätssteigerungen einhergehen. Aktuell befinden wir uns in der 5. Kondratjew-Welle, der Informationstechnologie, die Ende der 80er Jahre des 20. Jahrhunderts begann. Der Beginn der Hochphase der aktuellen Welle dürfte etwa im Jahr 2005 erreicht worden sein. Blickt man aus dem Jahr 2017 innerhalb der Informationstechnologie zurück, stellt man fest, dass dies mit der Emanzipation des Internet zusammenfällt. Heute, 15 Jahre nach der ersten massiven Korrektur der Internetindustrie in den Jahren 2000-2002, stehen die signifikanten Produktivitätssteigerungen, die das Internet gebracht hat, ausser Frage.

Was allerdings noch zu beantworten ist: was folgt auf das Internet? Kommt die nächste bahnbrechende Technologie aus den Bereichen, die üblicherweise in diesem Zusammenhang genannt werden, wie Biotechnologie, Nanotechnologie, Robotik, Künstliche Intelligenz, usw.? Für alle diese Bereiche gibt es schlagende Argumente. Dennoch sehen wir eine bisher noch nicht auf der Agenda stehende technologische Entwicklung als ersten Anwärter auf den Titel „The Next Big Thing“: die Blockchain.

Blockchain hat bis ins Jahr 2016 hinein ein Schattendasein gefristet – nur Spezialisten wussten mit dem Thema etwas anzufangen und konnten sich dafür erwärmen. Durch eine äusserst schnelle Adaption des Themas nicht nur auf Technologie-Konferenzen, sondern auch in ersten Experimenten in Unternehmen, sowie durch öffentlichkeitswirksame beispielhafte Blockchain-Projekte wie das Blutdiamanten-Projekt von De Beers, ist die Blockchain zu Beginn 2017 in aller Munde. Ein Grund für das späte Erwachen liegt vermutlich in der Beschaffenheit der Blockchain: während Künstliche Intelligenz, Robotik et al. mit sichtbaren für den Menschen nachvollziehbaren (wenn auh teilweise erschreckenden) Beispieln aufwarten können, ist die Blockchain eine fundamentale Technologie, die an den originären Strukturen und Prozessen des Wirtschafts- und Soziallebens ansetzt:

Mit der Blockchain lassen sich bestehende Prozesse grundlegend vereinfachen, bestehende scheinbar in Stein gemeißelte Machtstrukturen in einer Weise ändern, dass Unternehmen und Institutionen dieser Technologie hochsensibel und mit grösstem Respekt begegnen. Allein das immanente Blockchain-Element der Dezentralität widerspricht tradierten Machtstrukturen diametral: jeder Arbeitnehmer weiß ein Lied davon zu singen, wie stark Top-Down heute noch die Befehlsprozesse in Unternehmen verlaufen – aktuelle Beispiele wie der VW-Abgasskandal bezeugen dies eindrucksvoll. Dezentralität bedeutet nicht nur eine Veränderung in Machtstrukturen; die in der Blockchain als verteilte Datenbank vorliegenden Informationen ermöglichen darüberhinaus Transaktionsprozesse signifikant effizienter zu gestalten – das Zero Marginal Cost Modell kann hier im Live-Einsatz beobachtet werden: Transaktionen sind zu vernachlässigbaren Kosten durchführbar. Prozesse, die bis dato an Transaktionskosten scheiterten, sind nun durchführbar.

Neben der Dezentralität kennzeichnen die Blockchain weitere Aspekte, wie die Unveränderbarkeit der Daten, eine garantierte Zurückführbarkeit auf historische Daten, und einige andere. In der praktischen Anwendung reicht meist schon die Verwendung eines der konstituierenden Elemente der Blockchain aus, um die Implementierung dieser Technologie zu rechtfertigen. Trifft man in der Realität auf Strukturen und Prozesse, die eine Kombination verschiedener Blockchain-Aspekte zur Anwendung kommen lassen, wird das Potenzial der Technologie ultimativ ausgeschöpft.

Auf einen derartigen Fall kombinierter Blockchain-Elemente sind wir im Building Blocks Projekt gestoßen, das wir gemeinsam mit unserem Partner Parity Technologies für und mit dem WFP Innovation Accelerator des World Food Programs der Vereinten Nationen durchführen. Das Ziel des Projekts besteht darin, einen relevanten Baustein zur Aufgabe des WFP – die Beendigung weltweiter Hungerprobleme – beizusteuern. „End Hunger“ – ein Ziel, das unseer Arbeit am Building Blocks Projekt nicht nur hochinteressant und herausforderend, sondern auch zu einer Herzensangelegenheit macht.

Wir werden die Entwicklung des Projekts in einzelnen Beiträgen beschreiben – es hat im Dezember 2016 begonnen und bereits Anfang Januar gab es einen ersten Proof of Concept im Süden Pakistans. Der nächste Milestone ist für Frühjahr 2017 angepeilt. Interessierten bieten wir darüberhinaus an, uns am 16. Mai in München zu besuchen: in den Räumen des WFP Innovation Accelerators werden wir gemeinsam mit den WFP Kollegen das Building Blocks Projekt vorstellen. Bei Interesse ist eine rechtzeitige Anmeldung angeraten, da das Platzangebot begrenzt ist. Das Building Blocks Projekt bietet eine große Bandbreite der Aspekte, die bei der Einführung einer neuen Technologie anfallen. Umso mehr freuen wir uns, in wenigen Wochen erste Ergebnisse vorstellen zu können.

Foto: Farman Ali, WFP

Is Code Law? Eine rechtliche Einordnung von Blockchain und Smart Contracts durch Dr. Markus Kaulartz

Der ehemalige Grateful Dead Songwriter und Co-Gründer der Electronic Frontier Foundation EFF John Perry Barlow verkündete 1996 auf dem Weltwirtschaftsforums in Davos die Unabhängigkeit des Cyberspace. Getreu seinem 15. sogenannten Prinzip des erwachsenen Verhaltens „Avoid the pursuit of happiness. Seek to define your mission and pursue that“ sieht er im Cyberspace eine Zone, in der herkömmliche Rechtsprechung nicht gilt.  Inwiefern lässt sich diese Sichtweise auf Verträge anwenden, die in Smart Contracts über die Blockchain geschlossen werden? 

Rechtsanwalt Dr. Markus Kaulartz hat eine besondere Beziehung zum Thema Code: er begann seine Karriere as Software Ingenieur und kann somit nicht nur die rechtlichen sondern auch technologischen Aspekte des Themas gut beurteilen.  Nach dem Einstieg über John Perry Barlow geht Markus in seinem Vortrag über zu Lawrence Lessig, dem Rechtsprofessor der Harvard Law Schon, der aufgrund seiner Präsidentschaftskandidatur einem breiteren Kreis der Öffentlichkeit bekannt wurde: „Cyberspace, left to itself, will not fulfill the promise of freedom. Left to itself, cyberspace will become a perfect tool of control“ sprach Lessig 1998 und deutet damit  – obschon Vertreter einer libertinären Geisteshaltung – an, dass eine Gesellschaft ganz ohne die Einflussnahme einer rechtlichen Ordnung nicht existieren kann.

Und genau darin besteht die Grundaussage von Markus Kaulartz: die Verfassung eines Staates regelt das Gesetz, welches wiederum maßgeblich sowohl für Code als auch das Leben seiner Bürger ist. Zusätzlich können im Code Regeln für das Leben definiert sein – diese jedoch ersetzen nicht das geltende Recht, sondern sind ihm unterworfen. Dieser einfache Zusammenhang, der zumindest in rechtsstaatlichen Gesellschaften Gültigkeit hat, wurde während des Ethereum Munich Meetups von einzelnen Besuchern in Frage gestellt: während juristisch ausgebildete oder von einer rechtlichen Perspektive aus argumentierende Zuhörer die Regulierung von Code durch geltendes Recht als natürlich und logisch empfinden, gibt es durchaus andere Stimmen, die diesen Zusammenhang auf der Basis neuer Technologien wie Blockchain und Smart Contracts zumindest in Frage stellen und neue Wege der rechtlichen Betrachtung von Code einfordern.

Markus Kaulartz stellt diesen Überlegungen vier unmissverständliche Thesen gegenüber:

  1. Architecture of freedom becomes architecture of control.
  2. Architecture of control requires regulation to enforce one’s rights of freedom.
  3. Code must understand law and vice versa.
  4. You cannot escape from law.

Markus nimmt dabei die Positions Lawrence Lessig ein und beschreibt, wie sich eine gesellschaftliche Ordnung, die auf 100-prozentiger Freiheit beruht, immer zu einer Gesellschaftsordnung der Kontrolle entwickelt. Diese Entwicklung erfordert eine Regulierung, um die Rechte des Einzelnen zu schützen und durchsetzbar zu machen. Daher muss Code im Einklang mit dem geltenden Recht formuliert werden. Allerdings sieht Markus auch die Pflicht auf Seiten der Gesetzgeber, sich mit den neuen Möglichkeiten wie Smart Contracts auseinanderzusetzen und entsprechende rechtliche Grundlagen zu schaffen. Zuletzt formuliert er unzweideutig, dass – in einem rechtsstaatlichen System – niemand dem Recht entkommen kann. Auf diese ultima ratio haben sich Völker in ihren Verfassungen geeinigt – daher stellt sie auch für Verträge, die in Form automatisch ablaufenden Codes – die Smart Contracts – die zu beachtende Rahmenbedingung dar.

Das Publikum hatte bereits während des Vortrags einige Fragen und bedachte Markus Kaulartz anschliessend mit großem Applaus. Dies zeigt: das Bedürfnis nach Klarheit im Umgang mit der Blockchain und Smart Contracts ist groß. Daher bieten wir basierend auf unseren Meetups gemeinsam mit Dr. Markus Kaulartz und unserem Partner Deloitte entsprechende die folgenden vertiefende „Is Code Law?“ Workshops in München, Stuttgart, Berlin, Hamburg und Frankfurt an.

Workshop 1
Introduction To Blockchain From A Legal Perspective

Workshop 2
Smart Contracts, Legally Revised

Workshop 3
Current Industry Specific Hot Topics And How Blockchain Can Be A Game Changer

Wenn Sie an mehr information zu den Workshops interessiert sind, schreiben Sie mir bitte eine email an michael (at) datarella (dot) com.

NewsChain – Authentische Nachrichten generieren und verbreiten

"It is man who is the content of the message of the media”

Der gefühlt am häufigsten gehörte Begriff in der zweiten Jahreshälfte 2016 ist „Fake News“, die modernere und weiter ausholende, gleichzeitig jedoch mehrheitsfähige Version der vormaligen „Lügenpresse“. Das vom Oxford Dictionary als Wort des Jahres ausgerufene „post-truth“ – im Deutschen „postfaktisch“ – wäre ohne Fake News gar nicht denkbar. 

Fake News ein Thema seit Einführung der Druckerpresse 1439

Durch absichtlich falsche bzw. in die Irre führende Meldungen wurde nicht erst in den letzten Monaten, sondern bereits im Mittelalter aus Fakten Fiktion: so bezichtigte am Ostersonntag des Jahres 1475 der Franziskaner-Mönch Bernardino da Feltre die jüdische Gemeinde der norditalienischen Stadt Trento des Mordes an dem 2 1/2-jährigen Simonino, der vermisst wurde. Auch das Blut des Jungen sollten die Juden zum Passah Fest getrunken haben. Diese Meldung verbreitete sich rasend schnell und veranlasste den Trentiner Fürstbischof Johannes IV Hinderbach dazu, alle Mitglieder der jüdischen gemeinde festzunehmen und zu foltern. 15 Juden wurden des Mordes für schuldig befunden und im Handumdrehen verbrannt. In nahegelegenen Städten nahm der Klerus dies zum Anlass, ähnliche Grausamkeiten zu begehen. Nachdem klar wurde, dass es sich bei der Anschuldigung um eine Fake News handelte, schaltete sich der Vatikan ein und forderte  Johannes IV Hinderbach auf, dem Treiben ein Ende zu setzen. Dieser jedoch weigerte sich und verbreitete seinerseits weitere Falschmeldungen ähnlicher Natur. Das in Gang gesetzte antisemitische Wüten konnte nicht mehr aufgehalten werden. Die gruselige Pointe dieser Geschichte: Simonino wurde als Heiliger Simon kanonisiert, der zahlreiche Wunder vollbracht haben soll.

Die in neuerer Zeit insbesondere im US-Präsidentschaftswahlkampf aufgetauchten Fake News verbreiten sich heute im Vergleich zum Mittelalter noch etwas schneller: wie die Gutenberg’sche Druckerpresse ab 1439 das Verbreiten von Falschmeldungen vereinfachte und beschleunigte, erledigen diesen Job heutzutage Soziale Medien, die geradezu als Durchlauferhitzer fungieren. Besonders interessant ist die Tatsache, dass mittlerweile nicht nur über vertrauenswürdige Kanäle Fake News verbreitet werden, sondern ganze Nachrichtenorganisationen erfunden oder betrieben werden, mit dem einzigen Zweck der Verbreitung von Falschmeldungen. In diesem Zusammenhang bekannt geworden ist der „Denver Guardian“ eine in dieser Form nicht existente Zeitung mit vermeintlichem Sitz in Denver, oder auch die Christian Times Newspaper, deren einzige Fähigkeit darin besteht, ähnlich zu klingen wie die real-existierende Christian Times. Eine eher humoristische Perspektive auf das Thema Fake News bieten Komödianten wie Roman Zaripov und Boris Kudryashov, der russische Pensionär, der den fiktiven Milliardär Boris Bork abgibt und mit seinem Instagram Account rasch über 17.000 Follower generierte.

Wie kann Fake News verhindert werden?

Da die Konsequenzen von Fake News wie oben beschrieben in vielen Fällen jedoch drastische Ausmaße annehmen können, bleibt die Frage: wie kann Fake News verhindert werden? Wie kann sichergestellt werden, dass man beim Blick in die Zeitung, den Fernseher oder die News App nicht einer Lüge oder Halbwahrheit aufsitzt?

Vereinzelte Lösungsansätze dafür gibt es, allerdings sind bei den meisten systemimmanente Schwachstellen auszumachen, die bereits die Aussichtslosigkeit des Unterfangens erkennen lassen, bevor die Lösung überhaupt auf den Markt kommt. Ein schönes Beispiel für ein Modell der „dead-on-arrival“ Kategorie ist das tchechische Experiment CTHH , bei dem man auch ohne Einblicke in das internationale Nachrichtenwesen sieht, wie kurzlebig und erfolglos es sein wird. Auch neue stand-alone Kuratorenlösungen scheinen nicht der Weisheit letzter Schluss zu sein.

NewsChain – die Datarella Lösung für authentische Nachrichten

Da wir bei Datarella nicht kritisieren, ohne selbst mit einem Lösungsvorschlag daherzukommen, haben wir das Projekt ‚NewsChain‘ ins Leben gerufen. Seit Anfang 2015 beschäftigen wir uns intensiv mit der Blockchain und haben im Kundenauftrag sowie in eigenen Projekten diverse Nutzungsszenarien – vulgo use cases – der Blockchain entwickelt. Ein elementares Element unserer Arbeit basiert dabei auf der Erkenntnis, dass sinnvolle use cases fûr neue Technologien immer dort vorliegen, wo bereits heute Strukturen vorliegen und Prozesse ablaufen, auf die die Innovation angewendet werden kann. Mit anderen Worten: wir versuchen keine neuen Cases zu finden, sondern konzentrieren uns auf real-existierende Szenarien, die unter Einsatz der neuen Technologie einen Evolutionssprung machen.

Ein solches Szenario liegt unserer Meinung bei „News“ vor. Zugleich haben wir nebst passenden Strukturen und Prozessen ein handfestes Problem – Fake News – das wir möglicherweise unter Verwendung der neuen Technologie Blockchain lösen können. Die systemimmanenten Elemente der Blockchain, Dezentralität und Unveränderlichkeit in Verbindung mit hocheffizient modellierbaren Prozessen von Konsensfindung bis zur Bezahlung bzw. Abrechnung sind unserer Ansicht nach die ideale Basis für blockchainbasierte Nachrichtengenerierung und -distribution. Unsere ‚NewsChain‘ ist kein disruptives Modell, das bestimmte Marktteilnehmer vim Markt verdrängen will. Es ist vielmehr ein System für die existierenden Teilnehmer auf dem Nachrichtenmarkt: Journalisten, Nachrichtenagenturen und interessierten weiteren Teilnehmern, die News generieren wollen.

Die NewsChain wird im Frühjahr 2017 vorgestellt. Wir arbeiten derzeit mit ausgewählten Marktteilnehmern zusammen. Wenn Sie selbst bzw. Ihre Organisation Interesse an der NewsChain hat, nehmen Sie gern Kontakt zu mir – michael (at) datarella (dot) com – auf.

Mikrotargeting in der Politik – Wie mit Hilfe von personenbezogenen Daten auch in Deutschland Wahlkampf gemacht wird

Karl Rove, der Architekt der Wahlsiege von George W. Bush als Gouverneur von Texas in den Jahren 1994 und 1998, sowie – deutlich bekannter – der Wahlen zum US-Präsidenten 2000 und 2004, gilt als Innovator des datengetriebenen Wahlkampfs. In Vorbereitung auf die 2004 Kampagne kamen er und sein Team zu dem Schluss, dass Bush 3 Millionen mehr Wähler benötigte, als noch im Jahr 2000. Durch die landesweite Ansprache konservativer Priester, jeweils 10-20 Kirchenbesucher zur Wahl George W. Bushs zu überzeugen, gelang die Wiederholung des Wahlsiegs von 2000 im Jahr 2004 mit ziemlich genau 3 Millionen Stimmen Unterschied.

Karl Rove arbeitete hauptsächlich mit Direktmarketing-Methoden, sein Unternehmen hatte zum damaligen Zeitpunkt die größte entsprechende Datenbank mit demographischen Informationen über nordamerikanische Wähler aufgebaut. Wenngleich im Unterschied zu breit gestreuten Marketingmassnahmen im Direkt-Mailing einzelne Personen angesprochen werden, erhalten alle Personen immer noch dieselbe Kommunikationsbotschafft – unabhängig von ihren individuellen Präferenzen.

Was ist Mikrotargeting?

Hierin besteht der Unterschied zum Mikrotargeting, mit dem sich eine politische Partei zwar ebenfalls an Individuen richtet, ihre Botschaft jedoch an den spezifischen Rahmenbedingungen und Präferenzen des Empfängers ausrichtet. Möglich wird Mikrotargeting durch den Zugriff auf erheblich mehr Daten über jeden eizelnen Wähler, als dies noch zu Karl Roves Zeiten der Fall war. In seinen Wahlkämpfen 2008 und 2012 wurde Barack Obama vom Washingtoner Beratungsunternehmen Strategic Telemetry unterstützt. Hillary Clinton setzte 2016 auf die Dienste von Penn, Schoen, Berland (PSB), die neben Büros an Ost- und Westküste der USA auch an drei Europäischen Standorten sowie in Dubai Dependancen unterhalten. Letztgenannte PBS sind allerdings durch den Wahlsieg Donald Trumps medial ins Hintertreffen geraten: die Lorbeeren für die datengetriebenen Wahlkampfstrategie fuhr das bis dato unbekannte Unternehmen Cambridge Analytica ein, das erst im Sommer vom Wahkampfteam Trump beauftragt worden war, nachdem der erste bekannte Kunde, Ted Cruz, das Rennen um den republikanischen Kandidaten verloren hatte.

Die gemischten Resultate der drei genannten Unternehmen lassen bereits erkennen, dass – ganz ohne weitere Sachkenntnis – Mikrotargeting definitiv einen Anteil am Erfolg eines um Wählerstimmen kämpfenden Kandidaten haben kann. Offensichtlich jedoch ist es kein Selbstläufer, sonst hätte sich eine etablierte Firma wie PSB nicht von einem Newcomer wie Cambridge Analytica die Butter vom Brot nehmen lassen. Die Frage lautet also: Welchen Anteil hat Mikrotargeting am Erfolg eines Kandidaten?

Wie funktioniert Mikrotargeting?

(Daten-)Technische Grundlage des Mikrotargeting ist die Vorhersageanalyse aka Predictive Analytics. Die im Vergleich mit Deutschland signifikant andersartigen Datenschutzregeln und das Wahlverfahren erlauben es den Parteien in den USA, Informationen über Einkommen, Konsumgewohnheiten, etc. der Wähler im Wahlkampf zu nutzen. Der republikanische Anwärter auf die Präsidentschaftskandidatur, Ted Cruz, sorgte selbst in dieser aus deutscher Sicht eher freizügigen Umgebung für negative Schlagzeilen, als in seinem Auftrag die oben genannte Cambridge Analytica mit Hilfe spezifischer Persönlichkeitsfragebögen, für deren Ausfüllen auf Facebook jeder Nutzer 1 US-Dollar bekam, detaillierte Persönlichkeitsprofile erstellte. Da dies den Facebook Nutzungsbedingungen zuwider lief, wurde das Verfahren eingestellt. Die erhobenen Daten liegen Cambridge Analytica jedoch weiter vor und wurden im Anschluss im Wahlkamof für Donld Trump eingesetzt. In Deutschland ist es dagegen nicht zulässig, Daten dieser Art zu erheben und im Wahlkampf zu verwenden.

Dies erschwert die Arbeit des Datenanalysten, macht sie jedoch mitnichten unmöglich. Wenn keine entsprechenden Informationen über demographische Daten, Verhalten und Gewohnheiten der Wähler vorliegen, werden entsprechende Annahmen getroffen und mit politischen Empfänglichkeiten korreliert. Für eine erste grobe Einstufung reichen Postleitzahlen – genauere Angaben ergeben sich dann durch zugekaufte Daten, die beispielsweise Verträge, Rabattkarten oder online gestellte Informationen wie oben genannte Quizzes. Da viele Social Media Nutzer regelmässig an derlei Quizzes und Umfragen teilnehmen, reichen diese Angaben aus, um Aussagen über wahrscheinliche Präferenzen von Menschen treffen zu können.

Dazu zählen insbesondere Antworten auf die folgenden Fragen:
– Wie wahrscheinlich ist es, dass ein Mensch Wechselwähler bzw. noch unentschieden hinsichtlich seiner Stimmabgabe ist?
– Für welche Themen interessiert sich die Wählerin besonders stark?
– Wie wahrscheinlich ist es, dass eine Wählerin für den eigenen Kandidaten stimmt?

Auf den über die Wähler bekannten Informationen werden nun statistische Modelle gebaut, die entsprechende Antworten auf die o.g. Fragen vorhersagen – das sogenannte Predictive Modeling. Ausgestattet mit diesen Antworten werden wählerspezifische Wahlbotschaften in Text und Bild entwickelt und den Wählern entsprechend ihrer jeweiligen Präferenzen zugeschickt – per Direktmarketing oder über Social Media Kanäle – in Deutschland hauptsächlich auf Facebook. Auf diese Weise bekommt eine nicht entschlossene 34-jährige Russlanddeutsche Wählerin mit Wohnsitz Berlin-Kreuzberg eine politische Facebook-Anzeige in ihren Stream eingespielt, die ihren Grundbedürfnissen entspricht und für sie die gesuchte Entscheidungshilfe für ihre Stimmabgabe in der Bundestagswahl 2017 ist.
Grundlage für diese letzte entscheidende Kommunikationsbotschaft ist die Fähigkeit, ein Persönlichkeitsprofil des einzelnen Menschen auf Basis der von ihm selbst hinterlassenen Daten zu erstellen, dies mit entsprechender passender Kommunikation zu verknüpfen und ihm die Botschaft in demjenigen Kanal auszuspielen, dem er vertraut und aus dem er News und Infos bezieht – kurz: Mikrotargeting.

Datenschutz und Fake News

Was für viele Menschen insbesondere vor dem Hintergrund der Wahl Donald Trumps und der eher nebulösen Berichterstattung über das Thema in etablierten Medien wie eine bedrohliche Kulisse wirkt, vor der zukünftig politische Akteure handeln, ist Tagesgeschäft von auf Datenanalyse fokussierter Unternehmen. Solange sich die Akteure innerhalb der rechtlichen Rahmenbedingungen aufhalten, ist zumindest juristisch nichts gegen dieses Vorgehen einzuwenden. Wie oben schon angedeutet, ist der aus deutscher Sicht eher laxe Umgang mit Datenschutz in den USA die Basis für einen auch am Rande der Legalität datengetriebenen Wahlkampf.

Aber nicht nur der Datenschutz spielt eine Hauptrolle: auch diejenigen Mittelsmänner in einem Wahlkampf, die zwischen Parteien und Wähler stehen: klassische Medien sowie zahllose Akteure, die via Facebook auf ihre Art Wahlkampf betreiben, indem sie neben faktischen Informationen auch Falschinformationen – Fake News – publizieren und verbreiten. Für den Social Media Nutzer wird es zunehmend schwerer, richtige von falschen bzw. gefälschten Nachrichten zu unterscheiden. Und die immanente Eigenschaft Sozialer Medien, durch stetes millionenfaches Teilen alle möglichen Inhalte in kürzester Zeit unabhängig vom Wahrheitsgehalt zu einer faktischen News zu machen, verstärkt dieses Problem.

Wahlgewinner setzen Mikrotargeting ein

Alle demokratischen politischen Parteien müssen daher einen Weg finden, durch das Dickicht der Mittelsmänner und Falschmelder einen direkten, unmittelbaren Weg zu ihren (potenziellen) Wählern zu finden, um ihre Wahlbotschaft unverfälscht an die Frau zu bringen. Insofern stellt Mikrotargeting keine Bedrohung, sondern letztlich ein unverzichtbares strategisches Instrument für politische Parteien dar. Wer zukünftig Mikrotargeting nicht nutzt, wird zum Kreise der Wahlverlierer gehören.

Wie die Versicherungsindustrie die Blockchain nutzen will – Das Ethereum Munich Meetup

Das Produkt Versicherung basiert auf einer asymmetrischen Informationsverteilung: der Versicherer besitzt Informationen über das aggregierte Verhalten seiner Versicherungsnehmer und das Auftreten von Ereignissen, die zu Schadensfällen führen. Der Versicherungsnehmer hingegen kennt sein individuelles Verhalten. Mit zunehmender Informationstransparenz nimmt die Ungleichverteilung der Information stetig ab und das klassische Versicherungsprodukt wird zunehmend in Frage gestellt.

Die Blockchain bietet aufgrund ihrer Eigenschaften wie Dezentralität, Unveränderbarkeit und Vollständigkeit ideale Tools, um eine nahezu komplette Informationstransparenz herzustellen. Konsequenterweise beschäftigen sich Versicherungsunternehmen weltweit mit der Blockchain und ihren Implikationen.

Dr. Markus Hablizel, Dirk Siegel
links: Dr. Markus Hablizel (Allianz), rechts: Dr. Dirk Siegel (Deloitte)

Mit Dr. Markus Hablizel, dem Blockchain Evangelisten der Allianz, konnten wir einen der Co-Initiatoren des Blockchain-Konsortiums für die Versicherungsindustrie – B3I – als Sprecher für unser heutiges Ethereum Meetup gewinnen. Er wird uns einen Einblick in die Denk-und Handlungsweise des Allianz Versicherungskonzerns bezüglich Blockchain geben.

Gefolgt wird sein Vertrag von Blockchain-Einblicken des Beratungsunternehmens Deloitte. Dirk Siegel berichtet uns, warum bei Deloitte Dutzende fulltime mit der Blockchain Beschäftigte arbeiten und welche Implikationen er aus einem finanzindustrie-übergreifenden Blickwinkel für die Blockchain sieht.

Wir freuen uns sehr auf die heutige Diskussion im Wirtschaftsministerium!

Kooperation der Beratungsunternehmen mm1 und Datarella zur Erschließung von datenbasierten Geschäftspotenzialen im Internet der Dinge

Stuttgart/München, 11. November 2016- Datarella, das Beratungsunternehmen für Datenbasierte Digitale Transformation und mm1, die Beratung für Connected Business, haben eine Kooperation geschlossen und bieten damit ein komplementäres Leistungsangebot in den Themenfeldern Data Thinking/Big Data und Connected Business/IoT an.

Datarella und mm1 besitzen Expertenwissen und unterstützen bei der systematischen IoT-Technologie- und Plattformauswahl, bieten Prototypisierung von IoT-Cloud-Anbindungen an oder ermitteln Big Data Hero Use Cases.

„Daten sind das ‚Rohöl des 21. Jahrhunderts‘ – zusammen haben mm1 und Datarella die erforderliche Expertise, die es unseren Klienten ermöglicht, Daten als Rohstoffquelle zu erschließen und damit neue Wertschöpfung zu ermöglichen“,

erklärt Laurenz Kirchner, Partner bei mm1.

„Wir haben den Anspruch, unsere Klienten zu Connected Business Champions und damit dauerhaft wettbewerbsfähig zu machen. Diesen Anspruch können wir durch die Kooperation mit Datarella noch besser erfüllen.“

Das Beratungsangebot von mm1 wird durch die Fähigkeit von Datarella ergänzt, IoT-Plattformdienste und IT-Architekturen für die Erschließung von datenbasierten Geschäftspotenzialen umzusetzen.

„Digitale Transformation bedeutet in erster Linie eine Menge Daten. Die Herausforderung für Unternehmen besteht im Aufbau einer leistungsfähigen und skalierbaren Dateninfrastruktur und der anschließenden Entwicklung skalierbarer Anwendungen. mm1, eine führende Beratung für Connected Business, ist für Datarella der ideale Partner, um unsere Kompetenz in der Entwicklung datenbasierter Produkte ausspielen zu können, Big Data Systeme zu konzipieren, zu entwickeln und aufzubauen“,

so Joerg Blumtritt, Datarella Geschäftsführer.

Über Datarella GmbH
Die Datarella GmbH wurde im August 2013 von ihrem Geschäftsführer Joerg Blumtritt sowie Kira Nezu, Yukitaka Nezu und Michael Reuter gegründet. Datarella ist das Beratungsunternehmen für Datenbasierte Digitale Transformation. Aufbauend auf den Unternehmensbereichen Big Data Solutions, Blockchain Solutions und IoT Solutions bietet Datarella eine Full Service Beratung inklusive Entwicklung, Umsetzung und Vermarktung datenbasierter Produkte und Services. Kooperationspartner von Datarella sind u.a. die Unternehmensberatung mm1, die European Space Agency, die BayBG, Ethereum und die Serviceplan Gruppe. www.datarella.de

Über mm1
mm1 ist die Unternehmensberatung für Connected Business. Mit rund sechzig Beratern unterstützt mm1 große Unternehmen bei der digitalen Transformation und gestaltet Produkte und Prozesse für eine zunehmend vernetzte Welt. Das Beratungsangebot reicht von der Entwicklung von Connected Business Strategien und Geschäftsmodellen bis zur Sicherstellung der effizienten operativen Umsetzung. Renommierte Unternehmen aus den Branchen Telekommunikation, Medien, Unterhaltungselektronik, Finanzdienstleistung und Automobilbau zählen zum Kundenkreis von mm1.Das Unternehmen wurde 1997 gegründet und hat seinen Firmensitz in Stuttgart.
www.mm1.de

DNA und Big Data – Die Ära der Biopunks – SXSW 2017

Was verbindet die menschliche DNA mit Big Data? Warum ist es wichtig, sich bereits heute Gedanken darüber zu machen, vor welche Herausforderungen uns Daten über den menschlichen Körper stellen? Wie kann das Individuum wissen, welche Daten über seinen Körper existieren, diese erzeugen, verarbeiten und zu seinem Vorteil nutzen? 

Und wie ist es um das Thema Sicherheit und Privatsphäre bestellt? Wer kann an Daten über mich herankommen, diese nutzen und zu welchen Konsequenzen führt das für mich? Welche Gesetze und Rahmenbedingungen sind bereits geschaffen worden oder müssen installiert werden, damit die Konsequenzen der Verfügbarkeit der Biodaten für den Einzelnen und Gesellschaften beherrschbar bleiben?

Wer Antworten zu diesen Fragen sucht oder vielleicht schon hat, dem ist der Besuch des Talks Biopunk: Subverting Biopolitics auf der Konferenz SXSW im texanischen Austin zu empfehlen: Heather Dewey-Hagborg (School of the Art Institute of Chicago), Simone Browne (The University of Texas, Austin) und Joerg Blumtritt (CEO Datarella) präsentieren und diskutieren den aktuellen Wissenstand zum Thema.

Big Data, Blockchain, IoT: Das Ende asymmetrischer Information

Principal-Agent-Probleme, Moral Hazard, Public Choice Probleme und einige andere bekannte große betriebs- und volkswirtschaftliche Herausforderungen stellen seit den 50er Jahren des 20. Jahrhunderts einen relevanten Teil der jeweiligen Fachgebiete dar. James McGill Buchanan erhielt für seine ökonomische Theorie des Staates 1986 den Nobelpreis für Wirtschaftswissenschaften. Anlässlich derselben Preisverleihung im Jahr 2016 an Oliver Hart und Bengt Holmström, die für ihre Arbeiten auf dem Feld der Vertragstheorie ausgezeichnet wurden, werfen wir einen Blick auf die aktuelle technologische Realität, in der IoT, Blockchain und Big Data die oben genannten Herausforderungen lösen und das Forschungsfeld obsolet machen.

Der Begriff Big Data steht nicht nur für eine unüberbrückbare Datenflut, die schneller auf uns zuströmt, als dass wir sie schrittweise abarbeiten können, sondern auch für Ubiquitär vorhandene Daten bei jedweden Fragestellungen. Im Zusammenhang mit dem Internet of Things stehen über kurz oder lang in jeglicher Hardware alle Daten über Nutzung des „Things“ sowie über Kontext und Umwelt der Nutzung zu Verfügung. Maschinen werden gewartet, bevor sie kaputtgehen, Menschen werden rechtzeitig vor drohenden Unfällen gewarnt, und passende Empfehlungen werden auf Basis des erwarteten Nutzerverhaltens für zukünftige Produkte und Services ausgesprochen.

Mit anderen Worten: asymmetrische Informationszustände, die die Grundlage für Theorien wie Moral Hazard oder Principal-Agent-Probleme darstellen, wird es zukünftig nicht oder kaum noch geben. Während ohne die genannten Technologien Informationen ungleich verteilt waren, ermöglichen Big Data und IoT gemeinsam mit bestehenden Infrastrukturen wie dem Internet und der praktisch grenzenlosen Verfügbarkeit von Speicherkapazität und Bandbreite auch für das Individuum eine symmetrische Verteilung der Information.

Moral Hazard
Ein wichtiger Aspekt der Informationsasymmetrie besteht im (fehlenden) Vertrauen der Vertragspartner: wenn beispielsweise ein Versicherungsunternehmen ein Auto versichert, muss es davon ausgehen, dass der Versicherungsnehmer weniger sorgfältig mit dem Auto umgeht, als wenn er keine Versicherung abgeschlossen hätte. Dieser Moral Hazard ist der Grund für die Einführung des Selbstbehalts, der zumindest allzu große Nachlässigkeit vermeiden soll.

Jeder ab 1996 gebaute PKW bietet die Möglichkeit, über einen sogenannten OBD (On Board Diagnostic) Adapter, zumindest elementare Daten über die Fahrhistorie zu liefern. Für die Wartung des Fahrzeugs oder auch für die Beweisaufnahme bei Unfällen bieten diese Daten entscheidende Vorteile. Der berühmt gewordener Fall eines Journalisten, der angab, trotz korrekten Fahrverhaltens mit einem Tesla auf freie Strasse stehengeblieben zu sein, konnte durch die Analyse der Fahrdaten widerlegt werden.
Wenn nun diese Fahrdiagnosedaten auch dem Fahrer zu Verfügung gestellt werden, beispielsweise in Form von Apps, die ihn nicht nur auf fallenden Reifendruck aufmerksam machen, sondern ihm auch zeigen, wie er besonders sparsam und umweltverträglich fahren kann, ist die ursprüngliche Informationsasymmetrie aufgehoben. Wenn dann auch noch Werkstattbesuche automatisch geplant und vereinbart werden, weil über die Fahrdiagnose und den Kalender des Fahrers entsprechende Optionen geprüft werden können, erweiterte sich der Kreis der Informationstransparenz um eine weitere Ebene.

Principal-Agent-Probleme
Immer, wenn ein Principal einen Agent anheuert, um eine Leistung zu erbringen, besteht die Herausforderung darin, den richtigen Preis für diese Leistung zu bestimmen. Wird ein aus Sicht des Agents zu niedriger Preis vereinbart, wird er nur das Allernötigste beisteuern und die Gesamtleistung vermutlich darunter leiden. Ist der Preis aus Sicht des Principals zu hoch, wird er den Auftrag nicht erteilen. Der richtige bzw. optimale Preis ist demnach dann zu erzielen, wenn hohe Informationstransparenz bzw. Informationssymmetrie herrscht.

Ein nettes Beispiel zur Verdeutlichung des positiven Effekts von Informationssymmetrie ist die 2014 vom indischen Staat eingerichtete Website, auf der öffentlich und in real time die Büroarbeitszeiten von über 80.000 Verwaltungsangestellten in Neu-Delhi dargestellt werden. Im System werden lediglich Anfangs- und Endzeiten der Büropräsenz ermittelt, aber allein diese Informationen haben die Abwesenheitsrate der Verwaltungsangestellten dramatisch gesenkt.

Blockchain
Informationsasymmetrie führt oft zu mangelndem Vertrauen der Vertragspartner. In der Vergangenheit wurden Verrauensdefizite durch den Einsatz von Treuhand-Institutionen wie Notaren, Treuhandkonten, etc. ausgeglichen. Diese zusätzliche Einrichtung zwingend notwendiger neutraler Dritter ist ein kostspieliges Element in Verträgen: kein Beteiligter will es, alle brauchen es.

Durch den Einsatz der Blockchain – insbesondere durch die systemimmanente Unveränderbarkeit (Immutability) der in der Blockchain enthaltenen Daten, sowie durch den Einsatz von Smart Contracts und korrespondierender Krypto-Währungen wie Bitcoin oder Ether – wird die Funktion des Treuhänders von einer automatisch und autonom handelnden Maschine-zu-Maschine Kommunikation ersetzt. Allein der Ersatz dieser bisher benötigter Vertrauens- und Abwicklungsinstitutionen soll der Finanzindustrie rund ein Fünftel der Kosten der Abwicklung des Geldverkehrs einsparen.

Bringen Big Data, IoT und Blockchain das Ende asymmetrischer Information?

Oliver Hart und Bengt Holmström, der in den 1970er Jahren die Principal-Agent-Theorie mitentwickelte, erhielten den Nobelpreis für ihre Arbeiten zur Optimierung von Verträgen. Dabei spielen insbesondere sog. „unvollständige Verträge“ eine große Rolle – Verträge, die nicht vollständig alle theoretisch entstehenden Vertragssituationen regeln. Diese 100%-Abdeckung wird auch auf Basis der aktuellen technologischen Entwicklung nicht garantiert – aber im Vergleich zur Zeit der Entstehung dieser Theorien bieten die heute verfügbaren Daten und Methoden gänzlich andere, bessere Möglichkeiten der Vertragsgestaltung. Das oben bemühte Beispiel eines Autounfalls stellt sich für den Fahrer, das Unfallopfer, den Versicherer und alle am Unfall Beteiligten heute komplett anders dar, als noch Ende des 20. Jahrhunderts: die heute verfügbaren Daten und Methoden der Analyse lassen nahezu keinen (subjektiven) Ermessensspielraum bei der Beurteilung der Situation mehr zu und ermöglichen so ein a priori gänzlich andersartige Vertragsgestaltung.

Das Zeitalter asymmetrischer Information neigt sich dem Ende zu.

Small Data? Alter Wein in neuen Schläuchen

In unseren Projekten, aber auch auf Konferenzen, hören wir gelegentlich den Begriff Small Data. In Abgrenzung zu Big Data soll Small Data die Aufmerksamkeit auf einzelne oder wenige Daten lenken, die Kausalzusammenhänge zwischen Variablen abbilden sollen.

Um es kurz zu sagen: das ist alter Wein in neuen Schläuchen. Small Data gab es früher, als keine oder nur wenige Prozesse digitalisiert waren und nur geringe Datenmengen zu Verfügungs standen. Um etwa Neuproduktentscheidungen auf Basis von Daten zu treffen, behalf man sich mit Marktforschungsmassnahmen, die eine ungefähre Ahnung des aktuellen und zukünftigen Kundenverhaltens vermittelten. Das ist die klassische Marktforschung, oder auch Marktforschung 1.0.

Seitdem immer mehr Prozesse digitalisiert werden, stehen Unternehmen und Individuen Daten in Hülle und Fülle zu Verfügung. Oft sind es soviele Daten, dass Unternehmen ihnen nicht mehr Herr werden, in neue Data Warehouse Infrastrukturen investieren und entsprechende neue Datenmanagemen-Prozesse neu aufsetzen müssen. Dies nicht nur, um datengetriebene Produkte zu entwickeln, sonden auch um bestehende Kundenverhältnisse zu optimieren: ein Kunde, dessen Bedürfnisse im Online-Shop, in der E-Mail- oder Call Center-Kommunikation nur unzureichend erkannt und beachtet werden, wechselt den Anbieter.
Vertreter des Small Data Gedankens werden meist von der oft als unüberschaubar wahrgenommenen Komplexität von Big Data abgeschreckt und ziehen sich deshalb auf bewährte Vorgehensweisen zurück: sie erstellen eine Hypothese – beispielsweise über das Verhalten Ihrer Zielgruppe – und suchen nach Daten, die diese Hypothese unterstützen. Sobald sie auch nur die geringsten Datenmengen gefunden haben, die ihre Hypothese unterstützt, nehmen sie dies als Beleg her und bauen darauf eine Marketingstrategie auf.

Aktuelles Beispiel für dieses archaische Vorgehen ist ein Vortrag des Marketing-Experten Martin Lindström auf dem Serviceplan Innovationstag 2016. Anhand von oben skizzierten Beispielen kommt er zu dem Schluss: „Big Data allein ist nutzlos. Im Grunde handelt es sich nur um eine Ansammlung von Daten, in denen Sie nach Korrelation suchen, aber nicht nach Kausalität – was sinnvoller wäre.“

Eine solche Aussage, getroffen von einem international anerkannten Experten, auf einer hochkarätig besetzen Konferenz, ist vermutlich im Jahr 2016 nur noch in Deutschland möglich – in einem Land, in dem das Bewahren von Bewährtem immer noch als deutlich wichtiger eingestuft wird als das Zerstören von Bekanntem, das Umwerfen und das Neu-Denken. Das Aufstellen von Hypothesen mit einer angeschlossenen auf geringen Datenmengen basierten Analyse wurde bis vor ca. 5 Jahren als Marktforschung durchgeführt. Nicht jedoch, weil man wusste, dass dies eine sinnvolle Methode beispielsweise zur Vorhersage von Kundenverhalten wäre, sondern weil auf der Basis der vorhandenen Daten dies damals das bestmögliche Vorgehen war. War.

In der Zwischenzeit hat sich die Welt jedoch geändert: wir haben jetzt die Daten, die uns ein vielfach besseres Bild der Gegenwart, wie auch der Zukunft ermitteln. Und weil wir diese Daten haben, müssen wir uns auch nicht mehr selber als Propheten betätigen und die Zukunft voraussagen, sondern wir sehen uns die Daten an, erkennen Korrelationen (nicht Kausalitäten) und entwickeln daraus Zukunftsoptionen.

Insbesondere der Unterschied zwischen Kausalität und Korrelation scheint sich in einigen Expertenkreisen noch nicht wirklich herumgesprochen zu haben. Der Grund, auf das Erkennen von Kausalitäten zugunsten von Korrelationen zu verzichten, ist einfach: Wenn Martin Lindström berichtet, dass ein Teenager seine Turnschuhe lieber abgetragen trägt, gilt das für genau diesen einen Teenager. Womöglich zeigt sich sogar, dass sich 100 Teenager so verhalten. Für ein Neuprodukt mit „pre-used“ Sohlen reicht das jedoch nicht. Diese „Kausalität“ hilft uns nicht weiter. Sie ist weder übertragbar, noch skalierbar.

Was uns weiterhelfen würde, wäre beispielsweise die Aussage, dass die Zeit, die Teenager durchschnittlich auf dem Skateboard verbringen, signifikant höher ist, wenn ihre Schuhe ein Mindestalter von > 6 Monaten haben und die Sohle um mind. 30% abgenutzt ist. Durch Sensoren im Schuh könnte eine solche Information verfügbar gemacht werden. In diesem Fall hätten wir einen tatsächlichen Beleg für das beschriebene Verhalten – im Fall der Lindströmschen Beobachtung handelt es sich lediglich um eine Anekdote.

Wir haben heutzutage die Möglichkeit, grosse Datenmengen zu erzeugen und zu analysieren. Lassen wir uns diese reichhaltigen Erkenntnis-Pool nicht entgehen! Indem wir uns selbst und unsere eigene Wahrnehmungsfähigkeit zunächst zurücknehmen und Daten sprechen lassen, werden wir unseren Blickwinkel deutlich erweitern und viele erstaunlich und bisher für undenkbar gehaltene Zusammenhãnge erkennen. Hören wir weniger auf Experten, sondern bilden wir uns unsere eigenen Meinungen basierend auf der Analyse von Big Data!