DNA und Big Data – Die Ära der Biopunks – SXSW 2017

Was verbindet die menschliche DNA mit Big Data? Warum ist es wichtig, sich bereits heute Gedanken darüber zu machen, vor welche Herausforderungen uns Daten über den menschlichen Körper stellen? Wie kann das Individuum wissen, welche Daten über seinen Körper existieren, diese erzeugen, verarbeiten und zu seinem Vorteil nutzen? 

Und wie ist es um das Thema Sicherheit und Privatsphäre bestellt? Wer kann an Daten über mich herankommen, diese nutzen und zu welchen Konsequenzen führt das für mich? Welche Gesetze und Rahmenbedingungen sind bereits geschaffen worden oder müssen installiert werden, damit die Konsequenzen der Verfügbarkeit der Biodaten für den Einzelnen und Gesellschaften beherrschbar bleiben?

Wer Antworten zu diesen Fragen sucht oder vielleicht schon hat, dem ist der Besuch des Talks Biopunk: Subverting Biopolitics auf der Konferenz SXSW im texanischen Austin zu empfehlen: Heather Dewey-Hagborg (School of the Art Institute of Chicago), Simone Browne (The University of Texas, Austin) und Joerg Blumtritt (CEO Datarella) präsentieren und diskutieren den aktuellen Wissenstand zum Thema.

Big Data, Blockchain, IoT: Das Ende asymmetrischer Information

Principal-Agent-Probleme, Moral Hazard, Public Choice Probleme und einige andere bekannte große betriebs- und volkswirtschaftliche Herausforderungen stellen seit den 50er Jahren des 20. Jahrhunderts einen relevanten Teil der jeweiligen Fachgebiete dar. James McGill Buchanan erhielt für seine ökonomische Theorie des Staates 1986 den Nobelpreis für Wirtschaftswissenschaften. Anlässlich derselben Preisverleihung im Jahr 2016 an Oliver Hart und Bengt Holmström, die für ihre Arbeiten auf dem Feld der Vertragstheorie ausgezeichnet wurden, werfen wir einen Blick auf die aktuelle technologische Realität, in der IoT, Blockchain und Big Data die oben genannten Herausforderungen lösen und das Forschungsfeld obsolet machen.

Der Begriff Big Data steht nicht nur für eine unüberbrückbare Datenflut, die schneller auf uns zuströmt, als dass wir sie schrittweise abarbeiten können, sondern auch für Ubiquitär vorhandene Daten bei jedweden Fragestellungen. Im Zusammenhang mit dem Internet of Things stehen über kurz oder lang in jeglicher Hardware alle Daten über Nutzung des „Things“ sowie über Kontext und Umwelt der Nutzung zu Verfügung. Maschinen werden gewartet, bevor sie kaputtgehen, Menschen werden rechtzeitig vor drohenden Unfällen gewarnt, und passende Empfehlungen werden auf Basis des erwarteten Nutzerverhaltens für zukünftige Produkte und Services ausgesprochen.

Mit anderen Worten: asymmetrische Informationszustände, die die Grundlage für Theorien wie Moral Hazard oder Principal-Agent-Probleme darstellen, wird es zukünftig nicht oder kaum noch geben. Während ohne die genannten Technologien Informationen ungleich verteilt waren, ermöglichen Big Data und IoT gemeinsam mit bestehenden Infrastrukturen wie dem Internet und der praktisch grenzenlosen Verfügbarkeit von Speicherkapazität und Bandbreite auch für das Individuum eine symmetrische Verteilung der Information.

Moral Hazard
Ein wichtiger Aspekt der Informationsasymmetrie besteht im (fehlenden) Vertrauen der Vertragspartner: wenn beispielsweise ein Versicherungsunternehmen ein Auto versichert, muss es davon ausgehen, dass der Versicherungsnehmer weniger sorgfältig mit dem Auto umgeht, als wenn er keine Versicherung abgeschlossen hätte. Dieser Moral Hazard ist der Grund für die Einführung des Selbstbehalts, der zumindest allzu große Nachlässigkeit vermeiden soll.

Jeder ab 1996 gebaute PKW bietet die Möglichkeit, über einen sogenannten OBD (On Board Diagnostic) Adapter, zumindest elementare Daten über die Fahrhistorie zu liefern. Für die Wartung des Fahrzeugs oder auch für die Beweisaufnahme bei Unfällen bieten diese Daten entscheidende Vorteile. Der berühmt gewordener Fall eines Journalisten, der angab, trotz korrekten Fahrverhaltens mit einem Tesla auf freie Strasse stehengeblieben zu sein, konnte durch die Analyse der Fahrdaten widerlegt werden.
Wenn nun diese Fahrdiagnosedaten auch dem Fahrer zu Verfügung gestellt werden, beispielsweise in Form von Apps, die ihn nicht nur auf fallenden Reifendruck aufmerksam machen, sondern ihm auch zeigen, wie er besonders sparsam und umweltverträglich fahren kann, ist die ursprüngliche Informationsasymmetrie aufgehoben. Wenn dann auch noch Werkstattbesuche automatisch geplant und vereinbart werden, weil über die Fahrdiagnose und den Kalender des Fahrers entsprechende Optionen geprüft werden können, erweiterte sich der Kreis der Informationstransparenz um eine weitere Ebene.

Principal-Agent-Probleme
Immer, wenn ein Principal einen Agent anheuert, um eine Leistung zu erbringen, besteht die Herausforderung darin, den richtigen Preis für diese Leistung zu bestimmen. Wird ein aus Sicht des Agents zu niedriger Preis vereinbart, wird er nur das Allernötigste beisteuern und die Gesamtleistung vermutlich darunter leiden. Ist der Preis aus Sicht des Principals zu hoch, wird er den Auftrag nicht erteilen. Der richtige bzw. optimale Preis ist demnach dann zu erzielen, wenn hohe Informationstransparenz bzw. Informationssymmetrie herrscht.

Ein nettes Beispiel zur Verdeutlichung des positiven Effekts von Informationssymmetrie ist die 2014 vom indischen Staat eingerichtete Website, auf der öffentlich und in real time die Büroarbeitszeiten von über 80.000 Verwaltungsangestellten in Neu-Delhi dargestellt werden. Im System werden lediglich Anfangs- und Endzeiten der Büropräsenz ermittelt, aber allein diese Informationen haben die Abwesenheitsrate der Verwaltungsangestellten dramatisch gesenkt.

Blockchain
Informationsasymmetrie führt oft zu mangelndem Vertrauen der Vertragspartner. In der Vergangenheit wurden Verrauensdefizite durch den Einsatz von Treuhand-Institutionen wie Notaren, Treuhandkonten, etc. ausgeglichen. Diese zusätzliche Einrichtung zwingend notwendiger neutraler Dritter ist ein kostspieliges Element in Verträgen: kein Beteiligter will es, alle brauchen es.

Durch den Einsatz der Blockchain – insbesondere durch die systemimmanente Unveränderbarkeit (Immutability) der in der Blockchain enthaltenen Daten, sowie durch den Einsatz von Smart Contracts und korrespondierender Krypto-Währungen wie Bitcoin oder Ether – wird die Funktion des Treuhänders von einer automatisch und autonom handelnden Maschine-zu-Maschine Kommunikation ersetzt. Allein der Ersatz dieser bisher benötigter Vertrauens- und Abwicklungsinstitutionen soll der Finanzindustrie rund ein Fünftel der Kosten der Abwicklung des Geldverkehrs einsparen.

Bringen Big Data, IoT und Blockchain das Ende asymmetrischer Information?

Oliver Hart und Bengt Holmström, der in den 1970er Jahren die Principal-Agent-Theorie mitentwickelte, erhielten den Nobelpreis für ihre Arbeiten zur Optimierung von Verträgen. Dabei spielen insbesondere sog. „unvollständige Verträge“ eine große Rolle – Verträge, die nicht vollständig alle theoretisch entstehenden Vertragssituationen regeln. Diese 100%-Abdeckung wird auch auf Basis der aktuellen technologischen Entwicklung nicht garantiert – aber im Vergleich zur Zeit der Entstehung dieser Theorien bieten die heute verfügbaren Daten und Methoden gänzlich andere, bessere Möglichkeiten der Vertragsgestaltung. Das oben bemühte Beispiel eines Autounfalls stellt sich für den Fahrer, das Unfallopfer, den Versicherer und alle am Unfall Beteiligten heute komplett anders dar, als noch Ende des 20. Jahrhunderts: die heute verfügbaren Daten und Methoden der Analyse lassen nahezu keinen (subjektiven) Ermessensspielraum bei der Beurteilung der Situation mehr zu und ermöglichen so ein a priori gänzlich andersartige Vertragsgestaltung.

Das Zeitalter asymmetrischer Information neigt sich dem Ende zu.

Small Data? Alter Wein in neuen Schläuchen

In unseren Projekten, aber auch auf Konferenzen, hören wir gelegentlich den Begriff Small Data. In Abgrenzung zu Big Data soll Small Data die Aufmerksamkeit auf einzelne oder wenige Daten lenken, die Kausalzusammenhänge zwischen Variablen abbilden sollen.

Um es kurz zu sagen: das ist alter Wein in neuen Schläuchen. Small Data gab es früher, als keine oder nur wenige Prozesse digitalisiert waren und nur geringe Datenmengen zu Verfügungs standen. Um etwa Neuproduktentscheidungen auf Basis von Daten zu treffen, behalf man sich mit Marktforschungsmassnahmen, die eine ungefähre Ahnung des aktuellen und zukünftigen Kundenverhaltens vermittelten. Das ist die klassische Marktforschung, oder auch Marktforschung 1.0.

Seitdem immer mehr Prozesse digitalisiert werden, stehen Unternehmen und Individuen Daten in Hülle und Fülle zu Verfügung. Oft sind es soviele Daten, dass Unternehmen ihnen nicht mehr Herr werden, in neue Data Warehouse Infrastrukturen investieren und entsprechende neue Datenmanagemen-Prozesse neu aufsetzen müssen. Dies nicht nur, um datengetriebene Produkte zu entwickeln, sonden auch um bestehende Kundenverhältnisse zu optimieren: ein Kunde, dessen Bedürfnisse im Online-Shop, in der E-Mail- oder Call Center-Kommunikation nur unzureichend erkannt und beachtet werden, wechselt den Anbieter.
Vertreter des Small Data Gedankens werden meist von der oft als unüberschaubar wahrgenommenen Komplexität von Big Data abgeschreckt und ziehen sich deshalb auf bewährte Vorgehensweisen zurück: sie erstellen eine Hypothese – beispielsweise über das Verhalten Ihrer Zielgruppe – und suchen nach Daten, die diese Hypothese unterstützen. Sobald sie auch nur die geringsten Datenmengen gefunden haben, die ihre Hypothese unterstützt, nehmen sie dies als Beleg her und bauen darauf eine Marketingstrategie auf.

Aktuelles Beispiel für dieses archaische Vorgehen ist ein Vortrag des Marketing-Experten Martin Lindström auf dem Serviceplan Innovationstag 2016. Anhand von oben skizzierten Beispielen kommt er zu dem Schluss: „Big Data allein ist nutzlos. Im Grunde handelt es sich nur um eine Ansammlung von Daten, in denen Sie nach Korrelation suchen, aber nicht nach Kausalität – was sinnvoller wäre.“

Eine solche Aussage, getroffen von einem international anerkannten Experten, auf einer hochkarätig besetzen Konferenz, ist vermutlich im Jahr 2016 nur noch in Deutschland möglich – in einem Land, in dem das Bewahren von Bewährtem immer noch als deutlich wichtiger eingestuft wird als das Zerstören von Bekanntem, das Umwerfen und das Neu-Denken. Das Aufstellen von Hypothesen mit einer angeschlossenen auf geringen Datenmengen basierten Analyse wurde bis vor ca. 5 Jahren als Marktforschung durchgeführt. Nicht jedoch, weil man wusste, dass dies eine sinnvolle Methode beispielsweise zur Vorhersage von Kundenverhalten wäre, sondern weil auf der Basis der vorhandenen Daten dies damals das bestmögliche Vorgehen war. War.

In der Zwischenzeit hat sich die Welt jedoch geändert: wir haben jetzt die Daten, die uns ein vielfach besseres Bild der Gegenwart, wie auch der Zukunft ermitteln. Und weil wir diese Daten haben, müssen wir uns auch nicht mehr selber als Propheten betätigen und die Zukunft voraussagen, sondern wir sehen uns die Daten an, erkennen Korrelationen (nicht Kausalitäten) und entwickeln daraus Zukunftsoptionen.

Insbesondere der Unterschied zwischen Kausalität und Korrelation scheint sich in einigen Expertenkreisen noch nicht wirklich herumgesprochen zu haben. Der Grund, auf das Erkennen von Kausalitäten zugunsten von Korrelationen zu verzichten, ist einfach: Wenn Martin Lindström berichtet, dass ein Teenager seine Turnschuhe lieber abgetragen trägt, gilt das für genau diesen einen Teenager. Womöglich zeigt sich sogar, dass sich 100 Teenager so verhalten. Für ein Neuprodukt mit „pre-used“ Sohlen reicht das jedoch nicht. Diese „Kausalität“ hilft uns nicht weiter. Sie ist weder übertragbar, noch skalierbar.

Was uns weiterhelfen würde, wäre beispielsweise die Aussage, dass die Zeit, die Teenager durchschnittlich auf dem Skateboard verbringen, signifikant höher ist, wenn ihre Schuhe ein Mindestalter von > 6 Monaten haben und die Sohle um mind. 30% abgenutzt ist. Durch Sensoren im Schuh könnte eine solche Information verfügbar gemacht werden. In diesem Fall hätten wir einen tatsächlichen Beleg für das beschriebene Verhalten – im Fall der Lindströmschen Beobachtung handelt es sich lediglich um eine Anekdote.

Wir haben heutzutage die Möglichkeit, grosse Datenmengen zu erzeugen und zu analysieren. Lassen wir uns diese reichhaltigen Erkenntnis-Pool nicht entgehen! Indem wir uns selbst und unsere eigene Wahrnehmungsfähigkeit zunächst zurücknehmen und Daten sprechen lassen, werden wir unseren Blickwinkel deutlich erweitern und viele erstaunlich und bisher für undenkbar gehaltene Zusammenhãnge erkennen. Hören wir weniger auf Experten, sondern bilden wir uns unsere eigenen Meinungen basierend auf der Analyse von Big Data!