Small Data? Alter Wein in neuen Schläuchen

In unseren Projekten, aber auch auf Konferenzen, hören wir gelegentlich den Begriff Small Data. In Abgrenzung zu Big Data soll Small Data die Aufmerksamkeit auf einzelne oder wenige Daten lenken, die Kausalzusammenhänge zwischen Variablen abbilden sollen.

Um es kurz zu sagen: das ist alter Wein in neuen Schläuchen. Small Data gab es früher, als keine oder nur wenige Prozesse digitalisiert waren und nur geringe Datenmengen zu Verfügungs standen. Um etwa Neuproduktentscheidungen auf Basis von Daten zu treffen, behalf man sich mit Marktforschungsmassnahmen, die eine ungefähre Ahnung des aktuellen und zukünftigen Kundenverhaltens vermittelten. Das ist die klassische Marktforschung, oder auch Marktforschung 1.0.

Seitdem immer mehr Prozesse digitalisiert werden, stehen Unternehmen und Individuen Daten in Hülle und Fülle zu Verfügung. Oft sind es soviele Daten, dass Unternehmen ihnen nicht mehr Herr werden, in neue Data Warehouse Infrastrukturen investieren und entsprechende neue Datenmanagemen-Prozesse neu aufsetzen müssen. Dies nicht nur, um datengetriebene Produkte zu entwickeln, sonden auch um bestehende Kundenverhältnisse zu optimieren: ein Kunde, dessen Bedürfnisse im Online-Shop, in der E-Mail- oder Call Center-Kommunikation nur unzureichend erkannt und beachtet werden, wechselt den Anbieter.
Vertreter des Small Data Gedankens werden meist von der oft als unüberschaubar wahrgenommenen Komplexität von Big Data abgeschreckt und ziehen sich deshalb auf bewährte Vorgehensweisen zurück: sie erstellen eine Hypothese – beispielsweise über das Verhalten Ihrer Zielgruppe – und suchen nach Daten, die diese Hypothese unterstützen. Sobald sie auch nur die geringsten Datenmengen gefunden haben, die ihre Hypothese unterstützt, nehmen sie dies als Beleg her und bauen darauf eine Marketingstrategie auf.

Aktuelles Beispiel für dieses archaische Vorgehen ist ein Vortrag des Marketing-Experten Martin Lindström auf dem Serviceplan Innovationstag 2016. Anhand von oben skizzierten Beispielen kommt er zu dem Schluss: „Big Data allein ist nutzlos. Im Grunde handelt es sich nur um eine Ansammlung von Daten, in denen Sie nach Korrelation suchen, aber nicht nach Kausalität – was sinnvoller wäre.“

Eine solche Aussage, getroffen von einem international anerkannten Experten, auf einer hochkarätig besetzen Konferenz, ist vermutlich im Jahr 2016 nur noch in Deutschland möglich – in einem Land, in dem das Bewahren von Bewährtem immer noch als deutlich wichtiger eingestuft wird als das Zerstören von Bekanntem, das Umwerfen und das Neu-Denken. Das Aufstellen von Hypothesen mit einer angeschlossenen auf geringen Datenmengen basierten Analyse wurde bis vor ca. 5 Jahren als Marktforschung durchgeführt. Nicht jedoch, weil man wusste, dass dies eine sinnvolle Methode beispielsweise zur Vorhersage von Kundenverhalten wäre, sondern weil auf der Basis der vorhandenen Daten dies damals das bestmögliche Vorgehen war. War.

In der Zwischenzeit hat sich die Welt jedoch geändert: wir haben jetzt die Daten, die uns ein vielfach besseres Bild der Gegenwart, wie auch der Zukunft ermitteln. Und weil wir diese Daten haben, müssen wir uns auch nicht mehr selber als Propheten betätigen und die Zukunft voraussagen, sondern wir sehen uns die Daten an, erkennen Korrelationen (nicht Kausalitäten) und entwickeln daraus Zukunftsoptionen.

Insbesondere der Unterschied zwischen Kausalität und Korrelation scheint sich in einigen Expertenkreisen noch nicht wirklich herumgesprochen zu haben. Der Grund, auf das Erkennen von Kausalitäten zugunsten von Korrelationen zu verzichten, ist einfach: Wenn Martin Lindström berichtet, dass ein Teenager seine Turnschuhe lieber abgetragen trägt, gilt das für genau diesen einen Teenager. Womöglich zeigt sich sogar, dass sich 100 Teenager so verhalten. Für ein Neuprodukt mit „pre-used“ Sohlen reicht das jedoch nicht. Diese „Kausalität“ hilft uns nicht weiter. Sie ist weder übertragbar, noch skalierbar.

Was uns weiterhelfen würde, wäre beispielsweise die Aussage, dass die Zeit, die Teenager durchschnittlich auf dem Skateboard verbringen, signifikant höher ist, wenn ihre Schuhe ein Mindestalter von > 6 Monaten haben und die Sohle um mind. 30% abgenutzt ist. Durch Sensoren im Schuh könnte eine solche Information verfügbar gemacht werden. In diesem Fall hätten wir einen tatsächlichen Beleg für das beschriebene Verhalten – im Fall der Lindströmschen Beobachtung handelt es sich lediglich um eine Anekdote.

Wir haben heutzutage die Möglichkeit, grosse Datenmengen zu erzeugen und zu analysieren. Lassen wir uns diese reichhaltigen Erkenntnis-Pool nicht entgehen! Indem wir uns selbst und unsere eigene Wahrnehmungsfähigkeit zunächst zurücknehmen und Daten sprechen lassen, werden wir unseren Blickwinkel deutlich erweitern und viele erstaunlich und bisher für undenkbar gehaltene Zusammenhãnge erkennen. Hören wir weniger auf Experten, sondern bilden wir uns unsere eigenen Meinungen basierend auf der Analyse von Big Data!

Mit Big Data von Business Intelligence zum datengetriebenen Unternehmen

„… aber unser Business Intelligence System verarbeitet schon heute ganz viele Daten.“ Mit dieser Antwort regaieren IT-Verantwortliche häufig, wenn das Management oder eine Fachabteilung nach „Big Data“ fragt.

Wenn Datarella um Unterstützung angefragt wird, liegt allerdings meistens schon ein konkretes Problem vor. An einem bestimmten Punkt ist das Unternehmen an die Grenze dessen gestoßen, was seine bestehenden Systemwelt zu leisten vermag. An diesem Punkt stellt sich eine fachliche Herausforderung an die Datenverarbeitung, die über die bestehende Business Intelligence hinausgeht.

Viele Unternehmen haben in den 80er und 90er Jahren in Business Intelligence investiert, ERP, ‚Enterprise Resource Planning‘ und Data Warehouses aufgebaut. Der initiale Aufwand und die Maintenance dieser Systeme ist beträchtlich. Die Strukturen und Prozesse der Unternehmen wurden nicht selten regelrecht um die rigide Architektur der BI heraumgebaut: „Das geht nicht, das bekommen wir nicht umgesetzt“ ist eine des öfteren zu hörende Aussage.

Mangelnde Flexibilität von BI Systemen

Ein wesentlicher Grund für die mangelnde Flexibilität und geringe Anpassungsfähigkeit der BI-Systeme liegt in ihrem Grundkonzept. ETL – ‚Extract, Transform, Load‘ ist der Grundprozess der Data Warehouses. Die Daten werden dabei aus dem Produktionssystem extrahiert, dann geeignet umgeformt und in die Tabellen relationaler Datenbanksysteme wie Oracle oder SAP gespeichert. Jede Veränderung der Datenstruktur, jedes neue Datenfeld, jede neue Datenquelle, die angebunden werden soll, zieht eine lange Kette von notwendigen Änderungen im Data Warehouse nach sich.

Der schwerwiegende Nachteil des klassischen ETL-Prozesses besteht jedoch darin, dass die Rohdaten aus den Produktionssystemen zuerst transformiert werden, in eine geeignete Form gebracht, bevor sie abgespeichert werden. Dabei gehen viele Daten endgültig verloren. Es ist nicht mehr möglich, die fehlenden Daten nachträglich wieder herzustellen.

Unnötiger Datenverlust 

Ein Beispiel sind die Logfiles von Webservers. Viele Unternehmen extrahieren daraus Clicks, die Links, durch die die Nutzer auf die Seite gekommen sind (Referrer) und weitere Daten zur Nutzung. Diese Daten werden dann in Tabellenform gebracht, eine zum Beispiel mit der Summe der Clicks pro Stunde, eine andere mit den verweisenden Links, eine dritte mit den Browser-Typen und den Endgeräten. Die Verbindung, welcher Nutzer mit was für einem Gerät wann auf welchen Link geklickt hat, geht dabei verloren. Genau diese Verbindung aber ist die Grundlage für wirkungsvolle Empfehlungssysteme, wie sie etwa in einem Webshop angeboten werden sollten. Ebenso ist fast niemals mehr nachvollziehbar, wie die Website zum Zeitpunkt des Clicks ausgesehen hatte, welcher Content genau auf der Seite zu finden war.

Data Intelligence 2.0

An diesem Punkt spätestens kommt Datarella ins Spiel: Eine neue Data Intelligence wird entwickelt. Wir bauen für unsere Kunden einen Datenprozess, der so weit wie möglich die Rohdaten der Produktivsysteme beibehãlt. Aus den Live-Systemen fließen die Daten in ein Auffangbecken – ein ‚Bucket‘ – und werden als mehr oder weniger unstrukturierter ‚Datensee‘ – Data Lake – gesichert. Für die unterschiedlichen Anwendungen werden daraus im zweiten Schritt Reportingsysteme wie ERP bzw. das Data Warehouse befüllt, oder auch Echtzeit-Anwendungen wie Targeting, Empfehlungsmarketing oder Systeme zum Schutz vor Betrug betrieben. Anforderungen und Datenstruktur können dabei auch nach Fertigstellung agil angepasst werden.

Unsere Erfahrung aus zahlreichen Projekten der letzten Jahre zeigt: Der Big-Data-Weg zu Business Intelligence ist nicht nur das passende Werkzeug auf die Anforderung nach Flexibilität und Echtzeitfähigkeit, sondern auch wesentlich günstiger und schneller zu realisieren, als die klassische BI. Mit Big Data wird aus Business Intelligence das datengetriebene Unternehmen.

Warum Big Data Projekte Unsinn sind

Nach mittlerweile fast drei Jahren Erfahrung in Big Data Projekten in Unternehmen bin ich davon ueberzeugt, dass es keine Big Data Projekte geben sollte. Und dies nicht etwa, weil ich Sinn und Nutzen von Big Data für Unternehmen in Frage stellen würde – vielmehr vom Gegenteil bin ich überzeugt – sondern einfach weil Big Data kein Projektgeschäft ist.

Eine der besten Big Data Definitionen stammt von Jeff Jonas:

More information is being created faster than organizations can make sense of it.

Oft wird Big Data mit aus einem weit geöffneten Wassherhahn strömenden Wasser verglichen – die in Big Data Projekten verwendete Lambda-Architektur leitet ihren Namen von eben diesem Bild ab. Wenn Sie sich nun einen Wasserhahn mit frei skalierbarer Leitung vorstellen, gewinnen Sie guten visuellen einen Eindruck von Big Data. Denken Sie an Märchen, in denen zunächst normale Zustände unvorstellbre Ausmaße gewinnen. Lassen Sie vor Ihrem geistigen Auge aus dem Wasserstrahl im Waschbecken einen Strahl eines Wasserschlauchs werden, wie er in Feurwehrfahrzeugen zum Einsatz kommt. Und dann denken Sie an ein Wasserkraftwerk, dessen Damm bricht und Millionen Kubikmeter Wasser ins Tal rauschen lässt, das zu guter letzt in einen großen See mündet.

Haben Sie das Bild? Dann sehen Sie in übertragenem Sinne Big Data in Ihrem Unternehmen.

Jetzt stellen Sie sich bitte eine Task Force vor, die für eine Zeitraum von 2 Wochen an einem bestimmten Abschnitt des kilometerlangen Wasserstroms die Auswirkungen des Wassers auf das gesamte Ecosystem analysieren und daraus geeignete Massnahmen ableiten soll. Für die definierte Stelle mag dieses Vorgehen sinnvoll sein: für einen spezifischen Umkreis um die Analysestelle herum kann der Impact des Stroms zu einem gegeben Zeitpunkt festgestellt werden. Was aber bedeuten die Ergebnisse für alle andern Orte, an denen das Wasser vorbeifliesst? Wie wird sich der Strom in Abhängigkeit diverser Faktoren wie Wetter, Beschaffenheit der Landschaft, Flussgeschwindigkeit, etc. – oder auch möglicher Beeinflussung durch Tiere, Pflanzen und Menschen verhalten? Darüber kann das Expertenteam keinerlei Aussage treffen. Ja, Hypothesen können angestellt werden; nur die Welt der Hypothesen haben wir bereits hinter uns gelassen – Big Data zwingt uns zu einem Paradigmenwechsel, zu einer Abkehr angenommenen, a priori existierenden Expertenwissens, hin zu einer unvoreingenommenen und unaufhörlichen Annahme (Sammlung) aller Daten, die wir erhalten können und einer darauf aufsetzenden Verarbeitungs- und Analysemechanik.

Im Bild des Wasserstroms legt das Big Data Paradigma eine dauerhafte und allumfassende Beobachtung des Stroms inklusive aller greifbaren möglichen anderen Einflussfaktoren nahe. Was wie eine unmöglich zu erfüllende Herausforderung aussieht, kommt in der im Vergleich zum Wasserstrom limitierten Unternehmenswirklichkeit als durchaus machbare Aufgabe daher: anstatt punktuell an einer oder wenigen Stellen im Unternehmen für einen kurzen Zeitraum vordefinierte Big Data Projekte auszuschreiben, macht es signifikant mehr Sinn, Big Data als dauerhafte und das Gesamtunternehmen betreffende Aufgabe zu verstehen. Anders ausgedrückt: so, wie kein Management auf die Idee käme, ab und zu für bestimmte Abteilungen im Unternehmen PR-Projekte durchzuführen, sondern PR als dauerhafte und gesamtseitliche Maßnahme – als festen Bestandteil der Unternehmensfunktionen – begreift, sollte Big Data ebenfalls verstanden werden:

Wenn Sie einmal angefangen haben, Daten zu sammeln, haben Sie sich einer Herausforderung gestellt, der nicht punktuell und partiell, sondern immer und überall zu begegnen ist. Daher plädieren wir für dieses Grundverständnis von Big Data: nicht nur alte, überkommene IT-Infrastrukturen müssen verschrottet werden. Der Paradigmenwechsel muss auch mental im Management vollzogen werden. Big Data als Begriff muss verschwinden und sich in einem absolut selbstverständlichen, tagtäglichen und in jedem Winkel des Unternehmens anzufindenden Umgang mit Daten auflösen. Dieser notwendige Change Management Prozess sollte möglichst zeitnah und mit Konsequenz durchgeführt werden.

Leitfaden für Big Data Projekte (2) – Gründe und Treiber für Datenprojekte in Unternehmen

Am Anfang eines Big Data Projekts steht das Bedürfnis im Unternehmen, die meist seit Jahren gesammelten, aber bisher mehr oder weniger ungenutzt gespeicherten Daten sinnvoll zu nutzen. Oft kommen spezifische Anforderungen aus einzelnen Unternehmensbereichen, die brachliegende Wertschöpfungspotenziale in bisher ungenutzten Datenpools vermuten. Im folgenden stellen wir die wichtigsten Treiber für Big Data-Projekte aus unserer täglichen Arbeit vor.

Konkurrenz
Der simpelste Anlass, im eigenen Unternehmen aktiv zu werden. Im Markt wird bekannt, dass der schärfste Konkurrent eine innovative App auf den Markt bringen wird, die datenbasiert eine signifikante Erhöhung der Kundenbindung erzielen soll. Im eigenen Unternehmen sind zwar ebenfalls Apps im Einsatz – diese dienen aber hauptsächlich der Vermarktung der eigenen Produkte und sind nicht aus einer Datenperspektive heraus entstanden.

Innovatoren
Datengetriebene Unternehmen wie Amazon, AirBnB, Uber, Google zeigen sich häufig ihren produkt- oder marketinggetriebenen „Vorgängern“ überlegen. Viele Unternehmen sind daher in Sorge, dass sie einer so unerwarteten, agilen Konkurrenz gegenüber schnell ins Hintertreffen geraten könnten.

Disruption
Eine – oftmals diffuse – Angst vor sog. „Disruption“ sitzt in einigen Branchen tief; beispielsweise sieht sich die Finanzindustrie Innovationen wie Crowdfunding, P2P Lending, Mobile Payment, Blockchain, etc. gegenüber. In der Automobilindustrie stellen Car Sharing, Added Value Services, E-Mobility-Konzepte etc. die Strategieabteilungen vor eine Herausforderung. Im Handel werden die traditionellen Platzhirsche nicht nur von Delivery Services oder innovativen Newcomers wie Amazon bedroht, sondern auch von hochinnovativ agierenden Giganten wie Walmart, die schon seit über 5 Jahren mit datenbasierten Konzepten arbeiten.

Aktionäre
Erwartungen der Shareholder: Welcher Aktionär will sein Unternehmen im Hintertreffen sehen bzw. welcher Vorstand möchte auf der Hauptversammlung erklären, dass man hinsichtlich der eigenen Datenstrategie einen Nachholbedarf in der Größenordnung von Mannjahren habe? Datenkontrolle gilt als Asset, aber auch als Risiko.

Big Data

Data-driven Marketing
Beflügelt von Best Practices entdecken mehr und mehr Marketeers die Vorteile datengetreibender Marketingentscheidungen gegenüber traditionellem Zielgruppendenken oder gar „gut feelings“. Neben der vielversprechenden Validität und Reliablität bieten datenbasierte Marketingentscheidungen auch den Vorteil der besseren Nachvollziehbarkeit. Programmatic Advertising, Social Media, CRM sind längst Teil des Marketing geworden. Der nächste logische Schritt ist die Integration der unterschiedlichen (Daten-)Silos.

Ganzheitliche Betrachtung von Geschäftsprozessen
Mit Big Data betrachten Unternehmen Businessprozesse in ihrer Gesamtheit:
– Zulieferer, Einkauf, Auswahl der Produkte für das Angebot, Logistik, Pricing, Finanzen, Sicherheit sowie Planung
– Insbesondere die Bereiche Planung und Auswahl der Produkte, „Shelf Live“ und damit verbunden Einkauf und Steuerung der Zulieferer wird erstmalig in Zusammenhang mit Marketing- und Salesprozessen gesehen

Nach dem Erkennen des Bedürfnisses hinsichtlich Big Data getriebener Projekte besteht die grösste Herausforderung in der Erkenntnis, dass grundsätzlich wertvolle Daten vorhanden sein müssten, aber diese nicht ohne weiteres zugänglich sind:
– im ETL-Prozess werden Rohdaten umformatiert und aggregiert; die Folge: ein Drill-Down ist nicht mehr möglich
– viele Tools lösen nur ein Teilproblem: beispielsweise ist im Einsatz ein Dashboard der Performance-Marketingagentur sowie ein anderes der Mediaagentur, während das Social Media Monitoring über eine Sentiment-Analyse durch die PR-Agentur abgewickelt wird
– die Datenqualität ist grundsätzlich unbekannt. Dieses Problem tritt typischerweise im Handel auf; beispielsweise finden wenig direkte Daten den Weg aus den Filialen zur Zentrale
– es ist kein oder nicht ausreichend viel Personal bzw. Expertise im Unternehmen vorhanden, um Big-Data-Projekte zu beginnen.

In unserer nächsten Folge widmen wir uns daher dem Thema Wertschöpfungsfeldern in Big Data Projekten.

Bisher in dieser Reihe erschienen:
Leitfaden für Big Data Projekte (1) – Der Paradigmenwechsel in der Datenverarbeitung

Ein bisschen mehr aus jedem Tag herausholen – mit dem Personal Coach explore

Das Ziel unseres Personal Coach explore ist es, seinen Nutzerinnen jeden Tag ein Ansporn zu sein, ihr Verhalten zu überprüfen bzw. zu verändern, um den eignen Lifestyle zu optimieren. Dazu bieten wir regelmäßig Programme an, wie beispielsweise SMILE! – Lachen lernen in 5 Tagen.

Die Forschung im Bereich Verhaltensänderung bietet viele Ansatzmöglichkeiten für den Einzelnen, sein Verhalten nachhaltig zu ändern und die eigene Lebensqualität damit zu verbessern. Entscheidend ist hierbei zwei Details, die gern übersehen oder vernachlässigt werden: der Mensch ändert sich nur wenn er es will und wenn er regelmäßige Unterstützung zur Änderung erhält.

Diese Unterstützung wiederum muss zwei Kriterien genügen: sie darf nicht oberlehrerhaft und erzieherisch daherkommen – wir im Datarella-Team nennen es „nanny-esque“ – weil der Mensch sich davon genervt fühlen und dies eher als ungewollten Eingriff in sein Leben als eine durchaus gewollte Hilfestellung empfinden würde. Ein schönes Beispiel für eine nanny-esque „Unterstützung“ sind die kleinen Helferlein, die Windows-Nutzern gern den Einsatz ihrer Software auf PCs erklären – und dabei eigentlich nur stören.  Zum zweiten muss die Unterstützung so regelmäßig erfolgen, dass bestehende (schlechte bzw. zu ändernde) Gewohnheiten rechtzeitig erkannt und geändert werden können. Es hilft beispielsweise wenig, wenn eine Schokoladensüchtige einmal monatlich daran erinnert wird, dass er weniger naschen soll – wenn ihre Nasch-Frequenz ein paar Stunden beträgt. Eine gute Hilfe zur Änderung des Verhaltens setzt hier analog zur Häufigkeit des Fehlverhaltens an: im Schoko-Beispiel müssten der änderungswilligen Person alle paar Stunden Alternativen zum Schokoladenkonsum angeboten werden.

Unser Motto ist es, Technologie zur Verbesserung der Lebensqualität – und damit sozial relevante Technologie anzubieten. Daher freut es uns immer sehr, wenn wir positives Feedback unserer explore Nutzer erhalten: schließlich gibt es für einen Produktanbieter wenig Schöneres, als wenn das Produkt beim Nutzer genau das bewirkt, was es soll. explore Nutzerin Ina Urban ist beispielsweise sehr angetan von unserer täglich wiederholten „Wie geht’s?“ Umfrage. Mit ihrem Zitat bedanken wir uns bei ihr und wünschen allen explore Nutzern viel Erfolg beim Verbessern ihrer Lifestyles!

Eure App ist ein guter Ansporn um noch ein bisschen mehr aus einem
Tag herauszuholen. Sei es gesünder und regelmäßiger zu essen, mehr
mit der Familie zu unternehmen oder einfach einen Gang runterschalten
und die Füße hochlegen. Auch hierfür ein Dankeschön von mir.

Wann springt Quantified Self über den Innovations-Graben?

Innovative Technologien und Produkte auf einen breiteren Markt zu bringen, sie zum Mainstream zu machen – das ist es was Moore’s „Crossing the Chasm“ („die Schlucht überqueren“) beschreibt. Wo ist dieser eine Punkt im Lebenszyklus einer neuen Technologie, an dem sie vom Spielzeug für Nerds zum ganz normalen Alltagsprodukt wird?

Das größte und vielleicht einzige Problem des Quantified Self ist sein Name: Während „the self“, das Ich, ein allgemein bekannter – wenn auch häufig missverstandener – Begriff ist, handelt es sich bei „quantified“, quantifiziert, um eine sogenannte Umwandlung: Ein in ein Adjektiv umgewandeltes Verb. Solche grammatischen Umwandlungen verlangen mehr Nachdenken, bis die Leute sie nutzen oder verstehen. Noch dazu ist „quantifiziert“ ein Fremdwort, das niemand im Alltag verwenden würde.

Wir müssen davon ausgehen, dass als Kevin Kelly und Gary Wolf die Quantified Self Bewegung 2007 begannen, eine Einigung auf diesen Begriff wohl nicht einfach war, auch wenn er sich selbst genau definiert: ein [internationaler] Zusammenschluss von Usern und Herstellern von Self-Tracking Tools. Mit dieser Definition wird der Unterschied zwischen Quantified Self und Self-Tracking deutlich: Während Self-Tracking das individuelle (und von Anderen losgelöste) Verhalten des über sich selber Daten Sammelns beschreibt, gehört beim Quantified Self zusätzlich noch die Zusammenarbeit von Individuen und/oder Gruppen von Self-Trackern dazu. Daher scheint es schwierig bis unmöglich, den Weg für Quantified Self durch eine Umbenennung in Self-Tracking zu ebnen.

Legen wir das Namensproblem aber für einen Moment zur Seite und sehen wir uns die Hürden, die neue Technologien nehmen müssen um auf den breiten Markt zu kommen, genauer an. Alex Iskold von RRW beschreibt die Dynamik so:

Um zum Massenprodukt zu werden, muss ein Produkt zunächst Wegbereiter („Innovators“) gewinnen, die üblicherweise 2,5% des Marktes entsprechen, gefolgt von frühzeitigen Anwendern („Early Adopters“), die 13,5% ausmachen. Nachdem ein Produkt bereits von etwa 16% des Marktes genutzt wird, gähnt eine Schlucht. Um zum Mainstream zu werden muss das Produkt die nächste Gruppe erreichen, die 34% frühe Mehrheit („Early Majority“) um von bis zu 50% des Marktes genutzt zu werden.

Verglichen mit 1991, als Geoffrey A. Moore den Begriff „Crossing the Chasm“ einführte, hat sich die Geschwindigkeit neuer Markteinstiege dramatisch gesteigert. Viele Technologien – insbesondere die im Silicon Valley erfundenen – zielen auf Wegbereiter und frühe Anwender. Und zwölf Monate nachdem ein Produkt Fuß gefasst hat ist es online bei Amazon oder im Apple Store erhältlich, was weltweite Verfügbarkeit bedeutet. Heutzutage können Startups ihre Produkte an zehntausende Kunden in fremden Märkten verkaufen, bevor sie überhaupt nur ihren ersten Mitarbeiter für den Kundenservice eingestellt haben – ein typisches Problem der frühen Anwender.

In den USA bieten Einzelhandelsketten wie Safeway, Mobilfunkbetreiber und andere ganze Regale mit Sportzubehör an, das mit Apps kommuniziert – die auffälligsten Quantified Self Produkte heutzutage. Pew Internet hat herausgefunden, dass 66% aller Nordamerikaner ihr Verhalten mit entsprechenden Geräten aufzeichnen, und dass 46% sagen, sie hätten ihr Verhalten aufgrund der gesammelten Daten verändert. Was Pew nicht verrät ist, ob diese Menschen tatsächlich wissen, dass ihr Verhalten Quantified Self heißt. Es ist eine Tatsache: Immer mehr Menschen, die sich selbst quantifizieren, haben von diesem Begriff noch nie gehört. Sie machen es einfach. Der Grund: Es gibt keine „Quantified Self“ Schilder in den Regalen. Die Leute kaufen Armbänder oder Smart Watches, aber nicht „Quantified Self“ Tools.

Kommen wir auf die Namensgebung zurück: Wenn „the Quantified Self“ als eher akademischer Begriff für Menschen die Armbänder, Smart Watches, Smart Clothes usw. kaufen und ihre Daten teilen verwendet wird, dann haben wir den interessanten Effekt eines zukünftigen Massenmarktes mit einem Namen, den nur Insider kennen.

Habe ich Massenmarkt gesagt? Tatsächlich: Fragen Sie welche Marktforschungsfirma auch immer, der Markt für sogenannte „Wearable Tech“ („tragbare Technologien“), also Technologien, die fürs Quantified Self genutzt werden, wird auf 30-40 Milliarden US-Dollar im Jahr 2018 ansteigen. Das nenne ich einen Massenmarkt. Die Annahme hinter diesen Zahlen ist – wie immer – dass diese Produkte die Schlucht überwinden werden, dass sie die Hürde vom ausschließlichen Erreichen der frühen Anwender zum Begeistern der frühen Mehrheit nehmen werden.

Unserer Meinung nach ist das möglich. Warum? Quantified Self / Wearable Tech wird den breiten Markt erreichen, weil es dem Individuum Macht gibt: QS verteilt Kompetenz von Experten – Ärzten, Wissenschaftlern, usw. – auf das Individuum um. Sue Clark kann genug qualitativ hochwertige Daten sammeln und analysieren um jederzeit gut über ihren Gesundheitszustand informiert zu sein. Sie kann ernste Gesundheitsprobleme wie Infarkte vorhersehen, oder sie kann dazu beitragen, sie vorzubeugen, indem sie ihr Verhalten verbessert. QS gibt dem Individuum Selbstbestimmung zurück, und das ist die Hauptantriebskraft hinter dem dynamischen Wachstum dieses Marktes.

Die Wachstumsraten werden von der Verfügbarkeit, Benutzerfreundlichkeit und Personalisierung des Geräts abhängen – alias soziale Relevanz:

  1. Das Gerät muss von jedem genutzt werden können. Das Gerät selbst sollte entweder kostenlos sein oder weniger als 100$ kosten.
  2. Es muss absolut einfach zu nutzen sein – niemand sollte dafür allzu kreativ sein müssen oder auch gezwungen sein, sich zu sehr damit zu beschäftigen.
  3. Die Benutzerin muss individuelle und personalisierte Empfehlungen erhalten, wie sie ihr Verhalten verändern kann, falls nötig. Keine standardisierten Programme, sondern individuelle Ratschläge.

Wenn diese Kriterien erfüllt werden, wird ein QS Gerät, ob es nun eine tragbare App oder Hardware ist, innerhalb kurzer Zeit zu zehn- oder hunderttausenden verkauft werden. Und Probleme wie Übergewicht, was in den USA alleine schon über 150 Milliarden US-Dollar in verlorener Produktivität kostet, könnten ganz anders angegangen werden.

Und dann wird Quantified Self die Schlucht überquert haben – vielleicht ohne, dass es jemand bemerkt.