Small Data? Alter Wein in neuen Schläuchen

In unseren Projekten, aber auch auf Konferenzen, hören wir gelegentlich den Begriff Small Data. In Abgrenzung zu Big Data soll Small Data die Aufmerksamkeit auf einzelne oder wenige Daten lenken, die Kausalzusammenhänge zwischen Variablen abbilden sollen.

Um es kurz zu sagen: das ist alter Wein in neuen Schläuchen. Small Data gab es früher, als keine oder nur wenige Prozesse digitalisiert waren und nur geringe Datenmengen zu Verfügungs standen. Um etwa Neuproduktentscheidungen auf Basis von Daten zu treffen, behalf man sich mit Marktforschungsmassnahmen, die eine ungefähre Ahnung des aktuellen und zukünftigen Kundenverhaltens vermittelten. Das ist die klassische Marktforschung, oder auch Marktforschung 1.0.

Seitdem immer mehr Prozesse digitalisiert werden, stehen Unternehmen und Individuen Daten in Hülle und Fülle zu Verfügung. Oft sind es soviele Daten, dass Unternehmen ihnen nicht mehr Herr werden, in neue Data Warehouse Infrastrukturen investieren und entsprechende neue Datenmanagemen-Prozesse neu aufsetzen müssen. Dies nicht nur, um datengetriebene Produkte zu entwickeln, sonden auch um bestehende Kundenverhältnisse zu optimieren: ein Kunde, dessen Bedürfnisse im Online-Shop, in der E-Mail- oder Call Center-Kommunikation nur unzureichend erkannt und beachtet werden, wechselt den Anbieter.
Vertreter des Small Data Gedankens werden meist von der oft als unüberschaubar wahrgenommenen Komplexität von Big Data abgeschreckt und ziehen sich deshalb auf bewährte Vorgehensweisen zurück: sie erstellen eine Hypothese – beispielsweise über das Verhalten Ihrer Zielgruppe – und suchen nach Daten, die diese Hypothese unterstützen. Sobald sie auch nur die geringsten Datenmengen gefunden haben, die ihre Hypothese unterstützt, nehmen sie dies als Beleg her und bauen darauf eine Marketingstrategie auf.

Aktuelles Beispiel für dieses archaische Vorgehen ist ein Vortrag des Marketing-Experten Martin Lindström auf dem Serviceplan Innovationstag 2016. Anhand von oben skizzierten Beispielen kommt er zu dem Schluss: „Big Data allein ist nutzlos. Im Grunde handelt es sich nur um eine Ansammlung von Daten, in denen Sie nach Korrelation suchen, aber nicht nach Kausalität – was sinnvoller wäre.“

Eine solche Aussage, getroffen von einem international anerkannten Experten, auf einer hochkarätig besetzen Konferenz, ist vermutlich im Jahr 2016 nur noch in Deutschland möglich – in einem Land, in dem das Bewahren von Bewährtem immer noch als deutlich wichtiger eingestuft wird als das Zerstören von Bekanntem, das Umwerfen und das Neu-Denken. Das Aufstellen von Hypothesen mit einer angeschlossenen auf geringen Datenmengen basierten Analyse wurde bis vor ca. 5 Jahren als Marktforschung durchgeführt. Nicht jedoch, weil man wusste, dass dies eine sinnvolle Methode beispielsweise zur Vorhersage von Kundenverhalten wäre, sondern weil auf der Basis der vorhandenen Daten dies damals das bestmögliche Vorgehen war. War.

In der Zwischenzeit hat sich die Welt jedoch geändert: wir haben jetzt die Daten, die uns ein vielfach besseres Bild der Gegenwart, wie auch der Zukunft ermitteln. Und weil wir diese Daten haben, müssen wir uns auch nicht mehr selber als Propheten betätigen und die Zukunft voraussagen, sondern wir sehen uns die Daten an, erkennen Korrelationen (nicht Kausalitäten) und entwickeln daraus Zukunftsoptionen.

Insbesondere der Unterschied zwischen Kausalität und Korrelation scheint sich in einigen Expertenkreisen noch nicht wirklich herumgesprochen zu haben. Der Grund, auf das Erkennen von Kausalitäten zugunsten von Korrelationen zu verzichten, ist einfach: Wenn Martin Lindström berichtet, dass ein Teenager seine Turnschuhe lieber abgetragen trägt, gilt das für genau diesen einen Teenager. Womöglich zeigt sich sogar, dass sich 100 Teenager so verhalten. Für ein Neuprodukt mit „pre-used“ Sohlen reicht das jedoch nicht. Diese „Kausalität“ hilft uns nicht weiter. Sie ist weder übertragbar, noch skalierbar.

Was uns weiterhelfen würde, wäre beispielsweise die Aussage, dass die Zeit, die Teenager durchschnittlich auf dem Skateboard verbringen, signifikant höher ist, wenn ihre Schuhe ein Mindestalter von > 6 Monaten haben und die Sohle um mind. 30% abgenutzt ist. Durch Sensoren im Schuh könnte eine solche Information verfügbar gemacht werden. In diesem Fall hätten wir einen tatsächlichen Beleg für das beschriebene Verhalten – im Fall der Lindströmschen Beobachtung handelt es sich lediglich um eine Anekdote.

Wir haben heutzutage die Möglichkeit, grosse Datenmengen zu erzeugen und zu analysieren. Lassen wir uns diese reichhaltigen Erkenntnis-Pool nicht entgehen! Indem wir uns selbst und unsere eigene Wahrnehmungsfähigkeit zunächst zurücknehmen und Daten sprechen lassen, werden wir unseren Blickwinkel deutlich erweitern und viele erstaunlich und bisher für undenkbar gehaltene Zusammenhãnge erkennen. Hören wir weniger auf Experten, sondern bilden wir uns unsere eigenen Meinungen basierend auf der Analyse von Big Data!

SUPERDRIVE Inkubator Programm von Macromedia Hochschule und Datarella gestartet

Vom Hörsaal in die Garage: Mit der Kick-off Veranstaltung am Mittwoch, 18. März 2015, starten wir gemeinsam mit der Macromedia Hochschule das Inkubator-Programm SUPERDRIVE, das allen Studenten der Macromedia offensteht. Ziel von SUPERDRIVE ist es, die im Studium erworbenen Ideen, Kenntnisse, Fertigkeiten in konkrete Projekte umzusetzen, die sich am Markt beweisen müssen – als eigenständige Startups. 

Aus einer langjährigen Kooperation der Datarella Gründer mit der Macromedia Hochschule entstand im Winter 2014 die Idee, Studenten über die Projektarbeit an der Hochschule selbst die Möglichkeit zu geben, ihre Ideen und Konzepte unternehmerisch umzusetzen. Was bisher auf Konzeptniveau ist, soll nun in reale Produkte, Prototypen umgesetzt werden, die gemeinsam mit erfahrenen Experten entwickelt, auf Marktfähigkeit hin getestet und Marktteilnehmern wie Unternehmen, Institutionen und Investoren präsentiert werden können. 

 Foto: Michael Reuter (Datarella), Prof. Oliver Szasz (Macromedia), Yukitaka Nezu (Datarella)

Ziel des auf vier Monate ausgelegten SUPERDRIVE Programms ist die Entwicklung eines Minimum Viable Product (MVP, eines Produkt-Prototypen, der die Kernfunktion des fertigentwickelten Produkts beinhaltet und von der Zielgruppe getestet werden kann.

Thematischer Fokus von SUPERDRIVE ist der Bereich Wearable Tech, Mobile Apps, Self Tracking und Quantified Self. Menschen produzieren überall Daten, auf Schritt und Tritt. Wenn sie sich aktiv bewegen, im Auto, in den eigenen vier Wänden. Insbesondere in den Verticals Connected Car, Smart Home und mHealth ergeben sich eine Vielzahl möglicher Konzepte und Projektideen. Die bei Datarella vorhandene Expertise in diesem Bereich sorgt bei SUPERDRIVE für die nötige fachliche Unterstützung.

Für Prof. Oliver Szasz, der das Inkubator-Programm für die Macromedia Hochschule federführend betreut, ist SUPERDRIVE der Lackmus-Test für die Studenten: der hohe Anspruch der Hochschule an die Lehre und die praxisnahe Ausbildung ihrer Studenten soll nun unmittelbar zu einem Sprungbrett für die Karriere werden – aus der eigenen Idee wird das eigene Unternehmen – so finden Theorie und Praxis nahtlos zusammen.

Das Besondere an SUPERDRIVE ist laut Prof. Szasz, dass die Studenten nicht ins kalte Wasser geworfen werden – denn nicht jeder ist von Haus aus zum Unternehmer geeignet. Die Teilnehmer werden vielmehr behutsam in die Startup Welt eingeführt, indem ihnen die unterschiedlichen Aspekte der Selbständigkeit in Workshops und konstanter Betreuung vermittelt werden: die für ein junges Unternehmen überlebensnotwendigen Kenntnisse in finanziellen und rechtlichen Dingen vermittelt Yukitaka Nezu, der vor Datarella über 10 Jahre im Finance und Private Equity Bereich tätig war. Spezifisches Know How im Bereich Big Data und Sensoren erhalten die Studenten von Joerg Blumtritt. Wie aus einer Idee ein Produkt wird, erfahren die jungen Unternehmer von Kira Nezu und wie sie aus all den Einzelteilen ein kleines Unternehmen formen, es vermarkten und eine Go-To-Market Strategie entwickeln, von Michael Reuter. Darüber hinaus werden weitere externe Experten in das Programm eingebunden.

Wir freuen uns sehr auf die jungen Teams, sind gespannt auf ihre Ideen und wünschen allen Beteiligten an SUPERDRIVE eine Menge Spass!

Weitere Informationen zu SUPERDRIVE gibt es unter superdrive.us.

BYOD – Bring your own Data. Selbsterhobene Patientendaten in der Medizin und Forschung

„Facebook would never change their advertsing relying on a sample size as small as we do medical research on.“
(David Wilbanks)

Menschen wollen über sich lernen und eine solide Datengrundlage über ihr Leben besitzen. Eltern führen Buch über die Körpergröße ihrer Kinder. Wenn wir uns krank fühlen, messen wir Fieber. Und sehr viele Leute besitzen eine Badezimmerwaage. Aber Daten ohne Kontext sind wenig aussagekräftig. Daher versuchen wir, unsere eigenen Messerwerte mit denen anderer Menschen zu vergleichen.

Daten, die wir für uns selbst erheben

Selbst-Tracking ist seit Jahren im Trend. Fitnesstracker wie Fitbit zählen unsere Schritte, Trainingsapps wie Runtustic liefern uns Analysen und Benchmarken uns an anderen. Seit 2008 gibt es eine Bewegung, bei der die „Selbstvermessung“ im Mittelpunkt steht: The Quantified Self.

Selbstvermessung - Self Tracking - liegt seit Jahren im Trend. Hier hat es ein Self-Tracking-Armband bereits ins Museum geschafft und steht im London Science Museum in der Vitrine.
Selbstvermessung – Self Tracking – liegt seit Jahren im Trend. Hier hat es ein Self-Tracking-Armband bereits ins Museum geschafft und steht im London Science Museum in der Vitrine.

Dabei sind es nicht nur „Selbstoptimierer“ und Fitnessbegeisterte, die sich selbst vermessen. Wesentliche Impulse des Selftracking kommen aus der Selbsthilfe von chronisch Kranken.

Daten für den Arzt, für Angehörige und Pflegepersonal

So wird es in den USA und vielen Ländern mit schwach ausgeprägter Krankenversicherung zunehmend üblich, selbst gemessene Daten zum Arzt mitzubringen. Bei vielen Untersuchungen spart dies wesentlich Kosten ein und beschleunigt die Behandlung. Für viele Menschen ist es durch Quantified Self zum ersten Mal überhaupt möglich geworden, gute Laborwerte über ihre Gesundheit zu erhalten. Beispiele sind Kits zur Blutuntersuchung, die automatisch via Smartphone die Ergebnisse in Labors schicken und sofort die Resultate anzeigen. Solche Kits sind z.B. in Indien weit verbreitet.
Auch für Angehörige oder Pflegekräfte sind selbsterhobene Daten der Patienten hilfreich. Sie geben denen, die sich um uns sorgen, ein gutes Bild unseres Zustands und häufig rechtzeitig Hinweise für Intervention. Selbst automatische Notrufe auf Basis von vor Ort gemessenen Werten sind heute möglich.

Das Bild oben stammt aus dem Blog von Sara Riggere, die an der Parkinsonkranheit leidet. Sara trackt ihre Medikamentierung und die Symptome ihrer Parkinsonerkrankung mit ihrem Smartphone. Ihre Geschichte ist unbedingt lesenswert und zeigt alle Facetten, die das Thema „eigene Daten“ so faszinierend machen:
http://www.riggare.se/ und
http://quantifiedself.com

Sara Riggere trackt ihre Medikamentierung und die Symptome ihrer Parkinsonerkrankung mit ihrem Smartphone: http://www.riggare.se/ http://quantifiedself.com/2013/02/qs-europe-2013-conference-preview-sara-riggare/
Sara Riggere trackt ihre Medikamentierung und die Symptome ihrer Parkinsonerkrankung mit ihrem Smartphone:
http://www.riggare.se/
http://quantifiedself.com/2013/02/qs-europe-2013-conference-preview-sara-riggare/
Moodtracking - ein Stimmungstagebuch. Menschen, die an Depressionen leiden, helfen sich, indem sie täglich ihre Stimmung und weitere Faktoren ihres Lebens aufzeichnen. Dadurch können sie rechtzeitig gegensteuern, wenn sich ein Stimmungstief anbahnt und wesentlich besser ihre Medikamentierung steuern, als durch die seltenen Arztbesuche. (Hier der Service soundfeelings.com)
Moodtracking – ein Stimmungstagebuch. Menschen, die an Depressionen leiden, helfen sich, indem sie täglich ihre Stimmung und weitere Faktoren ihres Lebens aufzeichnen. Dadurch können sie rechtzeitig gegensteuern, wenn sich ein Stimmungstief anbahnt und wesentlich besser ihre Medikamentierung steuern, als durch die seltenen Arztbesuche. (Hier der Service soundfeelings.com)

Daten für die Forschung

Durch selbsterhobene Daten können Menschen zum ersten Mal ein zeitlich lückenloses Bild ihrer Handlungen und ihres Befindens zeichnen. Für die Forschung
sind diese Daten wesentlich reichhaltiger, als die Momentaufnahmen, die anlässlich klassischer medizinischer Studien gemacht werden, sowohl was
die Fallzahlen betrifft, als auch insbesondere, da ein viel breiterer Blick auf das Leben der Menschen ermöglicht, Verhaltens- und
Umwelteinflüsse in nie gekannter Weise multivariat einfließen zu lassen. Selbst wenn nur ein Bruchteil der Selbst-Tracker ihre Daten der Forschung überlässt, ist kaum abzuschätzen, welchen gewaltigen Wert die dadurch möglichen Erkenntnisse für die Medizin haben werden.

Datenschutz

Die Schwierigkeit an diesen Daten: Sie sind so reichhaltig und so individuell, dass es stets möglich ist, auf einzelne Personen zurückzugreifen. Eine Anonymisierung, z.B. dadurch dass man die Userkennung oder die IP-Adresse löscht ist nicht möglich. Wie ein Fingerabdruck können wir über die Spur identifiziert werden, die wir in den Daten hinterlassen. Diesem Problem lässt sich kaum durch noch mehr Datenschutzregulierungen beikommen. Schon heute erschweren die verpflichtende Zweckgebundenheit und Datensparsamkeit die Forschung mit medizinischen Daten derart, dass kaum sinnvoll damit gearbeitet werden kann. Abhilfe bringt nur ein umfassender Rechtschutz. Jeder Mensch, der seine Daten mit der Forschung teilt muss sich sicher sein können, dass daraus keine Nachteile erwachsen. Versicherungen und Arbeitgeber dürfen keinen Vorteil aus der Offenheit der Menschen ziehen dürfen. Das könnte vergleichbar zum Antidiskriminierungsgesetz ausgestaltet werden. Schon heute dürfen Krankenversicherungen beispielsweise keinen Unterschied in den Prämien nach dem Geschlecht der Versicherten machen.

Algorithmen Ethik

Ein weiteres Thema liegt in den Daten selbst. Zum einen werden durch willkürliche, technische Unterschiede wie Hardwarefehler, Kompressionsverfahren oder Abtastraten die Daten schwer vergleichbar. Zum anderen werden kaum die Rohdaten selbst, sondern meist mittels mathematischer Verfahren abgeleitete Abstraktionen aus den Daten verarbeitet. Fitbit oder Jawbone UP speichern nicht die dreidimensionalen Messerte des Gyroskop, sondern die daraus berechneten Schritte. Was aber ein Schritt ist und was eine andere Bewegung ist eine willkürliche Entscheidung dessen, der den Algorithmus dafür programmiert hat. Hier ist es wichtig, die Back-Boxes der Algorithmen zu öffnen. So wie die EU Kommission von Google die Offenlegung des Suchalgorithmus fordert, da sie (vermutlich zu Recht) verdeckte Diskriminierung von Inhalten vermutet, die Google nicht passen, so ähnlich müssen wir von den Herstellern der Tracking-Geräte Einblick in die Daten verlangen.
Die Daten werden von den Nutzern erzeugt. Die Nutzer sollten auch mitreden dürfen, was daraus gemacht wird.

Die API-Ökonomie

Apis mellifera

„Application Programming Interface“, kurz API, ist eine Schnittstelle, die es möglich macht, von Außen auf ein Computerprogramm oder eine Datenbank zuzugreifen. Web-APIs, die uns den Zugriff via Internet ermöglichen, sind die Grundlage für die meisten Geschäftsmodelle im Web. Wenn wir mit Kreditkarte bezahlen, greift das Shop-System auf die API des Kreditkartenanbieters zu. Ebay, Amazon, Paypal, sie alle stellen uns APIs zur Verfügung, mit denen wir so gut wie die gesamte Funktion der Angebote in unsere eigenen Websites einbauen können. Auch die meisten Social Networks stellen APIs zur Verfügung. Darüber können wir automatisierte Nachrichten versenden, Daten zur Nutzung und Reichweite abrufen, oder Werbekampagnen steuern.

APIs haben viele Vorteile. Unternehmen können mit einer API komplexe Geschäftsprozesse auf einfache Weise outsourcen. Ein kleiner Anbieter kann mit der API von Amazon zum Beispiel sein Angebot über das Amazon-Shopsystem weltweit zugänglich machen. Über PayPal oder der Überweisung via Sofort.com können Anbieter sicher und für ihre Kunden problemlos die Bezahlung abwickeln. Geografische Daten lassen sich über die API in Google Maps einbinden und so automatisch Spezialkarten erzeugen.

Über die API kann aus einem Angebot ein ganzes „Ökosystem“ an Partner-Angeboten entstehen, wie das Amazon Beispiel zeigt. Neben dem direkten Vorteil, dass durch die API potenziell viel mehr Menschen das Angebot nutzen können, erweitert die Sicht auf das System aus Partnern auch das Wissen des API-Anbieters ganz erheblich. Über das Partner-Netz lernt man, wozu das eigene Angebot noch so alles taugt.

APIs sind auch die Grundlage für Open Data. Nur wenn eine gut dokumentierte Schnittstelle zu den Daten vorliegt, kann man wirklich darauf zugreifen und sinnvolle Analysen mit den Daten erstellen. Öffentliche Daten werden mittels APIs für Bürgerinnen und Bürger zugänglich. Kommunale Open Data Projekte wie Open.Wien oder Open Data Zürich zeigen, wohin die Reise geht. Besonders interessant sind dabei Aggregatoren, die die unterschiedlichen Datensätze aus den Open Data Projekten in eine gemeinsame Datenbank zusammenführen. Der bekannteste kommerzielle Anbieter ist enigma.io mit mehreren hunderttausend Datenbanken unter einem Dach. Und Wikimedia stellt mit wikidata.org eine Non-Profit Initative.

Inzwischen hat sich eine Ganze „API-Wirtschaft“ entwickelt. programmableweb.com ist eine Website, auf der täglich aktuell Nachrichten über APIs aus allen möglichen Bereichen gesammelt werden. Die Seite bietet eine umfassende Datenbank. Dort kann man nach APIs zu jedem erdenklichen Thema suchen; der perfekte Startpunkt für die Beschäftigung mit der API Economy.

APIs sind mehr als nur eine technische Schnittstelle. Angebote, die konsequent um ihre API gebaut werden, sind schon alleine aufgrund der Nutzerfreundlichkeit erfolgreicher. Durch die Vernetzung mit Partnern werden API-Angebote nicht so leicht durch Konkurrenz vom Markt verdrängt, wie geschlossene Systeme. APIs zwingen auch zu rigorosem Datenschutz, da die Nutzerinnen über die API sehr viel mehr über die Daten lernen, die ein Angebot von ihnen hält.

Zugänglichkeit, Verfügbarkeit und Vernetzung über eine API ist also wesentlicher Teil der Produktstrategie, wenn nicht sogar der Unternehmensphilosophie.

Sympathie für Maschinen

„Roboter sind heutzutage natürlich ein alltäglicher Anblick.“ „Sie ist – sie ist nicht wie eine Maschine. Sie ist wie eine Person. Eine lebende Person. Im Grunde genommen ist sie viel Komplexer als alle anderen. Das muss sie sein.“
Philip K. Dick, Nanny

Unsere Wahrnehmung der Welt ist eine komplizierte Sache. Wir halten das was unsere Augen an unser Gehirn vermitteln für die absolute Wahrheit. Tatsächlich werden aber viele der Formen die wir zu sehen glauben in unserem Gehirn erzeugt, das die Reize unserer Sinne in etwas Bekanntes ableitet. Wenn wir eine dunkle Stelle an der Zimmerwand sehen bauen wir daraus das Bild einer Ecke, einer Linie – was augenscheinlich eine Reduzierung der komplexen farbigen Pixel ist, die auf unserer Netzhaut angekommen sind. Schemen – vorgefertigte Formen, die teils genetisch vererbt, teils in den ersten Tagen nach der Geburt erlernt sind – helfen uns die Flut visueller Informationen deutlich zu reduzieren.

Kein Schema ist in unserer Wahrnehmung stärker ausgeprägt als das Gesicht. Wir sehen Gesichter zwangsläufig in sämtlichen Formen die aus zwei Punkten mit einer Linie darunter bestehen. Und wir fangen sofort an mit diesen Gesichtern zu kommunizieren, wir interpretieren ihre Stimmung von der Mimik die wir meinen zu erkennen, wir sehen sie als fröhlich, traurig oder wütend an. Und es bedarf nur sehr wenig Interaktion damit diese künstlichen Gesichter von uns voll als Lebewesen akzeptiert werden. Das trifft natürlich nicht nur auf Menschen zu, den meisten Säugetieren ist es völlig egal ob sie mit einem Roboter oder einem Lebewesen kommunizieren. Ich konnte das während Recherchearbeiten mit Primaten beobachten, und Sie können es selbst ausprobieren: Lassen Sie nur mal ein billiges Aufziehspielzeug auf ihren Hund oder ihre Katze zulaufen.

Heute werden unsere Geräte immer vielseitiger. Längst ist das biomorphe Verhalten unserer Maschinen überzeugend geworden.

Die IBM Programmierer John Kelly und Carol Lockbaum waren die ersten, die einem Computer das Singen beibrachten: „Daisy Bell“ aus dem Jahr 1961 von einem IBM 7094 wurde zur ersten überzeugenden Vorführung von einem Computer der mittels menschlicher Stimme interagierte.

Dinge die reden können sind bedeutend überzeugender als Dinge die uns Text auf einem Computerbildschirm zeigen. Ein beeindruckendes Beispiel ist die sprechende Zahnbürste von Procter&Gamble, die ihre Benutzer dazu überredet ihre Zähne mehr als dreimal länger zu putzen.

Smileys lassen sich viel leichter nutzen als schriftliche Anweisungen und bringen die Menschen dazu mit unserem UI zu kommunizieren.

Das gleiche gilt für Benutzerschnittstellen. Warum würden wir Smileys in die explore App tun wenn sie nicht zu mehr Interaktionen führen würden? Das funktioniert, egal ob die Nutzer sich dieser Tatsache bewusst sind oder nicht.

Unheimlich wird es wenn die Menschen tiefere Gefühle oder Bindungen für Technik entwickeln. Wir denken bei Robotern vielleicht an Mark13, der so schlecht aussieht wie er sich verhält. In A.I. – Künstliche Intelligenz stellt Spielberg androide Roboter allerdings anders dar:  Der aufgebrachte Mob von Robotergegnern hört auf Roboter zu töten als sie David treffen, den künstlichen Jungen mit Kindergesicht, der alle überzeugt, selbst nachdem eine Röntgenaufnahme den Metallschädel darunter offenbart.

Aktuelle Studien beweisen, dass Spielberg mit seiner Vorhersage völlig richtig lag: Die meisten Menschen empfinden Gewalt gegen „niedliche“ Maschinen als falsch. Und die meisten haben moralische Bedenken einem Androiden oder tierähnlichen Roboter „wehzutun“ wenn dieser Schmerz signalisiert – selbst wenn ihnen absolut bewusst ist, dass sie Maschine überhaupt nichts fühlen kann.

Dennoch garantiert der anthropomorphe Trick keinesfalls Erfolg. Microsofts Bob ist dafür ein gutes Beispiel. Bob sollte dem Windows Betriebssystem etwas „Freundlichkeit“ geben. Das scheiterte allerdings auf voller Linie: die einzige Erinnerung an Bob ist die Schriftart Comic Sans, die dadurch eingeführt wurde. Bob war viel zu altmodisch und lächerlich um länger zu bleiben.

Die wahre Kunst mit anthropomorphen Maschinen ist also die Menschen nicht mit kitschigen Gesichtern zu überfallen sondern nonverbale, gestenähnliche Symbole zu verwenden, um unsere mensch-maschinen Interaktionen effizienter zu gestalten.

Umweltveränderung mit Smartphones messen – ein weiteres „Citizen Science“ Projekt

Mobile Citizen Science („Bürgerwissenschaft“) – Menschen die gemeinsam mithilfe ihrer Smartphones einen Beitrag zur Wissenschaft leisten – ist ein prominentes Thema in diesem Blog. (z.B. hier, http://datarella.com/helping-people-to-understand-real-time-pollution-risks/, oder http://datarella.com/mapping-particulate-dust-with-phones/). Was das Thema so spannend macht, ist, dass einerseits die Teilnehmergruppe viel mehr Messdaten erzeugen kann als ein Forschungsteam und andererseits dass es so viel günstiger ist.
Im Fall von Nerds for Future ist der Fotschungsaufbau wahrlich minimalistisch. Die Aufgabe die sich Nerds for Future gestellt hat ist die dich erholende Flora und Fauna im Mount Diablo State Park nach einem großen Waldbrand aufzuzeichnen, und das im Verlauf von Monaten und Jahren. Dazu haben sie eine behelfsmäßige Kamerahalterung an mehreren Standorten aufgestellt, von denen aus man das Katastrophengebiet überblicken kann. Neben der Halterung haben sie ein Schild aufgestellt mit den einfachen Anweisungen:
„Platzieren Sie die Kamera Ihres Smartphones in der Halterung.“
„Machen Sie ohne Filter ein Foto der Aussicht.“
„Posten Sie Ihr Bild unter #diablofire01 auf Twitter, Flickr und Instagram.“
Das Projekt wurde ein Riesenerfolg als Sergej Kropenin, der für Twitter arbeitet, ein Bild postete mit dem Text „Coole Twitternutzung“. Das wurde bis jetzt über 8.000 Mal retweeted, was auf äußerst beeindruckende Weise zeigt wie begeistert die Leute von dieser Art Projekte sind!
Hier ist der Link zu Nerds for Nature:
www.nerdsfornature.org

The Analytics Advantage – eine Studie von Deloitte Touche Tohmatsu

Basically, analytics is about making good business decisions. Just giving reports with numbers doesn’t help. We must provide information in a way that best suits our decision-makers.„, ein Zitat von einem HR Officer eines US Unternehmens.

Immer mehr Unternehmen gerade in den USA sehen die Relevanz von Data Analytics bei der Vorbereitung von strategischen Entscheidungen. Wo stehen die Unternehmen in Hinblick auf Data Analytics? Diese Frage stellte sich Deloitte und hat mehr als 100 Unternehmen in den USA, Kanada, China und UK befragt. Das Ergebnis ist nicht überraschend: Data Analytics ist ein großes Thema für viele Unternehmen und gewinnt immer mehr an Bedeutung.

Bildschirmfoto 2013-06-27 um 17.38.13
Quelle: Deloitte „The Analytics Advantage“, 2013

Ein guter Manager zeichnet sich dadurch aus, dass er Entscheidungen trifft. Wie zu erwarten erhoffen sich Unternehmen eine bessere Entscheidungsgrundlage mit Hilfe von Data Analytics. Für die Pflege von Kundenbeziehungen und bei der besseren Einschätzung von Geschäftsrisiken werden Daten immer mehr eingesetzt. Trefflich von einem Teilnehmer der Befragung formuliert:

There are now enough reasons for us to prove beyond all doubt that what we’ve always done, based on intuition, isn’t the best way to go.

Bildschirmfoto 2013-06-27 um 17.38.25
Quelle: Deloitte „The Analytics Advantage“, 2013

Der Großteil der Befragten sind überzeugt davon, dass Analytics die Wettbewerbsfähigkeit ihres Unternehmens verbessern. Nur 3% gaben an, dass sie keinen Mehrwert darin sehen. Wenn Daten so eine große Rolle in Unternehmen spielen, stellt sich die Frage, wer sich damit in der Organisation beschäftigt.

Bildschirmfoto 2013-06-27 um 17.38.35

Quelle: Deloitte „The Analytics Advantage“, 2013

In der Regel befasst sich das Management Board (CEO, CFO, COO, usw.) mit aufbereiteten Daten. Kaum verwunderlich, denn diese Institution trifft bekanntlich die strategischen Entscheidungen einer Firma. Nicht überraschend dass auch Manager in der 2. Ebene, also Abteilungsleiter oder Geschäftsbereichsleiter sich auf Daten Analytics stützen.

Nun zur Kernfrage: wie fortgeschritten ist Data Analytics in den Unternehmen?

Bildschirmfoto 2013-06-27 um 17.38.54
Quelle: Deloitte „The Analytics Advantage“, 2013

Das Ergebnis ist ernüchternd. In vielen Unternehmen herrscht keine einheitliche Strategie beim Umgang mit Daten. Daten werden nicht zentral verwaltet und analysiert, auch die Verantwortung für diesen Bereich ist in vielen Unternehmen nicht eindeutig geregelt. Oft mangelt es an der passenden Technologie, um Data Analytics zu betreiben.

Fazit:

  • Data Analytics muss in Unternehmen gelebt werden und von den Führungspersonen voll unterstützt werden
  • Analytics soll Teil der strategischen Entscheidungsgrundlage werden
  • Analytics soll erweitert werden für Marketing und Kundenbetreuung
  • Analytics soll zentral verwaltet werden
  • Auch Analytics braucht eine klar ausformulierte Strategie

Hier können Sie eine Zusammenfassung der Studie vorgetragen von Tom Davenport, Professor von Harvard Business School und Berater von Deloitte Analytics ansehen.

Selbst die Franzosen werden offener in Hinblick auf Daten-Sharing

Wer hätte das gesagt, die prüden Franzosen gehen immer offener mit ihren Daten um. Laut einer Studie von IPG Mediabrands und Microsoft wären knapp 45% der Befragten in Frankreich bereit, Daten über ihr Kaufverhalten mit anderen zu teilen. Im Gegenzug erwarten sie nützliche Tipps und Empfehlungen. Auch für gezielte Werbung wären sie nicht abgeneigt.

48% der Befragten gaben an, dass sie einen Vorteil bei Kaufentscheidungen sehen, wenn sie ihre Datenidentität freigeben. Jedoch wären nur 36% der Konsumenten bereit, sich von Brands „tracken“ zu lassen, wenn ihnen ein besseres Kauferlebnis in Aussicht gestellt wird.

Diese Studie belegt wieder, dass Menschen offen für das Daten Sharing sind, wenn sie im Gegenzug einen Mehrwert sehen. Dies kann in Form eines nützlichen Feedbacks erfolgen aber auch durch gezielte Tipps und Empfehlungen für zukünftige Handlungen. Könnte diese Art der Incentivierung die Zukunft der Marktforschung sein?