Datarella steigt in Legaltech Markt ein: Erstes Blockchain-basiertes Schiedsverfahren mit Smart Contracts durchgeführt

Unsere Pressemitteilung von heute:

München (ots) – Datarella, der Münchner Anbieter für Big Data und Blockchain Lösungen, hat mit seinem Unternehmensbereich Codelegit den ersten Praxistest eines Schiedsverfahrens auf Basis von Smart Contracts erfolgreich abgeschlossen. Unterstützt wurde Datarella durch den auf IT-Recht spezialisierten Rechtsanwalt und Blockchain-Experten Dr. Markus Kaulartz, der als Schiedsrichter fungierte.

Smart Contracts, eine auf Blockchain-Plattformen laufende Software, die Prozesse automatisiert und beispielsweise Zahlungsabwicklung hocheffizient ermöglicht, können in industriellen Anwendungsgebieten nur eingesetzt werden, wenn sie gesetzes- und regelkonform sind. „Wenn ein Smart Contract eine vertraglich geschuldete Leistung durchführen soll, so muss er mit dem Vertrag sowie Recht und Gesetz übereinstimmen. Das ist fast immer eine Herausforderung, denn Software ist in der Praxis niemals fehlerfrei.“, so Datarella-Gründer und Codelegit Projektleiter Michael Reuter. „Aus diesem Grund haben wir mit dem Codelegit Schiedsverfahren eine Grundlage geschaffen, um Compliance bei Blockchain-basierten Smart Contracts sicherstellen zu können.“

Codelegit hat zu diesem Zweck eine sogenannte Smart Contract Arbitration Library entwickelt, eine Software-Bibliothek mit Smart Contracts, die von Unternehmen in entsprechenden Anwendungsfällen eingesetzt werden können. Das integrierte Schiedsverfahren stellt sicher, dass Streitigkeiten über die Durchführung von Smart Contracts durch legitimierte Richter entschieden werden. „Die gesamte Kommunikation der Vertragsparteien wird auf der Bitcoin sowie der öffentlichen Ethereum Blockchain in sog. Hash-Werten gespeichert. So verfügen alle Teilnehmer am Verfahren über einen lückenlosen Nachweis der Kommunikation“, so Jonatan Bergquist, Datarellas Experte für Smart Contracts.

Im nächsten Schritt wird die Codelegit Arbitration Library in unterschiedlichen Anwendungsgebieten im industriellen Umfeld eingesetzt. Das Ziel von Datarella ist es, Codelegit als Standardinstrument der IT-Compliance im Gebiet der Blockchain zu etablieren.

Codelegit Smartlockchain Arbitration Library

Die Blockchain Revolution

1926 veröffentlichte der sowjetische Wissenschaftler Nikolai Kondratjew seinen Aufsatz „Die langen Wellen der Konjunktur“. Auf Basis der von ihm in Deutschland, Frankfeich, England und den USA gesammelten Daten hatte er festgestellt, dass kurze konjunkturelle Zyklen von längeren Wellen überlagert werden, die zwischen 40-60 Jahre andauern. Zum Zeitpunkt der Veröffentlichung seines Aufsatzes befand man sich etwa in der Mitte der dritten Welle, die schliesslich mit dem zweiten Weltkrieg ihr Ende fand.

Die einzelnen Wellen lassen in den Aufschwungsperioden durch Jahre mit überwiegend guter Konjunkturund in den Abschwungsphasen durch einen Überhang an Rezessionsjahren beschreiben. Zugrunde liegen diesen Entwicklungen Basisinnovationen wie die Erfindungen der Dampfmaschine, der Eisenbahn, etc., die mit nachhaltigen Produktivitätssteigerungen einhergehen. Aktuell befinden wir uns in der 5. Kondratjew-Welle, der Informationstechnologie, die Ende der 80er Jahre des 20. Jahrhunderts begann. Der Beginn der Hochphase der aktuellen Welle dürfte etwa im Jahr 2005 erreicht worden sein. Blickt man aus dem Jahr 2017 innerhalb der Informationstechnologie zurück, stellt man fest, dass dies mit der Emanzipation des Internet zusammenfällt. Heute, 15 Jahre nach der ersten massiven Korrektur der Internetindustrie in den Jahren 2000-2002, stehen die signifikanten Produktivitätssteigerungen, die das Internet gebracht hat, ausser Frage.

Was allerdings noch zu beantworten ist: was folgt auf das Internet? Kommt die nächste bahnbrechende Technologie aus den Bereichen, die üblicherweise in diesem Zusammenhang genannt werden, wie Biotechnologie, Nanotechnologie, Robotik, Künstliche Intelligenz, usw.? Für alle diese Bereiche gibt es schlagende Argumente. Dennoch sehen wir eine bisher noch nicht auf der Agenda stehende technologische Entwicklung als ersten Anwärter auf den Titel „The Next Big Thing“: die Blockchain.

Blockchain hat bis ins Jahr 2016 hinein ein Schattendasein gefristet – nur Spezialisten wussten mit dem Thema etwas anzufangen und konnten sich dafür erwärmen. Durch eine äusserst schnelle Adaption des Themas nicht nur auf Technologie-Konferenzen, sondern auch in ersten Experimenten in Unternehmen, sowie durch öffentlichkeitswirksame beispielhafte Blockchain-Projekte wie das Blutdiamanten-Projekt von De Beers, ist die Blockchain zu Beginn 2017 in aller Munde. Ein Grund für das späte Erwachen liegt vermutlich in der Beschaffenheit der Blockchain: während Künstliche Intelligenz, Robotik et al. mit sichtbaren für den Menschen nachvollziehbaren (wenn auh teilweise erschreckenden) Beispieln aufwarten können, ist die Blockchain eine fundamentale Technologie, die an den originären Strukturen und Prozessen des Wirtschafts- und Soziallebens ansetzt:

Mit der Blockchain lassen sich bestehende Prozesse grundlegend vereinfachen, bestehende scheinbar in Stein gemeißelte Machtstrukturen in einer Weise ändern, dass Unternehmen und Institutionen dieser Technologie hochsensibel und mit grösstem Respekt begegnen. Allein das immanente Blockchain-Element der Dezentralität widerspricht tradierten Machtstrukturen diametral: jeder Arbeitnehmer weiß ein Lied davon zu singen, wie stark Top-Down heute noch die Befehlsprozesse in Unternehmen verlaufen – aktuelle Beispiele wie der VW-Abgasskandal bezeugen dies eindrucksvoll. Dezentralität bedeutet nicht nur eine Veränderung in Machtstrukturen; die in der Blockchain als verteilte Datenbank vorliegenden Informationen ermöglichen darüberhinaus Transaktionsprozesse signifikant effizienter zu gestalten – das Zero Marginal Cost Modell kann hier im Live-Einsatz beobachtet werden: Transaktionen sind zu vernachlässigbaren Kosten durchführbar. Prozesse, die bis dato an Transaktionskosten scheiterten, sind nun durchführbar.

Neben der Dezentralität kennzeichnen die Blockchain weitere Aspekte, wie die Unveränderbarkeit der Daten, eine garantierte Zurückführbarkeit auf historische Daten, und einige andere. In der praktischen Anwendung reicht meist schon die Verwendung eines der konstituierenden Elemente der Blockchain aus, um die Implementierung dieser Technologie zu rechtfertigen. Trifft man in der Realität auf Strukturen und Prozesse, die eine Kombination verschiedener Blockchain-Aspekte zur Anwendung kommen lassen, wird das Potenzial der Technologie ultimativ ausgeschöpft.

Auf einen derartigen Fall kombinierter Blockchain-Elemente sind wir im Building Blocks Projekt gestoßen, das wir gemeinsam mit unserem Partner Parity Technologies für und mit dem WFP Innovation Accelerator des World Food Programs der Vereinten Nationen durchführen. Das Ziel des Projekts besteht darin, einen relevanten Baustein zur Aufgabe des WFP – die Beendigung weltweiter Hungerprobleme – beizusteuern. „End Hunger“ – ein Ziel, das unseer Arbeit am Building Blocks Projekt nicht nur hochinteressant und herausforderend, sondern auch zu einer Herzensangelegenheit macht.

Wir werden die Entwicklung des Projekts in einzelnen Beiträgen beschreiben – es hat im Dezember 2016 begonnen und bereits Anfang Januar gab es einen ersten Proof of Concept im Süden Pakistans. Der nächste Milestone ist für Frühjahr 2017 angepeilt. Interessierten bieten wir darüberhinaus an, uns am 16. Mai in München zu besuchen: in den Räumen des WFP Innovation Accelerators werden wir gemeinsam mit den WFP Kollegen das Building Blocks Projekt vorstellen. Bei Interesse ist eine rechtzeitige Anmeldung angeraten, da das Platzangebot begrenzt ist. Das Building Blocks Projekt bietet eine große Bandbreite der Aspekte, die bei der Einführung einer neuen Technologie anfallen. Umso mehr freuen wir uns, in wenigen Wochen erste Ergebnisse vorstellen zu können.

Foto: Farman Ali, WFP

DNA und Big Data – Die Ära der Biopunks – SXSW 2017

Was verbindet die menschliche DNA mit Big Data? Warum ist es wichtig, sich bereits heute Gedanken darüber zu machen, vor welche Herausforderungen uns Daten über den menschlichen Körper stellen? Wie kann das Individuum wissen, welche Daten über seinen Körper existieren, diese erzeugen, verarbeiten und zu seinem Vorteil nutzen? 

Und wie ist es um das Thema Sicherheit und Privatsphäre bestellt? Wer kann an Daten über mich herankommen, diese nutzen und zu welchen Konsequenzen führt das für mich? Welche Gesetze und Rahmenbedingungen sind bereits geschaffen worden oder müssen installiert werden, damit die Konsequenzen der Verfügbarkeit der Biodaten für den Einzelnen und Gesellschaften beherrschbar bleiben?

Wer Antworten zu diesen Fragen sucht oder vielleicht schon hat, dem ist der Besuch des Talks Biopunk: Subverting Biopolitics auf der Konferenz SXSW im texanischen Austin zu empfehlen: Heather Dewey-Hagborg (School of the Art Institute of Chicago), Simone Browne (The University of Texas, Austin) und Joerg Blumtritt (CEO Datarella) präsentieren und diskutieren den aktuellen Wissenstand zum Thema.

Small Data? Alter Wein in neuen Schläuchen

In unseren Projekten, aber auch auf Konferenzen, hören wir gelegentlich den Begriff Small Data. In Abgrenzung zu Big Data soll Small Data die Aufmerksamkeit auf einzelne oder wenige Daten lenken, die Kausalzusammenhänge zwischen Variablen abbilden sollen.

Um es kurz zu sagen: das ist alter Wein in neuen Schläuchen. Small Data gab es früher, als keine oder nur wenige Prozesse digitalisiert waren und nur geringe Datenmengen zu Verfügungs standen. Um etwa Neuproduktentscheidungen auf Basis von Daten zu treffen, behalf man sich mit Marktforschungsmassnahmen, die eine ungefähre Ahnung des aktuellen und zukünftigen Kundenverhaltens vermittelten. Das ist die klassische Marktforschung, oder auch Marktforschung 1.0.

Seitdem immer mehr Prozesse digitalisiert werden, stehen Unternehmen und Individuen Daten in Hülle und Fülle zu Verfügung. Oft sind es soviele Daten, dass Unternehmen ihnen nicht mehr Herr werden, in neue Data Warehouse Infrastrukturen investieren und entsprechende neue Datenmanagemen-Prozesse neu aufsetzen müssen. Dies nicht nur, um datengetriebene Produkte zu entwickeln, sonden auch um bestehende Kundenverhältnisse zu optimieren: ein Kunde, dessen Bedürfnisse im Online-Shop, in der E-Mail- oder Call Center-Kommunikation nur unzureichend erkannt und beachtet werden, wechselt den Anbieter.
Vertreter des Small Data Gedankens werden meist von der oft als unüberschaubar wahrgenommenen Komplexität von Big Data abgeschreckt und ziehen sich deshalb auf bewährte Vorgehensweisen zurück: sie erstellen eine Hypothese – beispielsweise über das Verhalten Ihrer Zielgruppe – und suchen nach Daten, die diese Hypothese unterstützen. Sobald sie auch nur die geringsten Datenmengen gefunden haben, die ihre Hypothese unterstützt, nehmen sie dies als Beleg her und bauen darauf eine Marketingstrategie auf.

Aktuelles Beispiel für dieses archaische Vorgehen ist ein Vortrag des Marketing-Experten Martin Lindström auf dem Serviceplan Innovationstag 2016. Anhand von oben skizzierten Beispielen kommt er zu dem Schluss: „Big Data allein ist nutzlos. Im Grunde handelt es sich nur um eine Ansammlung von Daten, in denen Sie nach Korrelation suchen, aber nicht nach Kausalität – was sinnvoller wäre.“

Eine solche Aussage, getroffen von einem international anerkannten Experten, auf einer hochkarätig besetzen Konferenz, ist vermutlich im Jahr 2016 nur noch in Deutschland möglich – in einem Land, in dem das Bewahren von Bewährtem immer noch als deutlich wichtiger eingestuft wird als das Zerstören von Bekanntem, das Umwerfen und das Neu-Denken. Das Aufstellen von Hypothesen mit einer angeschlossenen auf geringen Datenmengen basierten Analyse wurde bis vor ca. 5 Jahren als Marktforschung durchgeführt. Nicht jedoch, weil man wusste, dass dies eine sinnvolle Methode beispielsweise zur Vorhersage von Kundenverhalten wäre, sondern weil auf der Basis der vorhandenen Daten dies damals das bestmögliche Vorgehen war. War.

In der Zwischenzeit hat sich die Welt jedoch geändert: wir haben jetzt die Daten, die uns ein vielfach besseres Bild der Gegenwart, wie auch der Zukunft ermitteln. Und weil wir diese Daten haben, müssen wir uns auch nicht mehr selber als Propheten betätigen und die Zukunft voraussagen, sondern wir sehen uns die Daten an, erkennen Korrelationen (nicht Kausalitäten) und entwickeln daraus Zukunftsoptionen.

Insbesondere der Unterschied zwischen Kausalität und Korrelation scheint sich in einigen Expertenkreisen noch nicht wirklich herumgesprochen zu haben. Der Grund, auf das Erkennen von Kausalitäten zugunsten von Korrelationen zu verzichten, ist einfach: Wenn Martin Lindström berichtet, dass ein Teenager seine Turnschuhe lieber abgetragen trägt, gilt das für genau diesen einen Teenager. Womöglich zeigt sich sogar, dass sich 100 Teenager so verhalten. Für ein Neuprodukt mit „pre-used“ Sohlen reicht das jedoch nicht. Diese „Kausalität“ hilft uns nicht weiter. Sie ist weder übertragbar, noch skalierbar.

Was uns weiterhelfen würde, wäre beispielsweise die Aussage, dass die Zeit, die Teenager durchschnittlich auf dem Skateboard verbringen, signifikant höher ist, wenn ihre Schuhe ein Mindestalter von > 6 Monaten haben und die Sohle um mind. 30% abgenutzt ist. Durch Sensoren im Schuh könnte eine solche Information verfügbar gemacht werden. In diesem Fall hätten wir einen tatsächlichen Beleg für das beschriebene Verhalten – im Fall der Lindströmschen Beobachtung handelt es sich lediglich um eine Anekdote.

Wir haben heutzutage die Möglichkeit, grosse Datenmengen zu erzeugen und zu analysieren. Lassen wir uns diese reichhaltigen Erkenntnis-Pool nicht entgehen! Indem wir uns selbst und unsere eigene Wahrnehmungsfähigkeit zunächst zurücknehmen und Daten sprechen lassen, werden wir unseren Blickwinkel deutlich erweitern und viele erstaunlich und bisher für undenkbar gehaltene Zusammenhãnge erkennen. Hören wir weniger auf Experten, sondern bilden wir uns unsere eigenen Meinungen basierend auf der Analyse von Big Data!

Schüler müssen programmieren lernen

Schüler müssen programmieren lernen – dieser Satz begegnet uns derzeit allen Ortens: Gesche Joost legt uns dies in der ZEIT dar, Klaus Ruß in der FAZ (nur offline verfügbar), auf zahlosen Konferenzen wird es gefordert – kurz: überall dort, wo man sich Gedanken über die zukünftige Wetbewerbsfähigkeit unseres Landes und die Chancen eines jeden einzelnen Berufstätigen macht. Ein Blick über die Landesgrenzen zeigt, dass es „die anderen wieder einmal besser machen“: Programmieren ist seit September 2014 Pflichtfach für alle fünfjährigen britischen Schüler. In der Schweiz sieht der Lehrplan 21 ebenfalls Programmier-Pflichtunterricht für fünfte und sechste Klassen vor

Das Programmieren ist indes kein Selbstzweck: es sollen nicht alle Schüler zu Programmiern ausgebildet werden, so wie nicht alle, die Sportunterricht geniessen, Leistungssportler werden. Das Programmieren soll in einem Alter den Blick auf die Chancen und gleichzeitig Herausforderungen öffnen, die moderne Technologien mit sich bringen. Schlagworte wie Industrie 4.0, Smart Home, selbstfahrenede Autos usw. beinhalten alle die dahinterliegende Technologie, die sich mit dem Begriff Internet of Things, oder: IoT, also der Vernetzung von Dingen untereinander, umschreiben lässt. Dinge, das können Haushaltsgeräte, Autos, Flugzeuge, Türen, Heizungen etc. sein, werden mit einer Kommunikationseinheit ausgestattet und bilden gemeinsam mit anderen Dingen ein Netzwerk. Einige der Dinge werden zusätzlich „smart gemacht“; d.h. sie erhalten eine gewisse „Intelligenz“ die es ihnen ermöglicht, selbständig Entscheidungen zu treffen: beispielsweise weicht das autonom fahrende Auto einem Hindernis aus. In wenigen Jahren werden die meisten der uns umgebenden Dinge Teil des IoT sein. Smartness in Dingen wird für uns selbstverständlich sein, wir werden von den Dingen autonome Entscheidungen verlangen, weil sie unser Leben erleichtern, so, wie wir bereits heute unsere eigenen Telefonnummern nicht mehr kennen, weil sie eingespeichert sind (ein solches Speichern einer Nummer ist zwar nicht unbedingt smart zu nennen, zeigt aber die Bereitschaft des Menschen, technologische Nutzen bereitwilllig zu akzeptieren).

Wir sehen, dass das IoT allgegenwãrtig sein wird. Sobald Menschen individuell von den Vorteilen smarter Geräte überzeugt sind, wollen sie keine anderen Geräte mehr haben. Aber: Wer programmiert die Regeln, nach denen die Dinge im Internet of Things agieren? Wer bringt den Dingen Intelligenz bei? Wer sorgt dafür, dass unser Kühlschrank die ausgehende Butter nachbestellt? Wer kümmert sich um etwaige Störungen im Netzwerk?

Auf absehbare Zeit zumindest müssen wir Menschen dies machen. Wir denken uns sinnvolle Anwendungsszenarien für das IoT aus, wir bauen die entsprechende Hardware und wir denken uns die Algorithmen aus, auf Basis derer die IoT Netzwerke funktionieren. Das bedeutet: der Handwerker von heute ist der IoT-Fachmann von morgen. Die Berufsbilder eines Heizungsinstallateurs, eines Anlagentechnikers oder sogar eines Goldschmieds werden sich signifikant ändern: alle werden früher oder später „intelligente“ Dinge herstellen und miteinander vernetzen. Ja, auch der Goldschmied: er wird Sensoren in seine Ringe, Ketten, etc. einbauen, die beispielsweise Körperaktivitäten ihrer Trägerinnen messen und an das Smartphone senden oder auch direkt eine Telefonverbindung aufbauen.

In den meisten unserer derzeitgen Berufe werden Programmierkenntnisse bzw. ein Verständnis für die Abläufe und Datenströme in Netzwerken vonnöten sein. Daher sind die eingangs genannten Forderungen berechtigt. Auf Forderungen müssen jetzt Taten folgen: aus Reden, Präsentationen und Kamingesprãchen müssen konkrete Projekte in den Schulen werden, die Schüler müssen möglichst schnell im IT-Unterricht praktische Erfahrungen sammeln können: bis Software- und Hardware-Programmierung Pflichtbestandteile des Lehrplans sind, muss dies über freiwillig bzw. zusätzlich organisierte Formen wie Arbeitsgemeinschaften erledigt werden.

Einige gute Beispiele gibt es bereits: hier arbeiten Eltern und Lehrer Hand in Hand, organisieren praktisch orientierte Zusatzangebote, kaufen auf eigene Rechnung Hardware, mit der programmiert wird. Bisher sind uns Einzelbeispiele bekannt – jeweils aus der Taufe gehoben von engagierten Einzelpersonen oder Gruppen an einzelnen Schulen. Hier gilt es anzusetzen: wir brauchen mehr solcher Initiativen, die auf kleinem Raum zeigen, wie einfach es ist, Schülern einen einfachen, spielerischen Zugang zum Programmieren zu geben und sie damit fit zu machen für die beruflichen Herausforderungen der Zukunft.

Wir tragen unseren Teil dazu bei, indem wir mit dem BAYDUINO einen kleinen Minirechner anbieten, der genau in diese Kerbe schlägt: jeder Schüler kann seinen eigenen BAYDUINO besitzen und über die einfache Drag ’n‘ Drop Programmieroberfläche OpenRoberta unseres Partners Fraunhofer Institut Programme schreiben, mit denen er Dinge im Internet of Things steuern kann. Einfacher geht’s nicht.

Wir laden alle engagierten Eltern und Lehrer ein, Kontakt zu uns aufzunehmen und den BAYDUINO kennenzulernen – unser Ziel ist es, bundesweit Schüler aller Schularten ab der 7. bzw. 8. Klasse mit dem BAYDUINO auszustatten und ihnen ein praxisnahes, anschauliches Lernen zu ermöglichen. Sprechen Sie uns an!

Eine Dezentrale Autonome Organisation DAO – Was ist das?

Was ist eine DAO, wie entsteht sie, was unterscheidet sie von herkömmlichen Organisationen und welchen Nutzen schafft sie? In einem ersten Beitrag wolln wir den Begriff der Dezentralen Autonomen Organisation (auch: dezentrale Selbstorganisation) einführen und erläutern.

Die meisten typischen uns bekannten Organisationsformen weisen ähnliche Strukturen auf: sie sind von einer zentralen Einheit, beispielsweise einer oder mehreren Personen oder einem Unternehmen, gegründet worden. Sie werden mit einem Regelsystem ausgestattet, nachdem sie funktionieren (sollen). Struktur und Prozesse bestimmen Zweck, Verhalten umd Wirkung der Organisation. Solange die Umgebung so beschaffen ist und die Umwelt sich so verhält, wie die Leitung es einschätzt, funktioniert die Organisation „nach Plan“. Organisationen dieses Typs funktionieren nach dem Top-Down-Prinzip: die Leitung (Chef, Vorstand, Gremium, etc.) macht Vorgaben und delegiert die Erstellung weiterer Vorgaben an in der Struktur weiter únten befindliche Teilnehmer (Manager, Arbeiter, etc.), die wiederum für die Einhaltung ihrer Vorgaben sorgen (sollen).

Die Kernmerkmale dieser Organisationsform sind Zentralität und Heteronomie, oder Fremdbestimmtheit: nicht der Abteilungsleiter bestimmt und verantwortet letztlich die Geschicke eines Unternehmens, sondern die Geschäftsführung. Im Unterschied zu dieser klassisch-hierarchischen Organisationsform ist die DAO diametral anders strukturiert: sie ist dezentral aufgebaut und funktioniert autonom; d.h. sie steht zwar (beispielsweise über das Intermet) im Austausch. mit anderen – DAOs, Individuen, (klassischen) Organisationen, etc., handelt aber selbständig. Hier eine aktuelle Definition der DAO:

DAO Definition

Eine blockchain-basierte, autonome, dezentral strukturierte nicht-natürliche Organisationseinheit, die ohne jegliche zentrale Weisung selbständig Entscheidungen auf der Basis unveränderlichen Computercodes trifft.

Das der DAO zugrundeliegende Regelset wird durch Mehrheitsentscheidungen der involvierten Teilnehmer aufgestellt und stetig weiterentwickelt. Derzeit werden die originären Regelsets noch von denjenigen Individuen bzw. Organisationen definiert, die DAOs aufsetzen. Zu einem späteren Zeitpunkt soll die Fähigkeit zu einer dezentralen Entscheidungsfindung soweit entwickelt sein, dass die initiale Erstellung von Regularien selbst über dezentrale Entscheidungen läuft.

Da DAOs aus Computercode bestehen, interagieren sie mit der Aussenwelt über Dienstleister, die Entscheidungen transportieren. Eine DAO kann viele unterschiedliche Dienstleister beschäftigen, die verschiedenste Aufgaben erledigen:

Beispielsweise könnte eine imaginäre SonntagsFußballDAO, gegründet von 30 sportbegeisterten Männern in der Nachbarschaft, dafür sorgen, dass ein gemeinsames Fußballspiel automatisch vereinbart wird, sobald mindestens 11 Teilnehmer Sonntags zwischen 15-17 Uhr Zeit haben und vor Ort sind. In diesem Falle müsste ein Dienstleister die Verfügbarkeit der Teilnehmer in ihren Kalendern prüfen und sicherstellen, dass der Fußballplatz frei ist. Eventuell muss die Online-Buchung des Platzes durchgeführt werden. Nachdem mindestens 11 Teilnehmer zugesagt haben, wird allen der Termin in den Kalender geschrieben. Die Kontrolle darüber, dass tatsächlich ein Fußballspiel stattgefunden hat, könnte ebenfalls durch einen Dienstleister geschehen. Hier werden jedoch die Teilnehmer vermutlich genügend Eigeninteresse mitbringen, dies zu bestätigen.

Die jeweiligen Regeln, auf Basis derer die Diensleister agieren, werden smart contracts genannt. Diese mit einer englischsprachigen Beschreibung versehenen Codeschnipsel definieren die Ausführung der Dienstleistung: Zeitpunkt und Dauer, Art und Weise, Lieferergebnis, Zahlungsbedingungen, etc.. Für die Erstellung von smart contracts werden sog. Tokens der jeweiligen DAO benötigt, ein Zahlungsmittel für Interaktionen. Für die an der DAO Beteiligten ist der Einsatz von Tokens typischerweise kostenlos – Teilnehmer ausserhalb des Beteiligtenkreises können sich Tokens mit einer virtuellen Währung wie Ether oder Bitcoin kaufen. Grundsätzlich kann die DAO auch Aussenstehenden die Nutzung vin Tokens kostenlos ermöglichen – die Gebühr für den Erwerb der Tokens ist jedoch gleichzeitig ein Element eines möglichen Geschäftsmodells einer DAO. Im Falle unserer SonntagsFußballDAO ist vermutlich kein Geld im Spiel, da es sich um eine nachbarschaftliche Freizeitangelegenheit handelt. Sogenannte DACs decentralized autonomous corporations, also zu geschäftlichen Zwecken errichtete DAOs, werden sich typischerweise durch den Verkauf von Tokens refinanzieren.

DAOs können grundsätzlich jede denkbare Aufgabe übernehmen bzw Zweck erfüllen. In jedem Fall sind die für herkömmliche Prozesse notwendigen Mittelsmänner (z.B. Rechtsanwälte, Steuerberater, etc.) nicht mehr erforderlich – dies spart Zeit und Geld. Auch die Tatsache, dass eine DAO selbständig entscheidet – ohne einen entsprechende Anweisung durch eine zentrale Instanz anfordern zu müssen, gestaltet alle Prozesse maximal effizient: so kann beispielsweise die Haustür in Abwesenheit der Anwohner durch die Reinigungskraft geöffnet werden, während sie für alle anderen Personen verschlossen bleibt. In diesem Fall findet die tatsächliche Entscheidung in der Haustür selbst statt; dies verdeutlicht die Implikation, die DAOs für das Internet of Things IoT haben. Dazu werden wir in den folgenden Beiträgen noch näher eingehen.

Das Konzept der DAO ist neu. Verständlicherweise widerstrebt es insbesondere Geschäftsleuten sich vorzustellen, dass Unternehmen aus autonom entscheidenden, auf Computercode basierenden Organisationen bestehen und nicht zentral gesteuert werden. Die Blockchain-Technologie, der zunehmende Einsatz virtueller Währungen und die Entwicklung zu immer effizienteren Prozessen werden dafür sorgen, dass DAOs schon bald alltäglich sind. Vielleicht wird dann der Begriff DAO selbst keine Rolle mehr spielen und die aktuell auf dem Markt bekannten spezifischen virtuellen Währungen und Plattformen für smart contracts von anderen, neuen, abgelöst worden sein – für uns besteht allerdings kein Zweifel daran, dass DAOs in absehbarer Zeit die dominante Organisationsform darstellen.

Bei Datarella setzen wir uns daher seit geraumer Zeit mit dem Thema auseinander und arbeiten mit unserem Partner Ethereum an unterschiedlichen Lösungen für den Praxiseinsatz – als Software, wie als Hardware. Unser Anspruch dabei ist: eine DAO muss einen ökonomischen Nutzen bringen, idealerweise kurzfristig. Wenn sie das Thema interessiert und Sie sich einen Meinungsaustausch wünschen, sprechen Sie uns an oder besuchen Sie eines unserer Ethereum Munich Meetups!

Derlei Zusammenkünfte können ungeahnte Kreativität freisetzen, wie diese Science Fiction Kurzgeschichte von Dan Finlay, die ich Ihnen als Einstiegslektüre in das Thema DAO empfehle.

Predictive Modeling – Ein Interview mit Datarella CEO Joerg Blumtritt

Bei Datarella beschäftigen wir uns hauptsächlich mit der sehr nahen Zukunft – wir entwickeln Antworten auf die Fragen: was ist höchstwahrscheinlich das, was Menschen im jeweils nächsten Moment haben oder machen wollen? Zur Vorhersage dieses menschlichen Verhaltens setzen wir mathematische Modelle ein. Neben kurzfristigen Vorhersagen interessieren wir uns auch für die weiter entfernte Zukunft und entwickeln auf Basis von Forschungsarbeiten, internen Kundendaten sowie externen Daten Erfolgswahrscheinlichkeiten für bestehende und neue Produkte. Hierbei geht es insbesondere um die Entdeckung wiederkehrender Muster in bezüglich der Akzeptanz von Produkten am Markt sowie Schwächen und andere Auffälligkeiten im Produktdesign. Gemeinsam mit unseren Kunden definieren wir Produktverbesserungsvorschläge, Optimierungen oder gänzlich neue Produkte und Services.

Leitfaden für Big Data Projekte (3) – Wertschöpfungsfelder

Nachdem wir uns im letzten Beitrag der Frage gewidmet haben, wer Big Data nutzt und welche die Gründe und Treiber für Big Data Projekte in Unternehmen sind, geht es im heutigen Beitrag um die unterschiedlichen Wertschöpfungsfelder in Big Data Projekten. Jedes einzelne dieser Wertschöpfungsfelder bietet für sich genommen eine Fülle von Möglichkeiten – Business Opportunities. Gleichzeitig haben sich in kurzer Zeit Spezialisten in allen Feldern etabliert, so dass die Anspruchshaltung von Partnern, Kunden und Endnutzern sehr hoch ist.

In welchen Bereichen entstehen während eines Big Data Projekts Werte?

– Daten erzeugen / sammeln
…Web-Analytics, Social Media, Produktionsdaten, IoT, Shop-Daten, Email, etc.

– Daten speichern, wiederfinden, vorbereiten
…Hadoop, Data Management

– Daten analysieren
…Modelle, Real Time Analytics, Machine Learning

– Daten interpretieren
…Beratung

– Daten visualisieren
…Dashboards

Daten erzeugen und sammeln

Warum in die Ferne schweifen, wenn das Gute doch so nah? Dieses Sprichwort trifft beim Thema Datenerzeugung vollständig zu: Daten werden heutzutage von Nutzern freiwillig in Hülle und Fülle produziert – zumeist online, in Sozialen Netzwerken.  Hier ist Social Media Analyse das perfekte Tool für qualitative Marktforschung, Trendforschung und Zielgruppenforschung (Personas). Außerdem liefern Netpromoter Scores und ähnliche Metriken gute KPIs zur Kampagnenkontrolle. Für Content-Marketing ist Social Media Analyse unverzichtbare Grundlage. Ein ideales Spielfeld für die Haus- und Hofagentur, könnte man meinen – aber: Agenturen haben oft keinen guten Footprint im Bereich Social Media. Die notwendigen Leistungen kaufen Agenturen von externen Dienstleistern zu. Damit stehen sie in Konkurrenz zu jedem anderen Berater, der die Daten ebenso erwerben kann. Während Social Media Analytics eine hervorragende Grundlage für die gesamte, strategische Kommunikation (inkl. PR und CRM) bietet, sprechen Mediaagenturen meist nur mit den Werbe-Media- Abteilungen.

Daten spreichern, wiederfinden, vorbereiten

Wie schon im ersten Teil unseres Leitfadens angesprochen, werden bereits hier schwerwiegende Fehler gemacht, indem Daten nicht – so, wie sie ankommen  abgespeichert, sondern aggregiert oder gar vernichtet werden, weil man der Auffassung ist, dass nur ausgewählte, bestimmte Hypothesen erfüllende Daten es wert seien, gespeichert zu werden. Oft geht eine traditionelle IT-Struktur im Unternehmen Hand in Hand mit dieser archaischen Datenperspektive: bevor sich IT-Verantwortliche mit Diskussionen über neue Datenarchitekturen gänzlich neue Baustellen eröffnen, werden eher alte Strukturen ausgebaut und damit verfestigt.  Trotz dieses Widerstands innerhalb vieler IT-Abteilungen hat sich eine Vielzahl an Unternehmen etabliert, die neuartige Strukturen für die Big Data gerechte Sammlung von Daten anbieten, wie Hadoop Distributoren, Anbieter von Management-Lösungen und Datenbanken, wie beispielsweise MongoDB , Couchbase, CouchDB, Collibra, ParStream, Talend, Amazon, Rackspace, etc. Alle diese Anbieter suchen nach Kunden Cases und sind offen gegenüber partnerschaftlichen Entwicklungen.

Daten analysieren

Data Analytics schließt direkt an die Hadoop-Distributoren an. In der Regel gibt es keine Lösungen von der Stange, sondern Berater der Analytics-Anbieter entwickeln beim Kunden maßgeschneiderte Lösungen. Diese Projekte lösen die Data Warehouses und andere überholte Infrastrukturen „aus den 90ern“ ab, die noch auf RDMSs beruhen. Neben aktuellen Verfahren der Mustererkennung (insb. in Anomalie-Erkennung, Fraud Detection, etc.), sind es vor allem Modelings, Simulations- und Planungsmodule die von Data Analytics Firmen für Kunden implementiert werden. Typisch sind grafische Benutzeroberflächen zur einfachen Modellentwicklung und Simulations-Dashboards.. Häufig werden unterschiedliche Datenquellen in das Analytics-System eingebunden.

Daten interpretieren

Die klassischen Strategieberater haben schnell Big Data als Geschäftsfeld besetzt. Da Big Data als Querschnittsaufgabe durch das gesamte Unternehmen läuft, sind Berater, die direkt am Konzernvorstand aufgehängt sind, sehr gut in der Lage, die Silos der Fachabteilungen aufzubrechen. Daten aus dem Marketing, der Buchhaltung, Personal und anderen Bereichen können von ihnen nicht nur technisch (wie früher durch die IT), sondern auch inhaltlich zusammengelegt werden. Klingt logisch und einfach – entscheidend ist hierbei allerdings die Einleitung: Beratung muss in der Unternehmenshierarchie auf der Stufe der Entscheidet erfolgen, da oft nicht nur technische Fragen geklärt, sondern auch Budgetentscheidungen getroffen werden müssen, die die bestehenden – aus der traditionellen Perspektive definierten – Budgets übersteigen: etwa bei der Implementierung einer neuen Dateninfrastruktur.

Daten visualisieren

Der gerne als eher nachrangig verstandene Aspekt der Datenvisualisierung ist unserer Erfahrung nach oft ein entscheidender im gesamten Big Data Projekt – wie in anderen Lebensbereichen gilt: was ich auf einen Blick in einem Bild sehe, verstehe ich besser als durch die Lektüre eines elaborierten Texts – oder gar – wie im Falle von Big Data – durch Zahlenreihen, Tabellen und Algorithmen. Dies bezieht sich überhaupt nicht auf den vermeintlichen Unterschied zwischen Wissenden (Isler, Data Scientists, Nerds, etc.) und Unwissenden (Chefs, Marketing-Menschen, etc.) sondern gilt in allen Situationen: eine gute Visualisierung ist das A&O einer jeden Entscheidung im Unternehmen. Anbieter von Dashboards und Visualisierung sind sozusagen die Oberfläche für die Data Analytics. Insbesondere wenn bereits eine hohe Datenkultur im Unternehmen besteht, können Lösungen wie beispielsweise „Tableau“ leicht implementiert werden.

In unserer nächsten Folge widmen wir uns daher dem Thema Datenanalyse: welche Voraussetzungen müssen gegeben sein, um ein Big Data Projekt sauber durchzuführen?

Bisher in dieser Reihe erschienen:
Leitfaden für Big Data Projekte (1) – Der Paradigmenwechsel in der Datenverarbeitung
Leitfaden für Big Data Projekte (2) – Gründe und Treiber für Datenprojekte in Unternehmen

Der Mensch und das Internet der Dinge 4: Kontextsensitivität

Einige Kaffee-Ketten bieten Vorbestellung und Bezahlung via Mobile App. Statt Schlange zu stehen, gehen wir einfach zur Theke und erhalten unsere Bestellung auf den Tresen gestellt. Das Restaurant kennt dadurch umgekehrt sehr genau unsere Vorlieben. Beim nächsten Mal bekommen wir vielleicht einen Coupon, der uns auf ein zweites Getränk einen Rabatt verspricht.

Wir bezahlen natürlich auch mit dem Smartphone – über das Bluetooth Funksignal verbindet sich das Mobiltelefon mit der Ladenkasse und überträgt die Zahlungsinformation, sicherer und bequemer, als mit der Kreditkarte. In der App der Bank lassen sich Kontostand und Zahlungsdetails in Echtzeit nachvollziehen.

Ein Beitrag zur „Berührt-Verführt: Werbekampagnen, die Geschichte machten

Featured Image by Nika Robin

Alogrithmen Ethik auf der SXSW Konferenz 2016!

Bitte unterstützt unsere Session mit eurer Stimme!

Algorithmen Ethik – Werturteile, subjektive Entscheidungen, sogar völlige Willkür – beherrschen die mathematischen Verfahren in unseren Smart Devices. Darüber haben wir schon einiges erzählt.

Über dieses wichtige Thema wollen wir auf der SXSW Konferenz sprechen. Die SXSW ist die wichtigste und größte Konferenz zu digitaler Kultur und Medien weltweit. Damit unsere Session angenommen wird, brauchen wir unterstützung. Auf der Website gibt es einen einfachen Voting-Prozess.

Hier ist der Link:
http://panelpicker.sxsw.com/vote/46293

Danke für eure Hilfe!