Die Digitale Transformation ist hier. Nahezu alle Unternehmen versuchen inzwischen , sich auf die neue Situation einzustellen. Erst als Hype abgetan wird nun deutlich, warum nun alles anders ist. Im Vergleich zu den 80/90er Jahren, in denen ja bereits Industrie 2.0, die Digitale Fabrik oder CAD/CAM hoch im Kurs standen und dann noch wenig Revolution auslösten, werden heute viele Konzepte tatsächlich Realität. Hierfür verantwortlich sind vor allem die Zunahme der Rechenleistung und der Preisverfall für Rechenleistung und Speicher, der Preisverfall für Sensoren und Aktoren, die Automatisierungen deutlich beschleunigen und der rasante technische Fortschritt, wie Neuentwicklungen von Algorithmen und Miniaturisierungen von Hardware, der exponentiell verläuft.

Big Data

Mit Zunahme der Digitalisierung nimmt auch vorhandene oder auswertbare Menge an Daten exponentiell zu. So verdoppelt sich i.d.R. aktuell das weltweit erzeugte Datenvolumen in weniger als 2 Jahren und erreicht neue Höhen. In den 80er Jahren war unter 1% der Informationen in einem digitalen Format. Heute sind es 99%. IDC schätzt das weltweite Datenvolumen in 2020 auf 44 Petabyte, das sind 44 Billionen Gigabyte.

Big Data bezeichnet Datenbestände, die es unmöglich machen, sie manuell oder mit herkömmlichen Methoden auszuwerten und die sie so von traditionellen Daten unterscheidet:

  • Volume: Die Daten haben einen großen Umfang, wie der Name bereits vermuten lässt. So generiert Facebook mit seinen 2 Mrd. aktiven Usern (Q3 2017) 4 Petabyte an neuen Daten täglich. Insgesamt lagern 300 Petabyte an Daten ind Facebooks Data Warehouse.
  • Variety: Die Daten weisen in der Regel ein breiteres Spektrum an Format und Inhalt auf. Viele Unstrukturierte Daten, wie Fotos, Videos, Text oder Dokumente oder eMails sind enthalten. Diese Vielfalt ist deutlich schwieriger zu verarbeiten, als einfach strukturierte Datenbanken.
  • Velocity: Die Verarbeitung der Daten sollte ihrer Generierung und ihren Wachstum entsprechen.
  • Veracity: Die Qualität der Daten kann stark variieren und somit eine Auswirkung auf die Analyse(Fähigkeit) haben.

Big Data stellt somit neue und andere Anforderungen an die Verarbeitung und Analyse von Daten. Waren früher überschaubare Datenmengen in einfachen, strukturierten SQL Datenbanken abgelegt, ist die Datenhaltung heute zunehmend dezentral, unstrukturiert, vernetzt und real-time. Daten werden in NoSQL Datenbanken abgelegt, die sich über verschiedenste Hardware verteilen

Dark Data

Laut IDC werden 2030 geschätzt 90% des Datenvolumens unstrukturierte Daten sein. Von diesen, aber auch von den heutigen erhobenen Datenbeständen werden nur ein Bruchteil tatsächlich genutzt. Unter Dark Data versteht man all die Daten, die von IT Systemen erfasst und gespeichert, aber nicht verwendet werden. Die Gründe hierfür sind vielfältig. So werden Daten gesammelt, um sie in der Zukunft für etwaige Auswertungen verfügbar zu haben oder es wird gehofft, Daten, die heute nicht oder nur beschränkt Auswertbarkeit sind, mit neuen Tools in der Zukunft besser auswerten zu können. Oft ist man sich der Existenz dieser Daten später gar nicht mehr bewusst, was zu Datenschutz-Problemen führen kann. Dennoch bergen gerade diese Datenbestände auch große Schätze, wenn es darum geht, Unternehmensbereiche zu digitalisieren oder KI zu trainieren.

Dataismus

Dataismus (Dataism) beschreibt die Haltung oder Philosophie, die durch die zunehmende Verbreitung von Big Data entsteht. Chris Anderson beschrieb 2008 in seinem Artikel “The End of Theory” im Wired Magazine das Ende der klassischen wissenschaftlichen Methode der Hypothesenbildung, Modellbildung und empirischen Ãœberprüfung. Bei der Fülle an Daten, so  Anderson, genügt die Mustererkennung, um Schlussfolgerungen zu ziehen. sind (zumindest für die Prognose und Handlungsempfehlung) nicht mehr nötig. David Brooks beschreibt 2013 in seiner Kolumne “The Philosophy of Data” in der New York Times den Begriff  “Data-ism”. Daten helfen uns immer besser, die Vergangenheit und Gegenwart zu beschreiben und zu verstehen, so Brooks, und unterstützt uns dabei, “cognitive biases” zu zu reduzieren und bisher unbekannte Muster in Daten zu erkennen. Noah Harari greift diese Idee ebenfalls in seinem Buch “Homo Deus” auf und beschreibt eine Sicht, aus der alle sozialen Systeme, die ganze Menschheit, als datenverarbeitende Einheit gesehen wird. Parallelen zu Niklas Lohmanns Systeme als Netzwerke von Entscheidungen scheinen gegeben, wenn auch wohl zufällig. Datengläubigkeit als neue Religion – die Verbindung von mehr und mehr Datenströmen, um diese noch besser, noch wirksamer zu verarbeiten. Der Dataist bevorzugt Big Data und Algorithmen anstelle menschlichen Wissens und Weisheit. Informationsfreiheit wird als höchstes Gut zu Wohlstand und Entwicklung gesehen. Trotz verschiedenster Kritik am Dataism Ansatz scheint derzeit der Run auf Daten und deren Analyse ungebrochen.

So what…

Daten wurden schon länger als das “Öl” des neuen Digitalen Zeitalters bezeichnet. Dem ist sicherlich nicht zu widersprechen. Im Unternehmenskontext sind die Effizienz- und Effektivitätsvorteile, die auch Big Data und Data Analytics gehoben werden können, bei weitem noch nicht erreicht. Sei es in einfacheren Feldern wie Predictive und Preventive Maintenance, bei der Konstruktion und Simulation im Engineering oder bei komplexeren Feldern wie Supply Chain Management oder Office Support. Spannend bleibt die Frage, wie wir als Menschen mit der zunehmenden Digitalisierung um gehen werden. Sind wir wirklich nur datenverarbeitende Organismen, die früher oder später komplett von einer KI abgebildet werden (Superintelligenz) oder gar überholt werden (Singularität)? Oder ist es gerade das menschliche, was auch immer das ist und was auch immer noch bleibt, das in Co-creation mit Maschinen die Menschheit und den gesamten Planeten in ein neues Zeitalter führt?

Bis dahin ist noch ein wenig (wenn auch laut einigen Forschern nicht mehr allzu viel) Zeit. Bis dahin beschäftigen wir uns mit Themen, die Organisationen und Führungskräften helfen, konkret besser in die neue Zukunft zu gehen und Daten systematisch zu nutzen.

 

Quellen:

  • Anderson, Chris, The end of Theory, 2008, “https://www.wired.com/2008/06/pb-theory/”
  • Brooks. David, The Philosophy of Data, “https://www.nytimes.com/2013/02/05/opinion/brooks-the-philosophy-of-data.html”
  • ComplexityLabs, eBook Complex Analytics, www.complexitylabs.io
  • Harari, Yuval Noah, Homo Deus, 2016, https://amzn.to/2QgzvpA
  • Harari, Yuval Noah, Homo sapiens is an obsolete algorithm, 2016, https://www.wired.co.uk/article/yuval-noah-harari-dataism
  • Smith, K., 47 Incredible Facebook Statistics and Facts, https://www.brandwatch.com/blog/47-facebook-statistics/
  • Wikipedia, Big Data, https://en.wikipedia.org/wiki/Big_data
  • Wikipedia, Dark Data, https://de.wikipedia.org/wiki/Dark_Data