Monatelang wurde Edwin L. Drake belächelt. Wie kann man nur so verrückt sein und hier in der Nähe von Titusville ein riesiges Loch in die Erde bohren, durch dicke Kiesschichten hindurch, bis in den felsigen Untergrund Pennsylvanias? Doch Drake ließ sich nicht entmutigen. Am 27. August 1859 stieß er in 21,2 Meter Tiefe auf Öl. Ein Jahr später gab es im Nordwesten Pennsylvanias rund 2.000 Bohrlöcher. In Amerika war der Ölrausch ausgebrochen.

»Informationen sind das Öl des 21. Jahrhunderts«, sagt Peter Sondergaard, Senior Vice President des internationalen Marktforschungs- und Beratungsunternehmens Gartner. Sie sprudeln aus unzähligen Quellen – aus Wissenschaft und Forschung, Satelliten, Mikrosensoren, Überwachungskameras, Mobiltelefonen, Internetanwendungen – und füllen unaufhörlich die digitalen Speicher dieser Welt. »Von Beginn der Menschheit bis zum Jahr 2003 fielen rund fünf Exabyte an Daten an«, sagt der langjährige Google-Chef Eric Schmidt. Das sind fünf Milliarden Gigabyte, was in etwa dem 140-Fachen aller Informationen entspricht, die in der amerikanischen Kongressbibliothek gesammelt sind. »Mittlerweile produzieren Menschen und Maschinen diese Datenmenge in nur zwei Tagen.«

»Big Data« lautet das Stichwort und wie Drakes »Öl! Öl!«-Rufe vor mehr als 160 Jahren sorgt es für Goldgräberstimmung. Gelingt es, den neuen Rohstoff des 21. Jahrhunderts zu raffinieren, also aus dem Datenwust genau die Informationen zu filtern, die für Organisationen, Unternehmen oder Einzelpersonen entscheidende Vorteile bringen, verspricht »Big Data« zum »Big Business« zu werden.

Zu Zeiten Drakes verwendete man reines Erdöl noch als Medizin zur Linderung von Gelenkschmerzen und Juckreiz. Verfeinert diente es als Schmiermittel für Maschinen und als Ersatz für teures Lampenöl aus Waltran. Dass es einmal zu Benzin werden würde, das Motoren antreibt, oder zur Basis für die Herstellung von Kunststoffen, lag jenseits aller Vorstellungskraft.

Ähnlich großes, noch unentdecktes Potenzial sehen Experten in »Big Data«. Chris Anderson, Physiker, ehemals Chefredakteur des Technikmagazins »Wired« und heute Geschäftsführer zweier Hightech-Unternehmen, prophezeit eine Welt, »in der ›Big Data‹ und angewandte Mathematik jedes andere Erkenntniswerkzeug ersetzen. Weg mit jeder Theorie zum menschlichen Verhalten – von der Linguistik bis zur Soziologie! Wenn wir nur genug Daten haben, sprechen sie für sich selbst.« In ihnen versteckt fänden sich unsere Gewohnheiten, Interessen, Erlebnisse und Charaktereigenschaften – all das, was unser Tun und Handeln bei genauer Analyse vorhersehbar mache.

Doch gerade die genaue Analyse ist der Knackpunkt der »Big Data«-Euphorie. Sicher geben Menschen viel von sich preis: Jede Sekunde starten Internetnutzer zwei Millionen Suchanfragen bei Google, jede Minute laden sie 72 Stunden Videoaufnahmen bei YouTube hoch, jeden Monat veröffentlichen sie 120 Millionen Posts, Kommentare und Bilder bei Facebook. Allerdings können klassische Datenbankanwendungen mit dieser unstrukturierten Fülle an Informationen erst einmal wenig anfangen. Vorab gilt es, Muster darin zu erkennen. Dafür ist jede Menge Rechenleistung erforderlich, die nur mehrere Computer im Verbund aufbringen können. Zudem braucht es neue, wesentlich komplexere Software. Die Ergebnisse, die sie zutage fördert, sind allerdings nur so gut wie ihre Programmierung. Das heißt laut Sondergaard: »Der Erfolg von Unternehmen hängt in Zukunft von der Qualität der Algorithmen ab, die Datenmengen in Vorhersagen des Kundenverhaltens verwandeln.«

Erste Erfolge können Unternehmen mit »Big Data«-Anwendungen bereits verbuchen. So gelingt es zum Beispiel dem Online-Warenhaus Amazon, seine Umsätze durch intelligente Kaufvorschläge signifikant zu steigern. Sie sind das Destillat aus dem bisherigen Such- und Kaufverhalten des einzelnen und aller Kunden. Durch einen weiteren Filter, durch bessere Algorithmen, ließe es sich sogar noch verfeinern – etwa indem die Wetterdaten am Aufenthaltsort des Kunden mit in die Ermittlung der Kaufvorschläge einbezogen würden. Schließlich verkaufen sich manche Produkte bei Regen besser, manche bei Sonnenschein. Die Unternehmensberatung McKinsey rechnet in ihrer Studie »Big data: The next frontier for innovation, competition, and productivity« vor, dass Handelsunternehmen durch eine umfassende Analyse von »Big Data« in der Lage wären, ihre operative Marge um bis zu 60 Prozent zu verbessern.

Von »Big Data« versprechen sich auch Organisationen Großes, zum Beispiel die Vereinten Nationen. Mit ihrer Initiative Global Pulse wollen sie Blogs und soziale Netzwerke auswerten, um Krisen frühzeitig erkennen und schneller Maßnahmen dagegen ergreifen zu können. Weltweit soll dafür ein Netz an Rechen- und Forschungszentren, sogenannter Pulse Labs, aufgebaut werden. Im Oktober 2012 entstand eines in Jakarta. Bald soll das nächste in Kampala in Uganda eröffnen. Weitere Raffinerien für das Öl des 21. Jahrhunderts werden folgen.

Da bleibt die Frage nach »Ölkatastrophen« nicht aus. Birgt auch »Big Data« Risiken? Muss ich zum Beispiel damit rechnen, dass mich der Algorithmus einer Bank in die Schublade »nicht kreditwürdig« schiebt, nur weil ich bei Google mehr als einmal nach »Occupy Wall Street« gesucht habe? »Gut möglich«, meint Rick Smolan, Autor des Buchs »The Human Face of Big Data«. »Der Algorithmus wirkt wie ein Gesetz, das der Einzelne aber nicht kennt. Verabschiedet wurde es auch nicht von einer demokratisch gewählten Regierung, sondern von einer Handvoll Programmierern.« Deswegen fordert er eine Offenlegung der Algorithmen.

»Das Auswerten persönlicher Daten hat einen düsteren Beigeschmack«, findet auch US-Rechtsexperte Fred R. Shapiro, der unter anderem das »Oxford Dictionary of American Legal Quotations« herausgibt. Geschieht es ohne Einwilligung, stehe es in Widerspruch zum Grundrecht auf informationelle Selbstbestimmung. Je nach Land würden die Datenschutzgesetze mit diesem Konflikt unterschiedlich umgehen. Regelungen speziell für »Big Data« würden meist noch fehlen.

Am 14. März 1910 kam es bei Bohrungen im kalifornischen Kern County zur ersten großen Katastrophe in der Geschichte der Ölförderung. Beim »Lakeview Gusher« strömten 1,2 Millionen Tonnen Öl unkontrolliert aus. Niemand hatte damit gerechnet, dass die Quelle unter so großem Druck stehen würde. Es fehlten Sicherheitsvorrichtungen, die ihm hätten standhalten können. Bei »Big Data« ist noch Zeit, Risiken vorzubeugen.

Dieser Text von Thomas Weber ist zuerst im Kundenmagazin der TÜV SÜD Gruppe erschienen.

Foto: Unsplash



Ihnen gefällt unser Blog? Gerne halten wir Sie über neue Beiträge auf dem Laufenden.


NEWSLETTER ABONNIEREN