Empfehlung

BITKOM-Leitfaden: Management von Big-Data-Projekten

Das weltweite Datenvolumen verdoppelt sich zur Zeit im Schnitt alle zwei Jahre. Zu Beginn des Jahres 2013 war das Datenvolumen bereits auf über 2 Zettabyte (eine 2 mit 21 Nullen) angewachsen. Würde man diese Datenmenge auf iPads und entsprechenden Tablets speichern und stapeln, käme eine Tablet-Mauer von rund 21.000 Kilometern Länge heraus, ein Bauwerk so lang wie die Chinesische Mauer. Und bereits in zwei Jahren würde sich die Tablet-Mauer dann einmal komplett um die Erde erstrecken.

Internet, ITK, IKT, Computer, PC, IT, Cloud, 101, Big Data
[Bild: Gerd Altmann / pixelio.de]

Vor diesem Hintergrund wird das effiziente Auswerten riesiger Datenmenge immer wichtiger: Big Data. Laut den Management- und Unternehmensberatern von Roland Berger Strategy Consultants wird Big Data unsere Gesellschaft, Politik und Wirtschaft sogar so grundlegend verändern wie es einst der elektrische Strom oder das Internet getan haben. Unternehmen müssten daher schnell lernen, diese exponentiell wachsenden Datensätze überhaupt intelligent und effizient nutzen zu können. (Link zu “Roland Berger: Das “Data Unser” – Wie Kundendaten die Wirtschaft revolutionieren.)

Neuer BITKOM-Leitfaden hilft bei Planung und Umsetzung von Big-Data-Projekten

BITKOM hat einen Leitfaden „Management von Big-Data-Projekten“ veröffentlicht. Er gibt konkrete Tipps und Hilfen bei der Planung und Umsetzung von Big-Data-Projekten in Unternehmen. Unter Big Data wird die Analyse großer Datenmengen aus unterschiedlichen Quellen in hoher Geschwindigkeit verstanden, im Idealfall in Echtzeit. Dies reicht von der Analyse einzelner Genome in der Medizin bis zur Optimierung des Verkehrs von Städten oder ganzen Staaten. „Das Geschäftsmodell vieler Unternehmen wird sich durch Big-Data-Technologien stark verändern“, sagt Dr. Mathias Weber, Big-Data-Experte beim BITKOM.

Im Fokus des Leitfadens stehen Planung und Umsetzung von Big-Data-Projekten in Unternehmen. Dazu wird ein Vorgehensmodell vorgestellt, das in acht Phasen alle Aktivitäten zusammenfasst. So kann die Komplexität von Big-Data-Projekten deutlich reduziert werden. Das Phasenmodell reicht von der Erfassung der Möglichkeiten für das Unternehmen durch den Einsatz von Big Data über die konkrete Planung bis zur Umsetzung und weiteren Optimierung. Der Leitfaden enthält zudem eine Übersicht über Architekturen und Basis-Technologien und er gibt Tipps, wie Big-Data-Kompetenz bei den eigenen Mitarbeitern aufgebaut werden kann. „Um die Möglichkeiten von Big Data für das eigene Unternehmen nutzen zu können, ist eine gründliche Planung notwendig. Oft wird die Komplexität solcher Projekte unterschätzt“, sagt Weber.

Werden in Big-Data-Projekten personenbezogene Daten verarbeitet, spielt der Datenschutz eine bedeutende Rolle. Der Leitfaden greift hierbei zwei wichtige Punkte auf: Er gibt Tipps, was bei der Pflicht zur Datenschutz-Folgenabschätzung, dem sogenannten Privacy Impact Assessment, beachtet werden muss. Ein solches Assessment ist unter anderem im Entwurf zur EU-Datenschutzverordnung enthalten. Der Leitfaden enthält hierzu eine konkrete Checkliste, die bei der Umsetzung von Big-Data-Projekten wichtige Hilfestellung geben kann. Zudem klärt er darüber auf, wie anonymisierte und pseudonymisierte Daten zu einem höheren Datenschutz im Sinne des Bundesdatenschutzgesetzes führen können. Ziel ist es in beiden Fällen, dass erhobene Daten nicht direkt einer Person zugeordnet werden können. Weber: „Wer im Rahmen seines Big-Data-Projektes personenbezogene Daten verarbeiten will, muss früh innerhalb der Planungsphase den Datenschutz berücksichtigen.“

-> Link zum kostenfreien Download des Leitfadens „Management von Big-Data-Projekten“

Internationaler Start-up-Wettbewerb zu Big Data auf der CeBIT 2014

In der aktuellen Runde des globalen Innovationswettbewerbs CODE_n dreht sich alles um Geschäftsmodelle zur intelligenten und effizienten Nutzung großer Datenmengen. Unter dem Motto „Driving the Data Revolution“ können sich bis zum 31. Oktober 2013 aufstrebende junge Unternehmen aus der ganzen Welt für den CODE_n Wettbewerb bewerben. Die besten 50 von ihnen werden eingeladen, ihre speziellen Big-Data-Lösungen auf der CeBIT 2014 zu präsentieren. Dafür wird auf der CeBIT 2014 eine eigene Halle mit spektakulär inszenierten Themenwelten eingerichtet. Präsentiert werden dann die spannendsten Geschäftsmodelle aus so verschiedenen IT-Anwenderbereichen wie Finanzdienstleistungen, Gesundheit, Telekommunikation, Automobil und Energie. Als Preisgeld winken dem Gewinner 30.000 Euro, Ruhm und Ehre. (Mehr Informationen hier.)

(mb)

—-

Weiterführende Artikel

Big Data: Research School erörtert Innovationen im In-Memory Data Management
Big Data: Datenflut überschwemmt die Menschheit – 250 Mrd. Euro Einsparpotenzial in der EU
Big Data – »Big Chance« für Deutschland?! Fraunhofer IAIS entwickelt eine Big Data-Roadmap für deutsche Unternehmen
Mehr Internet, mehr Daten, mehr Interaktion: Szenarien beschreiben die Zukunft in der Gigabitgesellschaft
Das Data-Unser: Eichhörnchen-Prinzip führt zu Daten-Fantastilliarden
PAC-Studie: Unternehmen wappnen sich für Big Data, In Memory-Analysen gehören zum Rüstzeug
Nutzen und Grenzen von Big Data für die Medienindustrie

—-

Marc Brümmer

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.