Review: 2nd European GeoInformation Symposium and Exhibition, Berlin

Bundeswehr Geoinformationszentrum stellt sich den Herausforderungen von Big Data

VDV-Magazin 5/2017 von Michael Frings, Bonn

Big Data – Fachartikel VDV Magazin 5-2017

Am 21. und 22. Juni 2017 fand im Berliner Hotel Steglitz International das 2. Europäische GeoInformation Symposium mit Fachausstellung statt. Dieses Symposium wurde wie im Vorjahr vom Bundeswehr Geoinformationszentrum und AFCEA Europe ausgerichtet und stand unter der Schirmherrschaft des Bundesministeriums der Verteidigung.
Unter dem Titel „Big Data – Schlüsseltechnologie für Geoinformationsdienste der Zukunft“ wurde in zahlreichen Fachvorträgen dargestellt, wie sich die Möglichkeiten und Herausforderungen von „Big Data“ auf zukünftige Entwicklungen im Bereich der Geoinformationsdienste auswirken werden und welche Vorbereitungen getroffen werden müssen, um solche Dienste optimiert und strukturiert für den militärischen Nutzer bereitstellen zu können.
Die neue Struktur der Bundeswehr weist dem Geoinformationsdienst mit Sitz in Euskirchen eine wichtige Vorreiterrolle zu und drückt dies dadurch aus, daß die Abteilung mit der Indienststellung der neuen Teilstreitkraft „Cyber Informationsraum“ dem Kommando CIR zugeordnet wird. Damit gibt die Streitkräftebasis einen wichtigen Teilbereich ab.
Neben dem Kommandeur des Geoinformationsdienstes, Brigadegeneral Roland Brunner, unterstrichen namhafte Regierungsvertreter und militärische Führer die zentrale Bedeutung des Geoinformationsdienstes und der Schlüsselfunktion moderner Informationstechnologien, insbesondere zur Bewältigung und Auswertung großer Datenmengen.
Verteidigungsministerin Ursula von der Leyen wurde vom Parlamentarischen Staatssekretär Dr. Ralph Brauksiepe vertreten. Dr. Brauksiepe unterstrich zusammen mit dem Inspekteur
Streitkräftebasis, Generalleutnant Martin Schelleis und dem Inspekteur Cyber Informationsraum, Generalleutnant Ludwig Leinhos die Wichtigkeit der diskutierten Themenkomplexe.
Im Mittelpunkt der Vorträge standen immer wieder die Anforderungen an die Integrität, Verarbeitungsmöglichkeiten, Geschwindigkeit und Sicherheit der Daten im Spannungsbogen von Big Data. Die Situation wurde teilweise mit dem einfachen Ausspruch „If you are in Big Data, you are in Big Trouble“ beschrieben. So wird alleine in Deutschland pro Stunde 1 Terabyte Daten nur durch Laserscans erzeugt. Es sammeln sich bei der Produktion von 3D-Modellen pro Stunde ca. 20 Terabyte Daten an. Das Europäische Wettermodell generiert pro Tag ca. 8 TB.
Durch die immense Menge wird es zunehmend schwieriger die Herkunft und den Wert von Daten nachzuvollziehen. So stecken wir heute in einer „Reproduktionskrise“ in der es immer komplizierter wird, Daten und deren Qualität, Gültigkeit und Nutzbarkeit zu überprüfen. Experten prognostieren für das Jahr 2020 einen weltweiten Datenbestand von 44 Zetabytes (1 Zetabyte = 1.000 hoch Sieben Bytes, eine Zahl mit 21 Nullen, 1 Milliarde Terabytes, 1 Billiarde Gigabytes), wovon ca. 85% in unstrukturierter Form vorliegen. Erschwerend kommt hinzu, daß ca. 90% der heute existierenden Daten in den letzten zwei Jahren erzeugt oder gewonnen wurden. „If Data is too big to be moved, it’s called Big Data“ wurde als einfache aber treffende Definition aufgestellt, mit der Konsequenz, daß nur kognitive, selbstlernende Systeme und Algorithmen in der Lage sind diese Situation langfristig zu beherrschen.
Neben der Verarbeitung großer Mengen von Geoinformationen war die Darstellung, Verwendung und Visualisierung von großem Interesse. Hersteller bekannter Geoinformationssysteme stellten klar, daß das klassische dreidimensionale Lagebild zunehmend um den Faktor Zeit ergänzt werden muß, um einen echten Mehrwert darstellen zu können. Im Rahmen deutscher und europäischer Hilfs- und Entwicklungsprojekte wurden Geoinformationen mit Zahlenmodellen aus Volkszählungen und Wirtschaftindizes verknüpft, um so in eindrucksvoller Art und Weise darzustellen, wie auf den Kontinenten dieser Welt sich der Bevölkerungsstrom vom Land in die Städte entwickelt und einen direkten Einfluß auf den Wohlstand, besser gesagt auf die Armut der Bevölkerung auswirkt. Mit Hilfe von Laserscan, Photogrammetrie und 3D-Modellen konnte ein direkter Bezug zwischen der Struktur der Megacities und der Armut der Bevölkerung in den Slums hergestellt werden. Schlußendlich wurden moderne Technologien der „Virtual Reality“ vorgestellt, um mit Hilfe von „Building Information Modelling“ effizient und eindrucksvoll mehrdimensionale Lagebilder, Karten und Gebäude zu visualisieren.
Zum Abschluß der Veranstaltung schilderten Vertreter der US amerikanischen National Geospatial-Intelligence Agency NGA den Fortschritt der Geoinformationssysteme beginnend mit John Snow’s Londoner Cholera Karte aus dem Jahre 1854 bis heute und skizzierten Ideen wie eine vier-dimensionale Karte in der Zukunft aussehen könnte. „Der Faktor Zeit macht aus Geodaten Informationen.“

0 Antworten

Hinterlassen Sie einen Kommentar

Wollen Sie an der Diskussion teilnehmen?
Feel free to contribute!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.