Upcoming: Optimal Positioning of Advertising Poles in Topographically Challenging Environments

Presentation for Commercial UAV Expo Europe 2019, Amsterdam (8.-10-4.2019)

The proliferation of Unmanned Aerial Vehicles is rapidly changing the GIS and 3D Analysis landscape and is opening the broad field of remote data collection, processing, and analysis to a wide audience and in a wide variety of industries. Continual improvements in airborne technology and the miniaturization of the requisite sensors has cultivated a nimble new branch of the industry that provides cost-effective data collection services on demand. Geospatial analysis is not a discipline that readily comes to mind when considering the optimal positioning of outdoor advertising.  However, when the fine line between success and failure depends on a few seconds of visual exposure, local line-of-sight analysis plays a key role in the positioning of the advertising structure. In this presentation, we explore the procedure for determining the best sites for advertising poles. The combination of official geo-data and UAV-generated high-resolution terrain models build the foundation of smart data analysis. Blue Marble’s Global Mapper GIS software provides algorithms used by MFBI Technologies to analyze 3D geo-data and supply customers with information, which is used for determining the best position of advertising poles. Running a viewshed analysis from the car driver’s point of view discloses possible pole locations, while running the analysis from selected pole locations allows the assessment of the best possible location and height of the pole. Constructing an outdoor advertising structure entails a considerable financial investment so selecting the right location in a challenging environment is an important decision.

Review: Vermessung und Ortung mit Satelliten

Professor Emeritus Dipl.-Ing. Manfred Bauer

Vermessung und Ortung mit Satelliten (7. Auflage)
Globale Navigationssatellitensysteme und andere satellitengestützte Navigationssysteme

Ein aktualisiertes Kompendium der angewandten Satellitennavigation im Vermessungswesen.

2017, 566 Seiten, 66 EUR, ISBN 978-3-87907-634-5 (Buch), als E-Book verfügbar, Wichmann Verlag (VDE), Bismarkstr. 33, 10625 Berlin, www.wichmann-verlag.de

Wollte man das Buch mit zwei Worten beschreiben, so würde man zweifelsohne die Begriffe Gründlichkeit und Praxisorientierung wählen. Der Autor präsentiert mit der 7. Auflage seines umfassenden Kompendiums zur Anwendung von satellitengestützter Technologie im Vermessungswesen wieder ein umfängliches und detailliertes Werk, welches sich hervorragend als Studienlektüre für den angehenden Vermessungsingenieur wie auch als Nachschlagewerk für den interessierten Praktiker eignet.

Neben einer Einführung in die Geodäsie und damit zusammenhängender Verfahren und Referenzsysteme bildet die Darstellung der physikalischen und astronomischen Grundlagen der Satellitentechnologie und damit verbundenen Rahmenbedingungen den ersten Teil des Lehrbuches.

Penibel wird jeder notwendige wissenschaftliche Baustein beschrieben. Ausführliche und verständlich formulierte Textpassagen sind durch erläuternde Schaubilder, Tabellen und mathematische Formeln ergänzt. So baut sich nach und nach ein Referenzsystem auf, welches die Themen erschöpfend erklärt und zum Detailstudium ermuntert.

Das Buch wird durch eine, vom Autor verwaltete und bereitgestellte Webseite unterstützt. Hier lassen sich die im Buch aufgeführten Tabellen als Excel-Dateien herunterladen. Darüber hinaus verlinkt der Autor auf interessante weiterführende Online-Quellen.

Der zweite Teil des Buches widmet sich der Arbeitsweise und den Charakteristiken von GNSS-Systemen und beschreibt die zu Grunde liegenden Messgrößen erschöpfend. Insbesondere werden die zur Verfügung stehenden Methoden der präzisen Positionierung beschrieben. In der aktuellen Auflage geht der Autor insbesondere auf das „Precise Point Positioning“-Verfahren genauer ein.

Der Verwundbarkeit von GNSS-Signalen widmet sich der Autor in einem dedizierten Kapitel. Insbesondere aufgrund der sprunghaft ansteigenden Verwendung von GPS-Informationen in Kritischen Infrastrukturen – der Energieversorgung, den Finanzmärten, dem Transportgewerbe und Kommunikationssystemen – stellt die Verwundbarkeit von GNSS-Signalen eine bedeutende Herausforderung des 21. Jahrhundert dar. Der Ausfall solcher Lokationsinformationen kann zum Ausfall öffentlicher Infrastrukturen führen.

Der dritte Teil des Buches beschäftigt sich mit den vorhandenen GNSS-Systemen. Der Autor geht ausführlich auf GPS, GLONASS und GALILEO ein und beschreibt das chinesische BDS und das indische NAVIC System. Daneben geht er auf internationale und regionale Erweiterungssysteme ein (z.B. SBAS und EGNOS).

Abschließend widmet sich der Autor der Anwendung von GNSS-Technologien in der vermessungs- und ortungstechnischen Praxis. Dies reicht von Tipps für die richtige Auswahl von Hard- und Software, Kalibrierungsanweisungen für Antennen und Beschreibung der Rahmenbedingungen bei der RTK-Vermessung bis hin zu Empfehlungen für die Vorgehensweise in Gebieten mit schlechtem GNSS-Signal.

Der Anhang schließt das Kompendium mit erläuterungswürdigen Themen, u.a. dem geodätischen Raumbezug und Referenzsystem für Deutschland, Datumstransformationen, Berechnung von Satellitenpositionen, einer Auflistung verfügbarer DGNSS-Diensten und einem geodätischen Glossar.

Das Buch ist ein Muss für jeden Interessierten. Es vermittelt Grundlagenkenntnisse, geht auf alle technischen Rahmenbedingungen und Details ein und hat einen Praxisbezug, wie man ihn außerhalb des Vermessungswesens, nur in wenigen anderen wissenschaftlichen Disziplinen finden kann.

 

Michael Frings, Bonn

Review: 2nd European GeoInformation Symposium and Exhibition, Berlin

Bundeswehr Geoinformationszentrum stellt sich den Herausforderungen von Big Data

VDV-Magazin 5/2017 von Michael Frings, Bonn

Big Data – Fachartikel VDV Magazin 5-2017

Am 21. und 22. Juni 2017 fand im Berliner Hotel Steglitz International das 2. Europäische GeoInformation Symposium mit Fachausstellung statt. Dieses Symposium wurde wie im Vorjahr vom Bundeswehr Geoinformationszentrum und AFCEA Europe ausgerichtet und stand unter der Schirmherrschaft des Bundesministeriums der Verteidigung.
Unter dem Titel „Big Data – Schlüsseltechnologie für Geoinformationsdienste der Zukunft“ wurde in zahlreichen Fachvorträgen dargestellt, wie sich die Möglichkeiten und Herausforderungen von „Big Data“ auf zukünftige Entwicklungen im Bereich der Geoinformationsdienste auswirken werden und welche Vorbereitungen getroffen werden müssen, um solche Dienste optimiert und strukturiert für den militärischen Nutzer bereitstellen zu können.
Die neue Struktur der Bundeswehr weist dem Geoinformationsdienst mit Sitz in Euskirchen eine wichtige Vorreiterrolle zu und drückt dies dadurch aus, daß die Abteilung mit der Indienststellung der neuen Teilstreitkraft „Cyber Informationsraum“ dem Kommando CIR zugeordnet wird. Damit gibt die Streitkräftebasis einen wichtigen Teilbereich ab.
Neben dem Kommandeur des Geoinformationsdienstes, Brigadegeneral Roland Brunner, unterstrichen namhafte Regierungsvertreter und militärische Führer die zentrale Bedeutung des Geoinformationsdienstes und der Schlüsselfunktion moderner Informationstechnologien, insbesondere zur Bewältigung und Auswertung großer Datenmengen.
Verteidigungsministerin Ursula von der Leyen wurde vom Parlamentarischen Staatssekretär Dr. Ralph Brauksiepe vertreten. Dr. Brauksiepe unterstrich zusammen mit dem Inspekteur
Streitkräftebasis, Generalleutnant Martin Schelleis und dem Inspekteur Cyber Informationsraum, Generalleutnant Ludwig Leinhos die Wichtigkeit der diskutierten Themenkomplexe.
Im Mittelpunkt der Vorträge standen immer wieder die Anforderungen an die Integrität, Verarbeitungsmöglichkeiten, Geschwindigkeit und Sicherheit der Daten im Spannungsbogen von Big Data. Die Situation wurde teilweise mit dem einfachen Ausspruch „If you are in Big Data, you are in Big Trouble“ beschrieben. So wird alleine in Deutschland pro Stunde 1 Terabyte Daten nur durch Laserscans erzeugt. Es sammeln sich bei der Produktion von 3D-Modellen pro Stunde ca. 20 Terabyte Daten an. Das Europäische Wettermodell generiert pro Tag ca. 8 TB.
Durch die immense Menge wird es zunehmend schwieriger die Herkunft und den Wert von Daten nachzuvollziehen. So stecken wir heute in einer „Reproduktionskrise“ in der es immer komplizierter wird, Daten und deren Qualität, Gültigkeit und Nutzbarkeit zu überprüfen. Experten prognostieren für das Jahr 2020 einen weltweiten Datenbestand von 44 Zetabytes (1 Zetabyte = 1.000 hoch Sieben Bytes, eine Zahl mit 21 Nullen, 1 Milliarde Terabytes, 1 Billiarde Gigabytes), wovon ca. 85% in unstrukturierter Form vorliegen. Erschwerend kommt hinzu, daß ca. 90% der heute existierenden Daten in den letzten zwei Jahren erzeugt oder gewonnen wurden. „If Data is too big to be moved, it’s called Big Data“ wurde als einfache aber treffende Definition aufgestellt, mit der Konsequenz, daß nur kognitive, selbstlernende Systeme und Algorithmen in der Lage sind diese Situation langfristig zu beherrschen.
Neben der Verarbeitung großer Mengen von Geoinformationen war die Darstellung, Verwendung und Visualisierung von großem Interesse. Hersteller bekannter Geoinformationssysteme stellten klar, daß das klassische dreidimensionale Lagebild zunehmend um den Faktor Zeit ergänzt werden muß, um einen echten Mehrwert darstellen zu können. Im Rahmen deutscher und europäischer Hilfs- und Entwicklungsprojekte wurden Geoinformationen mit Zahlenmodellen aus Volkszählungen und Wirtschaftindizes verknüpft, um so in eindrucksvoller Art und Weise darzustellen, wie auf den Kontinenten dieser Welt sich der Bevölkerungsstrom vom Land in die Städte entwickelt und einen direkten Einfluß auf den Wohlstand, besser gesagt auf die Armut der Bevölkerung auswirkt. Mit Hilfe von Laserscan, Photogrammetrie und 3D-Modellen konnte ein direkter Bezug zwischen der Struktur der Megacities und der Armut der Bevölkerung in den Slums hergestellt werden. Schlußendlich wurden moderne Technologien der „Virtual Reality“ vorgestellt, um mit Hilfe von „Building Information Modelling“ effizient und eindrucksvoll mehrdimensionale Lagebilder, Karten und Gebäude zu visualisieren.
Zum Abschluß der Veranstaltung schilderten Vertreter der US amerikanischen National Geospatial-Intelligence Agency NGA den Fortschritt der Geoinformationssysteme beginnend mit John Snow’s Londoner Cholera Karte aus dem Jahre 1854 bis heute und skizzierten Ideen wie eine vier-dimensionale Karte in der Zukunft aussehen könnte. „Der Faktor Zeit macht aus Geodaten Informationen.“