Open Data Berlin: Wirklich zwei WMS-Layer für ein Thema?

ALKIS Berlin: Ein Darstellungslayer vs. 5 Sachdatenlayer in einem WMS, warum?

Also eigentlich dachte ich, ich kenne mich mit OGC-konformen Geodiensten ganz gut aus. Nun bin ich aber in Berlin (IMHO ein echter Open Data Vorreiter!) auf einen im März 2026 aktualisierten ALKIS-WMS [1] gestoßen, den ich in dieser Form noch nicht erlebt habe und eigentlich so auch nicht verstehe. Warum betreibt man einen WMS anders als vom Standard vorgesehen?

Ein WMS zeichnet sich lt. Wikipedia durch folgenden Eigenschaften aus:

„Im Sinne eines verteilten Geoinformationssystems (GIS) besitzt ein WMS nur die Fähigkeit zur Auskunft der notwendigen Metainformation, zur Visualisierung dieser Geodaten und für eine allgemeine Abfrage der zugrundeliegenden Sachdaten.“ [2]

Bekanntermaßen liefert mir ein WMS eine Karte mit GetMap (ein georeferenziertes Bild als PNG, GIF, JPG, TIFF, …) und gleichzeitig auf Anfrage die Sachdaten eines Objektes über einen abgefragten Punkt (Koordinate) in diesem Dienst mit GetFeatureInfo. Des Weiteren können noch die Legende mit GetLegendGraphic und die Eigenschaften mit GetCapabilities abgefragt werden.

In Berlin macht man es nun aber plötzlich anders. Hier werden die Inhalte zur Visualisierung für die Flurstücke, Gebäude, Bauwerke, … in einem Layer gemischt und die Sachdaten getrennt in weiteren fünf Layern, immerhin alles in einem Dienst vorgehalten, einer für die gemischte Karte (GetMap) und die fünf für die Sachdaten (GetFeatureInfo). Aber warum? Das heißt ja für den Nutzer in seinem GI-System immer mindestens zwei Layer laden, einen mit der Karte ohne Sachdaten, um die Geodaten überhaupt zu sehen und den zweiten, eben mit leerer Karte, nur, um die Sachdaten via Identifikation abfragen zu können. Das bringt

  • die Nutzer durcheinander,
  • erhört den Aufwand,
  • senkt die Transparenz,
  • konterkariert IMHO die WMS-Philosophie und
  • ist doch eigentlich total unnötig, oder?

Ich hätte je einen Layer für Flurstücke, einen für Gebäude, Bauwerk, Nutzung, etc. erwartet, jeweils mit Karte und Sachdaten, so wie üblich und in allen anderen Bundesländern auch realisiert, üblicherweise getrennt nach Flurstücken, Gebäuden und tatsächlicher Nutzung. Für GIS-Insider ist das vielleicht gewöhnungsbedürftig, aber machbar, für „normale“ Endkunden ohne spezielle GIS-Kenntnisse im WebGIS wie OpenLayers, Leaflet oder MapLibre eine Zumutung.

Hier die Problematik für das Thema „Flurstücke“ mal bebildert:

Screenshot 1: Die zwei verschiedenen Layer für die gemischte „Darstellung“ und die Flurstücks-„Sachdaten“ im QGIS
Screenshot 2: Nur der Layer für „Darstellung“ leider ohne Identifikationsmöglichkeit
Screenshot 3: Nur der Flurstücks-Layer für „Sachdaten“ leider ohne Karte
Screenshot 4: Nur der Flurstücks-Layer für „Sachdaten“ identifizierbar aber leider ohne Karte
Screenshot 5: Beide Layer für gemischte „Darstellung“ und Flurstücks „Sachdaten“ und nur bei richtiger Aktivierung (blau) auch mit Identifikationsergebnis

Ich habe mich mit einigen Fachkollegen dazu ausgetauscht, keiner hatte eine Idee oder plausible Erklärung. Und was macht man heute, man befragt die KI, meinen Chat dazu findet Ihr in [3]. Aber auch dort bin ich nicht wirklich fündig geworden. Der noch plausibelste Grund für verschiedene Toleranzen sollte bei Flurstücken, Gebäuden, … eher keine Rolle spielen, diese Objekte trifft man per Mausklick im Allgemeinen immer sicher.

Vielleicht können uns die Berliner Kollegen mal auf die Sprünge helfen, warum sie das so (ungewöhnlich) gelöst haben, gern in den Kommentaren. Ich jedenfalls bin gespannt und lerne gern dazu!

Übrigens, über den für mich unverständlichen, weil unterschiedlichen Umgang mit inhaltlich gleichen Themen in den einzelnen Bundesländern habe ich in meinem Vortrag „Open Data in D: Perfekte Idee, halbherzige Umsetzung? Ein Erfahrungsbericht.“ auf der FOSSGIS 2025 in München [4], [5] das erste Mal berichtet, dann immer mal wieder.

[1] … https://gdi.berlin.de/services/wms/alkis?SERVICE=WMS&REQUEST=GetCapabilities
[2] … https://de.wikipedia.org/wiki/Web_Map_Service
[3] … https://geoobserver.de/download/KI_ALKIS_WMS_Berlin_ChatGPT52_20260428.pdf
[4] … https://www.youtube.com/watch?v=bVLV-df5O6I
[5] … https://geoobserver.4lima.de/downloads/myPresentations/FOSSGIS_2025_ OpenDataGermany_Erfahrungsbericht_Elstermann_v02.pdf

TerraInk: Coole DIY-Poster und Wallpaper mit OSM-Daten

Abbildung 1: Screenshot meiner TerraInk [1] Testsitzung – eine HALLE-Karte mit Standardeinstellungen und eine hinzugefügten Symbol (Marker)

Wer schon immer mal attraktive Poster oder Bildschirmhintergründe mit freien Geodaten kreieren wollte, hat es jetzt wirklich einfach, mit TerraInk [1] ist das schnell und unkompliziert getan. Einfach die Lokation eingeben, Thema, Layout und Stile festlegen und dann die Wunschkarte mit Inhalten anreichern, also mit Markern, Layern und Routen. Aber auch ohne eigene Anpassungen trefft Ihr schon mit den Grundeinstellungen eine richtige Wahl und es kommen coole Karten dabei heraus. Genutzt werden die bekannten freien OpenStreetMap-Daten.

Abbildung 2: Das Ergebnis meiner TerraInk [1] Testsitzung als PNG
Abbildung 3: Screenshot einer Teams-Sitzung mit dem Ergebnis meiner TerraInk [1] Testsitzung als Hintergrund

[1] … https://terraink.app/

DrawonMaps: OSM & picture@map

Abbildung 1: Screenshot – Mein Test mit DrawonMaps [1] – die Brille [2] und die OSM-Daten von Halle (Saale)

Was man doch so alles mit Geodaten machen kann, heute eine Idee, auf die man selbst vielleicht so nicht gekommen wäre? Man nehme OSM-Daten und ein am besten kontrastreiches Bild und erzeuge mit den Kontoren des Bildes eine OSM-Straßenkarte. Über den praktischen Nutzen kann man sich ggf. mal austauschen, aber technologisch für mich jedenfalls: eindeutig faszinierend. Im Tweet auf X (ehem. Twitter) [1] liest man Folgendes zum Map Tracer DrawonMaps [3]

„Was wäre, wenn man JEDES beliebige Bild mit echten Stadtstraßen zeichnen könnte?
Neuestes Experiment: Lade ein beliebiges Bild hoch → die App erkennt dessen Ränder → dann zeichnet ein autonomer Agent die Konturen nach und füllt das Bild mit tatsächlichen Straßen aus OpenStreetMap aus.
Der Agent zeichnet die Umrisse und füllt den Innenbereich grün aus.
Die Stadt selbst wird zu deiner Leinwand.
Entwickelt mit React 19 + DeckGL + MapLibre + Overpass API“
[1]

Ich habe es mal kurz für Euch getestet: Mein Testbild eine Warsteiner-Retro-Brille [2], meine Testumgebung die OSM-Daten, natürlich von Halle (Saale).

Abbildung 1: Mein Testbild – die Brille [2]
Animation: Mein Test mit DrawonMaps [1] – die Brille [2] und die OSM-Daten von Halle (Saale)

[1] … https://x.com/AhmedShahnab/status/2048371517692452974
[2] … https://barmeister24.de/media/image/product/13727/lg/warsteiner-bier-retro-brille-partybrille-sunglasses-sonnenbrille-uv-400~2.webp
[3] … https://shahnab.github.io/DrawonMaps/

GDAL Released: v3.12.4

Am Freitag, den 24.04.2026 gab GDAL-Maintainer Even Rouault per Mail [1] bekannt, dass eine neue Version der universellen GDAL-Bibliothek [2] zur Verfügung steht, aktuell ist nun GDAL v3.12.4, ein Bug Fix Release. GDAL steht für Geospatial Data Abstraction Library und ist vor allem als Kommandozeilen-Tool, aber auch als wesentlicher Bestandteil von QGIS bekannt. Alle Neuerungen findet Ihr auf GitHub [3].

[1] … https://lists.osgeo.org/pipermail/gdal-dev/2026-April/061564.html
[2] … https://gdal.org/
[3] …https://github.com/OSGeo/gdal/blob/v3.12.4/NEWS.md

Cool: Dein Name aus Satellitenbildern

Screenshot: „geoObserver“ in der Anwendung „Your Name In Landsat“ [1].

Zum Wochenende mal was Schönes. Deinen Namen kannst Du a) mit vielen Buchstaben in verschiedenen Schriften und b) durch das Zusammensetzen von Bildern schreiben. Aber wie wäre es dann, ihn mal wie in b) aus echten Satellitenbildern zu kreieren? Das NASA’s Kennedy Space Center zeigt auf X (ehem. Twitter) eine Lösung, die Anwendung „Your Name In Landsat“ [1]. Gib einfach mal Deinen Namen oder irgendeine andere gewünschte Zeichenkette ein und freu Dich über die generierten Bilder. Übrigens, wenn Du es mehrmals startest, kommen auch verschiedene Lösungen raus. Ich habe meine ersten fünf „geoObserver“-Varianten mal animiert:

Animation: Meine „geoObserver“-Varianten animiert

Mehr Information zum Landsat-Programm findet Ihr auf Wikipedia [2] und bei der NASA [3] selbst. Hier der Original-Tweet [4]:

[1] … https://science.nasa.gov/specials/your-name-in-landsat/
[2] … https://de.wikipedia.org/wiki/Landsat
[3] … https://science.nasa.gov/mission/landsat/
[4] … https://x.com/nasakennedy/status/2047037100894147066

Webinar: QGIS-Kartenerstellung & der GeoBasis_Loader

Heute mal wieder ein Veranstaltungstipp, diesmal quasi in eigener Sache: Zusammen mit der Firma NTI führen wir ein Webinar „Geobasisdaten & Kartenerstellung“ [1] durch. Dort zeige ich im ersten Teil das QGIS-Plugin „GeoBasis_Loader“ [2] in Funktion. Außerdem werde ich auch einige neue und geplante Funktionen als Prototyp vorstellen. Im zweiten Teil zeigt ein NTI-Fachkollege, wie im QGIS mit den wunderbaren freien und nun via GeoBasis_Loader einfach geladenen Daten eine Karte erstellt werden kann. Das Webinar ist kostenlos, eine Anmeldung unter [1] ist erforderlich.

[1] … https://www.nti-group.com/de/events/webinare/geobasisdaten-kartenerstellung/
[2] … https://geobasisloader.de

Amüsant: „Solarfarmbilder“ in China

Simon Kuestenmacher hat mit seinem X-Beitrag zum Thema Bilder auf Solarfarrmen [1] begonnen und gleich gab es eine Menge weiterer Sichtungen. Findet oder kennt Ihr auch welche, möglicherweise sogar in Eurer Nähe, dann lasst uns teilhaben und verlinkt diese in den Kommentaren. Viel Spaß beim Suchen und Finden!

[1] … https://x.com/simongerman600/status/2042452558900347188
[2] … https://x.com/CL207/status/2042639720128127102
[3] … https://x.com/YOYO99_Sean/status/2042592864425697348
[4] … https://x.com/Kormin_/status/2042932226434715834

PyQgis: Neues Youtube-Video zu NDVI & Co

Über die Berechnung des NDVI (Normalized Difference Vegetation Index) habe ich erst neulich in „NDVI: Realisierung mit QGIS, Standard & Grenzen“ [1] geschrieben. Nun hat Ivo Partschefeld alias PyQGIS (@PyQgis) ein neues interessantes Video mit einer wunderbaren Anleitung auf Youtube „Vegetationsindizes aus Orthophoto (DOP) mit QGIS Rasterrechner berechnen“ [2] veröffentlicht. Es zeigt dort z.B. NVDI und SAVI/BBVI, jeder Schritt wird gut erklärt und ist einfach nachzuvollziehen. Einfach mal anschauen, es lohnt sich, Danke Ivo!

[1] … https://geoobserver.de/2026/03/16/ndvi-realisierung-mit-qgis-standard-grenzen/
[2] … https://www.youtube.com/watch?v=DN25va7ORhQ

QGIS-Tipp: „Cluster Generator“ am Beispiel von Postleitzahlen

Mitunter kann man viel Zeit benötigen, um Daten zu prüfen. Eine häufig verwendete Methode ist dabei, die Objekte mit demselben Attributwert zu ermitteln und deren räumlichem Zusammenhang zu berechnen und zu visualisieren. Das kann dann u. U. wieder viel Zeit sparen. Man erstellt dazu s. g. Clusterflächen. Eine wirklich praktikable Lösung dafür liefert das neue QGIS-Plugin „Cluster Generator“ [1]

Screenshot 1: Mein Test, 34098 Punkte mit „plz“-Attribut geclustert

Ich habe das Plugin mal kurz angetestet, die Bedienung ist einfach und selbsterklärend. Genutzt habe ich dazu unseren Postleitzahlen- (PLZ-) Datenbestand. Der automatisch einmal pro Nacht generierte Datenbestand hat vfür Halle (Saale) momentan 34098 Punkte mit PLZen. Die Clusterfunktion darauf angewendet liefert recht schnell die Clusterflächen mit den PLZ-Bereichen und färbt und beschriftet diese automatisch nach dem ausgewählten Attributfeld, hier also „plz“. Das Formular und die Ergebnisse findet Ihr in Screenshot 1.

Ein wunderbarer, positiver Nebeneffekt. Man findet so auch ganz schnell, quasi nebenbei die fehlerhaften Objekte, bei meinem Test die Punkte mit dem Eintrag „plz=NULL“. Ich habe diese NULL-Flächen mal etwas hervorgehoben. Für die Punkte in diesen Flächen sind die PLZ-Attributwerte also zeitnah zu aktualisieren, von „NULL“ auf die tatsächliche PLZ oder die Punkte an sich sind zu überprüfen.

Screenshot 2: Fehlerhafte Punkte mit „plz=NULL“ in Extra-Clusterinseln

[1] … https://plugins.qgis.org/plugins/cluster_generator/
[2] … https://www.linkedin.com/posts/senolbaskaya_qgis-gis-plugin-activity-7447516085979136000-CzPq

Cloude & QGIS: Problemlose Zusammenarbeit von KI und GIS

„1 prompt, 28 agent steps, 15 minutes = 1 map“ [1]

Die Zusammenarbeit von GIS und KI rückt ja folgerichtig immer mehr in unseren Fokus, ich hatte hier schon mehrfach berichtet. Heute ein sehenswertes Demo auf Youtube von birdGIS [1] mit QGIS & Cloude:

[1] … https://www.youtube.com/watch?v=b6nTy6ma2mg