Die Bewegung zum Open Source GIS

Interessante Aspekte im Bereich der GIS-Entwicklung findet Ihr im Beitrag “IoT and the Move to Open Source GIS” von Andy Dearing. Lesenswert!

  • IoT & Cloud, Smart Cities
  • GIS-Spezialist und “geo-fähiger Nutzer”
  • Preisgestaltung & Skalierbarkeit, Schnittstellen
  • archaische Lizenzpolitik *
  • Open Source als Mainstream

* … Darüber hinaus ist die “Pay-per-CPU-Kern” -Modus der Lizenzierung archaisch – und bedeutungslos in einer elastischen Infrastruktur – so werden GIS-Profis und Verbraucher letztlich mehr bezahlen für deutlich weniger Fähigkeiten.

Open Data & die guten Nachrichten aus Bonn

Dieser Tweet von  hat das Zeug, mein Lieblingstweet der Woche zu werden. Danke Bonn! Genau so, keine der Bedenken sind eingetreten. Bedenklich sind oft eher die Fragen und Meinungen der Bedenkenträger: “Was will der mit meinen Daten?”, “Müssen wir das machen? (Gesetz, Richtlinie, Verordnung)”,  “Ohne mein Metawissen können die sowieso nichts mit den Daten anfangen” und ganz viel Angst, Ängstlichkeit, Herrschaftswissen.

Aufwachen. Die öffentlichen Daten gehören allen. Die Steuerzahler, also wir alle, haben sie mitfinanziert, also haben wir auch ein Recht auf die Daten, jedenfalls auf die meisten. Hier ist der Beweis: Vor Open Data muss man keine Angst haben!

OpenData_Bonn_eingetretene_Bedenken_Screenshot..pngScreenshot des Tweets
(Quelle: https://twitter.com/OpenDataBonn/status/899960313520541697)

Wieviel OpenSource steckt in ESRI (2)?

ESRI_OSS_rate_ani_1

Ihr habt geschätzt, danke dafür. Hier das Ergebnis:

ESRI-OSS_Poll_Screenshot_1

Die meisten lagen nicht ganz richtig, aber doch ziemlich nah dran. Ich hab mal nachgezählt und wenn ich mich nicht verzählt habe, stecken 502 OSS-Komponenten-/versionen in den ESRI-Paketen. Ich hab ganz schön gestaunt, eine so große Zahl hätte nicht erwartet.

Lest selbst bei ESRI auf 377 Seiten nach, welche OSS-Pakete enthalten sind. Wem ggf. Geduld und/oder Zeit fehlen, die Zusammenfassung gibt es ab Seite 336:

Field Papers: Karte auf die Schnelle

Wer mal ganz unkompliziert, so auf die Schnelle, eine Karte braucht, sollte sich Field Papers ansehen. Ausschnitt, Basiskarte, Blattschnitte (z. B. 2×2),  Gitter und Titel wählen und nach kurzer Zeit habt Ihr Eure Karte als PDF. Einfach, intuitiv, schnell. Mehr muss man nicht sagen. Eins, setzen!

Ich hab’s mal probiert für die Gegend um die Pauluskirche in Halle mit 2×2 Blattschnitt und habe nach ca. einer Minute das Ergebnis runter laden können.

FieldPapers_Screenshot_1.pngScreenshot: Field Papers in Aktion an der Pauluskirche in Halle
(Quelle: http://fieldpapers.org/compose#17/51.49568/11.97385)

Karten aus dem Gedächtnis?

Was sich ergibt, wenn man 30 Leute auffordert, die Welt aus dem Gedächtnis zu skizzieren, seht Ihr unten. Bevor wir nun kopfschütteln und lästern: Startet doch mal einen Selbstversuch! Gibraltar muss übrigens enger sein 😉 (Quelle: https://pbs.twimg.com/media/DGgSNfMWsAAbg7g.jpg, https://twitter.com/BlueshiftMaps/status/893985173133565952)

Das es auch anders geht, zeigt dieser chinesische Geographie-Lehrer:

Quelle: https://www.youtube.com/watch?v=R13Vi_dQeCw)

Die Tools und die Kompetenz

Überall das Gleiche. Die Menschen bekommen Werkzeuge, deren Benutzung sie nicht wirklich gelernt haben. Aber sie denken, sie würden es ja nun damit auch können. Die Werkzeuge und deren Industrie suggerieren es ihnen ja auch, aber es gilt immer noch:

  • ein GIS macht noch keinen Kartographen,
  • ein Grafik-Programm keinen Designer,
  • die Profikamera noch keinen Profi-Fotografen,
  • die C++ Installation noch keinen Programmierer,
  • der Baumarkt noch keinen Handwerker,
  • das schnelle Auto noch keinen Rennfahrer.

In diesem Sinne: Lernt Eure Werkzeuge richtig und lernt von den wirklichen Profis.

Quelle: https://pbs.twimg.com/media/DHTDGzkUQAA1vSR.jpg

Open Data: Gedanken über Qualität

opendata1

Einen interessanten Blog-Eintrag zum Thema Datenqualität bei offenen Daten findet Ihr bei Open Knowledge International. Im Artikel “Open data quality – the next shift in open data?” werden einige interessante Aspekte zum Thema andiskutiert, z. B. die Vielfalt bestehender Qualitätsindikatoren als potenzieller Verhinderer bei der Verbesserung der Datenqualität oder die folgenden nicht vollständigen Indikatoren lt. GODI:

  • Vollständigkeit des Datensatzinhalts *
  • Erreichbarkeit (Zugangskontrolle oder öffentlicher Zugang?)
  • Nutzbarkeit der Daten
  • Verarbeitbarkeit (Maschinenlesbarkeit und Aufwand für die Nutzung von Daten)
  • Rechtzeitige Veröffentlichung **

*… das sehe ich eher so: wer auf 100% Daten wartet, veröffentlicht wahrscheinlich nie; 80% Daten sind besser als 0% (man muss es nur kennzeichnen!)

**… wird leider viel zu oft vergessen! Denn, “Wer zu spät kommt, den bestraft das Leben”

(Quelle: https://blog.okfn.org/2017/05/31/open-data-quality-the-next-shift-in-open-data/)

Wieviel OpenSource steckt in ESRI?

ESRI, der Marktführer bei GI-Systemen, erfindet das Rad natürlich nicht neu, sondern bedient sich wie Andere auch aus freien Produkten. Angeregt durch einen Kommentar hier im Blog bin ich mal auf die Suche gegangen, um der Frage “Wieviel OpenSource steckt in ESRI?” näher zu kommen

Und ich bin fündig geworden. Allein die Anzahl der eingesetzten freien Produkte in den ESRI-Paketen erstaunte mich dann aber doch. Das erzeugt natürlich gleich Folgefragen: Wie gleich sind die kommerziellen und die freien Produkte dann im Kern? 10%, 25% oder gar 70%? Wie viel Software-Entwicklungs-Leistung kommt von ESRI selbst und wie viel von den eingebetteten OSS-Komponenten?

Ich mach mal einen Test, ich frage Euch
(Die Auflösung kommt in den nächsten Tagen 😉

[polldaddy poll=9805125]