Dissertation Joos

 

Zur Qualität von objektstrukturierten Geodaten

 

Verfasser:  Gerhard JOOS

Dissertation, Universität der Bundeswehr München, Fakultät für Bauingenieur- und Vermessungswesen, Neubiberg.

Schriftenreihe des Studiengangs Geodäsie und Geoinformation der Universität der Bundeswehr München, Heft 66, Neubiberg, 1999, IV, 141 S.
ISSN: 0173-1009
 

Download
(5,12 MB)

 

 

Promotionsausschuss:

Vorsitzender:


Referent:


Korreferent:
 

Tag der Einreichung:
Tag der mündlichen Prüfung:

Univ.-Prof. Dr.-Ing. Wolfgang Reinhardt
Universität der Bundeswehr München

Univ.-Prof. Dr.-Ing. habil. Wilhelm Caspary
Universität der Bundeswehr München

o. Prof. Dr.-Ing. Wolfgang Möhlenbrink
Universität Stuttgart

16.09.1998
30.03.1999

 

 

Zusammenfassung
 

Der Einsatz eines GIS für die Planung, für Verwaltung von rechtsverbindlichen Objekten, z.B. Flurstücke oder Schutzgebiete, für Fahrzeugnavigation und Flottenmanagement, für Geomarketing und für Leitungsdokumentation bringt nicht nur Vorteile in Form von Kosteneinsparung, schnellere Verfügbarkeit, höhere Aktualität und vor allem Analysemöglichkeiten, sondern birgt auch Gefahren in sich. Auf der Basis der Geodaten werden Entscheidungen gefällt, die sowohl Einfluß auf Investitionen haben als auch auf unsere Umwelt, und somit auch auf unsere Lebensqualität. Die Qualität der Daten ist deshalb besonders wichtig. Um qualitativ hochwertige Daten zu erhalten, muß ein der Anwendung angemessener Aufwand getrieben werden. Dieser Aufwand darf nicht nur mit den Kosten der Datenerfassung in Relation gestellt werden, sondern auch mit den Auswirkungen, die fehlerhafte Objekte in einem Geoinformationssystem bewirken können.

Um die Qualität von Geodaten ermitteln oder beurteilen zu können, muß zuerst klar definiert sein, welche Objekte der realen Welt wie in einem Geoinformationssystem repräsentiert werden sollen. Dazu muß ein Datenmodell aufgestellt werden, das aus den Teilen konzeptionelles, logisches und physikalisches Datenmodell besteht. Das Datenmodell legt die Objektauswahl, deren Eigenschaften, die Struktur und Regeln fest.

Die Beschreibung der Daten erfolgt durch Metadaten. Sie beinhalten nicht nur das Datenmodell, sondern auch alle Informationen über den Entstehungsprozeß der Daten und ein Qualitätsmodell, das einem potentiellen Anwender von Geodaten ein Urteil ermöglicht, ob die Geodaten für eine beabsichtigte Anwendung geeignet sind. Zur Beschreibung des Qualitätsmodells müssen Qualitätskriterien und Qualitätsmaße eingeführt werden. Die Kriterien sind erforderlich, um Datenfehler taxieren zu können, da nicht alle Fehlerarten gleiche Auswirkungen für die Anwendungen haben. Es wurde gezeigt, daß die vier Kriterien „Vollständigkeit“, „Richtigkeit“, „Genauigkeit“ und „Konsistenz“ zur Einordnung von Datenfehlern ausreichend, aber nicht immer eindeutig sind. Wenn keine Mehrdeutigkeiten zugelassen sind, müssen Zusatzregeln als Entscheidungshilfen bei der Behandlung aller anwendungsspezifischer Spezialfälle angegeben werden.

Auf Basis dieser vier Kriterien werden die Qualitätsmaße eingeführt, die entweder objektbezogen oder bezogen auf Gebiete definiert werden können. Die Qualitätsmaße können durch Festlegung von Grenzwerten zur Formulierung von Qualitätszielen verwendet werden. Qualitätsziele sind insbesondere im Rahmen eines Qualitätsmanagements erforderlich. Das Qualitätsmanagement dient zur Überwachung und zur Dokumentation, daß die Ziele eingehalten und mögliche Fehlerursachen früh erkannt werden, damit die Erfassung und Fortführung von Geodaten auf einem hohen Qualitätsniveau erfolgen und durch ständige Rückkopplungen weiter verbessert werden. Das Qualitätsmanagement kann durch 20 QS-Elemente in Anlehnung an ISO 9000 ff. beschrieben werden. Kernstück des Qualitätsmanagement sind regelmäßige Prüfungen. Zur Prüfung von Geodaten können zwei Arten der Prüfung unterschieden werden. Prüfungen können automatisch ablaufen oder interaktiv durch einen menschlichen Prüfer und sie können auf den gesamten Datenbestand angewandt werden oder nur auf Stichproben, deren Prüfergebnisse auf den Gesamtdatenbestand hochgerechnet werden.

Automatische Prüfungen können nur zur Kontrolle der Konsistenz, d.h. der Einhaltung von Regeln des Datenmodells, herangezogen werden. Die Regeln beziehen sich auf die konzeptionelle, logische oder physikalische Ebene der Datenmodellierung. Zur Überprüfung der konzeptionellen Konsistenz wurde ein Regelwerk aufgestellt, mit dem Konsistenzbedingungen für topographische Daten formuliert werden können. Eine Prüfsoftware, die diejenigen Objekte und Konstellationen aufdeckt, die diesen Regeln widersprechen, wurde entwickelt. Die Prüfung wird von einem implementierungsunabhängigen Regelkatalog gesteuert. Zur Anpassung an Änderungen und Erweiterungen des Datenschemas braucht nur der Regelkatalog fortgeführt zu werden. Die Bedingungen zur Suche nach Inkonsistenzen werden mit Hilfe der Prädikatenlogik und des 9-Intersection-Modells zur Beschreibung von topologischen Beziehungen formuliert. Automatische Prüfungen müssen auf dem gesamten Datenbestand durchgeführt und entdeckte Fehler korrigiert werden, bevor die Daten einer Anwendung zugeführt werden dürfen.

Wenn eine vollständige Prüfung des gesamten Datenbestandes mit zu großem Aufwand verbunden ist, weil diese z.B. zu lange dauert und die Daten schnell benötigt werden oder die Kosten für die Prüfung das Budget oder den Nutzen übersteigen, so kann unter bestimmten Voraussetzungen eine Stichprobenkontrolle durchgeführt werden. Die Wahrscheinlichkeit, eine bestimmte Anzahl von fehlerhaften Objekten in einer Stichprobe zu finden, errechnet sich nach der hypergeometrischen Verteilung. Zur Aufstellung eines Stichprobenplanes, bestehend aus dem erforderlichen Stichprobenumfang und einer zugehörigen Annahmezahl, wird eine annehmbare Qualitätsgrenzlage und rückzuweisende Qualitätsgrenzlage benötigt. Diese kann entweder durch Absprache zwischen Produzent und Anwender der Daten festgelegt oder nach wirtschaftlichen Gesichtspunkten ermittelt werden. Verschiedene Strategien zur Reduzierung des durchschnittlichen Stichprobenumfanges werden diskutiert.

Die Dokumentation der durchgeführten Kontrollen und deren Ergebnisse ist für die Einschätzung der Zuverlässigkeit der Geodaten wichtig. Verschiedene Ansätze zur Verwaltung dieser Informationen zusammen mit weiteren Metadaten wurden diskutiert. Abhängig davon, ob das einzelne Objekt oder eine Gruppe von Objekten die Bezugsgröße für Qualitätsinformationen darstellt, sind unterschiedliche Konzepte zur Verwaltung der qualitätsbezogenen Metadaten möglich.

In dieser Arbeit wurden die Aspekte der Datenqualität behandelt. An verschiedenen Stellen wurde deutlich, wie wichtig das Modell für die Verwendbarkeit von Geodaten ist. Die Aspekte der Modellqualität wurden nur gestreift. Der Autor ist sich bewußt, daß in diesem Bereich noch weiterer Forschungsbedarf besteht. Die Crux besteht darin, daß die Bewertung von Modellen sehr eng an die jeweilige Anwendung gebunden ist, und somit ein allgemein gültiger Formalismus zur Bewertung der Modellqualität kaum angegeben werden kann.

Wenn die Qualität von Geoinformationssystemen oder von aus GIS abgeleiteten Informationen beurteilt werden soll, müssen alle Komponenten eines GIS betrachtet werden (Joos, 1994). Dabei kommen Aspekte wie Ausfallsicherheit von Hardware, Antwortzeitverhalten bei Datenzugriffen, Effizienz und Richtigkeit von Algorithmen zur Analyse von Geodaten sowie Auswirkungen oder Sensibilitätsuntersuchungen von Datenfehlern zum Tragen. Dazu ist ein Qualitätsmodell für Arbeitsergebnisse und Entscheidungen, die mit einem GIS erzeugt wurden wünschenswert. Da ein solches Modell nicht verfügbar ist, besteht auch hier Forschungsbedarf. Mit den in dieser Arbeit vorgeschlagenen Kriterien erscheint eine Berechnung oder Abschätzung der Auswirkung von der Datenqualität auf die Ergebnisqualität möglich. Unter dieses Thema fällt auch die Beurteilung der Qualität von Diensten mit Geodaten, wie sie durch die Interoperabilität von GIS möglich werden.

Die Aktualität von Geodaten wurde nicht als Qualitätskriterium behandelt, sondern als Element der Metadaten betrachtet. Sie ist ein entscheidendes Indiz für die Verwendbarkeit der Geodaten in den meisten Anwendungen. Durch die Dokumentation des Entstehungs- und Änderungsdatums, welches die Daten tragen, ist noch kein aktueller Datenbestand gewährleistet. Im Bereich der Fortführung durch Einrichtung von Meldediensten oder durch automatisierte Erkennung von Objekten aus Fernerkundungsdaten, sowie durch Fortführung von Datenbeständen einer Maßstabsebene und Propagierung der Änderungen in die anderen Maßstabsebenen durch Generalisierung sind nur Teilaspekte gelöst.

Um Informationen über die Qualität von Geodaten einem Anwender zugänglich zu machen, insbesondere, wenn die Informationen nicht nur allgemeiner, beschreibender Natur sind, sondern in enger Verknüpfung mit den Daten stehen oder selbst einen Raumbezug haben, wie in dieser Arbeit vorgeschlagen, werden standardisierte Zugriffsmechanismen oder Austauschformate erforderlich. Verschiedene Organisationen und Gremien arbeiten teils konkurrierend teils kooperierend zum Zeitpunkt der Fertigstellung dieser Arbeit an Normen für Geoinformation. Zum Wohle der Nutzer von Geoinformationssystemen ist es wichtig, daß erstens diese Normen vollständig und anwendbar sind, zweitens die Systemhersteller Mechanismen bereitstellen, damit diese Normen angewandt werden können und drittens die Datenproduzenten die ermittelten Qualitätsmaße den Endnutzern zugänglich machen.

 


 

Literatur:

Joos, G., 1994: Quality aspects of geo-informations. In: Proceedings of the fifth European conference on geographical information systems, EGIS in Paris, March 29 – April 1, 1994, Band II, S. 1147-1153.

 

▲ Seitenanfang

 

 

Dissertationen