Umweltinformatik als eigene Disziplin

13 Mai, 2008

Ich möchte einem älteren Eintrag von mir widersprechen bzw. präzisieren, in dem ich die Umweltinformatik als ein Teil der angewandten Informatik bezeichnet habe.

Ich denke inzwischen, dass der Schritt zu einer eigenen Disziplin schon relativ weit fortgeschritten ist. Wissenschaftssoziologisch ist es immer nicht einfach zu entscheiden, wann dieser Schritt vollzogen ist, aber da es eigene Kongresse, Zeitschriften, Lehrstühle und eine Fachgruppe in der Gesellschaft für Informatik (GI) gibt, denke ich, dass inzwischen von einer eigenständigen Disziplin gesprochen werden kann. Es gibt eine eigene Scientific Community, die auch ihre eigenen Belohnungsmechanismen in Form von Reputation hervorgebracht hat. Dies ist immer ein deutliches Anzeichen eines Reifens einer Bindestrich-Disziplin.

Die Umweltinformatik ist im Forschungsnetz der Umweltwissenschaften aufgestellt und tauscht sich hier interdisziplinär mit verschiedensten anderen Umwelt-Forschungsrichtungen aus: BWL, Ökologie, Kommunikation, Jura, Physik etc. Damit ist es schwierig, einzelne Brücken zwischen zwei Disziplinen zu bauen, wie es für Bindestrich-Disziplinentypisch ist.

Interdisziplinarität wird hier aufgefasst als ein Zusammenarbeiten mit anderen Disziplinen nicht im Sinne einer Multidisziplinarität, in der nur die Forschungsergebnisse und Perspektiven der einzelnen Fachdisziplinen zusammengetragen werden. Interdisziplinäres Arbeiten bedeutet das Finden einer gemeinsamen Problemsicht und Entwickeln gemeinsamer Methoden, die zur Lösung des Problems herangezogen werden.
Interdisziplinarität gibt es nicht ohne Disziplinarität. Jede Disziplin muss sich ihrer Wurzeln und Grenzen bewusst sein, um einen fruchtbaren interdisziplinären Austausch zu ermöglichen. Diese Heimatdisziplin ist für die Umweltinformatik die in dem vorherigen Eintrag angesprochene angewandte Informatik.

Mit dieser Argumentation gehe ich konform mit:
Möller, Andreas/Bornemann, Basil (2005): Kyoto ist anderswo – Zwischen Interdisziplinarität und Nachhaltigkeit. In: Informatik Spektrum, 28 (1), S. 15-23.


Semantisches Web und Umweltinformatik

11 Mai, 2008

Neben dem Hype um Web2.0 ist der Begriff des Semantic Web in vieler Munde. Dabei werden die beiden Entwicklungen teilweise gegeneinander ausgespielt, stehen aber eher nebeneinander und befruchten sich gegenseitig.

Bei dem Semantischen Web geht es darum, die Inhalte, die im Internet veröffentlicht werden, auch für Maschinen verständlich zu machen. Dabei geht es tatsächlich um ein „verständlich machen“, nicht um ein zugänglich machen. Das Ziel ist, dass Maschinen eine Seite nach ihrem Inhalt sinnvoll erfassen können und so ein Hilfsmittel zur inhaltlichen Suche nach Informationen werden. Es sollen intelligente Ergebnisse für die Suche geliefert werden, nicht 2.983.293 Treffer. Sie sollen genau das widerspiegeln, was der Suchende gemeint hat, auch ohne, dass die Begriffe, nach denen gesucht wurde auf der Seite auftauchen müssen.

Dies wird über Ontologien versucht, bei denen im Stile eines einfachen Satzes (Subjekt – Prädikat – Objekt) Verbindungen und Beziehungen zwischen Objekten hergestellt werden, die zu einem Netzwerk an Eigenschaften zusammengeschlossen werden. Als simples Beispiel kann vielleicht die Ontologie herhalten: „Ein Hund ist ein Säugetier“. Wenn nun eine Anfrage abgesetzt wird: „Was definiert einen Hund?“, kann der Computer die Anfrage inhaltlich „verstehend“ verarbeiten und sämtliche Eigenschaften eines Hundes mit ausgeben, eben auch die, dass ein Hund ein Säugetier ist, ohne dass das explizit in der Suchanfrage gesucht wurde. Über das dichte Netz an Ontologien kann eine Gewichtung erstellt werden, welche Information die vermutlich relevanteste ist, damit sie an erster Stelle ausgegeben wird. Es wird ersichtlich, dass hier eine spannende und enge Zusammenarbeit von Linguisten und Informatikern gefragt ist.

Um mit Ontologien arbeiten zu können, braucht es natürlich Metadaten (also Informationen über Daten), um Ontologien erstellen zu können bzw. sie sinnvoll anwenden zu können. Diese müssen entweder manuell (was in den meisten Fällen nicht stattfinden würde, weil Mehrarbeit) oder zumindest halbautomatisch erstellt werden. Es laufen einige Forschungen in die Richtung, Metadaten aus den entsprechenden Internetseiten automatisch zu generieren. Die dazu genutzte Auszeichnungssprache RDF beruht auf der XML-Technologie.

Ein Beispiel: Nachrichten sind sehr häufig geolokalisiert sprich einem (oder mehreren) bestimmten Ort zugehörig. Diese können automatisch aus dem Text gezogen, als Metadaten veröffentlicht und über bestimmte Schnittstellen auf einem WebGIS wie GoogleMaps o.ä. ausgegeben werden. Es gibt eine ganze Menge Forschung zu dem „Geospatial Web„. Sehr lesenswert dazu ist Scharl, A./Tochtermann, K (Hrsg.)(2007): The Geospatial Web, London

Für die Umweltinformatik ergeben sich viele Aufgaben und Fragen aus den Potentialen des Semantic Web.

– Wie können aus umweltrelevanten Daten (halb-)automatisch Metadaten generiert werden?

– Gibt es bestimmte Anforderungen umweltrelevanter Daten an Metaangaben?

– Wie können die vorhandenen „offiziellen“ fragmentierten Datenbestände zusammengeschlossen und gecrawlt werden?

– Dazu generell: Wie erreichen wir das „Deep Web„, dass sich in Datenbanken verbirgt und nur bei den entsprechenden Anfragen zum Vorschein kommt?

– Wie können die Ergebnisse aus der GeospatialWeb-Forschung in andere Domänen übertragen werden? Erste Versuche in Form von Wissenslandkarten gibt es hier bereits.

Für den Umweltbereich in Deutschland versucht das PortalU eine solche semantische Suche bereit zu stellen. Dort können Suchabfragen abgesetzt und räumlich, zeitlich und natürlich inhaltlich eingegrenzt werden. Das klappt schon einigermaßen gut, es werden die Datenbestände vieler Behörden durchgesucht und nach Relevanz ausgegeben. Die Technik dahinter ist beschrieben und frei verfügbar. Die Ergebnisse sind auch über einen Webservice abrufbar. Schade ist, dass nur auf die Originalseiten verlinkt wird und die Daten dort bleiben. So kann auch über das PortalU nicht auf die Daten z.B. von www.hamburger-luft.de zugegriffen werden, damit sie automatisch (z.B. in Mashups) weiterverarbeitet werden können.


Web2.0 und Umweltinformatik

4 Mai, 2008

Es gibt unzählige Definitionsversuche und Beschreibungen, was Web2.0 denn sein soll bzw. könnte. Viele versuchen sich an dem Buzzword, andere kritisieren ihn heftig, Ableger wie E-Learning2.0 bilden sich – inspiriert von der Diskussion um den Begriff – aus.

Jeder Begriff steht nicht nur für sich, sondern in einem spezifischen Diskurszusammenhang. Nur mit dem Hintergrund kann der Begriff „richtig“ verstanden werden.

Ich denke, dass es gar nicht notwendig ist, Web2.0 zu definieren. Ich möchte nicht den vielen Versuchen einen weiteren unvollkommenen hinzufügen, sondern versuchen, einige Leitplanken aufzuzeigen, wo Prinzipien des Web2.0 für die Umweltinformatik relevant sein können.

Im Anschluss an den letzten Beitrag liegt es nahe, den User Generated Content noch einmal unter die Lupe zu nehmen. Mit dem Nutzen des Wissens der User können implizite Daten (in Analogie zum impliziten/expliziten Wissen) zugänglich gemacht werden. Damit ist gemeint, dass Informationen, die die User normalerweise für trivial empfinden, weil sie in ihrer Domäne liegen durch geeignete Anreizumgebungen trotzdem einsgespiesen werden und damit dem Gesamtsystem und den anderen Nutzern zur Verfügung stehen. Auch Informationen, die den Nutzern nicht beständig bewusst sind, durch entsprechende Anreize vom System oder anderen Nutzern aber benannt werden können, gehören dazu.
Dass viele Nutzer etwas beisteuern zeigt sich auch im Bereich des partizipativen GIS (PGIS). Die openstreetmap wächst und wächst.

Mittels Folksonomy können die Daten mit Metatags versehen werden, damit sie auch für eine semantische Suche zur Verfügung stehen. Hier ist allerdings eine Verknüpfung eines Bottom-up-Ansatzes (Folksonomy) mit einem Top-Down-Ansatz (Verschlagwortung von „Schlagwortprofis“) anzustreben, um hier die besten Ergebnisse zu erzielen (vgl. Gruber 2005).

User Generated Content gibt es nicht nur im Internet, auch in abgeschlossenen Unternehmensnetzwerken können die Vorteile genutzt werden. Bestehende ERP-Systeme wie bspw. SAP R/3 funktionieren zwar auch nur, wenn jeder Daten mit einbringt, allerdings ist dort vorher genau definiert, wer welche Daten einzubringen hat.

Die Maßgabe, den Nutzer schon frühzeitig in die Erstellung des Softwaretools mit einzubeziehen kann in der UI auch stärker genutzt werden. Dies geht mit Forderungen der Informatik einher, partizipativ zu entwickeln (z.b. Christane Floyd mit ihrem STEPS-Konzept).

Damit werden die UI-Tools auch zur „perpetual beta„, die sich wandelnden Nutzerinteressen und -bedürfnissen anpassen kann. Dazu sind moderne und flexible Programmierparadigmen notwendig.

Der „long tail“ kann dadurch genutzt werden, dass es dem Nutzer möglich ist, eigene Datenkategorien aufzumachen und Daten einzuspeisen, an die die Programmiererin nicht gedacht hat. Damit kommt eine Menge mehr an Daten zusammen, die auch für „Mainstreamanfragen“ genutzt werden können.

Kooperative Planungsprozesse
erfordern Umgebungen, die es dem Nutzer ermöglichen in das Geschehen einzugreifen und Dinge verändern zu können. Tools wie Wikis, Foren oder Whiteboards können hierzu genutzt werden.

Kooperatives Modellieren ist ein weiterer Punkt, den die UI aus der Bewegung des Web2.0 lernen könnte. Die UI könnte Werkzeuge bereitstellen, die es Nutzern sehr einfach und intuitiv ermöglicht, eigene Modellierungen durchzuführen bzw. in bestehende, von anderen begonnene Modellierungen und Simulationen Variablen einzubringen, die relevant sind, vom Ersteller aber nicht beachtet wurden. Auf diese Weise kann eine interdisziplinäre Zusammenarbeit stattfinden und disziplinübergreifende Modelle mit weniger blinden Flecken erstellt werden. (Es sei denn, es sind Disziplinen bzw. Falken bestimmter Forschungsrichtungen dabei, die eine Modellierung generell als unmöglich ablehnen 😉 )

Ein weiteres spannendes Feld für die UI könnte das Erstellen von Mashups sein, die bei der Verwirklichung der Ziele der UI unterstützend wirken können. Hier könnte für den Kommunikations- und Bildungsauftrag der UI einiges getan werden.
Problematisch ist allerdings, dass viele der vorhandenen Daten fragmentiert in irgendwelchen („offiziellen“) Datenbanken vorliegen und es keine APIs gibt, über die auf diese Datenbanken zugegriffen werden kann. Aufgabe der UI ist es also auch zu versuchen, diese Datenbanken zu öffnen und APIs bereit zu stellen, damit sie für neue Mashups zur Verfügung stehen.

Zusammenfassend möchte ich mit einem sehr treffenden Zitat von Tim O’Reilly aus dem Film Web2.0 (27:09) schließen, das auch für die Umweltinformatik gesehen werden kann:

Web2.0 is not about software, it is about Data


Lernen mit neuen Medien – ab wann?

18 Dezember, 2007

Eine Grundschullehrerin, der ich meine Diplomarbeit vorstellte, fragte mich, für welche Zielgruppe ich denn eigentlich schreibe. Anders gefragt, ab wann macht der Einsatz neuer Medien bzw. Werkzeugen des Web2.0 Sinn?
Ich finde das eine nicht einfach zu beantwortende Frage. Ich würde aber sagen, dass das Lernen mit neuen Medien erst dann Sinn macht, wenn die Kompetenzen zu Reflexivität aufgebaut sind. In dem Lernen in hybriden Lernumgebungen ist ein wesentlicher Aspekt, der immer wieder auftritt, das bewusste Reflektieren des Medieneinsatzes und der Potentiale und Restriktionen der einzelnen Werkzeuge.
Dazu muss aber ein ziemlich fortgeschrittener Reflexionsgrad erreicht sein. Erst einmal muss mit Klafki das gestaltende Handeln erprobt werden, danach erst sollten m.E. neue Medien eingesetzt werden.
Wann ist diese Entwicklungsstufe in etwa erreicht? Ich weiß es nicht, da werde ich jetzt noch einmal recherchieren müssen.


Vorratsdatenspeicherung gefährdet empirische Sozialforschung

2 Oktober, 2007

Nachdem ich nun einige Zeit Pause gemacht habe (das Praktikum hat doch viel Zeit in Anspruch genommen und ein Neugeborenes verlangt auch nach viel Aufmerksamkeit 🙂 ), hier ein spannender Hinweis zu der Gefährdung empirischer Sozialforschung im Internet durch die Vorratsdatenspeicherung, der über die gir-Mailingliste kam.

http://www.forschung-und-lehre.de/cms/index.php?menu_id=6&nur_dieser_inhalt_id=2577

Dazu auch ein Statement der Deutschen Gesellschaft für Psychologie