Kategorie Innovation & Technologie - 1. Dezember 2016
Automatismen und Know-how: Wie man komplexe Daten zugänglich macht
Ein Thema zieht sich durch praktisch alle Bereiche der Komplexitätsforschung – vom Klimawandel bis zur Krebsforschung – und das sind Daten. Die Menge steigt ebenso wie die Heterogenität, bedingt vor allem durch den digitalen Wandel. Welche Auswirkungen das auf Datenanalyse und -aufbereitung hat, und wie man der zunehmenden Komplexität begegnen kann, haben Experten im Gespräch mit APA-Science erklärt.
Dass man Daten ihre Komplexität nicht gänzlich nehmen sollte, stellte Wolfgang Aigner, Leiter des Instituts für CreativeMedia/Technologies an der Fachhochschule (FH) St. Pölten, gleich vorweg klar. Zu groß sei die Gefahr der Übersimplifizierung. „Einfache Patentlösungen sind bei komplexen Problemstellungen nicht zielführend. Was man machen kann, ist entsprechende Zugänge zur Komplexität zu schaffen, damit sie handhabbar und verständlich werden“, so Aigner.
Die Herausforderung sei, dass Datenanalyse und wahrscheinlich auch Datenvisualisierung nicht mit dem Datenwachstum schritthalten können. Als möglichen Ansatz sieht der Experte hier Visual Analytics. „Die Grundidee dabei ist, dass man die automatischen Datenanalysemethoden von Computern bestmöglich mit den herausragenden Fähigkeiten von Menschen im Umgang mit visuellen Sinneseindrücken kombiniert“, erklärte Aigner.
Als Beispiel dafür nannte der Wissenschafter ein aktuelles Forschungsprojekt, bei dem es um die frühzeitige Erkennung von Schadsoftware geht. Zuerst werden ein Clustering und eine automatische Mustersuche durchgeführt, um die Datenmenge überhaupt handhabbar zu machen, dann visualisiert und schließlich von Menschen analysiert. „Das greift ineinander, das eine hilft dem anderen.“
Menschliche Expertise essenziell
Gerade bei hochkomplexen Fragestellungen sei die menschliche Expertise essenziell. „Es braucht dieses Hintergrundwissen zur Verarbeitung, beispielsweise weil Daten aus unsicheren Quellen stammen oder sich Daten aus verschiedenen Quellen widersprechen können. Damit kann ein automatisches Datenanalyseverfahren sehr schwer umgehen“, strich Aigner hervor. Generell mache die Heterogenität der Daten größere Probleme als das Volumen. „Uniforme Daten von guter Qualität kann man leichter verarbeiten, auch wenn es große Mengen sind, als verschiedene Arten von Daten, die aus verschiedenen Quellen stammen.“
Ein Aspekt, auf den auch Thomas Blaschke, Professor für Geoinformatik an der Universität Salzburg und Leiter des Doktoratskollegs „Geographic Information Science“, verweist: „Wir unterscheiden den klassischen Big Data-Ansatz, also unstrukturierte Daten, und ‚Big Earth Data‘, das ist strukturierte, geplant gewonnene Information.“ Allerdings seien es schon unglaubliche Mengen, die da entstünden. Allein der Satellit Sentinel 1, den die European Space Agency (ESA) ins All gebracht habe, sende pro Tag rund drei Terabyte an Daten. „Das kann eigentlich niemand in Echtzeit verarbeiten.“
Deshalb sei man bemüht, nur die Daten herunterzuladen, die für die Anwendung von Interesse sind oder wo sich beispielsweise etwas geändert hat. „Da versuchen wir eine gewisse Intelligenz hineinzubringen“, so Blaschke. Wenn es beispielsweise um Umweltbeobachtung auf Basis von Satellitenaufnahmen gehe und bekannt sei, wie bestimmte Gletscher vor einigen Jahren ausgesehen hätten, brauche man nur Infos zu diesen Bereichen.
Antworten durch Semantik und Ontologien
Die Zukunft liege darin, die Daten schon auf dem Satelliten vorzuprozessieren, um nicht die gesamten Rohdaten herunterladen zu müssen. Der Trend gehe von „Data as a Service“ zu „Information as a Service“. Man erhalte also nicht Terabyte an Daten, sondern Antwort auf Fragen wie „Wie groß ist der Gletscher?“. Mittels Semantik und Ontologien seien Abfragen ähnlich der menschlichen Sprache möglich – also: „Zeige mir alle landwirtschaftlichen Flächen, deren Nutzung sich verändert hat“ oder: „Zeige mir alle Seen in Asien, die schrumpfen“. „Damit kann man der Komplexität begegnen. Das ist ein Ansatzpunkt damit umzugehen“, erklärte Blaschke.
Ein Team aus seiner Abteilung hat erst Anfang November den ersten vom Technologieministerium (BMVIT) sowie der Forschungsförderungsgesellschaft (FFG) initiierten „Copernicus Hackathon“ in Wien gewonnen. Bei der Veranstaltung wurden innerhalb von zwei Tagen neue Anwendungen auf Basis von Satellitendaten entwickelt. Im Rahmen ihres Projekts haben die Salzburger Veränderungen von Ackerland kartographiert und diese mit anderen Daten – etwa zu Eigentumsverhältnissen – verknüpft. Dadurch können illegal bebaute oder widerrechtlich genutzte Landflächen erfasst werden.
Aber auch abseits der Fernerkundung arbeite man an spannenden Projekten. Eines davon beschäftige sich mit „Urban Emotions“. Dabei würden Fußgänger und Fahrradfahrer mit Sensoren ausgestattet und deren Gefühle beobachtet, wenn sie bestimmte Räume durchschreiten. So soll herausgefunden werden, ob es gefährliche Kreuzungen oder Unterführungen gibt, die Stress oder Angst verursachen.
Das eine sei die Analyse, es brauche aber auch Visualisierungen, vor allem interaktive Darstellungen, um die Ergebnisse zu transportieren. „Die Nutzer sind ja zunehmend gewohnt, nicht eine statische Karte zu bekommen, sondern eine Anwendung, bei der sie selber hineinzoomen, bestimmte Informationsschichten ein- und ausschalten und vielleicht sogar irgendwelche eigenen Abfragen machen können“, so Blaschke. Deshalb baue man auch entsprechende Webservices.
Visualisierung als Schnittstelle
Visualisierung als Schnittstelle in diesen Prozessen herzunehmen sei eigentlich logisch, weil Menschen sehr stark auf die Verarbeitung von visuellen Sinneseindrücken ausgerichtet sind, meint auch Aigner. „Da sind wir auch der algorithmischen Verarbeitung wesentlich überlegen“, so der Experte, der der Visualisierung eine stärkere Durchdringung von vielen weiteren Bereichen prognostiziert.
Abzeichnen würde sich ein Vormarsch von „Personal Information Displays“ wie Smartwatches, auf denen beispielsweise Bewegungsdaten visuell dargestellt werden, Augmented Reality-Anwendungen wie Head-up-Displays, etwa im Auto, und Visualisierungen im Kontext des „Internets der Dinge“, die direkt in Produkte integriert sind. Ein einfaches Beispiel dafür wären Batterien, die ihren Ladestand direkt auf der Oberfläche anzeigen. „Da wird man noch einiges sehen, auch in Richtung Smart Home“, erwartet Aigner.
Von Stefan Thaler / APA-Science
Hinweis: Diese Meldung ist Teil eines umfangreichen Dossiers zum Thema Komplexitätsforschung auf APA-Science: http://science.apa.at/dossier/komplexitaet.