Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-3500
Autor(en): Bosch, Harald
Titel: Casual analytics : advancing interactive visualization by domain knowledge
Sonstige Titel: Casual analytics : um Anwendungswissen erweiterte interaktive Visualisierung
Erscheinungsdatum: 2014
Dokumentart: Dissertation
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-99065
http://elib.uni-stuttgart.de/handle/11682/3517
http://dx.doi.org/10.18419/opus-3500
Zusammenfassung: The often cited information explosion is not limited to volatile network traffic and massive multimedia capture data. Structured and high quality data from diverse fields of study become easily and freely available, too. This is due to crowd sourced data collections, better sharing infrastructure, or more generally speaking user generated content of the Web 2.0 and the popular transparency and open data movements. At the same time as data generation is shifting to everyday casual users, data analysis is often still reserved to large companies specialized in content analysis and distribution such as today's internet giants Amazon, Google, and Facebook. Here, fully automatic algorithms analyze metadata and content to infer interests and believes of their users and present only matching navigation suggestions and advertisements. Besides the problem of creating a filter bubble, in which users never see conflicting information due to the reinforcement nature of history based navigation suggestions, the use of fully automatic approaches has inherent problems, e.g. being unable to find the unexpected and adopt to changes, which lead to the introduction of the Visual Analytics (VA) agenda. If users intend to perform their own analysis on the available data, they are often faced with either generic toolkits that cover a broad range of applicable domains and features or specialized VA systems that focus on one domain. Both are not suited to support casual users in their analysis as they don't match the users' goals and capabilities. The former tend to be complex and targeted to analysis professionals due to the large range of supported features and programmable visualization techniques. The latter trade general flexibility for improved ease of use and optimized interaction for a specific domain requirement. This work describes two approaches building on interactive visualization to reduce this gap between generic toolkits and domain-specific systems. The first one builds upon the idea that most data relevant for casual users are collections of entities with attributes. This least common denominator is commonly employed in faceted browsing scenarios and filter/flow environments. Thinking in sets of entities is natural and allows for a very direct visual interaction with the analysis subject and it stands for a common ground for adding analysis functionality to domain-specific visualization software. Encapsulating the interaction with sets of entities into a filter/flow graph component can be used to record analysis steps and intermediate results into an explicit structure to support collaboration, reporting, and reuse of filters and result sets. This generic analysis functionality is provided as a plugin-in component and was integrated into several domain-specific data visualization and analysis prototypes. This way, the plug-in benefits from the implicit domain knowledge of the host system (e.g. selection semantics and domain-specific visualization) while being used to structure and record the user's analysis process. The second approach directly exploits encoded domain knowledge in order to help casual users interacting with very specific domain data. By observing the interrelations in the ontology, the user interface can automatically be adjusted to indicate problems with invalid user input and transform the system's output to explain its relation to the user. Here, the domain related visualizations are personalized and orchestrated for each user based on user profiles and ontology information. In conclusion, this thesis introduces novel approaches at the boundary of generic analysis tools and their domain-specific context to extend the usage of visual analytics to casual users by exploiting domain knowledge for supporting analysis tasks, input validation, and personalized information visualization.
Die oft zitierte Informationsexplosion beschränkt sich nicht auf vergängliche Kopien zum Zwecke der Datenübertragung und große Mengen an multimedialen Aufnahmen. Auch hochqualitative, strukturierte Daten aus diversen Forschungsrichtungen werden immer leichter und freier zugänglich. Das liegt hauptsächlich an gemeinschaftlich erzeugten Datensammlungen und einer besseren Infrastruktur zum Datenaustausch oder, allgemeiner formuliert, an den von Nutzern erzeugten Inhalten des "Web 2.0" sowie Initiativen zur Erhöhung der Transparenz bei öffentlichen Daten. Während die Datenerzeugung vermehrt durch Gelegenheitsnutzer erfolgt, bleibt die Datenanalyse in der Hand von großen Unternehmen wie Amazon, Google und Facebook, um nur einige zu nennen, die auf die Analyse und die Bereitstellung von Inhalten spezialisiert sind. Hierbei kommen vollautomatische Algorithmen zum Einsatz, um Metadaten und Inhalte zu analysieren und die Interessen und Einstellungen der beteiligten Nutzer abzuleiten, um im Weiteren passende Empfehlungen und Werbeeinblendungen präsentieren zu können. Neben dem Problem, dadurch eine "Filterblase" zu erzeugen, in welcher dem Nutzer - auf Grund des selbstverstärkenden Charakters einer auf dem bisherigen Verlauf basierenden Empfehlung - niemals seine Einstellung kontrastierende Informationen gezeigt werden, haben vollautomatische Ansätze inhärente Probleme dabei, unerwartete Erkenntnisse zu liefern oder sich einer Veränderung anzupassen. Diese Probleme führten zur Einführung der Forschungsrichtung Visual Analytics (VA). Wenn normale Nutzer eigene Analysen auf den verfügbaren Daten betreiben wollen, sehen sie sich mit generischen Werkzeugen und derren Fülle an Funktionen und Einsatzmöglichkeiten und VA-Speziallösungen für einzelne Domänen konfrontiert. Beide Ansätze sind nicht geeignet, um Gelegenheitsnutzer bei ihrer Analyse zu unterstützen, da sie nicht zu den Zielen und den Fähigkeiten des Benutzers passen. Die Erstgenannten sprechen aufgrund ihres Funktionsumfangs und ihrer programmierbaren Visualisierungen eher Analyseexperten an. Die Letzteren tauschen allgemeine Mächtigkeit gegen leichtere Bedienbarkeit und eine an die Domäne angepasste Benutzung. Diese Arbeit beschreibt zwei Ansätze, um mit der Hilfe von interaktiven Visualisierungen die Lücke zwischen allgemeingültigen Werkzeugen und Speziallösungen aus einzelnen Domänen zu verringern. Der erste Ansatz basiert auf der Idee, dass die meisten für die Allgemeinheit interessanten Datensätze auf Entitäten und Attribute reduziert werden können. Dieser kleinste gemeinsame Nenner findet beim facettierten Browsen und bei Filter/Flow-Umgebungen bereits häufig Anwendung. In Mengen zu denken entspricht unserer alltäglichen Erfahrung und erlaubt einen sehr direkten, visuellen Zugang zu den Objekten der Analyse und ist daher eine gute Basis, um Analysefunktionalitäten umzusetzen. Die Interaktion mit Entitätsmengen in eine Filter/Flow-basierte Graphstruktur zusammenzufassen, kann dazu genutzt werden, die Analysetätigkeit zentral aufzuzeichnen und dadurch die Kollaboration, Berichtserstellung und Wiederverwendung von Filtern und Zwischenergebnissen zu unterstützen. Diese generischen Analysefunktionen werden als Plug-In-Komponente angeboten, welche in einige domänenspezifische Datenanalyse- und Visualisierungsprototypen integriert wurde. Dadurch kann die Komponente von dem impliziten Fachwissen des Domänenwerkzeugs (z.B. durch semantisch aufgeladene Entitätswahl und spezialisierte Datenrepräsentation) profitieren, während sie zur Strukturierung und Aufzeichnung des Analyseprozesses des Benutzers herangezogen wird. Der zweite Ansatz nutzt bereits kodiertes Domänenwissen in Form einer Ontologie, um dem Benutzer die Interaktion mit den sehr spezifischen Daten der Domäne zu erlauben. Durch die Betrachtung der Zusammenhänge zwischen Konzepten der Ontologie kann die Benutzungsoberfläche automatisch erweitert werden, um auf Probleme in der Benutzereingabe hinzuweisen und die Resultate des Systems bedarfsgerecht anzuzeigen. Dabei werden die domänenspezifischen Visualisierungen für jeden Benutzer aufgrund seines Profils und der ontologischen Informationen personalisiert und orchestriert. Zusammenfassend beschreibt die Arbeit damit neue Ansätze an der Schnittstelle zwischen generischen Analysewerkzeugen und dem durch den Anwendungsfall vorgegebenen Kontext. Dies erlaubt auch Gelegenheitsnutzern die Vorgehensweise der Visuellen Analyse zur Verfügung zu stellen, indem Analyseaufgaben unterstützt, Eingaben validiert und Informationsdarstellungen personalisiert werden.
Enthalten in den Sammlungen:05 Fakultät Informatik, Elektrotechnik und Informationstechnik

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
diss_bosch_20150216_druckversion.pdf8,82 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.