Drei Fragen an Vitalis Wiens

Ein Interview mit dem Doktoranden Vitalis Wiens über seine Doktorarbeit, seine Arbeit an der TIB und seine Publikation in der Open-Access-Zeitschrift Scientific Reports

Seit Oktober 2020 sind Sie Doktorand in der Forschungsgruppe „Data Science & Digital Libraries“ von Prof. Dr. Sören Auer. Worum geht es bei Ihrer Arbeit?

Visuelle Darstellungen vereinfachen meist die komplexe Repräsentation von Daten. In der Semantic-Web-Welt werden diese Daten in Form von Knoten und deren Links repräsentiert. Mit zunehmender Größe der Daten wird die Darstellung jedoch unübersichtlich und das Verständnis wird erschwert.

Porträt von Vitalis Wiens
Vitalis Wiens // Foto: privat

In meiner Arbeit untersuche ich, wie sich die Daten so darstellen lassen, dass diese für die Nutzerinnen und Nutzer besser zugänglich sind. Eine meiner Erkenntnisse ist, dass die Darstellung auf die Nutzerin oder den Nutzer zugeschnitten werden muss, sodass jede Nutzerin und jeder Nutzer Informationen in der für sie oder ihn individuell am besten geeigneten Darstellung bekommen. Dafür haben wir eine Methode entwickelt, bei der Nutzerinnen und Nutzer die Möglichkeit haben, die visuelle Darstellung nach ihren Wünschen anzupassen, zu speichern und mit anderen Nutzerinnen und Nutzern zu teilen. Außerdem arbeiten wir zum einen an Methoden, die es erlauben, die Daten visuell zu bearbeiten, zum anderen arbeiten wir an Verfahren, die die Entwicklung von neuen Applikationen erleichtern sollen.

Was interessiert Sie an dieser Thematik und wie sind Sie an die TIB gekommen?

Jeden Tag gibt es mehr und mehr Informationen Semantic-Web-Technologien erlauben es, diese Informationen in einer maschinenlesbaren Form darzustellen. Menschen brauchen jedoch visuelle Darstellungen, um komplexe Informationen besser verstehen zu können. Ein interessanter Aspekt ist, dass jeder unterschiedliche Präferenzen hat, die es ihm erleichtern, die Information zu verstehen. Daher untersuche ich, welche Methoden und deren benutzerspezifischen Anpassungen das Verständnis von Semantic-Web-Daten vereinfachen können. Bevor ich an die TIB gekommen bin, habe ich an der Uni Bonn mit dem Schwerpunkt Computergrafik studiert.

In der Open-Access-Zeitschrift Scientific Reports, die online von der Nature Publishing Group herausgegeben wird, ist kürzlich ein Paper erschienen, an dem Sie beteiligt waren. Womit beschäftigt sich das Paper?

An dem Paper war ich im Rahmen meiner Projektgruppe (Master) an der Universität Bonn bei Prof. Thomas Schultz, Leiter der Arbeitsgruppe Visualisierung und Medizinische Bildanalyse, beteiligt. Der Forschungsschwerpunkt der Arbeitsgruppe liegt unter anderem auf der Entwicklung und dem praktischen Einsatz von Bildanalysemethoden und Visualisierung, um mit diesen Gesetzmäßigkeiten in medizinischen und wissenschaftlichen Daten zu entdecken.

In unserem Paper ging es um einen Algorithmus zur Analyse von Tiefenscans der Netzhaut des menschlichen Auges, mit denen sogenannte Drusen – Ablagerungen von Stoffwechselprodukten unter der Netzhaut – sichtbar gemacht werden können. Drusen können bei Patientinnen und Patientinnen zur sogenannten altersbedingten Makuladegeneration (AMD) führen. In Industriestaaten ist das die häufigste Ursache für Erblindung bei über 50-Jährigen.

Unser Paper trägt den Titel „Replication and Refinement of an Algorithm for Automated Drusen Segmentation on Optical Coherence Tomography“. Darin geht es um einen Algorithmus für die automatische Drusen-Segmentierung für Bilder der Netzhaut, die im Rahmen einer augenärztlichen Untersuchung, nämlich der optischen Kohärenztomografie (Optical coherence tomography), entstanden sind. Dafür haben wir einen bereits veröffentlichten Algorithmus, der gute Ergebnisse erzielt hatte, auf unseren Datensatz mit Tiefenscans der Netzhaut angewendet. Dabei zeigte sich, dass der Algorithmus bei unserem Datensatz schlechtere Ergebnisse lieferte als zuvor. Also haben wir den Algorithmus so verändert – und damit optimiert –, dass er bessere Resultate erzielte als der ursprüngliche Algorithmus. Unser Fazit: Für eine korrekte Replikation eines Algorithmus sind mehr Details – sowohl bezüglich des Algorithmus als auch der Daten, auf die er angewendet wird – relevant, als typischerweise in einer Publikation angegeben werde.

Wie genau wir dabei vorgegangen sind, beschreibt das im Open-Access Journal „Scientific Reports“ veröffentlichte Paper[1].


[1] Wintergerst, M.W.M., Gorgi Zadeh, S., Wiens, V. et al. Replication and Refinement of an Algorithm for Automated Drusen Segmentation on Optical Coherence Tomography. Sci Rep 10, 7395 (2020). https://doi.org/10.1038/s41598-020-63924-6

Semantic Web – was ist das eigentlich?

Heutige Suchmaschinen suchen mithilfe von Algorithmen nach den von uns eingegebenen Suchbegriffen auf einer Webseite. Aber anders als für uns Menschen haben Texte für Computer keine Bedeutung. Sie nehmen die Texte zwar wahr, verstehen sie aber nicht. Das ist besonders bei Mehrdeutigkeiten von Begriffen ein Problem. So kann das Wort „Bank“ sowohl eine Sitzgelegenheit oder ein Geldinstitut meinen. Wer also nach Bank als Geldinstitut sucht, bekommt bei der alleinigen Eingabe des Suchbegriffs „Bank“ auch Treffer zu der Sitzgelegenheit.

Das ist beim Semantic Web – auch Web 3.0 genannt – anders: Dort werden Informationen im Internet zueinander in Beziehung gesetzt. Beim Semantic Web, wobei es sich genaugenommen um eine Web-Technologie handelt, können die Suchmaschinen nicht nur nach Stichworten suchen, sondern diese auch auswerten und ihnen Bedeutung entnehmen. Man kann also nicht mehr nur nach Stichworten suchen, sondern Fragen oder ganze Sätze eingeben. Aber wie ist das möglich? Natürlich nicht von allein: Menschen müssen die Daten im Internet so mit Informationen anreichern, dass Computer ihre Bedeutung verstehen können. Dies geschieht mithilfe des sogenannten Ressource Description Framework (RDF), das die einzelnen Ressourcen beschreibt.

The following two tabs change content below.

Sandra Niemeyer

... ist Pressereferentin im Team Kommunikation und Marketing

Neueste Artikel von Sandra Niemeyer (alle ansehen)