Lebensrettendes Wissen: Neue Technologie durchsucht Operationsvideos

Bei allen endoskopischen Operationen entstehen Videos, die für andere Chirurg:innen interessant sein könnten. Wie konnten auftretende Schwierigkeiten gelöst werden? Was hat sich bewährt, was nicht? Wo sind vermeidbare Fehler passiert? Antworten auf diese Fragen können für den, der am OP-Tisch liegt, lebensrettend sein. Forscher:innen der Universität Klagenfurt arbeiten daran, riesige Pools von OP-Videos leichter durchsuchbar zu machen, sodass künftige, aber auch erfahrene Chirurg:innen besser daraus lernen können.  

Die Videos, die bei endoskopischen Operationen entstehen, können für vielerlei nützlich sein: Sie können in der Ausbildung von künftigen Chirurg:innen unterstützen, aber auch im Nachhinein die Qualität einer Operation bewerten. Für beides gilt: Will man die Videos manuell auswerten und nach bestimmten Inhalten suchen, ist das zeitintensiv und wird – oft zum Nachteil von Patient:innen – nicht gemacht.

„Wir brauchen möglichst leistungsstarke und treffsichere Such-Technologien. Beispielsweise können wir dabei auf Ähnlichkeit setzen: Wenn wir ein Segment finden, in dem ein Fehler passiert ist, kann das als Input für eine weitere Suche nach Fehlern dienen“, erklärt Klaus Schöffmann, der am Institut für Informationstechnologie seit vielen Jahren an solchen Technologien arbeitet. Ähnliches gilt auch für besonders herausfordernde Operationen: „Wenn ein Problem gut gelöst wurde, können wir auch in anderen Videos nach solchen Zugängen suchen. In Summe lernen so die Medizin und die Mediziner:innen mit Unterstützung der Technik. Patient:innen profitieren davon.“

Aktuell arbeitet Klaus Schöffmann gemeinsam mit seinem Team in einem FWF-geförderten Projekt zur Qualitätssicherung bei gynäkologischen Operationen. „Möchten Chirurg:innen die Qualität von Operationen in ihrem Team bewerten, müssen sie aktuell noch manuell durch die Videos gehen und einzelne Fehler bewerten und zählen“, skizziert Klaus Schöffmann das Problem. Mit Hilfe von AI-Methoden bzw. Deep Learning soll die Fehlerbewertung in Zukunft automatisch ablaufen. Die Technologie ist mittlerweile schon weit gediehen: „Wir können aktuell schon ziemlich genau die verwendeten Instrumente, bestimmte anatomische Strukturen sowie chirurgische Aktionen in den Videos erkennen. Damit wird es auch möglich, unterschiedliche Statistiken über viele Patient:innen hinweg zu erstellen. Damit kann man Fragestellungen beantworten, wie zum Beispiel: (1) Wie oft und wie lange wurde ein Instrument eingesetzt? (2) Wie häufig wurde eine bestimmte Aktion durchgeführt? oder (3) Wie hoch ist die Anzahl einer bestimmten Komplikation?“