Inhalt
summary Zusammenfassung

Forscher haben ein neues KI-Modell namens MedSAM-2 entwickelt, das die Segmentierung von 2D- und 3D-Bildern in der Medizin stark verbessert. Es kann mit nur einer manuellen Markierung ganze Bildserien bearbeiten.

Anzeige

Wissenschaftler der University of Oxford haben ein leistungsfähiges KI-Modell für die medizinische Bildsegmentierung vorgestellt. MedSAM-2 baut auf dem kürzlich von Meta veröffentlichten Segment Anything Model 2 (SAM 2) auf und behandelt medizinische Bilder ähnlich wie Videosequenzen. Laut der Studie übertrifft MedSAM-2 bisherige Spitzenmodelle bei der Segmentierung verschiedener Organe und Gewebe in 2D- und 3D-Bildern.

Um diese Fähigkeiten zu erreichen, behandelt MedSAM-2 medizinische Bildserien wie Videosequenzen. Das Modell nutzt außerdem eine "Confidence Memory Bank", die die zuverlässigsten Vorhersagen speichert. Bei der Analyse neuer Bilder greift es auf diese Informationen zurück und gewichtet sie je nach Ähnlichkeit zum aktuellen Bild.

Bild: Zhu et al.

Ein Kernmerkmal von MedSAM-2 ist die durch SAM 2 ermöglichte emergente Fähigkeit zur "One-Prompt-Segmentierung": Dabei kann das Modell mit nur einer Markierung in einem Beispielbild ähnliche Strukturen in weiteren Bildern erkennen und segmentieren. Diese Technik funktioniert auch bei Bildern ohne zeitlichen Zusammenhang und reduziert den Aufwand für medizinisches Personal erheblich.

Anzeige
Anzeige
Bild: Zhu et al.

MedSAM-2 setzt neue Maßstäbe in Leistung und Benutzerfreundlichkeit

Die Forscher testeten MedSAM-2 an 15 verschiedenen medizinischen Datensätzen, darunter Aufnahmen von Bauchorganen, Sehnerven, Hirntumoren und Hautläsionen. In fast allen Fällen erzielte das neue Modell bessere Ergebnisse als spezialisierte Vorgängermodelle.

Bei der Segmentierung von Bauchorganen in 3D-Bildern erreichte MedSAM-2 einen durchschnittlichen Dice-Score von 88,6 Prozent. Dieser Wert übertrifft das bisherige Spitzenmodell MedSegDiff um 0,7 Prozentpunkte. Der Dice-Score ist ein Maß für die Übereinstimmung zwischen der KI-Vorhersage und der manuellen Segmentierung durch Experten.

Auch bei 2D-Bildern verschiedener Körperregionen schnitt MedSAM-2 besser ab als bisherige Modelle. Bei der Segmentierung des Sehnervs verbesserte es den Dice-Score um 2 Prozentpunkte, bei Hirntumoren um 1,6 und bei Schilddrüsenknoten um 2,8 Prozentpunkte.

Die Entwickler von MedSAM-2 sehen in dem Modell einen wichtigen Schritt zur Verbesserung medizinischer Bildanalysen und haben Modell und Code auf GitHub veröffentlicht. Das soll die Weiterentwicklung und Anwendung in der klinischen Praxis zu fördern.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Forscher der University of Oxford haben MedSAM-2 entwickelt, ein KI-Modell für medizinische Bildsegmentierung, das auf dem Segment Anything Model 2 (SAM 2) von Meta aufbaut und medizinische Bilder wie Videosequenzen behandelt.
  • MedSAM-2 nutzt eine "Confidence Memory Bank" zur Speicherung zuverlässiger Vorhersagen und kann mit nur einer Markierung in einem Beispielbild ähnliche Strukturen in weiteren Bildern erkennen und segmentieren.
  • In Tests mit 15 verschiedenen medizinischen Datensätzen übertraf MedSAM-2 bisherige Spitzenmodelle, etwa bei der Segmentierung von Bauchorganen in 3D-Bildern.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!