Inhalt
newsletter Newsletter

Google hat eine Künstliche Intelligenz vorgestellt, die Buckelwalrufe in akustischen Unterwasseraufnahmen erkennt.

Anzeige

Google hat die Walsuch-KI als Teil seines "AI for Social Good" Programms in Partnerschaft mit der "U.S. National Oceanic and Atmospheric Administration" (NOAA) entwickelt. Die NOAA sammelt seit 2005 an zwölf Standorten im Pazifik akustische Daten.

Sogenannte Hydrophone arbeiten Tag und Nacht und zeichnen die Rufe der Meeressäuger über große Entfernung und in tiefster Tiefe auf. Besonders in abgelegenen Regionen der Meere können die Buckelwale so beobachtet werden, ohne dass Wissenschaftler vor Ort sein müssen.

Die Standorte der Hydrophone der NOAA im Pazifik.

Große Datenmengen rückwirkend verstehen

Anhand der Audiodaten können die Forscher Rückschlüsse über Anwesenheit, saisonales und tägliches Verhalten und Populationsdichte der Meeressäuger ziehen.

Anzeige
Anzeige

Die historischen Daten zeigen zudem mögliche Veränderungen der Ausbreitung der Tiere im Laufe der Zeit. So können die Forscher durch den Menschen verursachte Populationsveränderungen untersuchen.

Bisherige Verfahren zur manuellen Markierung von Buckelwalrufen in den Audiodaten sind sehr zeitaufwendig. Doch Googles KI muss nicht wie der Mensch zuhören: Sie untersucht Bilder statt Töne, indem sie sogenannte Spektrogramme analysiert. Das sind graphische Darstellungen der Audioaufnahmen. In diesen Spektrogrammen kann sie Buckelwalrufe mittels Bildanalyse erkennen.

Diese Spektrogramme bekommt die KI zu sehen. Links die Darstellung eines Walrufes. In der Mitte die Störgeräusche eines Bootes und rechts das Geräusch der Festplatte des Hydrophons.
Diese Spektrogramme bekommt die KI zu sehen. Links die Darstellung eines Walrufes. In der Mitte die Störgeräusche eines Bootes und rechts das Geräusch der Festplatte des Hydrophons.

Bildmodell analysiert Audioaufnahmen

Die Forscher trainierten das Bildmodell ResNet-50. Es wird üblicherweise für Bildklassifizierungen verwendet und eignet sich laut der Forscher besonders für die Klassifizierung von Spektrogrammen.

Vor dem Training sortierten die Forscher manuell 0,2 Prozent der Audiodateien vor, in denen Buckelwalrufe im Spektrogramm visuell erkennbar waren. Anhand dieses Datensatzes lernte die KI dann, wie die Rufe aussehen.

Nach dem Training konnte die KI Buckelwalrufe mit einer Genauigkeit von über 90 Prozent erkennen. In der Analyse der Testdaten spiegelte sich die saisonale Wanderbewegung der Buckelwale wieder.

Empfehlung

Die Forscher sehen das als Hinweis, dass die KI erfolgreich arbeitet. Sie soll jetzt auf den gesamten Datensatz angesetzt werden. Die Forscher erhoffen sich so tiefere Einblicke in das Leben der Buckelwale und rückwirkend über ihren Werdegang der letzten 15 Jahre.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!