Anzeige
Skip to content

Maximilian Schreiner

Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Read full article about: OpenAI verliert führende Sicherheitsforscherin an Anthropic

Andrea Vallone, eine führende Sicherheitsforscherin bei OpenAI, ist zu Anthropic gewechselt. Sie wird dort im Alignment-Team arbeiten, das sich mit den Risiken von KI-Modellen beschäftigt. Vallone war drei Jahre bei OpenAI und gründete dort das "Model Policy"-Forschungsteam. Sie arbeitete an wichtigen Projekten wie GPT-4, GPT-5 und den Reasoning-Modellen.

Im vergangenen Jahr leitete Vallone bei OpenAI dann die Forschung zu einer akut gewordenen Frage: Wie sollten KI-Modelle reagieren, wenn Nutzer Anzeichen von emotionaler Abhängigkeit oder psychischen Problemen zeigen? Einige Nutzer, darunter Jugendliche, haben sich nach Gesprächen mit Chatbots das Leben genommen. Mehrere Familien haben Klagen eingereicht, und der US-Senat hat eine Anhörung zu dem Thema abgehalten.

Bei Anthropic arbeitet Vallone nun unter Jan Leike. Leike war selbst Sicherheitsforschungsleiter bei OpenAI und verließ das Unternehmen im Mai 2024. Leike hatte damals kritisiert, dass Sicherheit bei OpenAI hinter neuen Produkten zurückstehe.

OpenAI lehnte Rolle als exklusiver KI-Lieferant für Apple angeblich bewusst ab

OpenAI wollte angeblich nie Apples KI-Partner werden und konzentriert sich stattdessen auf eigene Hardware. Die ChatGPT-Integration auf dem iPhone wurde angeblich kaum genutzt.

Read full article about: Bandcamp verbannt vollständig oder größtenteils KI-generierte Musik von der Plattform

Die Musikplattform Bandcamp untersagt ab sofort Musik, die vollständig oder zu wesentlichen Teilen durch generative Künstliche Intelligenz erstellt wurde. Mit dieser neuen Richtlinie will das Unternehmen nach eigener Aussage die menschliche Kreativität und die direkte Verbindung zwischen Künstlern und Fans schützen. Auch der Einsatz von KI-Tools zur Imitation bestimmter Künstler oder Stile ist laut den neuen Regeln strikt verboten.

Anders als bei vielen Streaming-Diensten steht bei Bandcamp der direkte Kauf von Musik und Merchandise im Vordergrund, wodurch Fans die Urheber direkt finanziell unterstützen können.

Nutzer sind aufgefordert, Inhalte zu melden, die stark nach KI klingen. Bandcamp behält sich das Recht vor, Musik bereits bei bloßem Verdacht auf einen KI-Ursprung von der Plattform zu entfernen.

Read full article about: Microsoft macht Zugeständnisse bei Rechenzentrums-Ausbau

Microsoft kündigt eine neue Initiative für KI-Rechenzentren an, mit der der Konzern auf den wachsenden Widerstand in US-Gemeinden reagieren will. Das Unternehmen verpflichtet sich, die vollen Stromkosten seiner Rechenzentren selbst zu tragen, damit Anwohner keine höheren Stromrechnungen zahlen müssen. Microsoft will außerdem keine lokalen Steuervergünstigungen mehr beantragen, den Wasserverbrauch bis 2030 um 40 Prozent senken und mehr Wasser zurückführen als es nutzt.

Präsident Brad Smith sagte gegenüber GeekWire, die Branche habe früher anders gearbeitet und müsse sich nun ändern. Trump hatte die Ankündigung vorab auf Truth Social erwähnt. In Rechenzentrumsgebieten wie Virginia, Illinois und Ohio stiegen die Strompreise zuletzt 12-16 Prozent schneller als im US-Durchschnitt. Microsoft will zudem lokale Arbeitskräfte ausbilden und in KI-Bildungsprogramme investieren.

Read full article about: Wer von Sprachmodellen Widerspruchsfreiheit erwartet, stellt laut einem Anthropic-Forscher die falsche Frage

Wer von Sprachmodellen innere Kohärenz erwartet, stellt laut einem Anthropic-Forscher die falsche Frage.

"Warum sagt Seite fünf eines Buches, das beste Essen sei Pizza, und Seite 17, das beste Essen sei Pasta? Was denkt das Buch wirklich? Und du sagst: 'Es ist ein Buch!'", erklärt Josh Batson, Research Scientist bei Anthropic, in einem lesenswerten Artikel über Methoden zur Interpretierbarkeit von LLMs im MIT Technology Review.

Die Analogie stammt aus Experimenten zur internen Verarbeitung von Fakten. Anthropic fand heraus, dass Claude unterschiedliche Mechanismen nutzt, um zu wissen, dass Bananen gelb sind, und um zu bestätigen, dass der Satz "Bananen sind gelb" wahr ist. Diese Mechanismen sind nicht miteinander verbunden. Wenn ein Modell widersprüchliche Antworten gibt, greift es auf verschiedene Teile seiner selbst zurück – ohne zentrale Instanz. "Es könnte sein, dass du mit Claude redest und es dann abdriftet", sagt Batson. "Und jetzt redest du nicht mehr mit Claude, sondern mit etwas anderem." Die Implikation: Die Annahme, Sprachmodelle besäßen mentale Kohärenz wie Menschen, könnte ein Kategorienfehler sein.

Basecamp Research kartiert eine Million Spezies für KI-gestützte Medikamente

Das britische Unternehmen Basecamp Research hat gemeinsam mit Forschern von Nvidia und Microsoft KI-Modelle entwickelt, die aus einer Datenbank von über einer Million Spezies potenzielle neue Therapien gegen Krebs und multiresistente Bakterien generieren sollen. Die Forscher selbst mahnen jedoch zur Vorsicht.