Anzeige
Skip to content

Maximilian Schreiner

Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.

Thinking Machines unter Druck: Start-up verliert in einer Woche fünf wichtige Mitarbeiter

Das KI-Start-up von Ex-OpenAI-CTO Mira Murati erlebte eine turbulente Woche: Nach der Entlassung eines Mitgründers wechseln mehrere Forscher ausgerechnet zu ihrem früheren Arbeitgeber. Eine geplante Finanzierungsrunde mit 50-Milliarden-Dollar-Bewertung könnte ins Wanken geraten.

Read full article about: Webseitenbetreiber sollen für KI-Training bezahlt werden: Cloudflare übernimmt Human Native

Cloudflare will mit der Übernahme des britischen Startups Human Native ein neues Bezahlmodell aufbauen. Das Unternehmen betreibt einen Marktplatz für KI-Trainingsdaten und wandelt Multimedia-Inhalte in strukturierte, lizenzierbare Daten um.

Der Hintergrund: KI-Crawler durchforsten das Internet massenhaft, ohne dass Webseitenbetreiber dafür bezahlt werden. Statt dass KI-Firmen Inhalte einfach abgreifen, sollen Publisher ihre Daten über einen Index bereitstellen und dafür Geld bekommen.

Cloudflare arbeitet bereits an Tools wie "AI Crawl Control" und "Pay Per Crawl", mit denen Webseitenbetreiber kontrollieren können sollen, wer ihre Inhalte für KI-Training nutzen darf. Zusammen mit Coinbase hat Cloudflare außerdem die x402 Foundation gegründet, die automatische Zahlungen zwischen Maschinen ermöglichen soll. Cloudflare betreibt eine eigene KI-Plattform und hat diese kürzlich durch die Übernahme von Replicate gestärkt.

Read full article about: OpenAI verliert führende Sicherheitsforscherin an Anthropic

Andrea Vallone, eine führende Sicherheitsforscherin bei OpenAI, ist zu Anthropic gewechselt. Sie wird dort im Alignment-Team arbeiten, das sich mit den Risiken von KI-Modellen beschäftigt. Vallone war drei Jahre bei OpenAI und gründete dort das "Model Policy"-Forschungsteam. Sie arbeitete an wichtigen Projekten wie GPT-4, GPT-5 und den Reasoning-Modellen.

Im vergangenen Jahr leitete Vallone bei OpenAI dann die Forschung zu einer akut gewordenen Frage: Wie sollten KI-Modelle reagieren, wenn Nutzer Anzeichen von emotionaler Abhängigkeit oder psychischen Problemen zeigen? Einige Nutzer, darunter Jugendliche, haben sich nach Gesprächen mit Chatbots das Leben genommen. Mehrere Familien haben Klagen eingereicht, und der US-Senat hat eine Anhörung zu dem Thema abgehalten.

Bei Anthropic arbeitet Vallone nun unter Jan Leike. Leike war selbst Sicherheitsforschungsleiter bei OpenAI und verließ das Unternehmen im Mai 2024. Leike hatte damals kritisiert, dass Sicherheit bei OpenAI hinter neuen Produkten zurückstehe.

OpenAI lehnte Rolle als exklusiver KI-Lieferant für Apple angeblich bewusst ab

OpenAI wollte angeblich nie Apples KI-Partner werden und konzentriert sich stattdessen auf eigene Hardware. Die ChatGPT-Integration auf dem iPhone wurde angeblich kaum genutzt.