US-Start-up Arcee AI fordert mit offenem 400B-Modell chinesische KI-Labore heraus
Das Start-up Arcee AI hat mit Trinity-Large-Thinking ein offenes Reasoning-Modell veröffentlicht, das bei Agenten-Aufgaben mit Claude Opus konkurrieren soll. Das Unternehmen steckte dafür rund die Hälfte seines gesamten Risikokapitals in das Projekt.
Mutmaßlicher Brandstifter bei OpenAI-Chef war Anhänger der Protestgruppe Pause AI
OpenAI-CEO Sam Altmans Haus wurde nachts mit einem Brandsatz angegriffen. Der Verdächtige war offenbar Anhänger der „Pause AI“-Bewegung und warnte in Online-Beiträgen vor dem Aussterben der Menschheit durch KI.
Gemma 4 ausprobieren: Googles neue KI läuft direkt auf dem Handy
Googles neues Open-Source-Modell Gemma 4 verarbeitet Text, Bilder und Audio komplett lokal auf dem Smartphone. Über sogenannte Agent-Skills kann die KI sogar eigenständig Werkzeuge wie Wikipedia oder interaktive Karten nutzen.
KI-Agent diffamiert Entwickler: Anonymer Betreiber spricht von Sozialexperiment
Die anonyme Person hinter dem KI-Agenten „MJ Rathbun“, der einen Open-Source-Entwickler diffamierte, hat sich gemeldet. Ihre Erklärung wirft mehr Fragen auf, als sie beantwortet.
Das KI-Startup Overworld hat Waypoint-1.5 veröffentlicht, ein Update seines Echtzeit-Weltsimulationssystems, das KI-generierte interaktive 3D-Welten auf handelsüblicher Hardware erzeugt. Die Software läuft nun erstmals auf Mac und Windows und bietet zwei Modellstufen: 720p bei 60 Bildern pro Sekunde für leistungsstarke Systeme und 360p für eine breitere Palette an Gaming-PCs mit NVIDIA-RTX-Grafikkarten und künftig auch Apple Silicon.
Im Vergleich zu den Vorgängerversionen Waypoint-1.0 und 1.1 verbessert Overworld die visuelle Qualität, die Effizienz und die Systemleistung, während das Modell nur noch halb so groß ist. Trainiert wurde mit rund 100-mal mehr Daten als bei der ersten Version.
Vergleich zwischen Waypoint 1.1 und 1.5. Die visuelle Qualität hat deutlich zugenommen bei besserer Effizienz. | Bild: Overworld
Nutzer können die Software lokal über die Biome-Laufzeitumgebung installieren oder per Browser-Streaming über Overworld.stream testen. Weitere Informationen unter over.world.
Anthropic hat eine neue Funktion namens "Ultraplan" für Claude Code vorgestellt. Das Feature lagert die Planung von Programmieraufgaben in die Cloud aus: Entwickler starten einen Planungsauftrag im Terminal, Claude erstellt den Plan dann auf dem Webinterface von Claude Code. Währenddessen bleibt das Terminal frei für andere Arbeit.
Laut der Dokumentation auf code.claude.com bietet Ultraplan drei Vorteile gegenüber der lokalen Planung: Nutzer können gezielt einzelne Abschnitte des Plans kommentieren, statt auf den gesamten Plan zu antworten, die Planung läuft im Hintergrund in der Cloud, und der fertige Plan kann wahlweise direkt im Browser oder zurück im Terminal umgesetzt werden. Im Browser lassen sich Inline-Kommentare setzen, Emoji-Reaktionen vergeben und Überarbeitungen anfordern.
Ultraplan erfordert ein Claude-Code-Web-Konto, ein GitHub-Repository und mindestens Version 2.1.91 von Claude Code. Die Funktion ist nicht verfügbar, wenn Amazon Bedrock, Google Cloud Vertex AI oder Microsoft Foundry genutzt wird. Anthropic-Mitarbeiter Thariq erklärte auf X, dass Ultraplan etwa gleich viele Tokens verbraucht wie der bisherige Plan-Modus. Die Funktion ist als Vorschau für alle Nutzer verfügbar, die Claude Code im Web aktiviert haben.
Deepmind-Chef Demis Hassabis vergleicht die Ankunft von AGI mit dem Zehnfachen der industriellen Revolution in einem Zehntel der Zeit. "Ich quantifiziere die Ankunft von AGI manchmal als zehnmal die industrielle Revolution bei zehnfacher Geschwindigkeit. Also entfaltet sich das über ein Jahrzehnt statt über ein Jahrhundert", sagt er im 20VC Podcast. Er sieht eine "sehr gute Chance", dass AGI innerhalb der nächsten fünf Jahre erreicht wird. Diese Einschätzung habe sich seit der Gründung von Deepmind 2010 kaum verändert. Damals sagte Mitgründer Shane Legg in Blogposts voraus, dass es etwa 20 Jahre dauern würde.
Für weitere Durchbrüche brauche es unter anderem kontinuierliches Lernen, langfristiges Planen, bessere Memory-Architekturen und größere Konsistenz in der Intelligenz. Es gehe letztlich um Generalisierbarkeit. Skalierung wirke noch immer, auch wenn die Wirkung nachlasse.
Gleichzeitig warnt Hassabis vor einer gefährlichen Lücke. Kurzfristig sei KI "in gewisser Weise überhypt". Langfristig werde aber "immer noch sehr unterschätzt, wie revolutionär das in einem Zeitraum von etwa zehn Jahren sein wird". Trotz des beispiellosen Hypes nehme die Öffentlichkeit die langfristigen Auswirkungen also noch immer nicht ernst genug.