Anzeige
Skip to content
Read full article about: Offene Coding-Agenten von Allen AI lassen sich günstig auf eigene Codebasen trainieren

Das KI-Forschungsinstitut Allen AI hat SERA veröffentlicht, eine Familie von Open-Source-Coding-Agenten, die sich günstig an private Codebasen anpassen lassen sollen. Das beste Modell, SERA-32B, löst bis zu 54,2 Prozent der Probleme im Coding-Benchmark "SWE-Bench-Test Verified" (64K context) und übertrifft damit vergleichbare Open-Source-Modelle.

Allen AI
32K context, Allen AI

SERA nutzt ein vereinfachtes Trainingsverfahren namens "Soft-verified Generation", das keine vollständig korrekten Code-Beispiele benötigt. Das Training benötigt laut Ai2 nur 40 GPU-Tage und kostet zwischen 400 Dollar, um frühere Open-Source-Ergebnisse zu erreichen, und 12.000 Dollar für Leistung auf dem Niveau führender Industriemodelle. Damit sei ein Training auf eigenen Code-Daten auch für kleine Teams möglich. Technische Details stehen im Blog.

Die Modelle sind mit Claude Code kompatibel und können laut Allen AI mit zwei Zeilen Code gestartet werden. Alle Modelle, Code und Anleitungen sind auf Hugging Face unter der Apache 2.0-Lizenz verfügbar.

Read full article about: Mistral veröffentlicht KI-gesteuerten Code-Assistenten Vibe 2.0

Mistral AI hat Mistral Vibe 2.0 vorgestellt, ein Upgrade seines Terminal-basierten Programmier-Assistenten, der auf dem Devstral 2 Modell basiert. Das Tool ermöglicht Entwicklern, Code mit natürlicher Sprache zu steuern, mehrere Dateien gleichzeitig zu bearbeiten und den gesamten Code-Kontext zu nutzen.

Neu in Version 2.0 sind benutzerdefinierte Unteragenten für spezielle Aufgaben wie Tests oder Code-Reviews, Rückfragen bei unklaren Anweisungen statt automatischer Entscheidungen, und Slash-Befehle für vorgefertigte Arbeitsabläufe.

Mistral Vibe ist über Le Chat Pro (14,99 Dollar/Monat) und Team-Pläne (24,99 Dollar/Platz) verfügbar. Devstral 2 wechselt zu kostenpflichtigem API-Zugang – kostenlose Nutzung bleibt für Tests im Experiment-Plan möglich. Für Unternehmen bietet Mistral zusätzlich Feinabstimmung, verstärkendes Lernen und Code-Modernisierung an.

KI-Entwickler Andrej Karpathy revidiert Meinung zu KI-Agenten: Von "funktionieren nicht" zu 80 Prozent KI-Coding in nur drei Monaten

Noch im Oktober sagte Andrej Karpathy über KI-Agenten: „Sie funktionieren einfach nicht.“ Jetzt programmiert er nach eigenen Angaben zu 80 Prozent mit Agenten und spricht von einem Phasenwechsel in der Softwareentwicklung. Es ist eine eigentlich nüchterne Stimme, die in den Hype um agentisches Coding einsteigt, aber auch warnt.

Read full article about: Werbung in ChatGPT startet angeblich mit extrem hohen Preisen für Werbetreibende

OpenAI verlangt für erste ChatGPT-Werbeanzeigen etwa 60 Dollar pro 1.000 Einblendungen. Das liegt weit über den üblichen Online-Werbepreisen im niedrigen einstelligen Bereich und eher auf dem Niveau von Premium-TV-Preisen wie bei NFL-Spielen, berichtet The Information. Die Anzeigen erscheinen unterhalb der ChatGPT-Antworten in der kostenlosen und günstigen Version "Go".

OpenAI plant zudem angeblich, pro Einblendung abzurechnen statt pro Klick. Für Werbetreibende ist Klick-Abrechnung meist attraktiver, da sie die Wirkung besser messen können. Die Entscheidung für Impressionen könnte daran liegen, dass KI-Chatbot-Nutzer viel seltener auf externe Links klicken als klassische Suchmaschinennutzer. Auch Perplexity rechnet pro 1.000 Impressionen ab.

Dass OpenAI auf Werbung setzt – zu Premium-Preisen und in einem für Werber unattraktiven Format – könnte darauf hindeuten, dass die Firma ihren Umsatz aggressiv steigern muss, um bei ihrer hohen Bewertung für Investoren attraktiv zu bleiben. Sam Altman bezeichnete ChatGPT-Werbung früher als letzten Ausweg und potenzielle Dystopie.

Read full article about: Microsofts neuer KI-Beschleuniger Maia 200 soll Amazon- und Google-Chips übertreffen

Microsoft stellt seinen neuen KI-Inferenz-Chip Maia 200 vor. Der Chip ist speziell für die Inferenz entwickelt worden und soll 30 Prozent bessere Leistung pro Dollar bieten als die aktuelle Chip-Generation in Microsofts Rechenzentren. Er basiert auf TSMCs 3-Nanometer-Verfahren mit über 140 Milliarden Transistoren und verfügt über 216 GB Hochgeschwindigkeitsspeicher.

Laut Microsoft ist Maia 200 der leistungsstärkste hauseigene Chip aller großen Cloud-Anbieter. Er biete dreimal so viel FP4-Leistung wie Amazons Trainium 3 und übertreffe Googles TPU v7 bei FP8-Berechnungen. Eine unabhängige Bewertung steht noch aus.

Microsoft
Microsoft

Microsoft setzt den Chip laut eigenen Angaben für OpenAIs GPT-5.2-Modelle sowie für Microsoft 365 Copilot ein. Entwickler können sich für eine Vorschau des Maia SDK anmelden. Maia 200 ist zunächst im Rechenzentrum in Iowa verfügbar, Arizona folgt als Nächstes. Technische Details zum Chip stehen hier.

Apples Weg zur Google Partnerschaft war von internen Machtkämpfen geprägt

Interne Notfall-Meetings, ein Chef der „Bullshit“ rief und niemanden überzeugte, gescheiterte Milliarden-Verhandlungen: Bloomberg enthüllt die Hintergründe von Apples Wende zu Google Gemini.