Anzeige
Skip to content
Read full article about: Auf Vibe-Coding folgt Vibe-Design: Googles KI-Tool Stitch wandelt Text in Interfaces

Google Labs hat sein Design-Tool Stitch zu einer KI-gestützten Software-Design-Plattform weiterentwickelt. Das Tool wandelt natürliche Sprache in Benutzeroberflächen um: Google nennt den Ansatz "Vibe Design". Statt mit klassischen Wireframes zu beginnen, beschreiben Nutzer ihre Ziele oder die gewünschte Nutzererfahrung in Textform. Stitch bietet dafür eine unendliche Leinwand, auf der Bilder, Text und Code als Kontext eingebracht werden können.

Ein neuer Design-Agent analysiert den gesamten Projektverlauf und kann mehrere Ideen parallel verfolgen, während sich per Sprachsteuerung Echtzeit-Änderungen direkt auf der Leinwand vornehmen lassen. Designregeln lassen sich über ein neues DESIGN.md-Format zwischen verschiedenen Tools austauschen, und statische Entwürfe werden direkt in klickbare Prototypen umgewandelt.

Stitch ist unter stitch.withgoogle.com für Nutzer ab 18 Jahren in allen Regionen verfügbar, in denen auch Gemini zugänglich ist. Über einen MCP-Server und ein SDK kann Stitch zudem in Entwicklertools wie AI Studio eingebunden werden. Google richtet das Tool sowohl an professionelle Designer als auch an Gründer ohne Design-Erfahrung.

Read full article about: Google Deepmind erweitert Gemini-API um kombinierbare Entwickler-Werkzeuge

Google Deepmind hat die Gemini-API um mehrere Werkzeuge für Entwickler erweitert. Erstmals lassen sich eingebaute Tools wie Google Search und Google Maps mit eigenen Funktionen in einer einzigen Anfrage kombinieren. Bisher mussten Entwickler diese Schritte einzeln steuern, was langsamer und aufwendiger war.

Neu ist auch die sogenannte Kontextzirkulation: Ergebnisse eines Tools können automatisch an ein anderes weitergegeben werden. Zudem gibt es jetzt eindeutige IDs für jeden Tool-Aufruf, was die Fehlersuche erleichtert.

Ebenfalls neu: Google Maps als Datenquelle steht nun auch für die Gemini-3-Modellfamilie bereit und liefert Standortdaten, Geschäftsinformationen und Pendelzeiten. Google empfiehlt für diese Arbeitsabläufe die neue Interactions-API.

Read full article about: OpenAI will das beste Sprachmodell, das in 16 MB passt

OpenAI fordert Forscher und Entwickler heraus, das beste Sprachmodell zu bauen, das in nur 16 MB passt – und nutzt den Wettbewerb gezielt zur Talentsuche. Beim offenen Forschungswettbewerb "Parameter Golf" müssen Gewichte und Trainingscode zusammen unter 16 MB bleiben, trainiert wird in maximal zehn Minuten auf acht H100-GPUs. Bewertet wird anhand der Kompression auf einem festen FineWeb-Datensatz.

OpenAI stellt dafür eine Million Dollar an Rechenzeit-Gutschriften über den Partner Runpod bereit. Herausragende Teilnehmer können zu Bewerbungsgesprächen eingeladen werden. Im Juni plant OpenAI, eine kleine Gruppe von Nachwuchsforschern einzustellen, darunter Studierende und Olympiade-Gewinner. Das GitHub-Repository enthält Baseline-Modelle, Evaluierungsskripte und eine öffentliche Rangliste. Die Teilnahme steht allen ab 18 Jahren in unterstützten Ländern offen und ist bis 30. April möglich.

Der Kampf um KI-Talente zwischen den großen Techkonzernen ist so hart wie nie. Meta hat in der Vergangenheit wiederholt Top-Forscher von OpenAI abgeworben, teilweise mit Vergütungspaketen von angeblich bis zu 300 Millionen Dollar.

Anzeige

Apple blockiert Updates von Vibe-Coding-Apps im App Store

Apple verhindert, dass beliebte Vibe-Coding-Apps wie Replit und Vibecode neue Versionen veröffentlichen. Der Konzern beruft sich auf bestehende Richtlinien, doch die Maßnahme trifft eine potenzielle Konkurrenz zum eigenen Ökosystem.

Pentagon plant offenbar KI-Training auf geheimen Militärdaten

Das US-Verteidigungsministerium will laut einem Bericht sichere Umgebungen einrichten, in denen KI-Firmen ihre Modelle mit klassifizierten Daten trainieren. Bisher durften Modelle geheime Daten nur lesen, nicht daraus lernen.

Anzeige

OpenAI bringt GPT-5.4 mini und nano: Schneller, fähiger, aber auch deutlich teurer

OpenAI veröffentlicht mit GPT-5.4 mini und nano zwei neue kompakte Modelle, die für Coding-Assistenten, Subagenten und Computersteuerung optimiert sind. Die Leistung nähert sich bei GPT-5.4 mini dem Vollmodell, die Preise steigen jedoch deutlich gegenüber den Vorgängern.

Anzeige

GTC 2026: Nvidia bringt mit Groq-3-LPX erstmals spezialisierte Inferenz-Hardware ins eigene Ökosystem

Eigene CPU-Racks, spezialisierte Inferenzchips, eine neue Speicherarchitektur, ein Inferenz-Betriebssystem, offene Modellallianzen und Agenten-Sicherheitssoftware: Auf der GTC 2026 füllt Nvidia die zur CES vorgestellte Vera-Rubin-Plattform mit einer Reihe neuer Bausteine.