Anzeige
Skip to content
Read full article about: Google Deepmind präsentiert Wetter-KI der nächsten Generation

Google Deepmind hat WeatherNext 2 vorgestellt, das laut Unternehmen bei 99,9 Prozent aller meteorologischen Variablen und Vorhersagezeiträume besser abschneidet als das Vorgängermodell. Das KI-System übertrifft die erste WeatherNext-Generation bei Messgrößen wie Temperatur, Wind und Luftfeuchtigkeit über Zeiträume von null bis 15 Tagen. Es generiert laut Google Vorhersagen achtmal schneller und mit einer Auflösung von bis zu einer Stunde. Dafür berechnet das Modell hunderte mögliche Wetterszenarien in weniger als einer Minute auf einer einzelnen TPU – eine Aufgabe, für die herkömmliche physikbasierte Systeme auf Supercomputern Stunden benötigen würden.

Das Modell nutzt eine neue Technik namens Functional Generative Network, die Störsignale in die Architektur einbaut, um physikalisch realistische Vorhersagen zu gewährleisten. WeatherNext ist bereits in die Google-Suche, Gemini, Pixel Weather und die Weather-API integriert, Google Maps  soll folgen.

Deepmind forscht bereits seit Jahren intensiv daran, durch Künstliche Intelligenz genauere Wettervorhersagen zu erzielen. Im Dezember 2024 stellte das Forschungslabor dazu GenCast vor, ein KI-Modell auf Basis von Diffusionstechnologie.

KI-Modell DeepEyesV2 nutzt Werkzeuge statt Wissen - und schlägt größere Konkurrenz

DeepEyesV2 ist ein multimodales KI-Modell, das Bilder analysiert, Code ausführt und das Web durchsucht. Statt mit purem Wissen schlägt DeepEyesV2 größere Modelle mit intelligenter Werkzeugnutzung. Das Modell ist unter der Apache-2.0-Lizenz nutzbar.

Read full article about: Cursor verdreifacht seinen Wert beinahe innerhalb von fünf Monaten

Das US-Start-up Anysphere, das den beliebten KI-Code-Editor Cursor entwickelt, hat eine Series-D-Finanzierungsrunde über 2,3 Milliarden Dollar abgeschlossen. Die Bewertung von 29,3 Milliarden Dollar liegt damit beinahe beim Dreifachen der 9,9 Milliarden Dollar, die das Unternehmen nach der letzten Runde im Juni über 900 Millionen wert war. Erst vor wenigen Wochen erschien mit Cursor 2.0 ein großes Update, das die Nutzung autonomer KI-Agenten noch mehr in den Fokus rückte sowie ein eigenes Coding-Modell einführte, statt lediglich Modelle von OpenAI, Anthropic und Co. anzubinden.

An der Finanzierungsrunde beteiligten sich bisherige Investoren wie Accel und Andreessen Horowitz, aber auch neue wie Nvidia und Google. Cursors Jahresumsatz beziffert sich nach eigenen Angaben auf über eine Milliarde US-Dollar und das Unternehmen beschäftigt mehr als 300 Mitarbeitende. Ein Börsengang sei nicht geplant. Während KI-Coding-Tools wie Cursor sich in Unternehmen immer weiter verbreiten, zeigen aktuelle Untersuchungen, dass die Produktivität nur begrenzt steigt und Entwickler dem generierten Code selten vertrauen.

Baidus neues ERNIE-Modell bearbeitet Bilder während des Denkprozesses

Baidu hat mit ERNIE-4.5-VL-28B-A3B-Thinking ein Reasoning-Model veröffentlicht, das Bilder während des Denkprozesses ver- und bearbeiten kann, etwa einzoomen, um Text besser lesen zu können.

ChatGPTs API und Web-Version nutzen laut Studie völlig verschiedene Quellen

Eine aktuelle Studie zeigt deutliche Unterschiede in ChatGPTs Nachrichtenempfehlungen: Während die API überwiegend auf enzyklopädische Inhalte verweist, bevorzugt das Web-Interface lizenzierte Medien – in Deutschland häufig Angebote aus dem Springer-Verlag.

Wie genau OpenAIs KI-Modell seine Quellen auswählt, bleibt jedoch weitgehend intransparent und erinnert in seiner Undurchsichtigkeit an Googles Vorgehen, mit dem Unterschied, dass Google zumindest darauf ausgelegt ist (oder war), dass Nutzer die Originalquellen tatsächlich anklicken.

KI-generierte OP-Videos: Optisch überzeugend, medizinisch katastrophal

Forschende haben Googles neueste Video-KI Veo 3 mit chirurgischen Aufnahmen getestet – und eine deutliche Kluft zwischen optischer Brillanz und medizinischem Verständnis festgestellt. Das System erzeugt verblüffend plausible Bilder, die fachlich oft keinen Sinn ergeben.

Studie deckt massive Schwächen in KI-Benchmarks auf

Ein internationales Forschungsteam hat die Validität von Large-Language-Model-Benchmarks systematisch untersucht und dabei erhebliche Mängel aufgedeckt. Die Analyse von 445 Benchmark-Artikeln aus führenden KI-Konferenzen zeigt, dass fast alle Bewertungsverfahren fundamentale methodische Schwächen aufweisen.