Anzeige
Skip to content

Deepseek V3.2 soll GPT-5 und Gemini 3 Pro Konkurrenz machen

Deepseek‑V3.2 tritt nicht nur als Open‑Weight‑Modell an, sondern punktet besonders in agentischen Szenarien und beim Umgang mit MCP‑Servern – und setzt damit Branchenriesen wie OpenAI weiter unter Druck.

Read full article about: Programmierer mit KI-Hilfe stellen laut Studie weniger Fragen und lernen oberflächlicher

Eine Studie der Universität des Saarlandes zeigt, dass Entwickler Vorschläge von KI‑Assistenten weniger kritisch prüfen. Das Team um Sven Apel stellte fest, dass Lernprozesse schwächer ausfallen, wenn Studierende beim Programmieren mit GitHub Copilot arbeiten. Apel sagte, dass menschliche Paare mehr Fragen stellen, breiter diskutieren und stärker voneinander lernen. In den KI‑Teams drehte sich vieles nur um den Code.

Apel et al.

Die Forscher ließen 19 Studierende in Paaren arbeiten: sechs mit Menschen, sieben mit KI. Laut Apel übernahmen die KI‑Nutzer Vorschläge oft einfach, weil sie annahmen, dass der Code schon passt. Er warnte, dass so spätere Fehler entstehen können, die viel Arbeit verursachen. Apel betonte, dass KI bei einfachen Aufgaben hilft, komplexe Probleme aber weiter menschlichen Austausch benötigen.

Microsoft veröffentlicht winziges Modell für lokale KI-Computersteuerung

KI soll Wissensarbeit automatisieren – auch, indem sie unsere Computer steuert. Bisher gelingt das nur mäßig: Die Systeme arbeiten ineffektiv und bringen erhebliche Sicherheitsrisiken mit sich. Fara-7B von Microsoft löst diese Probleme zwar nicht, steigert aber die Effizienz. Das kompakte Modell läuft lokal auf dem Rechner.

Ilya Sutskever sieht KI-Entwicklung am Wendepunkt und schweigt über seine Lösung

Update: Ilya Sutskever relativiert seine Aussagen zum „Ende der Skalierung“.

Der SSI-Gründer und ehemalige OpenAI-Chefwissenschaftler sieht die KI-Entwicklung an einem Wendepunkt. Anstelle immer größerer Modelle sei nun wieder fundamentale Forschung gefragt. Modelle müssten ähnlich wie Menschen effizienter lernen. Ideen, wie das möglich sei, habe er, doch lebe man nun in einer Welt, in der man nicht mehr frei darüber reden könne.

Forschende manipulieren X-Feed mit KI, um politische Polarisierung zu steuern

Eine neue Studie in Science zeigt, dass die Sortierung von Social-Media-Feeds direkten Einfluss auf die politische Feindseligkeit hat. Den Forschenden gelang der Nachweis durch einen technischen Trick, der die Kooperation der Plattform überflüssig machte.

Qwen3-VL analysiert zweistündige Videos und findet fast jedes Detail

Wenige Monate nach der Veröffentlichung legt Alibaba nun den detaillierten technischen Bericht zu Qwen3-VL vor. Das offene, multimodale KI-Modell zeigt in Tests überlegene Leistungen bei mathematischen Aufgaben mit Bildern und kann stundenlange Videos analysieren.

Poesie als Sicherheitslücke: Gedichte hebeln Sprachmodelle aus

Eine neue Studie zeigt: Das Umformulieren schädlicher Anfragen in Gedichtform funktioniert als universelle Jailbreak-Methode. Bei mehr als 25 führenden Sprachmodellen erzielten poetische Prompts Erfolgsquoten von bis zu 100 Prozent. Das unterstreicht einmal mehr, wie ungelöst das Thema LLM-Cybersecurity ist – wer rechnet schon mit Gedichten als Angriffstaktik?

Sprachmodelle denken anders: Studie zeigt tiefe Lücke zu menschlichem Reasoning

Wie denken KI-Modelle wirklich – und wie sehr ähnelt das unserem eigenen Denken? Für meinen neuen Artikel habe ich mir eine der bislang größten Analysen zu Denkspuren großer Sprachmodelle angeschaut: 171.485 Reasoning-Verläufe von 17 Modellen, dazu 54 laut ausgesprochene Lösungswege von Menschen.

Die Ergebnisse sind überraschend nüchtern: Selbst bei komplexen Aufgaben greifen die Modelle meist zu simplen Standardstrategien. Eine neue, kognitionswissenschaftlich inspirierte Typologie von Denkprozessen zeigt, welche Fähigkeiten ihnen fehlen, und wann „mehr Nachdenken im Prompt“ tatsächlich etwas bringt und wann nicht.