Anzeige
Short

Googles Suchchefin Liz Reid behauptet, dass KI-Antworten den Web-Traffic nicht verdrängen. Das "organische Klickvolumen" sei im Vergleich zum Vorjahr "relativ stabil", so Reid. Konkrete Zahlen liefert Google wie üblich nicht.

"Die durchschnittliche Klickqualität hat zugenommen und wir senden tatsächlich etwas mehr hochwertige Klicks an Websites als noch vor einem Jahr", schreibt Reid in einem Blogpost zur Rolle von generativer KI in der Suche. Als "hochwertige Klicks" definiert Google solche, "bei denen Nutzer:innen nicht schnell zurückklicken – typischerweise ein Signal dafür, dass sie an der Website interessiert sind".

Die Aussage, dass KI-Antworten den Traffic nicht reduzieren, steht im Widerspruch zu Drittanbieter-Analysen, die teils massive Traffic-Rückgänge messen, etwa durch den Rückgriff auf KI-generierte Antworten direkt in den Suchergebnissen. Diese Untersuchungen nutzten laut Reid fehlerhafte Methoden und würden übertrieben dramatische Traffic-Rückgänge nahelegen.

Short

Google Labs hat den KI-Coding-Agenten Jules nun öffentlich gestartet. Er war seit Mai in der Testphase. Jules führt, ähnlich wie Claude Code, viele Aufgaben gleichzeitig aus und soll Entwickler bei Routinearbeiten entlasten. Neu sind laut Google eine einfachere Bedienung, die Wiederverwendung früherer Aufgaben und visuelle Rückmeldungen beim Testen von Webanwendungen. Die Software basiert auf Gemini 2.5 und ist in mehreren Preisstufen im Gemini-Abo erhältlich.

Ebenfalls neu ist Gemini CLI GitHub Actions – ein kostenloses KI-Werkzeug, das direkt in Repositories arbeitet. Es hilft bei der Bearbeitung von Issues, prüft Codeänderungen und kann Aufgaben per @gemini-cli übernehmen. Die Lösung wurde mit Fokus auf Sicherheit und Kontrolle entwickelt.

Anzeige
Anzeige
Short

Anthropic hat auf GitHub ein neues Open-Source-Tool veröffentlicht, das automatisierte Sicherheitsprüfungen für Programmcode durchführt. Die GitHub Action "Claude Code Security Reviewer" nutzt das KI-Modell Claude, um Änderungen in Pull Requests gezielt auf Sicherheitslücken zu analysieren. Laut Projektbeschreibung erkennt das Tool sicherheitsrelevante Schwachstellen kontextbezogen und unabhängig von der Programmiersprache. Es kommentiert automatisch in der jeweiligen Code-Diskussion, filtert mutmaßliche Fehlalarme und berücksichtigt nur geänderte Dateien. Das Tool steht unter MIT-Lizenz und ist öffentlich auf GitHub verfügbar.

Short

Microsoft stellt mit Project Ire ein KI-System vor, das Softwaredateien automatisch analysiert und bewertet, ob sie Schadsoftware enthalten. Die KI nutzt Werkzeuge zum Reverse Engineering, um den Programmcode zu untersuchen, erstellt daraus eine Beweiskette und entscheidet, ob die Datei gefährlich ist. Entwickelt wurde das System von Microsoft Research, Defender Research und Discovery & Quantum. In Tests erkannte Ire 90 Prozent der Malware in Windows-Treibern korrekt und erzeugte nur wenige Fehlalarme. In einem weiteren Test mit schwer einordenbaren Dateien erreichte das System eine Präzision von 89 Prozent. Project Ire soll künftig als „Binary Analyzer“ in Microsoft Defender integriert werden und Sicherheitsanalysten bei der täglichen Arbeit entlasten.

Anzeige
Anzeige
Anzeige
Anzeige
Google News