Anzeige
Skip to content
Read full article about: Deepseek dominiert bei chinesischen Militär-Ausschreibungen

Chinas Militär nutzt die KI-Modelle heimischer Unternehmen wie Deepseek oder Alibaba für autonome Kampfsysteme, zeigt eine Analyse von Reuters.

Hunderte Forschungsarbeiten, Patente und Ausschreibungen der Volksbefreiungsarmee belegen demnach den systematischen Einsatz von KI für militärische Zwecke. Dazu gehören Roboterhunde, Drohnenschwärme mit autonomer Zielerkennung und Echtzeit-Schlachtfeldanalyse. Chinesische Militäreinrichtungen nutzen zudem laut Reuters weiterhin Nvidia-Chips, darunter auch unter US-Exportkontrollen stehende A100-Modelle, wie 35 Patentanträge zeigen.

Ein Dutzend Ausschreibungen der Armee verweisen dabei laut Reuters auf Deepseek, nur eine auf Alibabas Qwen. Forscher der Xi'an Technological University gaben etwa an, ihr Deepseek-System analysiere 10.000 Kampfszenarien in 48 Sekunden - herkömmliche Planungsteams bräuchten dafür 48 Stunden. Das US-Außenministerium warnte kürzlich, Deepseek unterstütze Chinas Militär- und Geheimdienstoperationen.

Drei Faktoren machen KI-Agenten deutlich intelligenter

Forschende identifizieren Datenqualität, Algorithmus-Design und Reasoning-Modi als Schlüssel für erfolgreiches KI-Training. Ein daraus entwickeltes 4-Milliarden-Parameter-Modell schlägt 32-Milliarden-Parameter-Konkurrenten.

ChatGPT als Suchmaschine für Arbeitsdaten: OpenAI führt "Company Knowledge" ein

OpenAI hat mit „Company Knowledge“ eine neue Funktion für ChatGPT vorgestellt, die Business-, Enterprise- und Education-Nutzern erlaubt, auf Daten aus Slack, SharePoint, Google Drive und GitHub zuzugreifen.

Eine große Schwachstelle solcher universellen Suchsysteme lässt OpenAI unerwähnt.

Google erweitert Earth AI: Neue KI-Funktionen für Katastrophenhilfe und Umweltüberwachung

Google verknüpft seine geospatiale KI Earth AI mit Gemini-Sprachmodellen und macht sie breiter zugänglich. Das System soll helfen, Überschwemmungen, Dürren und Krankheitsausbrüche schneller zu erkennen und gezielter darauf zu reagieren.

Read full article about: OpenAI warnt vor Sicherheitsrisiken im neuen ChatGPT-Browser Atlas

OpenAIs neuer Browser ChatGPT Atlas birgt Sicherheitsrisiken, warnt OpenAI-Sicherheitschef Dane Stuckey.

Ein zentrales Problem sind sogenannte Prompt Injections: Angreifer verstecken schädliche Anweisungen auf Webseiten oder in E-Mails, um den Agenten zu manipulieren. Die Attacken reichen von der Beeinflussung von Kaufentscheidungen bis zum Diebstahl privater Daten wie E-Mail-Inhalten oder Zugangsdaten.

OpenAI hat laut Stuckey umfangreiche Tests durchgeführt, neue Trainingsmethoden eingesetzt und Schutzmechanismen implementiert. Dennoch sei Prompt Injection ein ungelöstes Sicherheitsproblem. Als Schutzmaßnahmen bietet Atlas einen "Logged out Mode" ohne Zugriff auf Nutzerdaten und einen "Watch Mode" für sensible Webseiten, der aktive Überwachung durch den Nutzer erfordert. OpenAI arbeitet laut Stuckey an weiteren Sicherheitsfunktionen und schnellen Reaktionssystemen gegen Angriffe.

Read full article about: Apple sucht KI-Forscher für Reasoning - trotz eigener Zweifel an der Technologie

Apple hat kürzlich eine viel beachtete Studie veröffentlicht, in der eigene Forscher grundlegende Schwächen von Reasoning-Modellen aufzeigten. Nun sucht das Unternehmen dennoch eine Forscherin oder einen Forscher mit Schwerpunkt auf genau diesen Themen.

Die Stelle im MIND-Team in Seattle richtet sich an Fachleute für Reasoning, Planung, Tool-Nutzung und agentenbasierte LLMs. Gefordert wird Erfahrung mit großskaligem Modelltraining, PyTorch, RAG, multimodalen Modellen, Jax und hardwareoptimierter Inferenz. Ziel ist die Entwicklung neuer LLM- und VLM-Architekturen mit höherer Genauigkeit und besserer Effizienz.

Manche glauben an die KI-Bubble, andere an baldige Superintelligenz

Über 1000 Expert:innen und Persönlichkeiten fordern ein Verbot der Entwicklung von Superintelligenz, solange deren Sicherheit nicht wissenschaftlich nachgewiesen und gesellschaftlich legitimiert ist.