Anzeige
Skip to content

KI-Modell DeepEyesV2 nutzt Werkzeuge statt Wissen - und schlägt größere Konkurrenz

DeepEyesV2 ist ein multimodales KI-Modell, das Bilder analysiert, Code ausführt und das Web durchsucht. Statt mit purem Wissen schlägt DeepEyesV2 größere Modelle mit intelligenter Werkzeugnutzung. Das Modell ist unter der Apache-2.0-Lizenz nutzbar.

Read full article about: KI-Pionier Yann LeCun: Anthropic schürt KI-Ängste für eigene Zwecke

Der KI-Forscher Yann LeCun wirft Anthropic politische Manipulation vor. Anlass ist ein von Anthropic gemeldeter KI-gesteuerter Cyberangriff, der laut dem Unternehmen ohne nennenswerte menschliche Steuerung ablief und ein Risiko für die Cybersicherheit darstelle. Der US-Senator Chris Murphy forderte daraufhin strengere KI-Regulierungen.

via X

LeCun, der noch bei Meta arbeitet, kritisiert diese Reaktion und wirft Akteuren wie Anthropic vor, mit zweifelhaften Studien Angst zu schüren, um strengere Regeln durchzusetzen, die offene KI-Modelle benachteiligen. Seiner Ansicht nach diene das dem Ziel, Konkurrenz durch Open Source zu verhindern. Auch Trumps KI-Berater David Sacks warf Anthropic bereits vor, mit Angstmacherei Regulierungsbehörden beeinflussen zu wollen.

Read full article about: Anthropic bringt Chatbot Claude mehr konservative Sichtweisen bei

Anthropic hat ein Werkzeug veröffentlicht, um politische Ausgewogenheit im KI-Chatbot Claude zu messen. Claude soll keine unbegründeten politischen Meinungen äußern und so gestaltet sein, dass Nutzer ihn weder als liberal noch als konservativ einordnen können. Gesteuert werden die Antworten über System-Prompts und Verstärkungslernen, das vermeintlich neutrale Reaktionen belohnt. Teil dieser Reaktionen ist etwa, traditionelle Werte und Institutionen zu respektieren. Bias wird hier also nicht aufgelöst, nur verschoben, passend zum aktuellen US-Zeitgeist.

Angeblich schneiden Claude-Modelle Opus 4.1 und Sonnet 4.5 mit 95 bzw. 94 Prozent in der Bewertungsdimension „Ausgewogenheit“ besser ab als GPT-5 (89 %), Gemini 2.5 Pro (97 %), Grok 4 (96 %) und Llama 4 (66 %). | via Anthropic

Anthropic erwähnt das zwar nicht explizit im eigenen Blog, aber die Messung dürfte eine Reaktion auf eine Anordnung der Trump-Regierung sein, dass Chatbots nicht mehr "woke" sein dürfen. Auch OpenAI steuert GPT-5 in diese Richtung, und entspricht damit Vorgaben der US-Regierung. Anthropics Bewertungsmethode ist Open Source.

Anzeige

OpenAI veröffentlicht Prompting‑Guide für neues GPT‑5.1‑Modell

OpenAIs neues 5.1‑Modell soll besonders präzise auf Nutzereingaben reagieren. Ein umfangreicher Prompting‑Guide zeigt, wie Entwickler das System steuern können. OpenAI gibt unter anderem Prompt-Tipps, um Geschwätzigkeit zu reduzieren und die Vollständigkeit bei agentischen Aufgaben zu verbessern.

OpenAIs Reddit-Fragerunde zu GPT-5.1 war ein absolutes Karma-Massaker

Eigentlich wollte OpenAI mit KI‑Fans bei Reddit über neue Modelle diskutieren. Doch das AMA kippte schnell in eine Welle aus Kritik an Modellpolitik und Sicherheitsvorgaben. Wahrscheinlich meldete sich primär eine laute Minderheit zu Wort; zugleich zeigt der Vorgang, wie stark sich einige Nutzer inzwischen emotional an KI‑Modelle binden.

Anzeige
Read full article about: Google verbessert NotebookLM mit Deep Research und mehr

Google startet Deep Research in NotebookLM. Mit Deep Research durchsucht das Tool laut Google Hunderte Webseiten und erstellt daraus einen strukturierten Bericht mit kommentierten Quellen. Nutzer aktivieren die Funktion über das Quellenfeld, indem sie „Web“ auswählen und dann zwischen „Deep Research“ für ausführliche Analysen oder „Fast Research“ für schnelle Suchen wählen. Deep Research kann sehr nützlich sein, macht jedoch wie andere LLM-basierte Systeme auch Fehler.

Zusätzlich unterstützt NotebookLM jetzt weitere Dateiformate. Laut Google lassen sich Google Sheets, Drive-Links, PDFs aus Drive, Word-Dokumente und Bilder hochladen. Das System extrahiert Informationen aus Bildern und kann sie beispielsweise chatbar machen. Außerdem rollt Google eine Chat-Verlaufsfunktion aus. Nutzer können Gespräche beenden und später fortsetzen. Der Verlauf kann jederzeit gelöscht werden.

Zuvor stellte Google stilistische Anpassungen für Audio- und Videoformate in NotebookLM vor. Das ermöglicht mutmaßliche Urheberrechtsverstöße, wie sie auch bei anderen generativen KI-Werkzeugen auftreten.

Read full article about: Linkedin startet generative KI-Suche für Personen

LinkedIn startet in den USA eine neue KI-gestützte Suche für Premium-Mitglieder. Laut LinkedIn soll die Funktion helfen, schneller passende Personen zu finden. Statt fester Schlagworte können Nutzer nun einfache Sprache verwenden, etwa „jemand, der ein kleines Unternehmen aufgebaut hat“ oder „eine Fachkraft für digitales Marketing“. Zuvor mussten genaue Angaben wie Firmenname oder Jobtitel vorliegen, sonst lieferte die Suche kaum passende Treffer.

Die Funktion nutzt nach Angaben von LinkedIn die eigenen Daten und soll die Suche flexibler machen. Eine Ausweitung auf weitere Länder ist geplant. LinkedIn hat zudem begonnen, Daten von Nutzern für KI-Training einzusetzen. Wer das nicht möchte, muss dem in den Einstellungen widersprechen.

Read full article about: KI auf Abruf: Mozilla will Firefox ein "KI-Fenster" spendieren

Firefox testet ein neues KI-Feature namens „AI Window“, das Nutzerinnen und Nutzern erlaubt, auf Wunsch mit einem KI-Assistenten im Browser zu interagieren. Dieses zusätzliche Fenster soll als steuerbarer Chat-Bereich dienen, in dem ein KI-Assistent beim Surfen hilft.

Bild: Mozilla

Laut Mozilla entscheiden Nutzer, ob, wann und wie sie diese Funktion nutzen, und können sie jederzeit wieder abschalten. Das soll Firefox von Browsern wie OpenAIs Atlas abgrenzen, bei denen KI entweder ständig aktiv ist oder ganz fehlt, oder Nutzer laut Mozilla in endlose Chats führt. Firefox solle als unabhängiger, schneller, sicherer und privater Browser bleiben, während KI nur eine Zusatzoption sei, gestaltet nach Prinzipien wie Transparenz und Nutzerkontrolle. Interessierte können sich über eine Warteliste anmelden.

Anzeige