Anzeige
Short

Yann LeCun, Chief Scientist von Metas KI-Forschungslabor FAIR, steht im Mittelpunkt einer neuen Dokumentation der Serie "AI Stories". In dem Interview spricht LeCun in Paris über seine Anfänge mit neuronalen Netzen, seine Zusammenarbeit mit Jeff Hinton und die Entwicklung von Deep Learning und Open-Source-KI.

"[Wir sehen keinen] Wettbewerb zwischen Regionen, sondern eher einen Wettbewerb zwischen der offenen Forschung, der Open‑Source‑Welt und der proprietären Welt", sagt LeCun. Seine These: Die eigentliche Dynamik der KI-Entwicklung liegt nicht bei Nationalstaaten, sondern bei offenen Systemen, die Innovation demokratisieren.

Sein Chef Mark Zuckerberg deutete zuletzt an, dass Meta von seiner Open-Source-Strategie mit Llama abrücken könnte. Ob Meta dann noch der richtige Arbeitgeber für LeCun ist?

Short

Cohere erhält 500 Millionen US-Dollar in einer neuen Finanzierungsrunde und wird mit 6,8 Milliarden US-Dollar bewertet. Das kanadische Unternehmen entwickelt KI-Sprachmodelle und -Dienste für Geschäftskunden.

Gleichzeitig erweitert Cohere sein Führungsteam: Joelle Pineau wird neue Chief AI Officer. Sie war zuvor Vice President für KI-Forschung bei Meta und leitete das FAIR-Team. Pineau ist Professorin an der McGill University und Mitglied des Mila-Instituts in Montréal, wo sie auch für Cohere tätig sein wird.

Die letzte Finanzierungsrunde stammt aus dem Juli 2024: ebenfalls 500 Millionen US-Dollar bei einer Bewertung von 5,5 Milliarden US-Dollar. Zu den wichtigsten Investoren zählten der kanadische Pensionsfonds PSP Investments, Cisco, Fujitsu, AMD und die Exportkreditagentur EDC.

Anzeige
Anzeige
Short

Claude Sonnet 4 von Anthropic unterstützt jetzt bis zu eine Million Tokens Kontext auf der Anthropic API, Amazon Bedrock und bald auch auf Google Cloud Vertex AI.

Das ist fünfmal mehr als zuvor und ermöglicht laut Anthropic, ganze Codebasen oder viele Forschungsdokumente in einem Schritt zu verarbeiten. Zielgruppen sind Entwickler, die etwa umfangreiche Quellcodes analysieren oder große Dokumentensammlungen zusammenfassen wollen. Die Funktion befindet sich in der öffentlichen Betaphase für Kunden mit Tier-4- oder individuellen API-Limits.

Die Preise steigen mit viel Kontext allerdings deutlich: Für Eingaben über 200.000 Tokens verlangt Anthropic doppelt so viel wie bei kleineren Anfragen – $6 statt $3 pro Million Tokens. Auch die Ausgabe wird teurer: Statt $15 werden hier $22,50 pro Million Tokens fällig. Um Kosten zu senken, empfiehlt Anthropic den Einsatz von „Prompt Caching“ und „Batch Processing“. Letzteres kann laut Anbieter bis zu 50 Prozent Einsparung bringen.

Anzeige
Anzeige
Anzeige
Anzeige
Short

Ab sofort wählt ChatGPT mit GPT-5 automatisch das passende Modell für eine Aufgabe aus – eine hilfreiche Funktion für Einsteiger (wenn sie denn funktioniert).

Fortgeschrittene Nutzer könnten diese Automatik jedoch als intransparent empfinden. Wer lieber selbst entscheidet, kann in den Einstellungen den Zugriff auf sogenannte "Legacy"-Modelle aktivieren. Anschließend steht im Modellwähler unter "Andere Modelle" wieder die manuelle Auswahl wie gewohnt zur Verfügung. Das gilt allerdings nur für die bisherigen Modelle, die GPT-5-Varianten "Thinking" und "Pro" sind nur im Pro-Account (hier im Screenshot) gezielt auswählbar.

Google News