Anzeige
Short

ChatGPT kann jetzt über einen SharePoint-Konnektor auf Unternehmensdaten zugreifen. Die Funktion ist in der Beta-Version für Nutzer von ChatGPT Plus, Pro und Team verfügbar. Damit kann ChatGPT Inhalte aus mehreren SharePoint-Seiten analysieren, zusammenfassen und mit Quellenangaben versehen. Beispielanwendungen seien etwa abteilungsübergreifende Zusammenfassungen von Strategiepapieren oder das Erstellen von Kundenprofilen aus eigenen Daten vermischt mit Web-Daten. Laut OpenAI greift ChatGPT nur auf Inhalte zu, für die Nutzer Berechtigungen haben. Die Daten werden standardmäßig nicht zum Training verwendet. Eine Unterstützung für Enterprise-Kunden soll bald folgen. Die Konfiguration erfolgt über die ChatGPT-Einstellungen unter "Connected Apps". Vergangene Woche hatte OpenAI Deep Research für Github ausgerollt.

Anzeige
Anzeige
Short

US-Präsident Donald Trump hat Shira Perlmutter, Leiterin des US-Copyright-Office, entlassen – kurz nach Veröffentlichung eines Berichts, der eine pauschale "Fair Use"-Regelung für KI-Trainingszwecke ablehnt. Diese Haltung widerspricht Interessen des Trump-Vertrauten Elon Musk und weiten Teilen der KI-Branche. Joseph Morelle, ranghöchster Demokrat im Ausschuss für Verwaltung des Repräsentantenhauses, kritisiert den Schritt als rechtswidrig. Perlmutter war seit 2020 im Amt. Ihre Entlassung kurz nach Veröffentlichung des kritischen Berichts sei "sicher kein Zufall", so Morelle.

Anzeige
Anzeige
Short

Eine Analyse von Artificial Analysis zeigt die KI-Preissteigerung durch Reasoning-Prozesse am Beispiel von Googles Gemini Flash 2.5. Die Betriebskosten des Modells sind 150-mal höher als bei Gemini Flash 2.0. Grund dafür sind deutlich teurere Ausgabetoken – 3,5 US-Dollar pro Million Token mit Reasoning, im Vergleich zu 0,4 Dollar bei 2.0 – sowie eine 17-fach höhere Token-Nutzung bei den Tests. Gemini 2.5 Flash verbraucht damit so viele Token für logische Schlussfolgerungen wie kein anderes Modell. OpenAIs o4-mini ist pro Token zwar teurer, verbrauchte im Benchmark aber weniger Token, was zu geringeren Gesamtkosten führte.

Balkendiagramm mit dem Titel „Cost to Run Artificial Analysis Intelligence Index“. Es zeigt die Gesamtkosten in US-Dollar, um alle Tests im Artificial Analysis Intelligence Index mit verschiedenen KI-Modellen durchzuführen. Die Balken sind in drei Farben unterteilt: Input (blau), Reasoning (lila), Output (grün).Links stehen die teuersten Modelle:  

GPT-3 ($1951),  

Claude 3 Opus ($1485),  

Gemini 2.5 Pro ($844).

In der Mitte:  

Gemini 2.5 Flash mit Reasoning ($445),  

o4-mini (high) ($323).

Rechts die günstigsten Modelle:  

Gemini 2.0 Flash ($3),  

Llama 3 8B ($2).

Ein lila Pfeil darüber zeigt den Kostenunterschied zwischen Gemini 2.0 Flash und Gemini 2.5 Flash mit Reasoning und hebt „150x“ hervor. Quelle ist „Artificial Analysis“.
Die Betriebskosten für Googles Gemini 2.5 Flash mit aktiviertem Reasoning sind 150-mal höher als bei Gemini 2.0 Flash. | Bild: Artificial Analysis
Anzeige
Anzeige
Short

Google führt beim Sprachmodell Gemini 2.5 "implizites Caching" ein. Damit werden wiederkehrende Inhalte automatisch erkannt und nur einmal berechnet, was die Kosten für Entwickler laut Google um bis zu 75 Prozent senken kann. Im Gegensatz zum bisherigen expliziten Caching müssen Nutzer dafür keinen eigenen Cache mehr erstellen. Um die Chance auf Kosteneinsparungen zu erhöhen, empfiehlt Google, den stabilen Teil eines Prompts – also z. B. die Systemanweisung – am Anfang zu platzieren und erst danach nutzerspezifische Eingaben wie Fragen einzufügen. Die Funktion gilt für Gemini 2.5 Flash ab 1024 Tokens und für Pro-Versionen ab 2048 Tokens. Weitere Details und Empfehlungen zur Nutzung stehen in der Gemini-API-Dokumentation.

Google News