OpenAI führt eine neue Batch API ein, die bis zu 50 Prozent Ermäßigung für asynchrone API-Aufgaben wie Zusammenfassung, Übersetzung und Bildklassifizierung bietet. Die Batch API ermöglicht es, Ergebnisse für eine große Anzahl von API-Anfragen innerhalb von 24 Stunden zu erhalten. Dazu muss eine JSONL-Datei mit den Anfragen im Batch-Format hochgeladen werden. Derzeit wird nur der Endpunkt /v1/chat/completions unterstützt. Neben der Anfragedatei und dem Endpunkt muss auch ein 24-Stunden-Zeitfenster für die Bearbeitung angegeben werden. Optional können benutzerdefinierte Metadaten zum Batch hinzugefügt werden. Die neue Batch API spart Kosten und bietet höhere Limits für asynchrone Aufgaben. OpenAI erwartet dadurch eine effizientere Nutzung seiner APIs für Anwendungen, die eine große Anzahl von Anfragen benötigen.
Chinas laxe KI-Regulierung soll heimische Industrie fördern, sagt Expertin
Angela Huyue Zhang, Juraprofessorin an der Universität Hongkong, ist der Ansicht, dass Chinas KI-Regulierung bewusst lax ist, um das Wachstum der heimischen Industrie zu fördern.
Meta AI stellt seinen KI-Assistenten in den Vordergrund. Das Unternehmen testet eine KI-gestützte Suchleiste auf Instagram, die sowohl für den Chat mit der KI als auch für die Entdeckung von Inhalten genutzt werden kann. Die Suchanfrage in der Suchleiste führt zu einer Konversation im Direktnachrichtenbereich mit der Meta-KI, wo Fragen gestellt oder vorgefertigte Prompts verwendet werden können. Ebenso könnte die KI dabei helfen, neue Inhalte auf Instagram zu entdecken, indem sie etwa Tipps für passende Reels-Videos zu einem bestimmten Thema gibt. Meta bestätigte gegenüber TechCrunch, dass es sich um ein Experiment mit Meta AI auf Instagram handele, ließ aber offen, ob die generative KI-Technologie für die Suche eingesetzt wird. Meta will zudem zeitnah sein neues Open-Source-Sprachmodell Llama 3 vorstellen.