Anzeige
Anzeige
Short

Meta AI stellt seinen KI-Assistenten in den Vordergrund. Das Unternehmen testet eine KI-gestützte Suchleiste auf Instagram, die sowohl für den Chat mit der KI als auch für die Entdeckung von Inhalten genutzt werden kann. Die Suchanfrage in der Suchleiste führt zu einer Konversation im Direktnachrichtenbereich mit der Meta-KI, wo Fragen gestellt oder vorgefertigte Prompts verwendet werden können. Ebenso könnte die KI dabei helfen, neue Inhalte auf Instagram zu entdecken, indem sie etwa Tipps für passende Reels-Videos zu einem bestimmten Thema gibt. Meta bestätigte gegenüber TechCrunch, dass es sich um ein Experiment mit Meta AI auf Instagram handele, ließ aber offen, ob die generative KI-Technologie für die Suche eingesetzt wird. Meta will zudem zeitnah sein neues Open-Source-Sprachmodell Llama 3 vorstellen.

Video: pranavdesigns via threads

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Short

Meta kündigt an, ab Mai 2024 KI-generierte Inhalte auf Facebook, Instagram und Threads mit dem Label "Made with AI" zu kennzeichnen. Die Änderungen sind laut Meta das Ergebnis von Konsultationen mit Experten und öffentlichen Meinungsumfragen, die eine breitere Kennzeichnung von manipulierten Medien fordern. Die Kennzeichnung soll für KI-generierte Videos, Audios und Bilder gelten, die aufgrund von branchenweit bekannten Signalen oder Nutzerhinweisen erkannt werden. Vorangegangen war die Einführung der "Imagined with AI"-Kennzeichnung für fotorealistische Bilder, die mit Meta-KI erzeugt wurden. Ziel ist es, den Nutzern mehr Kontext und Informationen zur Verfügung zu stellen, damit sie Inhalte besser bewerten können. Inhalte, die gegen die Community-Standards verstoßen, werden weiterhin entfernt.

Short

In einer Stellungnahme für die US-Behörde NTIA argumentiert Meta, dass Open-Source-KI zu besseren und sichereren Produkten, schnellerer Innovation und einem größeren Markt führe. Offene Modelle würden den Zugang zu KI demokratisieren und Chancen für alle schaffen, nicht nur für Technologiegiganten. Geschlossene Modelle seien zudem oft nur scheinbar sicher. Schwachstellen könnten lange unentdeckt bleiben. Sollte ein geschlossenes Modell gehackt werden, verfüge nur der Modellentwickler über die notwendigen Informationen, um den Schaden zu begrenzen, und dieses Wissen könne begrenzt sein. Meta plädiert für ein "Spektrum der Offenheit", bei dem die Entwickler selbst entscheiden, wie sie ihre Modelle veröffentlichen. Würden die USA die Möglichkeiten von Unternehmen, Modelle als Open Source zu veröffentlichen, einschränken, so Meta, würde dies die Interessen der USA untergraben und anderen Ländern die Führung überlassen.

Google News