Anzeige
Short

Die BBC droht dem US-KI-Start-up Perplexity mit rechtlichen Schritten wegen angeblich unerlaubter Nutzung von BBC-Inhalten zum Training von KI-Systemen. In einem Schreiben fordert die BBC unter anderem das Ende des sogenannten "Scrapings", die Löschung gespeicherter Inhalte und eine finanzielle Entschädigung. Die BBC kritisiert, dass Perplexity Inhalte wortwörtlich übernommen habe, damit eigene Angebote unterlaufe und sein Standard-KI-Modell Sonar mit BBC-Inhalten trainiert zu haben. Laut BBC wiesen zudem 17 Prozent der Antworten des Perplexity-Chatbots in einer internen Analyse erhebliche Fehler auf. Perplexity weist die Vorwürfe zurück, ist aber bereits in Rechtsstreit mit anderen Medien und führt mit ausgewählten Verlagen Lizenzgespräche.

Anzeige
Anzeige
Short

"The OpenAI Files" ist eine öffentlich zugängliche Plattform, die dokumentierte Kritik an OpenAIs Führungsstruktur, Unternehmenskultur und strategischer Ausrichtung bündelt. Veröffentlicht am 18. Juni 2025, enthält das Projekt Berichte ehemaliger Mitarbeitender, Analysen zu geplanten Umstrukturierungen sowie Einschätzungen zur Rolle von CEO Sam Altman. Im Zentrum steht die Frage, ob OpenAI seine gemeinnützige Mission zugunsten unbegrenzter Investorenrenditen aufgibt. Die Website bietet Einsicht in interne Dokumente und fordert Veränderungen in Transparenz, Sicherheit und Aufsicht. Ziel ist es laut Betreiber, eine öffentliche Debatte über OpenAIs Verantwortung bei der Entwicklung leistungsstarker KI-Modelle anzustoßen.

Anzeige
Anzeige
Anzeige
Anzeige
Short

ChatGPT hat deutlich gegen Ataris Video Chess Engine von 1979 verloren. Während der Chatbot zwar solide Ratschläge gab und Taktiken erklärte, vergaß er gefangene Figuren, verwechselte Türme mit Läufern und verlor allmählich den Überblick über die Spielsituation. Die 1,19-MHz-Engine von Atari zeigte diese Schwächen nicht - sie behielt den Spielstand im Blick und hielt sich an die Regeln. Das reichte für den Sieg.

Kritiker sagen, dass Carusos Experiment Äpfel mit Birnen vergleicht, aber es unterstreicht eine zentrale Schwäche der LLMs: ChatGPT hat nicht verloren, weil es ihm an Wissen mangelte. Es hat verloren, weil es sich nicht erinnern konnte. Symbolische Systeme vergessen das Spielfeld nicht.

"Unabhängig davon, ob wir spezialisierte oder allgemeine KI vergleichen, war ihre Unfähigkeit, einen grundlegenden Zustand des Brettes von Zug zu Zug zu behalten, sehr enttäuschend. Ist das wirklich etwas anderes als das Vergessen anderer wichtiger Zusammenhänge in einem Gespräch?"

Robert Jr. Caruso

Google News