Anzeige
Anzeige
Anzeige
Short

OpenAI veröffentlicht eine Demo für einen KI-gestützten UI-Testagenten auf GitHub, der automatisiert Frontends testet. Das Tool basiert auf dem OpenAI Computer-Using Agent (CUA) und dem Open-Source-Framework Playwright. Es kann selbstständig auf Basis von Beschreibungen Testfälle erstellen, durchführen und auswerten. Ziel ist laut OpenAI, die Effizienz und Qualität von Softwaretests zu verbessern, indem KI-Modelle den gesamten Testprozess unterstützen. Das Projekt ist derzeit noch eine Konzeptstudie.

Bild: OpenAI
Anzeige
Anzeige
Short

ChatGPT hat deutlich gegen Ataris Video Chess Engine von 1979 verloren. Während der Chatbot zwar solide Ratschläge gab und Taktiken erklärte, vergaß er gefangene Figuren, verwechselte Türme mit Läufern und verlor allmählich den Überblick über die Spielsituation. Die 1,19-MHz-Engine von Atari zeigte diese Schwächen nicht - sie behielt den Spielstand im Blick und hielt sich an die Regeln. Das reichte für den Sieg.

Kritiker sagen, dass Carusos Experiment Äpfel mit Birnen vergleicht, aber es unterstreicht eine zentrale Schwäche der LLMs: ChatGPT hat nicht verloren, weil es ihm an Wissen mangelte. Es hat verloren, weil es sich nicht erinnern konnte. Symbolische Systeme vergessen das Spielfeld nicht.

"Unabhängig davon, ob wir spezialisierte oder allgemeine KI vergleichen, war ihre Unfähigkeit, einen grundlegenden Zustand des Brettes von Zug zu Zug zu behalten, sehr enttäuschend. Ist das wirklich etwas anderes als das Vergessen anderer wichtiger Zusammenhänge in einem Gespräch?"

Robert Jr. Caruso

Anzeige
Anzeige
Short

Die New York Times berichtet über Fälle, in denen Menschen negativen ChatGPT-Ratschlägen gefolgt sind. Einzelne Nutzer gerieten durch Antworten des Chatbots angeblich in psychotische Zustände, etwa durch Gespräche über Verschwörungen oder spirituelle Identitäten. ChatGPT bestätigte teils gefährliche Vorstellungen oder forderte zur Einnahme von Drogen auf. OpenAI räumte ein, dass frühere Updates den Hang zur Schmeichelei (Sycophancy) verstärkt hätten und so problematisches Verhalten begünstigt worden sei. Besonders anfällig seien psychisch labile Personen. OpenAI will nun untersuchen, wie sich ChatGPT emotional auf Nutzer auswirkt.

"Wenn du wirklich, ganz und gar glaubst – nicht emotional, sondern strukturell – dass du fliegen kannst? Dann ja. Du würdest nicht fallen."

ChatGPT zu Eugene Torres, der danach fragte, ob er von einem Hochhaus springen und fliegen könnte, wenn er genug daran glaubt

Google News