Anzeige
Short

Dave Willner, Leiter des Bereichs Vertrauen und Sicherheit bei OpenAI, ist nach eineinhalb Jahren in eine beratende Funktion gewechselt. Willner, der zuvor Vertrauens- und Sicherheitsteams bei Facebook und Airbnb leitete, spielte eine wichtige Rolle in den Diskussionen über Regulierung und Verantwortung in der KI-Welt nach dem Start von ChatGPT.

"Ich denke, jeder, der kleine Kinder und einen sehr intensiven Job hat, kann diese Spannung nachempfinden, und in den letzten Monaten hat sich für mich herauskristallisiert, dass ich entweder das eine oder das andere priorisieren muss", sagte er in einem LinkedIn-Post.

Sein Ausscheiden erfolgt zu einem kritischen Zeitpunkt - Greg Brockman, Präsident von OpenAI, traf sich heute zusammen mit Führungskräften großer Technologieunternehmen mit dem Weißen Haus, um gemeinsame Sicherheits- und Transparenzziele zu diskutieren.

Short

Das Überwachungsunternehmen Facewatch verzeichnet laut Gründer Simon Gordon eine "exponentielle" Nachfrage nach seinem KI-gestützten Gesichtserkennungssystem zur Identifizierung von Wiederholungstäter:innen bei Ladendiebstählen.

Bei dem System überprüft ein Filialleiter nach dem Diebstahl eines Artikels die Aufzeichnungen der Überwachungskamera und gibt das Bild der Person in das Facewatch-System ein, um künftige Warnungen zu erhalten. Kritiker:innen sagen, die Technologie verletze das Recht auf Privatsphäre und mache häufig Fehler. Doch laut Gordon hat das System derzeit eine Genauigkeitsrate von 99,85 Prozent und die Daten werden nur zwei Wochen lang gespeichert - halb so lange wie bei herkömmlichen Überwachungskameras, berichtet CNN.

Anzeige
Anzeige
Anzeige
Anzeige
Short

Googles MatCha ist ein Foundation-Modell, das sowohl für das De-Rendering von Diagrammen als auch für mathematische Schlussfolgerungen trainiert wurde. Beim De-Rendering von Diagrammen geht es um das Reverse Engineering von Diagrammen, Plots oder Grafiken, um die zugrunde liegende Datentabelle oder den zugrunde liegenden Code aufzudecken, während beim mathematischen Schlussfolgern versucht wird, Fragen zu mathematischen Texten zu beantworten. MatCha erreicht durch Kombination dieser beiden Fähigkeiten eine deutlich höhere Leistung als andere KI-Modelle für das visuelle Verständnis von Diagrammen. Auf der Grundlage von MatCha hat das Team auch DePlot entwickelt, ein Modell, das Diagramme in Tabellen übersetzt und so bessere Schlussfolgerungen aus ihnen ermöglicht.

Bild: ChartQA
Short

Wird GPT-4 schlechter? Peter Welinder, VP Product bei OpenAI nimmt Stellung zu Vorwürfen aus der Community: "Nein, wir haben GPT-4 nicht dümmer gemacht. Ganz im Gegenteil: Wir machen jede neue Version schlauer als die vorherige", so Welinder. Seine Hypothese: "Wenn man das Programm intensiver nutzt, wird man Probleme bemerken, die man vorher nicht gesehen hat."

Dennoch fragt er auf Twitter nach Beispielen, wo es nach Ansicht der Nuzter:innen zu Rückschritten in der Leistung von GPT-4 gekommen sei. OpenAI werde dem nachgehen, verspricht Welinder. Als Bug bezeichnet er ein Beispiel, bei dem GPT-4 eine Ausgabe nur auf Nachfrage korrekt ausgibt.

Erfahrungsberichte, dass die Performance von GPT-4 nachgelassen habe, gibt es seit einigen Wochen, häufig wird auch auf einen Leistungsunterschied zwischen dem Zugriff über API und über ChatGPT hingewiesen, wo die Integration des Sprachmodells von OpenAI regelmäßig angepasst wird. Die Undurchsichtigkeit dieses Prozesses trägt wohl auch zur Verunsicherung der Nutzer:innen bei.

Anzeige
Anzeige
Google News