Inhalt
summary Zusammenfassung
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
Künstliche Intelligenz im Militär | DEEP MINDS #14

OpenAI-CEO Sam Altman findet deutliche Worte zum GPT-4-Hype. Dem Bildungssystem rät er ab, auf KI-Text-Detektoren zu setzen.

Als „lächerliche Sache“ bezeichnet Altman die Gerüchteküche rund um GPT-4. Bei Twitter und Co. gehen seit Wochen Gerüchte um gigantische Modellgrößen um, von denen Altman „keine Ahnung hat, woher das alles kommt.“

OpenAI-Mitgründer und Chefwissenschaftler Ilya Sutskever macht es noch deutlicher: Er veröffentlicht bei Twitter eine Parodie auf das seit Monaten kursierende Bild, das ein vermeintlich gigantisches GPT-4-Modell neben einem kleinen GPT-3-Modell zeigt. Es soll einen enormen Leistungssprung suggerieren. Doch die Parameter sind aus der Luft gegriffen.

Diese Postings beziehen sich zudem nur auf die Anzahl Parameter des KI-Modells, um dessen Leistungsfähigkeit zu hypen. Altman deutete jedoch schon im September 2021, dass sich GPT-4 womöglich eher durch die Effizienz und Datenqualität von GPT-3 unterscheidet als durch die schiere Parameteranzahl.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung

Modelle wie Chinchilla oder Sparse Luminous Base zeigen, dass Sprachsysteme mit weniger Parametern, aber einer effizienteren Architektur und mit mehr Daten, ebenfalls gute Ergebnisse erzielen können.

„Die Leute betteln darum, enttäuscht zu werden – und das werden sie“, sagt Altman über eine mögliche Erwartung, dass OpenAIs GPT-4 bereits Fähigkeiten einer generellen KI haben könnte.

Altman glaubt an Wertevielfalt in Sprachmodellen

OpenAI und viele andere Unternehmen befassen sich intensiv mit der Sicherheit von Sprachmodellen, die neben der Korrektheit der Informationen auch deren Werte umfasst. Sie sollen etwa keine Hassrede generieren.

Altman glaubt, dass in Zukunft eine Vielfalt solcher Modelle mit unterschiedlichen Werten existieren werden – von vollständig sicher bis „exzentrisch und kreativ“. In der nächsten Ausbaustufe könnten dann Nutzer:innen dem KI-System Input geben, wie es sich verhalten und welche Werte es annehmen soll.

Altman möchte sich nicht weiter zu Googles Aussagen äußern, dass Chatbots noch nicht sicher genug sind, um auf breiter Front eingesetzt zu werden. Er hoffe jedoch, dass Journalisten Google auf diese Aussage hinweisen werden, wenn sie trotzdem ein Produkt auf den Markt bringen. Der Suchkonzern plant für 2023 angeblich eine Chatbot-Suche mit Fokus auf Sicherheit und bis zu 20 KI-Produkte.

Empfehlung

Bildungssystem soll sich nicht auf KI-Text-Detektoren verlassen

Sprachmodelle wie ChatGPT oder GPT-3 bieten Schüler:innen und Studierenden eine Hausaufgaben- und Aufsatzautomatik. Mit den Werkzeugen können sie Texte schneller schreiben oder sogar vollständig automatisch generieren. Die Technologie wird im Bildungssystem daher kontrovers diskutiert – sollte man ihren Einsatz fördern und Lernende befähigen, oder KI-Systeme besser verbieten?

„Ich verstehe, warum das Bildungssystem das so empfindet. […] Wir werden uns kurzfristig um Lösungen bemühen und womöglich können wir Lehrenden und anderen helfen, den Output eines GPT-Systems zu erkennen“, sagt Altman.

Jedoch solle sich die Gesellschaft langfristig nicht auf diese Lösungen verlassen, da eine „entschlossene Person“ Wege finden würde, diese Detektoren zu umgehen. Sie seien wichtig für die Übergangsphase, aber es sei unmöglich, perfekte Detektoren zu entwickeln.

OpenAI arbeitet an einer Wasserzeichentechnologie für die eigenen Sprachmodelle. Solche Systeme könnten aber laut Altman innerhalb weniger Monate nach Veröffentlichung irrelevant werden.

Anzeige
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

„Wir leben in einer neuen Welt, in der wir uns an generierten Text adaptieren müssen. Das ist okay“, sagt Altman und zieht einen Vergleich zum Aufkommen von Taschenrechnern. Sprachmodelle seien „extremer“, böten dafür aber auch „extreme Vorteile“.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • "GPT-4 hat 10 Trillionen Parameter!" - OpenAI-Chef Sam Altman weiß nicht, woher diese Gerüchte kommen, sie seien eine "lächerliche Sache".
  • Altman geht für die Zukunft von einer Sprachmodellvielfalt aus, die verschiedene Werte und Fähigkeiten widerspiegelt.
  • OpenAI entwickelt KI-Text-Detektoren, Altman rät dem Bildungssystem aber davon ab, diese als nachhaltige Lösung zu betrachten.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!